中经记者 陈雪波 卢志坤 成都报道
在近日的“2026智能机器人城市空间应用场景大会”上,清华大学计算机科学与技术系教授刘华平分享了他对具身智能机器人发展的最新看法。他指出,机器人技术经过二十余年的发展,虽然已经在视觉识别、自动驾驶等领域取得了显著进步,但距离真正“读懂”世界仍有较大差距。
“我们最早做自动驾驶时,认为只要配备了昂贵的传感器和摄像头,机器人就能理解并应对周围环境。”刘华平表示,随着时间的推移,仅仅“看见”并不等同于“读懂”。真正的读懂,应该是机器人能够预测行为后果,并在未知环境中主动探索和学习。
刘华平强调,具身智能的核心在于机器人通过身体与环境的交互,实现感知、学习和决策的闭环。他提出了“主动感知”的概念,即机器人不仅需要被动接收信息,更需要在没有直接视觉输入的情况下,通过行为探索环境,从而获取关键信息。
例如,在一个复杂的环境中,机器人如果找不到目标物体,它应该利用自己的身体和行为去帮助感知和学习,而不是简单地报告失败。刘华平解释称,这种主动感知和学习的能力,是机器人从“看见”到“读懂”的关键。
此外,刘华平还提到了多模态感知和持续学习的重要性。他认为,未来的具身智能机器人需要融合视觉、听觉、触觉等多种感官信息,形成对环境的全面理解。同时,通过持续学习,机器人能够不断适应新环境和新任务,实现真正的智能化。
(编辑:卢志坤 审核:童海华 校对:翟军)
热门跟贴