哈喽,大家好,我是小方,今天这篇,我们主要来看看一个颠覆认知的科技话题——当AI拥有了物理身体,它会像我们一样知道“这是我的手”吗?

这个看似玄学的问题,正在被科学家用实验破解,而答案可能改写未来机器人的发展方向。

打开网易新闻 查看精彩图片

我们每天用手打字、吃饭、拥抱,从不会怀疑“这只手属于我”。但对正在崛起的具身智能来说,这却是个天大的难题——它怎么区分“是我在动”和“世界在动”?

打开网易新闻 查看精彩图片

这个问题的答案,藏在经典的“橡胶手错觉”实验里。PNAS期刊上,Lanfranco团队做了一个精妙的实验:他们让被试把手放在平台下方,上方放着两只橡胶手,用三台机械臂分别敲击真实手和两只橡胶手。其中一只橡胶手的敲击和真实手完全同步,另一只则有18到150毫秒的随机延迟。

实验过程很有意思,每个试次持续12秒,共6次敲击。结束后被试要先选出“哪只橡胶手更像我的手”,再用1到3分评价这种“归属感觉”是否清晰。

为了排除干扰,研究者还把橡胶手旋转90度,让它不符合人体解剖姿势,结果被试的判断立刻回到随机水平,证明他们不是在单纯比较“同步性”,而是真的在体验“身体所有权”。

打开网易新闻 查看精彩图片

实验得出了两个关键结论:当延迟达到31毫秒以上时,被试对“哪只手是我的”的判断准确率,和他们对这种判断的清晰觉知程度完全同步;

而且从31毫秒到150毫秒,意识对身体信息的读取效率始终稳定,不会因为任务变简单就提高“访问比例”。这意味着,“身体归属”的判断和意识觉知是绑定的,不是先在无意识中计算好再告诉大脑。

打开网易新闻 查看精彩图片

这个看似抽象的研究,已经在现实中找到应用场景。2025年蛇年春晚,16台人形机器人的同步舞蹈让具身智能“破圈”,而它们能精准完成动作,背后就离不开基础的“身体自我模型”。

更具体的案例来自一家科技公司的养老机器人。2025年底,这款机器人在上海一家养老院投入试用,它能给老人洗发、做艾灸。

打开网易新闻 查看精彩图片

一开始,机器人在给老人涂抹精油时,经常因为无法精准感知“自己的机械臂位置”而用力不当。后来研发团队引入了多感觉整合技术,让机器人通过视觉、触觉传感器实时收集信息,构建出稳定的“身体模型”。

调整后的机器人,能准确区分“机械臂是自己的一部分”和“老人的身体是外部对象”,涂抹精油时的力度控制误差缩小到0.1牛顿以内。

养老院的护工说,现在机器人给老人做护理时,动作稳当多了,不会再出现之前那种“不知道自己胳膊在哪”的笨拙情况。

打开网易新闻 查看精彩图片

2025年,具身智能已经被写入相关规划,成为前瞻布局的未来产业。据开源证券统计,中国具身智能领域融资总金额超过500亿元,融资事件超200起,大量资金涌入这个赛道。

而这些投入的核心方向之一,就是让机器人更好地“认识自己的身体”。

打开网易新闻 查看精彩图片

很多人以为,机器人只要靠预设程序和传感器就能行动,但橡胶手实验和现实应用都证明,情况没这么简单。具身智能的核心,是让机器像人类一样,把视觉、触觉等不同通道的信号,整合成一个稳定的“自身表征”。

世界机器人大会发布的《2025具身智能机器人十大发展趋势》指出,当前具身智能正从“物理实践、模拟器与世界模型协同驱动”,向“多层次端到端的具身决策”演进。这意味着机器人不仅要“知道自己的身体”,还要能根据这个认知自主规划动作。

打开网易新闻 查看精彩图片

目前行业里有两种主流技术架构:一种是端到端模型,直接从人类指令输出动作;另一种是分层决策模型,让大模型负责“思考”,传统控制技术负责“执行”。

但无论哪种架构,“身体自我模型”都是基础,没有这个,机器人就无法在开放环境中应对突发情况,比如收拾餐桌时避开滑落的餐具,或者护理老人时调整动作幅度。

打开网易新闻 查看精彩图片

需要注意的是,具身智能目前还面临数据瓶颈,要达到完全自主水平需要上亿条训练数据,而现有公开数据集最大仅在百万量级。

但科研界和产业界都在努力突破,一方面通过物理实体采集和仿真合成构建大数据集,另一方面想办法提高数据利用效率。

打开网易新闻 查看精彩图片

从橡胶手实验的奇妙错觉,到养老机器人的精准护理,具身智能的发展正在一步步揭开“自我认知”的神秘面纱。

原来“知道这是我的身体”,不是智能的附加功能,而是稳定交互的基础。

随着技术不断进步,未来的机器人会越来越“认得出自己”,也会越来越懂如何与这个世界温柔相处。科技的进步,终究是让智能更好地服务生活,这一点值得我们期待。