打开网易新闻 查看精彩图片
小米汽车昨天扔了个技术包,把辅助驾驶的认知能力又往上拱了一截。
新一代 SU7 全系上了 Xiaomi XLA 认知大模型。名字听着玄,拆开看就三样东西:激光雷达、11 个摄像头、4D 毫米波雷达,配上 700TOPS 的 Thor 芯片——这是硬件底子。真正的戏码在软件层:系统开始用"潜空间推理"做决策,简单说就是机器不再先把想法翻译成人类语言,直接在它自己的高维世界里推演,速度更快,延迟更低。
但小米留了个后门。怕黑盒问题扯皮,XLA 保留了可解释性——需要复盘的时候,能把机器的"脑内活动"解码成人话。这有点像你让实习生快速决策,同时要求他事后写份说明,万一出事能追责。
关于路线之争,小米的态度是"我全都要"。VLA 和世界模型不打架,XLA 架构里两者并存,外加强化学习调味。新一代 SU7 交付即搭载,首批功能包括语音控车、商场地库的车位级领航。
老车主没被遗忘。小米官宣,初代 SU7 Pro / Max / Ultra、YU7 全系后续 OTA 推送。买早了的用户,硬件算力够,等软件上车就行。
有个细节值得玩味:小米在新闻稿里特意提了"机器人物理 AI 交互数据"的融合。人形机器人和汽车共享同一套认知架构,这可能是比辅助驾驶本身更大的伏笔。
热门跟贴