还记得春节期间千问请客喝奶茶的盛况吧,很多人的 AI 购物第一单就是那时候产生的。

也正是那次,直接让千问在国民 AI 产品的赛道上往前冲了一把。

这次,他们又干了一件事,千问接入了打车 Skill。

有了这个能力,千问就能实现复杂需求的意图理解,例如「6个人需要匹配商务车」、「接个人是要增加途经点」等。还具备地点记忆、时间预约等能力。

我体验了产品在不同打车场景下对需求的满足程度,从目前的情况看,完成度已经不错了。

你可以先更新到千问最新版,然后直接跟它说出你的出行打车需求。比如我,就一句话告诉他我要去长沙五一广场。

打开网易新闻 查看精彩图片

一开始,它会让你先完成授权。

打开网易新闻 查看精彩图片

千问识别分析完我的需求后,会基于起点和终点推荐一个出行方案,包括车型、价格明细、路线规划和时间等。

打开网易新闻 查看精彩图片

注意一个细节,我只告诉它我的终点在哪里,并没有给他起点,但千问也是基于定位识别到了我的当前位置。

如果此时我没有其他问题,直接跟它说确认用车就行,接下来它就会帮我去叫车。

后续的支付流程,也是用支付宝来完成的。

看似很丝滑,但实际的打车场景可比这个要复杂。

所以,我们给它上点难度。

这次,我的需求里不仅包含了对车型的选择,还有就是出发时间是未来,也就是预约打车。

打开网易新闻 查看精彩图片

很显然,千问也是准确识别到了我的需求,并且帮我设计好了打车方案。

只要我确认用车,这个打车需求就会被发出去,然后完成叫车。

还是前面说的,日常生活中的打车场景是非常多样化的,所以我再复刻一个真实的打车场景。

这次,我指定起点,但是这个起点不是我的当前定位,也就是我帮别人打个车,并且把他送到我家里来。

注意,这个过程中我也没有告诉千问我家在哪。

打开网易新闻 查看精彩图片

别觉得我在为难它,其实我这就是日常场景里的正常需求而已。

实际上,打车看似是一个小需求,但是它所覆盖的场景其实非常多,而且很复杂。

不过看到千问可以打车这件事,我最大的感受不是 AI 又能干一件事了,而是 AI 开始真正进入办事时代了。

很多人会把它理解成一个演示:你说一句「帮我打车去公司」,系统替你完成下单。

看起来像是把原来 App 里的点击操作,换成了一句自然语言。

如果只看到这里,那就低估这件事了。

因为打车的本质,从来不是「操作」,而是「决策」。

为什么这么说?

你点外卖点错了,最多重下一单,损失的是一点钱和等待时间。

但是,打车不一样。

车打错了、位置错了、车型选错了、时间卡错了,代价往往不是几块钱,而是迟到、误事、情绪被打乱,甚至影响后面一整天的安排。

所以,打车不是一个轻交互服务,而是一个强履约服务。

这也是为什么全球很多 AI 产品都尝试过帮用户打车,但真正做好的并不多的原因。

核心问题,往往不在于能不能调起打车接口,而在于谁对结果负责。

技术上,把一个 App 唤起来不难,难的是 AI 要理解你的真实需求,要替你做出合适的选择,还要对最终结果兜底。

因此,这才是 AI 办事的真正门槛。

这些事情本质上属于信息处理,哪怕答错一点,问题也未必很大。

但一旦进入真实世界,进入办事的场景,标准立刻变了。

你要的不是一个差不多的回答,而是一个能落地的结果。

从这个角度看,千问能打车,真正有价值的地方不是它替你省了几个点击动作,而是它迈过了一道更难的门槛:AI 不只是执行指令,而是开始承接责任。

这背后还有一个更大的变化,是交互范式的变化。

以前打车的流程很固定:打开 App,输入目的地,选择车型,确认费用,提交订单,等待司机接单。

整个过程,本质上是人去学习工具的操作逻辑,再按照工具规定的步骤一步步完成。

所以,这是一种典型的「操作导向」。

而现在,如果你只需要说一句「帮我打车去公司」,系统就能理解你的意图、结合你的历史习惯、当前位置、常用路线、支付方式,直接帮你完成任务,那么人与工具的关系就变了。

以前,是人找服务。

以后,是服务找人。

以前,是你去适应工具。

以后,是工具来理解你。

这看起来只是少了几个步骤,实际上是一次人机交互范式的迁移。

因为,自然语言不是更方便的按钮,而是一种更接近人类需求表达方式的接口。

说白了,人真正想表达的从来不是我想点击哪个按钮,而是我现在要去哪里,我希望快一点、舒服一点、别出错。

当 AI 能直接理解这个层面的需求,工具就不再只是工具,而开始变成你的数字分身。

这也是我认为这件事特别重要的原因:它让 AI 从会聊天走向会办事,从辅助工具走向代理角色。

那么,为什么是阿里先把这件事做出来?

很多人第一反应会觉得,这是模型能力的问题。谁模型更强,谁就更容易搞定。

但如果你把这件事拆开看,就会发现核心不只是模型,而是生态。

AI 打车不是一个单点能力,它至少需要几样东西协同:地图定位、路线理解、司机供给、实时调度、支付闭环、异常处理。

你不能只有一个聪明的大脑,还得有完整的手脚和神经系统。

全球范围内,真正同时拥有这些能力的公司并不多,阿里就是其中一个。

千问并不是凭空创造一个新能力,而是把原本分散在不同业务里的能力串了起来,让模型成为那个新的统一入口。

这也说明了一个趋势,AI 竞争正在进入下一阶段。

上一阶段,比的是谁的模型更聪明,谁的参数更多,谁的推理更强。

下一阶段,比的是谁能把模型和真实世界的服务网络连接得更深。

不是模型军备竞赛,而是生态能力 PK。模型决定上限,生态决定落地。

还有一个细节,我觉得特别有意思。

如果用户说:「帮我打车去公司,不要臭车」,AI 会怎么理解?

这句话在生活里是一种人味儿的表达,看起来很生活化,但对于 AI 来说就有点模糊。但恰恰这种模糊,才最考验 AI。

不要臭车,到底是什么意思?

是司机身上有异味?车里有烟味?空调味太重?还是车况不佳、卫生太差?

以前,很多 AI 遇到这类表达会直接懵掉,因为它只能理解字面意思,缺乏真正的生活经验。

而真实世界里的需求,恰恰大量都是这种不标准、不结构化、但又非常真实的表达。

这个过程中,用户不是在给系统下结构化命令,而是在表达感受和偏好。

「不要臭车」的重点,不是「臭」这个字本身,而是人为什么在乎这件事。

因为坐车和点外卖不一样,人在车里是被困住的、无法回避的。体验一旦差,就不是不满意,而是难受。

所以 AI 真正要理解的,不只是你说了什么,而是你为什么这么说。

这揭示了 AI 办事的本质:不是识别需求表面,而是理解需求背后的原因。

谁先做到这一点,谁才真正摸到了 Agent 的门槛。

更进一步看,AI 打车其实只是一个开始。它背后真正发生的,是 AI 正在吃掉越来越多的「认知劳动」。

过去我们打车,需要自己做很多微小但消耗精力的决策:用哪个平台、选什么车型、在哪个上车点更顺、价格是否划算、是否需要赶时间。

这些决策看似不难,但每天都在消耗注意力。

现在,AI 可以逐步接管这些事。

未来也一样,帮你选餐厅、帮你比价、帮你安排行程、帮你筛选酒店、帮你做信息归纳,甚至帮你做部分投资辅助判断。

越来越多原本由人亲自完成的认知劳动,都会被 AI 接手。

这意味着,人在很多场景中的角色会发生转移。

先是执行者。

然后是决策者。

再往后,可能变成监督者。

所以未来真正稀缺的能力,未必是你会不会操作工具,而是你知不知道什么应该交给 AI,什么必须自己掌握。

你能不能判断 AI 的建议靠不靠谱,你有没有能力在自动化越来越强的世界里,保留自己的判断权。

AI助手千问能打车了,看起来只是一次产品升级。但如果放到更长的时间尺度里看,它其实像一个信号——服务的入口正在从App 图标,转移到一句自然语言之中。

而这场迁移的冲击波,首先就会打在那些依赖固定交互路径的单一服务 App 上。

出行类 Skill 的上线,不只是多了一个打车渠道,更是对滴滴这类传统打车软件的根本性挑战。

在传统模式下,用户必须在 App 里按菜单一步步点选:输入起点、终点、选车型、确认价格等等。

整个过程预设了「人要适应工具」的前提,这不仅限制了表达——比如你说「我想去一个市区最近很火的看郁金香的地方」,系统根本无法理解;而且也让大量不熟悉图形界面的用户,比如老年人,被挡在服务之外。

而 AI 助手 + Skill 的模式,把交互还原成了最自然的语言。你不需要知道「怎么操作」,只需要说出「我想做什么」。

这种范式的切换,激活的不仅是新需求,更是被长期忽视的用户群体。

一旦核心出行场景被 AI 助手承接,传统打车 App 的打开率和用户黏性将面临结构性下滑。

就像 Claude 推出设计技能后,Adobe 和 Figma 股价应声下跌所预示的那样:当任务可以在通用智能体中完成,垂直工具的价值就会被重新定价。

未来最值得关注的,不是哪个模型又刷了多少分。

而是,哪个 AI 真的能用最自然的方式把事办成!