还记得春节期间千问请客喝奶茶的盛况吧,很多人的 AI 购物第一单就是那时候产生的。
也正是那次,直接让千问在国民 AI 产品的赛道上往前冲了一把。
这次,他们又干了一件事,千问接入了打车 Skill。
有了这个能力,千问就能实现复杂需求的意图理解,例如「6个人需要匹配商务车」、「接个人是要增加途经点」等。还具备地点记忆、时间预约等能力。
我体验了产品在不同打车场景下对需求的满足程度,从目前的情况看,完成度已经不错了。
你可以先更新到千问最新版,然后直接跟它说出你的出行打车需求。比如我,就一句话告诉他我要去长沙五一广场。
一开始,它会让你先完成授权。
千问识别分析完我的需求后,会基于起点和终点推荐一个出行方案,包括车型、价格明细、路线规划和时间等。
注意一个细节,我只告诉它我的终点在哪里,并没有给他起点,但千问也是基于定位识别到了我的当前位置。
如果此时我没有其他问题,直接跟它说确认用车就行,接下来它就会帮我去叫车。
后续的支付流程,也是用支付宝来完成的。
看似很丝滑,但实际的打车场景可比这个要复杂。
所以,我们给它上点难度。
这次,我的需求里不仅包含了对车型的选择,还有就是出发时间是未来,也就是预约打车。
很显然,千问也是准确识别到了我的需求,并且帮我设计好了打车方案。
只要我确认用车,这个打车需求就会被发出去,然后完成叫车。
还是前面说的,日常生活中的打车场景是非常多样化的,所以我再复刻一个真实的打车场景。
这次,我指定起点,但是这个起点不是我的当前定位,也就是我帮别人打个车,并且把他送到我家里来。
注意,这个过程中我也没有告诉千问我家在哪。
别觉得我在为难它,其实我这就是日常场景里的正常需求而已。
实际上,打车看似是一个小需求,但是它所覆盖的场景其实非常多,而且很复杂。
不过看到千问可以打车这件事,我最大的感受不是 AI 又能干一件事了,而是 AI 开始真正进入办事时代了。
很多人会把它理解成一个演示:你说一句「帮我打车去公司」,系统替你完成下单。
看起来像是把原来 App 里的点击操作,换成了一句自然语言。
如果只看到这里,那就低估这件事了。
因为打车的本质,从来不是「操作」,而是「决策」。
为什么这么说?
你点外卖点错了,最多重下一单,损失的是一点钱和等待时间。
但是,打车不一样。
车打错了、位置错了、车型选错了、时间卡错了,代价往往不是几块钱,而是迟到、误事、情绪被打乱,甚至影响后面一整天的安排。
所以,打车不是一个轻交互服务,而是一个强履约服务。
这也是为什么全球很多 AI 产品都尝试过帮用户打车,但真正做好的并不多的原因。
核心问题,往往不在于能不能调起打车接口,而在于谁对结果负责。
技术上,把一个 App 唤起来不难,难的是 AI 要理解你的真实需求,要替你做出合适的选择,还要对最终结果兜底。
因此,这才是 AI 办事的真正门槛。
这些事情本质上属于信息处理,哪怕答错一点,问题也未必很大。
但一旦进入真实世界,进入办事的场景,标准立刻变了。
你要的不是一个差不多的回答,而是一个能落地的结果。
从这个角度看,千问能打车,真正有价值的地方不是它替你省了几个点击动作,而是它迈过了一道更难的门槛:AI 不只是执行指令,而是开始承接责任。
这背后还有一个更大的变化,是交互范式的变化。
以前打车的流程很固定:打开 App,输入目的地,选择车型,确认费用,提交订单,等待司机接单。
整个过程,本质上是人去学习工具的操作逻辑,再按照工具规定的步骤一步步完成。
所以,这是一种典型的「操作导向」。
而现在,如果你只需要说一句「帮我打车去公司」,系统就能理解你的意图、结合你的历史习惯、当前位置、常用路线、支付方式,直接帮你完成任务,那么人与工具的关系就变了。
以前,是人找服务。
以后,是服务找人。
以前,是你去适应工具。
以后,是工具来理解你。
这看起来只是少了几个步骤,实际上是一次人机交互范式的迁移。
因为,自然语言不是更方便的按钮,而是一种更接近人类需求表达方式的接口。
说白了,人真正想表达的从来不是我想点击哪个按钮,而是我现在要去哪里,我希望快一点、舒服一点、别出错。
当 AI 能直接理解这个层面的需求,工具就不再只是工具,而开始变成你的数字分身。
这也是我认为这件事特别重要的原因:它让 AI 从会聊天走向会办事,从辅助工具走向代理角色。
那么,为什么是阿里先把这件事做出来?
很多人第一反应会觉得,这是模型能力的问题。谁模型更强,谁就更容易搞定。
但如果你把这件事拆开看,就会发现核心不只是模型,而是生态。
AI 打车不是一个单点能力,它至少需要几样东西协同:地图定位、路线理解、司机供给、实时调度、支付闭环、异常处理。
你不能只有一个聪明的大脑,还得有完整的手脚和神经系统。
全球范围内,真正同时拥有这些能力的公司并不多,阿里就是其中一个。
千问并不是凭空创造一个新能力,而是把原本分散在不同业务里的能力串了起来,让模型成为那个新的统一入口。
这也说明了一个趋势,AI 竞争正在进入下一阶段。
上一阶段,比的是谁的模型更聪明,谁的参数更多,谁的推理更强。
下一阶段,比的是谁能把模型和真实世界的服务网络连接得更深。
不是模型军备竞赛,而是生态能力 PK。模型决定上限,生态决定落地。
还有一个细节,我觉得特别有意思。
如果用户说:「帮我打车去公司,不要臭车」,AI 会怎么理解?
这句话在生活里是一种人味儿的表达,看起来很生活化,但对于 AI 来说就有点模糊。但恰恰这种模糊,才最考验 AI。
不要臭车,到底是什么意思?
是司机身上有异味?车里有烟味?空调味太重?还是车况不佳、卫生太差?
以前,很多 AI 遇到这类表达会直接懵掉,因为它只能理解字面意思,缺乏真正的生活经验。
而真实世界里的需求,恰恰大量都是这种不标准、不结构化、但又非常真实的表达。
这个过程中,用户不是在给系统下结构化命令,而是在表达感受和偏好。
「不要臭车」的重点,不是「臭」这个字本身,而是人为什么在乎这件事。
因为坐车和点外卖不一样,人在车里是被困住的、无法回避的。体验一旦差,就不是不满意,而是难受。
所以 AI 真正要理解的,不只是你说了什么,而是你为什么这么说。
这揭示了 AI 办事的本质:不是识别需求表面,而是理解需求背后的原因。
谁先做到这一点,谁才真正摸到了 Agent 的门槛。
更进一步看,AI 打车其实只是一个开始。它背后真正发生的,是 AI 正在吃掉越来越多的「认知劳动」。
过去我们打车,需要自己做很多微小但消耗精力的决策:用哪个平台、选什么车型、在哪个上车点更顺、价格是否划算、是否需要赶时间。
这些决策看似不难,但每天都在消耗注意力。
现在,AI 可以逐步接管这些事。
未来也一样,帮你选餐厅、帮你比价、帮你安排行程、帮你筛选酒店、帮你做信息归纳,甚至帮你做部分投资辅助判断。
越来越多原本由人亲自完成的认知劳动,都会被 AI 接手。
这意味着,人在很多场景中的角色会发生转移。
先是执行者。
然后是决策者。
再往后,可能变成监督者。
所以未来真正稀缺的能力,未必是你会不会操作工具,而是你知不知道什么应该交给 AI,什么必须自己掌握。
你能不能判断 AI 的建议靠不靠谱,你有没有能力在自动化越来越强的世界里,保留自己的判断权。
AI助手千问能打车了,看起来只是一次产品升级。但如果放到更长的时间尺度里看,它其实像一个信号——服务的入口正在从App 图标,转移到一句自然语言之中。
而这场迁移的冲击波,首先就会打在那些依赖固定交互路径的单一服务 App 上。
出行类 Skill 的上线,不只是多了一个打车渠道,更是对滴滴这类传统打车软件的根本性挑战。
在传统模式下,用户必须在 App 里按菜单一步步点选:输入起点、终点、选车型、确认价格等等。
整个过程预设了「人要适应工具」的前提,这不仅限制了表达——比如你说「我想去一个市区最近很火的看郁金香的地方」,系统根本无法理解;而且也让大量不熟悉图形界面的用户,比如老年人,被挡在服务之外。
而 AI 助手 + Skill 的模式,把交互还原成了最自然的语言。你不需要知道「怎么操作」,只需要说出「我想做什么」。
这种范式的切换,激活的不仅是新需求,更是被长期忽视的用户群体。
一旦核心出行场景被 AI 助手承接,传统打车 App 的打开率和用户黏性将面临结构性下滑。
就像 Claude 推出设计技能后,Adobe 和 Figma 股价应声下跌所预示的那样:当任务可以在通用智能体中完成,垂直工具的价值就会被重新定价。
未来最值得关注的,不是哪个模型又刷了多少分。
而是,哪个 AI 真的能用最自然的方式把事办成!
热门跟贴