Google Maps月活用户超过10亿,但多数人只用它查路线。Gemini(双子座,谷歌的人工智能助手)入驻地图三个月后,我决定测试一个假设:AI能不能替代人类做城市探索的决策?
测试条件设定为带娃出行、公共交通、陌生区域——这是人类最容易翻车的场景。
第一小时:AI开始"读心"
打开Maps,底部出现"Ask Maps"入口。输入框像聊天软件,但背后是Gemini在解析地图数据、用户评论、实时天气,甚至网页信息。
我的初始需求很模糊:轻轨新线路沿线、儿童友好餐厅、有车辆主题装饰。Gemini返回了6个选项,其中3个在我收藏夹里,2个完全陌生——一家改装车主题的汉堡店,藏在工业区改造园区里。
「这家店的评论提到'孩子可以坐在轮胎座椅上'」,Gemini引用了2024年3月的一条用户反馈。我查证后发现属实。
人类规划者的惯性是重复已知路径。Gemini的算法似乎有意打破这个循环:它优先推荐了评分4.2以上、但评论数少于500条的地点——这类信息人类筛选成本极高。
第三小时:边界测试
我故意提出矛盾需求:「户外 playground,但下雨备选方案」。Gemini没有崩溃,而是返回了带顶棚的社区中心,并标注「室内攀爬架, Yelp 评分4.5,周三下午人流较少」。
这里有个细节:它没有直接调用天气API,而是整合了地图内的「热门时段」数据——下雨天的周三下午,该地点的"繁忙程度"指标确实显示为绿色。
但漏洞也出现了。我追问「这家餐厅有没有儿童餐椅」,Gemini回答「评论提到家庭友好」,却没确认具体设施。我电话核实后发现,餐椅需要预约时特别说明。
AI的置信度问题在此暴露:它擅长整合显性数据,对隐性规则(如"需预约备注")的捕捉仍靠运气。
第六小时:意外发现与算法黑箱
行程后半段,Gemini推荐了一条步行路线连接两个地点。我习惯用地图的"步行"模式,但这条路径从未出现在我的搜索结果里——它穿过一片2019年开放的滨水步道,我的地图历史里完全没有这片区域的数据。
「这条路线基于相似用户的偏好」,Gemini的解释等于没说。我后来意识到,它可能关联了我的YouTube观看记录(户外Vlog)和地图收藏夹(滨水公园),做出了跨产品的推断。
这种推断有时是惊喜,有时是惊吓。它推荐了一家书店,理由是「您常访问的地点中包含独立书店」。正确。但紧接着建议的「顺路咖啡店」,实际距离书店800米且方向相反——"顺路"的定义被算法压缩了。
全天复盘:AI替代人类的临界点在哪
12小时测试结束,Gemini规划的7个地点中,5个达到预期,1个因信息滞后踩雷(餐厅已更换主题装修),1个因路线计算偏差多花了20分钟。
对比我手动规划的平均水平:通常3个地点里会有1个因"看起来不错但实际拥挤/关闭/不适合儿童"而失败。AI的胜率更高,但失败时的解释成本也更高——我无法像理解自己的决策那样,理解它为什么推荐那家已经变样的餐厅。
Google在2024年I/O大会宣布Gemini整合进Maps时,强调"自然语言交互"。但一天的体验表明,真正的价值不在对话形式,而在数据层的打通:评论语义分析、跨产品行为关联、实时人流预测——这些人类无法同时处理的变量,被压缩成一句「试试这家」。
局限同样明显。当我问「这家 playground 下午三点会不会晒」,Gemini能调取天气和方位数据,却无法判断具体树木遮阴情况——这是本地家长凭经验知道的隐性知识。AI的"知道"停留在可结构化数据层,人类的"知道"包含大量无法上传的身体记忆。
测试结束前,我尝试了一个极端指令:「规划一条全程不重复的环线,终点是起点,总时长4小时,包含至少1个免费卫生间」。Gemini沉默了15秒,返回的方案基本可用,但把一处公共图书馆的卫生间标注为"24小时开放"——实际晚上8点关闭。
「数据来源:Google Maps商户信息」,它诚实标注。错误来自信息更新延迟,而非算法缺陷。这引出一个产品层面的观察:AI的输出质量,天花板是数据质量,而非模型能力。
一天结束后,我保留了3个新发现的地点,删除了2个收藏。Gemini没有让我走进河里——这是作者Allison Johnson在测试前的真实担忧,源自早期AI导航的 infamous 事故——但也没有创造出人类规划者无法实现的奇迹。
它的价值在于降低探索的决策疲劳,而非替代探索本身。当我站在那家轮胎座椅汉堡店门口,发现它隔壁就是一家我收藏了两年却从未注意到的手工冰淇淋店时,这个发现来自步行中的偶然抬头,而非任何算法推荐。
Google Maps的Gemini功能目前向部分用户灰度开放。如果你获得权限,会愿意把一整天的行程决策交给它吗?
热门跟贴