上周,谷歌相册团队悄悄上线了一个功能:扫描你过去十年拍的每一张自拍、聚会照、旅行打卡,自动识别你穿过的衣服,生成一个数字衣橱。然后让你虚拟试穿搭配。
不是电商平台的"看看这件新衣服你穿啥样",而是翻你自己的旧账——那件压在箱底的皮夹克,那条买错颜色从没穿过的围巾,全被AI挖出来了。
这个功能怎么跑起来的
技术路径很直白。谷歌相册的AI视觉模型先过一遍你的图库,做两件事:一是识别"这是衣服"(区分人脸、背景、食物),二是判断"这是什么类型的衣服"(上衣、裤子、首饰)。
识别完成后,系统按类别归档。你可以单独筛选"只看上衣"或"只看珠宝"。谷歌的产品逻辑是:你的照片库本身就是一个被忽视的数据资产,过去只用来回忆,现在可以用来决策。
关键动作是"虚拟试穿"。选单件或组合多件,点击"试穿",AI生成你穿上这套搭配的效果预览。生成方式没说透,但结合谷歌去年推出的购物场景"试穿"工具,推测是基于扩散模型(一种逐步生成图像的AI技术)做的人体重建和服装迁移。
区别只在于:以前是试商家的库存,现在是试你自己的库存。
为什么谷歌要做这个
看两个数据点。第一,Google Photos月活超过15亿,但核心功能——存储、搜索、回忆——已经五年没有本质突破。第二,谷歌在2023年推出的购物试穿工具,允许用户在购买前预览服装上身效果,这次是把同一套技术能力迁移到个人场景。
产品经理的算盘很清楚:用户每天打开相册,但停留时长在掉。给照片库增加"实用工具"属性,把被动回忆变成主动决策,是拉高活跃度的标准打法。
更深层的是数据闭环。你的穿搭偏好、颜色倾向、重复穿着频率——这些过去散落在 billions 张图片里的行为数据,现在被结构化提取了。对谷歌来说,这是比搜索关键词更细颗粒度的个人画像。
至于变现路径?现在没有广告,没有购物链接。但想象一下:当系统知道你有一件穿了47次的黑色高领,推荐"搭配这件的项链正在打折"只是时间问题。
谁真的会用这个
官方给出的使用场景有三类:日常出门选搭配、度假前规划行李、发现被遗忘的单品。
前两类是效率工具,第三类是情感钩子——"原来我还有这件"。谷歌的产品文档里专门提到:"你可能重新发现自己喜欢但忘记拥有的物品。"这是典型的用户心理设计:用惊喜感对冲隐私顾虑。
但门槛也很现实。功能要求你的照片库有足够多的"穿搭素材"。对拍照频率低、或者照片里 mostly 是风景和猫的用户,这个数字衣橱会很单薄。
另外,试穿效果的质量取决于原始照片的质量。光线差、角度刁、被裁掉半条腿的照片,AI能还原到什么程度,需要实测验证。谷歌没有公布技术细节,只说是"AI-powered"。
安卓先上,苹果排队
rollout 节奏是:今年夏天先推安卓,iOS 版本随后。没有具体日期。
这个顺序不意外。谷歌服务在安卓层有更深系统集成,访问相册权限、调用本地算力做预处理都更顺手。iOS 版本要过苹果的隐私审核和沙盒限制,通常慢半拍到一拍。
值得注意的是,功能默认关闭,需要手动开启。这是谷歌在隐私敏感功能上的标准操作——降低"被监控"的感知,把主动权交给用户。
但开启之后,AI会扫描"你的整个 Google Photos 库"。这个表述很重要:不是从开启后拍的新照片开始,而是回溯历史。你2016年那张模糊的生日派对照片,如果算法识别出你穿了某件卫衣,它会被收录。
这事的真正影响
短期看,这是个功能更新。长期看,它示范了一种新的个人数据利用方式:把非结构化的生活痕迹(照片)转化为结构化的可用资产(衣橱清单)。
谷歌不是第一家。Pinterest 试过类似概念,独立 App 如 Cladwell、Stylebook 也做了多年数字衣橱。但谷歌的优势是零启动成本——你不需要一张张拍照上传,系统直接扫你的历史积累。
风险同样明显。穿搭是高度个人化的审美表达,AI 生成的"试穿"效果如果偏差明显,信任会快速崩塌。更微妙的是心理层面:当算法比你更清楚你有哪些衣服、常穿什么风格,这种"被了解"的感觉是便利还是不适,因人而异。
技术已经铺好路。今年夏天,安卓用户会第一批体验。问题是:你愿意让 AI 翻完你的相册,然后告诉你"这件搭那件更好看"吗?
热门跟贴