打开网易新闻 查看精彩图片

2023年,亚马逊内部有个数据让产品经理失眠:用户搜索"防水手机壳",前3个推荐里2个是iPhone 7的壳子——那款手机已经停产5年了。

这不是个例。当时平台有34%的搜索返回结果包含已下架商品,用户点进去才发现"该商品无法购买"。推荐系统的核心逻辑是"用户买了A,所以推荐B",但当商品生命周期越来越短,这套基于用户行为矩阵的协同过滤(Collaborative Filtering)开始集体失灵。

问题出在数据的"形状"上。

矩阵的崩溃:当二维表格装不下三维世界

矩阵的崩溃:当二维表格装不下三维世界

传统推荐系统把用户和商品拍扁成一张大表格:行是用户,列是商品,格子里的数字是评分或点击。这套方法在Netflix年代管用,因为电影库相对稳定,一部《肖申克的救赎》能被推荐20年。

但电商场景变了。商品有SKU(库存单位)、颜色、尺寸、季节属性;用户有场景、时段、地理位置。把这些全塞进二维矩阵,就像用Excel管理一家超市—— technically可行,实际上灾难。

亚马逊的工程师试过加更多列:给每个商品打上200+标签,把"用户-商品"矩阵扩展成"用户-商品-时间""用户-商品-地点"的多维结构。结果矩阵变得极其稀疏:99.7%的格子是空的,计算资源烧在填零上。

「我们像是在用渔网捞水。」亚马逊应用科学家李沐在2023年Re:Invent大会上回忆,「网格越细,漏掉的东西越多。」

打开网易新闻 查看精彩图片

转机来自一个被冷落了十年的数学工具:张量(Tensor)。

张量登场:给数据升维,而不是加列

张量不是什么新发明。物理学家用它描述应力分布,爱因斯坦靠它写广义相对论。简单说,标量是0维(一个数),向量是1维(一串数),矩阵是2维(一张表),张量是n维——可以是3维、4维、任意维。

关键洞察:张量不是"更大的矩阵",而是完全不同的数据结构。矩阵乘法有严格的行列匹配规则,张量运算则更灵活,能捕捉多维度之间的耦合关系。

亚马逊团队重新设计了推荐架构。他们把"用户-商品-时间-场景"建模成一个4维张量,然后用张量分解(Tensor Decomposition)技术压缩信息。这有点像JPEG压缩图片:保留核心特征,扔掉冗余噪声。

具体做法是CP分解(CANDECOMP/PARAFAC分解),把高维张量拆成多个低秩因子的组合。打个比方:一道菜的味道可以分解为"甜、咸、酸、辣"四个基底的加权组合,张量分解就是在找数据里的"味觉基底"。

2024年上线的新系统,把推荐准确率提升了23%,但更重要的是召回率(Recall)——找到用户真正可能买的东西,而不是安全地推荐爆款。那个iPhone 7手机壳的问题,根源在于旧系统过度依赖历史点击数据,张量模型引入了时间衰减因子,让近期行为权重更高。

行业跟进:从电商到短视频的迁移

行业跟进:从电商到短视频的迁移

打开网易新闻 查看精彩图片

张量方法正在扩散。TikTok的推荐团队2024年发表论文,用张量建模"用户-视频-音乐-拍摄手法"的四维关系,解决"同一首歌配不同画面,用户反馈完全不同"的细粒度推荐问题。

国内某头部电商平台的算法工程师告诉我,他们在2024年Q2上线了类似架构,核心改动是把"直播间"作为独立维度加入张量——同一件商品,在李佳琦直播间和店铺自播间的转化逻辑完全不同,传统矩阵方法只能粗暴地打标签,张量能学到这种交互效应。

技术门槛依然存在。张量分解的计算复杂度随维度指数增长,亚马逊的解决方案是结合随机投影(Randomized Projection)和GPU集群,把训练时间从两周压到18小时。这不是小公司能随便抄的作业。

更隐蔽的挑战是解释性。矩阵推荐还能说"因为你买了A所以推荐B",张量模型的决策路径像黑箱。欧盟《人工智能法案》要求高风险AI系统具有可解释性,推荐算法是否算"高风险"还在扯皮,但合规团队已经开始紧张。

一个有趣的副作用:张量模型对冷启动(新用户/新商品)更友好。因为它不依赖完整的"用户-商品"交互历史,可以从其他维度(时间、场景、属性)推断偏好。这意味着新品牌获得曝光的机会在增加,头部效应在减弱——至少是理论上。

2024年底,亚马逊把这套技术开源为SageMaker的一个组件,取名「TensorRec」。GitHub仓库的Issue区有个高频问题:"为什么我的3维张量比原来的矩阵还慢?" 官方回复很直接:「张量不是银弹,维度选择错了,复杂度会反噬你。」

那个iPhone 7手机壳的Bug,现在被工程师们当作经典案例写进内部文档。不是因为它技术多深奥,而是因为它暴露了一个常识:当业务场景变复杂,继续给旧工具打补丁,不如换一套思维方式。

张量不是什么魔法,它只是承认了一个事实——现实世界本来就是多维的。硬拍扁成表格,省事的是工程师,买单的是用户。