来源:市场资讯

(来源:电商天下)

作者 | 文韬

毫无征兆,亚马逊的链接又一批接着一批的开始“消失”。

卖家刚坐下,后台刷新,ASIN少了三条;再刷新,又少两条;十分钟过去,库存还在,Listing却变成“不可售”。

亚马逊,又一次出事了。

打开网易新闻 查看精彩图片

亚马逊又崩了

这一次的混乱,其实来得非常典型。

前端是消费者的异常体验:加不了购物车、付不了款、商品突然显示“不可用”,甚至连已经加入购物车的商品,都被系统自动清空,或者被丢进“稍后保存”。

后端则是卖家的“灾难现场”:大量ASIN显示不可售,后台状态反复横跳,有的商品明明库存正常,却无法下单,有的Listing直接被系统“隐藏”。

从表象看,这像极了一次大规模风控。但从节奏和范围看,它又明显不符合风控逻辑。

根据故障监测数据,3月20日亚马逊出现了大范围宕机,相关报告从2000多起迅速攀升到3000多起,一度逼近4000,覆盖范围极广。

打开网易新闻 查看精彩图片

这种级别的异常,不可能是针对卖家的单点行为,更像是系统层面的“集体失灵”。

问题的核心,其实集中在一个地方:交易链路。

购物车异常、结算失败、商品状态错乱,这三件事如果同时出现,基本可以判断,是电商系统最核心的一段链路出了问题。

简单说,就是“能看不能买”。

对于普通用户来说,这只是一次糟糕的购物体验。但对于卖家来说,这意味着转化率归零,即投的流量还在跑,广告还在烧,但订单停了。

这才是最致命的地方。

更微妙的是,这种“看起来像风控、实际上是系统Bug”的状态,会在第一时间制造恐慌。

打开网易新闻 查看精彩图片

卖家不知道是系统问题,还是自己违规;不知道是短暂异常,还是账号风险;也不知道要不要立刻停广告、下架商品、甚至做紧急调整。

这种不确定性,本身就是成本。

直到部分链接开始自动恢复,大家才慢慢确认这不是针对谁,而是平台自己出了问题。

但这段时间里,损失已经发生。

打开网易新闻 查看精彩图片

一个月两次,

亚马逊“崩了”成常态

如果这只是一次偶发事故,或许还不至于引发如此大的情绪波动。

问题在于,时间点太近了。就在3月5日,亚马逊刚刚经历过一次更大规模的系统崩溃。

那一次,影响范围覆盖美国多个核心城市,从芝加哥到西雅图,从纽约到洛杉矶,几乎所有核心节点都出现异常。故障报告一度飙升至2万条以上。

而且问题更加复杂,不仅是下单失败,还包括价格消失、订单记录丢失、搜索筛选失灵、页面报错。

打开网易新闻 查看精彩图片

如果说3月20日这次,是“交易链路断裂”,那么3月5日那次,更像是“系统整体紊乱”。

更关键的是时间。3月5日,正好踩在北美电商的流量高峰期。

那意味着什么?意味着广告还在跑,点击还在产生,但用户无法完成购买。

对于卖家来说,这是最典型的“无效投放”。

这也是为什么,那次事件之后,亚马逊不得不推出广告费补偿方案,把宕机期间的广告费用返还给卖家。

某种程度上,这是一种“被动止损”,但问题并没有因此结束。因为就在系统问题之外,另一层压力也在同步叠加。

比如最近刚刚落地的DD+7政策。简单说,就是钱更慢到账了。

原本卖家完成订单后,大约15到20天可以回款,而现在变成,确认收货之后,还要再等7天。

打开网易新闻 查看精彩图片

对于做FBA的大卖来说,这或许只是现金流的轻微波动。但对于大量依赖自发货(FBM)的中小卖家来说,这几乎是结构性的变化。

因为他们的资金链,本来就是“滚动”的,今天的回款,用来支撑明天的发货。现在回款周期被拉长,意味着现金流压力直接上升,再叠加系统不稳定带来的订单波动,风险就被放大了。

可以看到,一边是系统偶发失灵,一边是规则持续收紧,这两件事叠加在一起,其实在传递一个非常清晰的信号:亚马逊不再是那个“稳定可预期”的平台了。

当稳定性开始松动,卖家的策略,也到了必须重写的时候。

鸡蛋全放在一个篮子里,看起来省事,但只要出一次问题,可能就是一场清零。

打开网易新闻 查看精彩图片

频繁崩溃,AI的锅?

当问题连续出现,所有人都会追问一个问题:为什么?

而在这一次的讨论中,一个关键词,被反复提起——AI。

就在这次故障发生之前,亚马逊云服务刚刚推出了一系列生成式AI工具,用来提升开发效率,包括自动生成代码、优化部署流程等。

打开网易新闻 查看精彩图片

这本来是一个再正常不过的技术升级。

但巧合的是,过去几次大规模系统异常,几乎都出现在“新功能上线”或“系统更新”之后。

于是,一个猜测开始流传:是不是AI写的代码,出了问题?

这个猜测未必准确,但它抓住了一个更深层的矛盾。

亚马逊的系统,本质上是一个运行了二十多年的“超级工程”。它由无数模块、无数微服务、无数历史代码叠加而成。在这样的系统里,真正的难点,从来不是“写新代码”,而是“让新旧代码和平共处”。

而AI擅长的是前者。

它可以高效生成代码,可以快速完成任务,但它未必真正理解整个系统的历史结构、隐性依赖和边界条件。一旦某一段新代码,在某个极端场景下,与旧系统发生冲突,问题就可能沿着链路放大,最终演变成全局故障。

这并不是AI的问题,而是“复杂系统+加速迭代”的必然代价。

打开网易新闻 查看精彩图片

更值得注意的是,亚马逊在这类事件中的一贯态度。

每一次故障之后,官方的回应都极其简短——“问题已修复,服务已恢复”。

至于原因,很少展开。

这在技术上可以理解,但在商业关系上,却留下了一个空白。

因为卖家承担的是实际损失,却无法获得完整信息。他们不知道问题出在哪,不知道未来是否会重演,也不知道平台是否在加强审核和测试。

于是,信任开始被一点点消耗。

而这,可能比一次宕机更值得警惕。因为电商平台的本质,不只是流量和交易,更是一种“可预期的秩序”。当这种秩序开始松动,所有参与者,都会变得更加谨慎。

AI还在加速进入电商的每一个环节,从推荐系统到广告竞价,从库存预测到客服回复,它几乎无处不在。

但系统稳定性,始终是一条底线。

对于一个年交易规模数千亿美元的平台来说,一个月两次大规模故障,已经不是“偶发问题”,而是需要被重新审视的信号。

卖家真正关心的,其实不是AI有没有用,而是当下一次问题出现时,他们是不是还会被困在同一个地方。

打开网易新闻 查看精彩图片

亚马逊的问题,从来不只是一次宕机。

当系统开始不稳定、规则持续收紧、回款周期被拉长,这个平台的底层逻辑,其实已经在悄悄变化。

过去,卖家赌的是流量;现在,赌的是系统不会出错。

但问题是,这种赌注,本来就不该存在。

一次宕机可以解释为意外,两次可以归结为巧合,可如果频率开始变高,那就不再是技术问题,而是结构问题。

毕竟,谁都不想在同一个地方摔倒无数次。