OpenAI正在同时推进两条芯片路线:一边跟博通合作搞自研,一边排队等谷歌TPU。这操作像什么呢?就像买车时既等特斯拉的期货,又跟比亚迪下了定金——两手准备,但两手都可能落空。
先说说博通这条线。OpenAI打算用博通的IP搞自己的AI芯片,预计2026年流片。听起来很美好,但流片只是开始,后续的软件生态、编译器优化、客户支持,哪一样都是深坑。英伟达花了十几年才把这些磨顺,OpenAI想用两三年追上,难度约等于让一家餐厅自己种水稻、榨油、养猪。
再看谷歌TPU这边。OpenAI是谷歌云的大客户,用TPU跑推理确实能省点钱。但TPU的问题是:它只为谷歌自己的模型优化,OpenAI想用得舒服,得自己改一堆代码。而且谷歌的排产表从来不以客户需求为准,OpenAI的优先级大概率排在Gemini之后。
两条路线的共同困境是:算力焦虑逼着你必须做点什么,但做什么都慢。博通方案2026年才见芯片,TPU方案现在就得跟谷歌抢产能。OpenAI的模型迭代速度是按月算的,芯片的迭代速度是按年算的,这个时差怎么补?
更微妙的是博通的角色。这家公司最擅长的就是"帮你设计但不帮你扛风险"——苹果、谷歌、Meta的芯片都找过它,成了是它设计得好,败了是你需求没提清楚。OpenAI这次签的协议里,博通负责什么、不负责什么,外界看不到,但历史经验表明,甲方通常要吞下大部分苦果。
谷歌那边的心态也值得玩味。TPU对外出租是门生意,但谷歌云真正的拳头产品是Gemini。给OpenAI供芯片,相当于给竞争对手递刀,刀柄还握在自己手里。这种合作关系能走多远,取决于OpenAI的自研进度——越快独立,谷歌越快变脸。
所以"双保险"这个词可能用错了。更像是双轨并行,但两条轨道都还没铺到终点。OpenAI的真正底牌还是英伟达,现在的布局只是为了谈判桌上多几张牌,以及万一哪天被断供时不至于裸奔。
芯片这行有个老规矩:流片成功只是拿到了准考证,真正的高考是量产和生态。OpenAI 2026年的芯片如果能如期亮相,2027年能大规模稳定供货,那才叫赌对了。在此之前,所有"自研芯片"的新闻都建议当融资通稿看。
一位在谷歌TPU团队待过的工程师说过:给外部客户做支持最痛苦的不是技术,是对方总觉得你在藏私货。OpenAI现在大概正体会着这种滋味。
热门跟贴