智东西4月13日报道,4月7日,金融科技公司Stripe发布了其对谷歌CEO桑达尔·皮查伊(Sundar Pichai)长达一个多小时的采访视频。在这期播客中,Pichai正面回应了业界关于谷歌在AI领域“起大早,赶晚集”的调侃,称谷歌早在多年前就已构想出类似ChatGPT的产品,并推动了基于Transformer架构的产品化落地原型——LaMDA,但因其“有害内容含量高”而最终未发布。
Pichai还认为,OpenAI推出ChatGPT时前景并不明朗,只是OpenAI比较幸运,通过GitHub找到了AI编程这一落地的突破口。
聊到中国时他忍不住感慨:“中国的(基建等)建设速度之快令人惊叹。”他还特别提到,中国现在的开源模型做得非常出色,而谷歌刚发布的Gemma 4,算是除了中国开源模型之外,另一款很能打的优秀开源模型。
在运营层面,Pichai揭示了当前谷歌面临的全新管理挑战,他每周会花1小时时间亲自分配TPU。他称,目前谷歌受晶圆产能、内存和电力的供应限制,还甚至说道:“我们连足够的电工都找不到。”
在这些制约因素中,Pichai认为内存是最关键的组件。由于头部内存厂商很难大幅扩产,短期内内存供应瓶颈仍会存在。但这也会推动技术创新,谷歌计划把内存的使用效率提升30倍。
采访中还谈到了未来搜索形态的变化趋势,Pichai称:“未来的搜索会成为智能体管理器。”
2015年,Pichai正式出任谷歌CEO,至今已十年有余。在这期播客中,Pichai还提到除已披露的太空数据中心与量子计算外,其旗下Wing无人机配送正快速扩围,不久将覆盖4000万美国人。同时,他坦言AI正深刻重构谷歌内部工作流,以Antigravity(Jet Ski)为代表的智能体管理工具已在核心团队全面推广,谷歌第一个完全由智能体完成的内部业务预测会在2027年出现。以下是这期播客的核心内容:
1、智能体的拐点:Pichai预测2027年智能体将迎来拐点。AI将全自动完成谷歌的业务预测,深度改造财务、运营等非技术流程。
2、早已有ChatGPT构想:谷歌的LaMDA模型是ChatGPT早期原型,谷歌因安全与质量标准未达标迟于ChatGPT推出。
3、算力资源的分配:Pichai每周会花1小时时间亲自分配TPU,并统筹内部业务与谷歌云客户的算力供给。
4、传统搜索将进化:传统搜索形态未来或将淡出,因为设备形态本身就会发生改变。而未来搜索将成为智能体管理器,而AI将接替传统搜索功能,在后台异步处理用户复杂需求。
5、否认对AGI态度冷淡:谷歌从创始团队起就深度布局AGI,包括谷歌DeepMind CEO戴密斯・哈萨比斯、谷歌首席科学家杰夫・迪恩,以及前Google Brain核心成员伊利亚・苏茨克韦尔、达里奥・阿莫代伊等人,都深度参与过AGI相关的研究。
6、发展瓶颈:谷歌在晶圆、内存、电力与审批效率面临发展瓶颈,其中电力能源问题相对好解决,真正拖慢项目进度的,往往是审批和监管环节。
7、隐藏王牌:谷歌持续押注太空数据中心、量子计算、Gemini机器人以及Wing无人机,同时同步推进Isomorphic AI制药。
8、转型痛点:年轻公司凭借“AI原生”的组织架构在转型中具备天然优势,而大公司虽然技术架构完整,但需要在组织层面进行大量再培训、流程重构和变革管理,转型相对吃力。
9、看好机器人项目:Pichai称现在Gemini机器人模型在空间推理等方面已经达到业界顶尖水平,谷歌正重新与Boston Dynamics(曾被谷歌收购后又被其出售)以及Agile等公司展开合作,推进相关技术落地。同时在扩大其旗下Wing公司的无人机配送项目规模。
10、谷歌搜索:谷歌搜索能大幅领先同行,其部分关键点突破得益于(谷歌推出的为深度理解语言与上下文,并直接应用于谷歌搜索,大幅提升复杂查询的准确率的模型)BERT和MUM模型。
一、关于Transformer与ChatGPT的“先发后至”
John Collison:人们谈及谷歌与AI时,经常提及的一段往事是:Transformer架构诞生于谷歌,却主要被ChatGPT这类外部产品率先落地使用。你现在如何看待这件事?
Sundar Pichai:我觉得这件事值得好好聊聊,其实外界对于这件事本身存在一些误解。
Transformer架构的研发工作,是在大规模使用TPU的背景下开展的。从某种意义上讲,Transformer从一开始就是为了解决具体的产品实际需求而被设计出来的。当时团队正在思考怎么优化翻译效果。
至于TPU,我们面临的问题是:语音识别功能确实有效,但突然要把它卖给20亿用户,芯片算力根本不够,该如何解决推理算力问题——(被主持人打断)
John Collison:这点我之前确实不知道。Transformer特指?
Sundar Pichai:Transformer出自我们的研发团队,但团队的研发方向始终围绕解决产品问题。Transformer问世后立刻就被投入使用。
很多人低估了BERT和MUM模型的价值,因为我们对搜索质量的把控极为严苛。那段时间,谷歌搜索之所以能大幅领先同行,部分关键突破正是得益于BERT和MUM。
我们研发出Transformer后,立刻将它应用于搜索,提升语言理解能力,让系统更好地解析网页内容、理解用户查询,并持续迭代优化模型。
我们内部也在推进产品化落地,当时有团队在研发一个名为LaMDA的模型。显然,我们并不是第一个推出这类产品的公司。但我认为,这并不是因为我们只停留在研究层面、没有朝着产品方向去落地应用。在我看来,实际情况其实是——(被主持人打断)
John Collison:你做了这项研究,然后你发现按照你的预期使用它能带来巨大的的投资回报率。只是并非所有基于这项技术诞生的产品,都是由你们自己创造出来的,不过这也很正常。
Sundar Pichai:ChatGPT这类产品的构想,我们其实早就有了,原型就是LaMDA。大家如果还记得的话,当时谷歌内部有一名工程师认为LaMDA具备了自我意识。他当时在内部所对话的这个系统,本质上就是ChatGPT的早期版本。我们甚至已经在其他项目组里,做出了它的产品化版本,只是谷歌大概晚了九个月才对外推出。
事实上,在2022年的谷歌I/O开发者大会上,我们发布了AI Test Kitchen,其核心就是LaMDA,但我们对它做了限制,因为当时内部还没有推出经过RLHF(基于人类反馈的强化学习)优化的端到端版本。我看到的未优化版本,有害内容含量很高,当时根本不可能对外发布。
此外,作为一家始终把搜索质量放在核心位置的公司,我们对产品上线的质量标准要求更为严格。但这并不代表我们没有采取行动,当时我们一直在研究如何以稳妥的方式将它推出。
我还想说,即便OpenAI发布ChatGPT时,他们也是在几个月前才与微软达成合作。回头看,当时的发展前景也并非完全明朗。我认为他们很幸运,因为他们还通过GitHub在编程领域找到了技术落地的突破口。我想我们当时或许错过了某个信号。
在编程领域,模型迭代带来的提升可能比纯语言领域更显著。从GPT-2到GPT-3再到后续的GPT-4,如果将它们用于编程任务,进步幅度会显得尤为突出,这些关键都有据可查。
回到你最初的问题,与其说关键在于研发到产品的过程本身,不如说是其它多重因素共同作用的结果。
Elad Gil:我记得和参与过ChatGPT研发的人聊过,他们是在感恩节那周发布(ChatGPT)的,当时只是一次低调发布,并不像是声势浩大地宣布重磅产品,它也没被视作未来地核心业务。它的爆火显然更像个意外。
Sundar Pichai:在我看来,它当时更像是一个很有意思的测试案例,效果确实很惊艳。
我对这类事件的理解是:在消费互联网领域,意外总会发生。我和Elad Gil早年在谷歌时,公司有个产品叫谷歌视频搜索(Google Video)。后来YouTube出现了,我们最终收购了YouTube。再比如如果你在Facebook,后来Instagram出现了,没人会在当时就觉得大惊小怪,毕竟Facebook后面直接收购了Instagram。
但我始终认为,消费互联网的逻辑就是:两三个人的小团队不断做原型、试错,抛出无数创意。我并不是想贬低什么,只是想说,总会遇到这样的时刻。没人能在车库里灵光一闪,就做出一款比iPhone更好的手机,这不现实,但消费互联网本并非如此。所以我们只需意识到这一点,坦然接受即可。
二、谷歌的速度战略与搜索的未来
John Collison:说到2026年的AI竞赛,我有一点让我印象深刻,那就是谷歌长期以来都把速度作为核心差异化优势。初代谷歌搜索速度极快,甚至还会在结果页显示查询耗时,多少带点炫技的意味。后来的Gmail快速搜索、Chrome浏览器,对比同期竞品都具备速度优势。
如今,我会因不同需求使用不同的AI服务,但基于TPU运行的Gemini就是快得出奇。我很好奇,这是明确的产品战略,还是有更复杂的考量?
Sundar Pichai:我一直都很注重速度,为了便于理解我暂且把它称为“延迟”,并且把延迟视作优秀产品的核心特征之一。同时,低延迟也往往意味着产品的底层技术架构足够优秀。还有一种速度同样重要,那就是产品发布、迭代和更新周期的速度。这两者都至关重要。
但单说延迟,嘴上说追求低延迟很容易,可产品功能一直在持续升级,技术边界不断拓展,如何在功能与延迟之间找到平衡,这才是难点。
举个例子,比如搜索功能。我和团队沟通时了解到,他们会为子团队设置毫秒级延迟预算。如果上线一项优化能减少3毫秒延迟,就能获得1.5毫秒的延迟预算奖励,另外的1.5毫秒会直接转化为用户可感知的速度提升。
根据不同团队的业务场景,有的团队延迟预算可能是30毫秒,有的则是10毫秒。团队可以使用这部分预算,但必须接受严格的审核把关。这也足以体现我们对延迟的重视程度。
Elad Gil:人类能感知到的延迟大概是几百毫秒级别,对吗?是这个阈值影响体验吗?
Sundar Pichai:没错。据我最新查看的数据面板,过去五年里,我们把搜索延迟降低了30%,与此同时产品功能还在持续升级。
这也是我们打造Gemini的核心思路,即在前沿性能与速度之间找到平衡。Flash系列模型能达到Pro版本90%的能力,但它的运行速度更快、服务效率更高,垂直整合的技术架构也为此提供了支撑。
Elad Gil:你如何看待搜索的未来?如今很多人都在讨论,对话交互会成为新的信息获取方式。显然,Gemini已经融入了谷歌搜索,AI生成的结果也成为搜索的一部分。但不少人还在进一步谈论智能体工作流(agentic flows)。
例如未来每个人都会拥有专属的个人智能体,无需手动输入查询,它会直接替你完成任务。比如你不用再搜索旅行攻略,它会直接为你规划好一整趟行程。你认为搜索的未来究竟是什么?它只是一种流量分发渠道,还是会进化成一款全新的未来产品?
Sundar Pichai:在我看来,搜索业务每经历一次变革,就能承载更多功能。我们必须吸纳这些新能力,持续拓展产品的边界。
比如移动互联网时代,产品迭代速度就非常快。当人们走出纽约地铁,想要的不是网页信息,而是找到目的地,这时候搜索服务就要跟着该变。用户的期待在不断变化,产品也要随之跟进。
放眼未来,现在很多单纯以获取信息为目的的查询,在之后的搜索中都会变成由智能体主动代劳。系统不再只是给出答案,而是会直接帮用户完成任务,同时处理多项事务。
Elad Gil:十年后搜索还会存在吗?还是会进化成全新形态?
Sundar Pichai:它会持续进化。未来的搜索会成为智能体管理器,帮用户完成各类任务。某种程度上,我现在使用的Antigravity,就是多个智能体协同工作的形态。我能预见搜索会实现类似功能,从而帮用户高效处理事务。
John Collison:(对Elad Gil)我理解的你的问题的核心在于,如果我们把“搜索”定义为:输入不超过一行的提示词,接着它给出一堆网页的查询结果,而不是直接给出正确答案或解决方案。像这种传统(搜索)产品形态未来还会存在吗?
Sundar Pichai:如今谷歌搜索的AI模式下,用户会输入深度研究类查询,这已经超出了你说的传统定义,但用户已经适应了这种变化。我认为未来人们还会发起需要持续一段时间的复杂任务,这些任务完全可以在后台异步完成,不用用户一直盯着等结果。
Elad Gil:这就像生命从单细胞生物演化成复杂生命体,同理,搜索的旧范式是否会彻底消失?说到底,今天的传统搜索终将进化为智能体,未来的交互界面也将以智能体为核心,十年后,搜索框或许将不再是主流形态。
Sundar Pichai:毕竟设备形态本身会发生改变,I/O大会的展示内容也会彻底革新。纠结十年后会发生什么容易让人陷入内耗,但我们很幸运,当下技术迭代速度极快,聚焦未来一年的规划就足够令人兴奋。
如果是在过去,我们可能需要展望五年后的愿景,而如今,模型一年后的形态就会变得截然不同。能紧跟这条技术曲线本身就已经很激动人心了。
搜索会持续进化,当下正是行业扩张期。很多人低估了一点,但在我看来AI领域绝非零和博弈。人类未来能创造的价值正呈指数级增长。想通这一点后,外界的诸多质疑都会不攻自破。TikTok崛起后YouTube依然发展得很好,Instagram出现后Facebook也没有衰落,类似案例比比皆是。
如果把行业视作零和博弈,发展前景会显得艰难。但只要我们坚持创新、推动产品进化,就总能抓住新的增长机会。
我们现在同时做搜索和Gemini,两者在某些方面会重叠,在某些方面又会彻底走向不同方向。我觉得两条线并行、坦然接受这种共存,反而是件好事。
John Collison:我们谈到搜索的未来的时候,我想起一件事。大约一年前,也就是2025年的春夏,谷歌的用户情绪非常负面。主流观点认为,搜索业务已穷途末路,谷歌将陷入困境,并且该公司得核心商业模式会遭受重创,诸如此类。当时谷歌股价约为150美元。
现在大家才意识到,这种看法有多么荒谬。谷歌拥有全栈技术布局,无论是应用、大模型、TPU,还是Waymo、YouTube等前沿业务。投资者某种程度上代表了市场的专业判断,你认为他们去年到底在哪些问题判断错了?
Sundar Pichai:显然当时存在非常大的的误会。
那时大家的关注点非常偏向于“垂直整合”。对我来说,当时非常清楚的一点是:“嘿,奥弗顿之窗(可接受议题范围)已经移动了。”我觉得这家公司就是为了那个时刻而生的。那种垂直整合的模式并非偶然,而是有意为之的。
我们的TPU已经发展到了第七代。我记得可能是在2016年的Google I/O大会上,我们宣布了TPU,并谈到了我们正在构建AI数据中心。在当时我们已经意识到,谷歌正以“AI优先”的方式运作,并且我们已经从骨子里接受了这一转变。对我来说,我们在前沿的LLM方面虽然落后了,但必须调动谷歌拥有的全部能力来迎接这个关键时刻。而令人兴奋的是,从全栈角度看,我们同时拥有强大的研究团队、基础设施团队和完整的平台体系。
对于我来说,我突然觉得我们掌握了一项能够加速所有业务的通用技术。从搜索到YouTube,再到云服务与Waymo,其发展均依托于这一技术进步。这是一种效能极高的、杠杆化的推进方式,我对此有清晰的认识。
回到之前讨论的观点,我完全不认为这是一个零和博弈的时刻。我觉得AI市场的一切都会扩展十倍,同时也会给其他人留出空间。回顾过去,亚马逊在谷歌出现之后依然做得很好,Facebook也是如此。我们低估了这种发展模式所带来的增长空间。
但作为一家公司,我们必须执行得更好。这就是我之前提到的我更关注的事情。
John Collison:有没有什么事情能向外界证明“哦,他们做到了”?是Gemini 3改变了人们的看法吗?
Sundar Pichai:我不太关注具体的时间线。我认为,真正让外界看到我们实力的模型,可能是Gemini 2.5,它尤其是在多模态领域达到了前沿水平。这要归功于Google DeepMind团队。
我们前期确实投入了更高的固定成本,但从一开始,我们就把Gemini模型设计成真正的多模态架构。我认为它的优势已经在一些领域开始显现,Nano Banana就是一个典型例子,你能看到各项能力完整地融合在一起。
但说实话,AI这个前沿领域的发展节奏极快、变化极大。目前大概有两三支顶尖团队在激烈地互相追赶。几乎每个月你都会觉得“哇,这部分我们做得很棒”,转头又会想“糟了,有几项又被追上了”。
我相信再过几个月,整个格局又会焕然一新。正如你所想,当前的前沿竞争非常激烈。我就是这么看待这件事的。
三、谈全栈优势,反驳“不看好”AGI
Elad Gil:有意思的是,我和谷歌以外、其他实验室的研究员交流时,他们普遍提到一个观点:谷歌与其他两三家头部团队的区别,在于谷歌没那么“AGI狂热”。也就是说,谷歌内部并不认为AGI近在眼前,也不相信会出现那种激进的跨越式爆发。
显然,谷歌团队其实也在深度思考AGI相关问题。所以我想问两点:第一,你觉得这种说法属实吗?第二,你认为这种心态差异,会不会影响大家对未来的判断,进而影响大家现在选择研发的方向?
Sundar Pichai:说实话,我们的资本支出(CapEx)已经从300亿美元大幅提升到了大约1800亿美元,这已经是实打实的巨额投入。如果不是对技术发展趋势有明确判断,我们不可能这么做。
在我看来,这(对于AGI的谈论)更多只是表述方式上的差异。或许是因为我们体量更大,旗下有太多产品、触达亿万用户,涉及层面极广,所以我们在谈论这件事时,用词风格会不太一样。
谷歌的创始人们,其实本就属于深信AGI前景的那类人。我早年和他们交流时就深有体会。
外界有种说法是,谷歌内部并不真正理解AGI,就连戴密斯・哈萨比斯(Demis Hassabis)(谷歌DeepMind联合创始人、首席执行官)团队、杰夫・迪恩(Jeff Dean)(谷歌首席科学家、DeepMind核心领导者)团队也不例外。
但事实并非如此。除戴密斯、杰夫外,还有伊利亚・苏茨克韦尔(Ilya Sutskever)(前Google Brain研究员)以及达里奥・阿莫代伊(Dario Amodei)(前Google Brain高级研究科学家、现Anthropic联合创始人兼CEO、Claude开发者)这些人,都曾在谷歌共事过,深度参与过AGI相关的研究。
John Collison:我很喜欢这种反驳,简直就像在说:“拜托,过去二十年业界发生了什么,你们难道都没看在眼里吗?”
Sundar Pichai:在我看来,这种说法完全站不住脚。大家之所以会有这种观感,很大程度上是因为一些机构本身比较年轻、更偏向纯研究实验室,或是总部位于旧金山,这类外在差异容易给人造成错觉。
但从底层认知来说,大家对技术发展曲线、对如何理解这项技术的看法,并没有本质区别。
其实就算在谷歌内部,我们当中也有一批人始终站在最前沿,不断测试智能体、观察它们的能力边界,看着它们一步步掌握新技能、完成各种任务,再对比三个月前的水平,感受尤为明显。我们在内部真切体会着指数级增长的速度。
John Collison:我觉得你们两位(Elad Gil和Sundar Pichai)的观点其实都有道理。一方面,谷歌的历史摆在那儿,大家有目共睹;另一方面,Elad想表达的其实是一种普遍感觉。
我之前看到一条推文说得很有意思:“想理解当下硅谷正在发生的事,你必须明白一点:几乎每位科技高管现在都陷入了重度AI狂热,每天花大量时间编程、跟AI对话、做各种相关尝试。”这个说法很有趣,也并非毫无道理。
所以我很好奇,在最近你对AGI有什么感受?或者说你现在又在多大程度上陷入了这种“AGI狂热”?
Sundar Pichai:我第一次真切感受到AGI时刻,是在2012年。当时杰夫展示了谷歌大脑的最早版本,正是在那一次,神经网络成功识别出了猫。
大概是2014年吧,我还和拉里・佩奇(Larry Page)(谷歌的联合创始人)一起去看过DARPA机器人挑战赛,当时我们看着那些车辆自主行驶。德米斯演示了模型的早期版本,它们已经展现出我们现在所说的想象力。这些年来类似的时刻还有很多,技术在明显不断进步。
而说到当下最直观、最真切的感受,我觉得最接近AGI时刻的体验是,我在编程时,交给它一个复杂任务,完全不用打开IDE,只在某个智能体管理界面里看着它自己完成,而且能力极强。这种时候我会真切感受到AGI的存在。
John Collison:我最近做了个小兴趣项目,过了一会儿我甚至在想:“它到底用的是什么编程语言?”这还是等整个项目跑起来之后,我才想起来要问它的细节。
Sundar Pichai:对,确实有这样的时刻。不过真正令人惊讶的,是技术发展曲线的陡峭程度。我们在多个技术方向上同步推进、持续优化,未来显然还会不断进步。
John Collison:说到这种切身感受,我认为科技公司的CEO都面临一个问题:如何保持对产品体验和普通用户的感知?科技产品过于抽象,仅靠团队报告、PPT和数据表格,根本无法真正理解产品。
托尼・徐(DoorDash的CEO)至今仍会仍会亲自跑外卖,来保持对一线真实体验的感知。我们每周全员大会都会有固定环节:集体演示产品,逐一排查界面问题,比如弹窗位置不合理等,确保团队全员真实使用产品。
我很好奇你是怎么做的?在谷歌,你除了日常使用Gmail等产品之外,是如何确保自己始终贴近真实用户体验的?
Sundar Pichai:我一直试用我们产品的内部版本。我会专门留出整块时间,高强度去使用它,给自己安排专注体验的时间。这很有用。
就在两周前,我在健身房拉伸,手机开着Gemini Live。我当时就想,干脆花30分钟只围绕一个话题跟它对话。我会刻意做这类测试。它有些地方表现不错,有些也很让人抓狂,但我都能从中发现问题、学到很多东西。我会强迫自己以资深用户的方式去使用产品,以此贴近用户真实使用体验。
X(平台)对我也很有帮助,因为我经常能看到最直接的用户反馈。
John Collison:太感谢你们修复了谷歌日历的问题。
Sundar Pichai:当然还有不少问题需要继续修复。X上的用户评论很直白,我会尽量直接按照评论的的建议去做。
我也会在Antigravity内部版中查询:“我们刚上线某项功能,用户评价如何?列出最受好评和最受诟病的五点。”这让我的工作轻松了很多。放在过去,我需要花费大量时间收集反馈,如今AI智能体能帮我完成这件事。当然,仍需平衡“AI汇总”与“亲自体验”的比例,我也在适应这种全新的工作方式。
四、中国有优秀的开源模型,当今AI市场算力面临瓶颈
Elad Gil:你提到,第一,AI行业并非零和博弈;第二,AI带来了巨大的生产力提升。回顾过往的技术周期,包括互联网、移动互联网以及SaaS模式,都需要很长时间才能在GDP中体现。而当下,AI的影响首先体现在数据中心建设,拉动了部分GDP增长。
展望未来三到五年,你认为AI会扩大美国经济规模吗?如果会,增幅有多少?
Sundar Pichai:说实话,要让这些投入获得合理回报,就必须在某个阶段实现收支平衡。我记得大概是红杉资本曾经指出,人们现在的投资规模非常大,需要十倍以上的收益才能回本。从那时起,我需要再核对一下(投资和回报的)数字。无论如何,投入和回报最终必须能够匹配。
明确地说,我们目前处于算力供给受限状态,而各个业务场景对算力的需求都在暴涨。
Elad Gil:我丝毫不怀疑这会是一个规模巨大的市场,也将带来可观的回报。我的问题是,我认为有很多事情都被外界低估了,比如软件工程预算中token成本与工程师薪资的占比。
过去优秀软件工程师极度稀缺,如今AI补充了这方面的供给,市场规模可能会扩容十倍。也就是说,软件工程与编程开发的市场规模,远比大众认知的更庞大,用“token成本vs工程师薪资”衡量市场本身就是错误,这个市场会持续高速增长。
我只是好奇,你认为AI最终能带来多大的经济增长?我并非质疑投入与产出的合理性。
Sundar Pichai:我明白。回顾互联网对GDP的影响,数据无法完全体现其真实价值。如果没有互联网,GDP甚至可能出现负增长,这就是消费者剩余。未来很难被预判。
我认为社会各个层面都存在天然的抑制机制。比如算力基础设施建设的速度,跟不上模型优化的速度,这本身就是一种约束;技术向社会普及的节奏也受限制,比如Waymo的自动驾驶技术比人类驾驶更安全,但落地推广必须谨慎把控节奏。如何才能负责任地推动技术普及,这些层面都存在约束。
美国经济规模比十年前大得多,哪怕GDP增速仅提升0.5个百分点也是一份巨大的增量。我预计最终会呈现这样的结果。
John Collison:你提到了供应受限的问题,我认为这会是2026年的核心特征之一。你之前说资本开支是1500亿?还是1800亿?
Sundar Pichai:我们公布的区间是1750亿至1850亿美元。
John Collison:也就是约1800亿美元资本开支。我觉得有意思的一点是,哪怕谷歌想花4000亿美元在资本支出上,它也做不到。因为显存、内存不够,电力供应不足,还有各类零部件都跟不上。
Sundar Pichai:我们甚至连足够的电工都找不到。
John Collison:你能否梳理一下当前遇到的各类瓶颈?
Sundar Pichai:说到底,我们还是受制于晶圆产能。电力能源问题相对好解决,真正拖慢项目进度的,往往是审批和监管环节。
John Collison:即便得克萨斯州、内华达州、蒙大拿州有大量土地支持你们的发展,但可能仍然不够。
Sundar Pichai:我认为我们在改善基建等方面已经取得巨大进展,这对美国而言尤为重要。中国的建设速度之快令人惊叹,我们真的需要学会大幅增加建设速度,甚至要转变思维,思考如何让我们的建设速度提升十倍。我认为建设的阻力可能会越来越大,所以这不是少数人一拍板说“我们要加快建设”就能办到的。
John Collison:比如各地的数据中心建设暂停之类。
Sundar Pichai:核心瓶颈在于晶圆产能,以及项目审批与落地推进的效率。我注意到政府已经在这方面采取了不少积极举措,各界也认识到必须提升相关流程的效率。除此之外,供应链中的关键元器件同样是重要制约。
内存就是典型案例,短期内我们仍会受其限制,不过行业厂商都会针对性地做出调整。
在我看来,所有企业经营者,无论对AGI抱有多大期待、投入多少资源,都必须理性面对不确定性区间:我们的乐观预期该控制在什么范围?能够承受的利润空间又有多大?毕竟现实中存在诸多不可控的外部因素,随时可能引发意外状况。
五、头部内存产商产能不足,短期内存供应紧缺仍将持续
John Collison:内存是你最关注的核心部件吗?
Sundar Pichai:内存无疑是当前最关键的组件之一。
John Collison:你刚才提到这只是短期问题,那你是不是认为,只要厂商们加大供应,(内存)高价问题自然就会得到解决?
Sundar Pichai:头部内存厂商很难大幅扩产,所以短期内内存供应瓶颈仍会存在,不过随着时间推移会慢慢缓解。即使这些制约会持续存在,但它们也会反过来推动大量技术创新。我们会把(内存以及算力硬件的)使用效率提升30倍,而且这一系列升级(例如谷歌近推出的Turboquant)正在同步推进中。
Elad Gil:这会不会加剧市场形成巨头垄断的格局?
如果从模型层面来看就会发现,很多关于模型进化路径的判断都指向一点:模型的优化很大程度上会依靠自我进化。模型会开始越来越多地自主编程、自主完成数据标注等等。说白了,现在就是一场抢座位游戏,谁能握有算力,谁的扩张速度就能领先行业整体产能。
如果所有玩家的算力按比例增长,就会形成天花板,没有企业能大幅甩开竞争对手。你认为这个判断是否正确?
Sundar Pichai:这个分析框架有一定合理性,但存在特殊变量。比如我们刚发布的Gemma 4,中国的开源模型非常好,而Gemma 4是除中国的模型以外的一个非常优秀的开源模型。Gemma 4基于Gemini 3架构,从技术迭代时间来看,它的前景既广阔又渺小。
更神奇的是,模型权重文件小到可以装在U盘里。这太不可思议了。它完全不像造一枚SpaceX火箭那样。
Elad Gil:我总是觉得很震惊,你们运行数据中心几个月、烧巨量算力,最后输出的东西就只是一个普通文件。就跟一个Word文档差不多,而这就是你们的AI模型。太不可思议了。
Sundar Pichai:这项技术具备的一些独有的特性让我开始反思现有的分析框架,并提出疑问:“我们到底该如何看待这个问题?”我觉得这是一个合理的视角。至少从推论的角度来看,你提出的思路是非常合理的。
我认为,每个人都在试图找到办法,以突破现有资本驱动模式的束缚,以此打破这些瓶颈。这股力量极其巨大。
John Collison:但正如你所说,全球内存总量有限,人和资本主义激励措施都无法真正解决解决2026或2027年的内存供应问题。
Elad Gil:在这个阶段,我们可能会看到各类模型开始出现更明显的差异化发展。
Sundar Pichai:要知道,这一切还要和晶圆产能提升、数据中心审批落地进度等因素综合权衡。这类约束或许并没有表面看上去那么严峻,但必须把所有需要的条件放在一起整体考量,包括资金、全盘统筹。
John Collison:没错。我觉得有意思的一点是,理论上,企业完全可以在现有资本开支基础上追加投资,但我们现在真正面临的,是2026、2027年现实层面的硬约束。这就像霍尔木兹海峡,无论油价如何,一旦每日减少2000万桶石油供应,需求就必须同步缩减。内存市场同理,最终必然有部分企业无法获得所需内存。
Sundar Pichai:除此之外,安全也是一大限制条件。这些大模型可能攻破现在市面上几乎所有软件,或许已经有了现在我们不得而知。
John Collison:你指的是所有软件?要知道SSH(一种加密的网络协议)这种协议,这么多年来一直有人在想方设法攻破它。
Sundar Pichai:我指的是普通软件、大型平台的大量“零日漏洞(官方不知道的隐藏漏洞)”。这是行业内无法忽视的硬伤。
Elad Gil:有人告诉我,由于AI提升了发现漏洞效率,黑市上零日漏洞的价格正在下跌,这是一个很有意思的市场指标。
Sundar Pichai:我对此并不感到意外。AI这类技术究竟会以何种方式在全社会范围内落地普及,又会对经济、社会与行业生态产生何种深远影响,这类问题在历史上已有类似的技术变革可供参照。
在我看来,其发展过程中或许存在尚未显现的制约因素,也可能给现有运行体系带来突发性的震荡与冲击。即便存在上述潜在风险,我仍坚定认为,该项技术未来具备极为广阔的正向发展空间与巨大价值潜力。
单从安全层面来看,我意识到,未来我们必须加强各方协作,但目前这种协同还远远不够。行业很可能会迎来一个关键转折点,甚至是剧烈的突变节点。这些现实问题都客观存在,绝不是视而不见、心存侥幸就能回避的。
六、被低估的王牌:太空数据中心、量子计算、机器人
Elad Gil:谷歌拥有一系列令人惊叹的自研技术与投资组合,你持有相当规模的SpaceX股份,我记得早年间应该是10%左右。同时你也持股Anthropic约10%,控股Waymo,公司内部还存在海量自主研发的顶尖技术。
我们已经聊过AI、Transformer架构,还有TPU芯片和Waymo。此外还有量子计算领域,你们刚刚还发布了一项重磅的量子计算研究成果。那么谷歌还有哪些被外界低估的隐藏王牌?或者你认为哪些是被市场普遍低估的领域?
Sundar Pichai:我们一直在布局长期项目,这些项目刚公布时往往显得不切实际。比如我们正处于太空数据中心的早期研发阶段。正如之前所说,限制能激发创造力。放眼未来20年,我们应该把海量数据中心部署在哪里?这是非常棘手的问题。
这类项目就像2010年的Waymo,它是典型的长期布局。量子计算也是这类项目的其中之一,我们持续投入并取得扎实进展,我对此充满期待。
Elad Gil:你认为量子计算将在哪些方面产生影响?目前大家讨论量子计算的应用时,基本都集中在分子模拟和密码学这两个方向。在密码学领域,业内一直在推进抗量子密码算法的研发。但在分子模拟领域,深度学习模型已经表现出色,谷歌的AlphaFold更是开创了先河。
你认为量子计算真的具备实用价值吗?如果有,核心应用场景是什么?
Sundar Pichai:从抽象层面来说,在我看来,(量子计算的)趋势似乎是越来越多地去模拟自然界。
鉴于自然界本质上是量子的,我们就需要量子系统才能更好地对其进行模拟。我们或许能以一种出人意料的方式,通过经典计算技术实现这一点,或是借助足够的信息压缩、抽象建模来做到,但我从根本上认为,量子计算在这方面会更具优势。
说实话,我们仍未完全理解哈伯法(现代工业合成氨的核心技术)制肥工艺,有很多复杂因素,这可能更多和你大学时期的研究背景有关。我的直觉告诉我,在模拟天气、模拟现实等方面,量子计算都会占据优势。
技术发展的历史就是这样,当某项技术发展到一定规模并能发挥作用时,人们会使用它,同时顶尖的人才会基于它发挥创造力,找到各种能应用的场景。
我常以手机与GPS结合催生Uber(网约车平台)举例。当年研发手机的人,根本无法预见这种平台变革会带来如此颠覆性的成果。我相信,只要量子计算真正实现落地应用,未来必将涌现出数不胜数的全新场景。这便是我的观点。
John Collison:抱歉我们刚才打断你了。你之前正在聊谷歌那些更前沿的项目里你最看好的部分。
Sundar Pichai:GDM团队正在深入钻研机器人技术。对于机器人领域我们公司以前入局得太早了。事实证明,当时很多构想没有落地,主要是因为大约10到15年前缺失了AI这个关键要素的支撑。
但现在Gemini机器人模型在空间推理等方面已经达到业界顶尖水平,我们无疑拥有最先进的模型。
有点讽刺的是,我们正重新与Boston Dynamics(曾被谷歌收购后又被其出售)以及Agile等公司展开合作,推进相关技术落地。
行业里也出现了许多非常出色的初创企业,我们正在投资布局。比如我之前提到的太空量子数据中心,还有旗下Wing公司的无人机配送项目。
我们正在扩大Wing的规模,在未来某段时间之内,将有4000万美国人能够使用Wing的配送服务,我说的不是几年以后的事情。这些项目我们会坚定投入下去。当然还有Isomorphic(Alphabet旗下、由DeepMind分拆出来的AI制药公司)。
Elad Gil:Isomorphic真的令人非常期待。
Sundar Pichai:我认为应当使用这些AI模型,有针对性地去优化药物研发中所有可能出现的环节。尽管像三期临床试验这类流程的周期依然很长,但通过这种方式,能够大幅提高项目最终成功的概率。
Elad Gil:我认为在这么多生物模型方案里,你们的这套方法真的是我见过最高明的,你们真正考虑到了分子设计之外的更广泛的领域。
John Collison:我很好奇,谷歌内部的资本配置(资金分配)是如何运作的?我想说的是,优质的资本配置,核心在于内化资本的机会成本,把业务产生的现金投向最高效、最有价值的用途。
商学院教科书里有提到简单的例子。假如你是波音公司,公司业务产生了一笔现金,你可以选择两个方向:要么去竞标下一份国防合同,投入相应的研发资金,并测算出这份合同能带来多少收入;要么去研发一款全新设计的民航客机,投入相应资金,再测算预期收益。
比如一个项目内部收益率是16%,另一个是19%,那我自然会选19%的。但谷歌的情况是,各个项目极度多元化:你们可以给YouTube团队更多资金,让他们优化推荐算法,从而提升用户使用时长,进而提高变现能力;也可以给Waymo团队更多资金,让他们更快进入市场或更快扩大规模;还可以投资某种新的AI技术路线,可能五年后才会有回报。
我很好奇的是,如果你要把资金投向最优用途,最终需要做比较的话,面对这些性质截然不同、回报曲线形态完全不一样的项目,你们是如何进行对比和决策的?
Sundar Pichai:这个问题问得很好。颇具讽刺意味的是,因为TPU分配的问题,我对资金怎么投这件事的感受比以往任何时候都更深切。在某种程度上,就连Waymo都需要TPU。算力紧张反而把资本配置让这个问题变得更加突出、更受关注。
其实我一直很期待未来AI能作为决策助手,至少给我们的资源分配提供参考建议。一旦我们能把所有数据打通并让信息顺畅流转,模型其实就已经具备相应的能力。现在我们更多是要把所有数据的壁垒打通,我相信这会(对做决策)很有帮助。
回顾历史,谷歌的一大优势在于,我们往往会在技术周期的极早期就做出布局决策。这也近乎回归了我们深耕核心技术的初心。我们确实会思考你不久前问Elad的那个问题,哪些是我们真正值得长期投入的方向。
在(项目启动的)早期阶段做决策会相对容易,因为初期所需的资金规模不用太多。但一旦确定方向,我们就会长期坚定投入,同时确保技术能持续取得进展。
以量子计算为例。我们如何评估它值不值得投?我们依据的是底层指标:比如设定关于逻辑量子比特纠错、实现大规模稳定逻辑量子比特阈值的时间节点目标,然后看团队能否达成。我们就是通过这种方式来评估的。
我不会说这是一种优势。但在我看来极为重要的一条原则是,我们一直以来的思路,也是我们始终恪守的纪律,就是对早期前沿技术进行深度布局和押注。这一点对我们一直很有帮助。
日常做决策时,我一直认为必须评估这些项目的长期价值。在某种程度上近乎靠直觉去判断:估算5到10年后的期权价值与潜在市场空间(TAM),假设它能高速增长,再判断做的这些决策是否合理。
对TPU的投资就是很好的例子,我们持续、稳步加码,效果非常好。Waymo也是一个典型案例。大约两三年前,当整个行业对自动驾驶都持悲观态度、不少玩家纷纷撤退时,我们反而加大了对它的投资。
Elad Gil:我每天上班都会尽量乘坐Waymo,体验堪称神奇。
John Collison:Waymo恰好能说明一个问题:谷歌会砍掉部分项目,比如终止Loon气球互联网项目,但即便Waymo从demo到商业化耗时极长,你们依旧没有放弃。支撑你们坚持的动力是什么?是定性判断还是定量数据?你们如何决定砍掉Loon、保留Waymo的?
Sundar Pichai:核心是要靠量化指标来判断。以Waymo的自动驾驶系统为例,它的核心是底层技术,也就是软件如何操控车辆。我们需要看它在安全性和可靠性方面的进展。这是一个长期项目,我们的目标就是把安全和体验做到极致。
我们会跟踪技术进步曲线,设定阶段性目标,再对照目标看实际进展。我认为这支团队做得非常出色。尽管中间虽然也有过停滞不前的阶段,但这种时候我们更要相信团队能突破瓶颈。
在我看来,越能从这种底层技术层面去评估项目,做出的决策就越靠谱,至少我一直是这么判断的。
Elad Gil:我听到过一种观点,是关于Waymo的:因为过去处理驾驶极端情况或突发状况时,它靠的都是大量手动编写的规则与启发式逻辑,几乎是为车辆制定了一套手动设定的行为准则,能应对的场景非常有限。
它近期取得的诸多重大突破,是在几年前随着Transformer模型浪潮兴起,转向了端到端深度学习。那么你认为,如果Waymo不是在15多年前启动,而是五年前才开始,如今能达到同样的水平吗?毕竟正是那次技术突破推动了它快速发展。
Sundar Pichai:这个嘛,我们之前聊过机器人,你可以把Waymo看作一台机器人。我觉得,过去三年才开始做机器人的团队,进展大概率会更快。但Waymo是一个高度集成的系统,它的复杂程度,有点像台积电的芯片制造,或是SpaceX的火箭发射。我们面对的是极其复杂的系统集成问题。
我认为Waymo在这方面有很多不为人知的积累,如何把握研发周期、打磨相关工艺,这些都至关重要。
Elad Gil:但话虽如此,我确实认为端到端方案在这个领域会成为必然。而拥有这样一支团队,对Alphabet和谷歌来说无疑是巨大优势。正是因为持续投入,它才赶上了技术爆发的节点,这一布局显得非常明智且具有前瞻性。
我觉得一个很有意思的问题是,这种经验如何应用到其他领域?就像你提到的机器人领域,如今技术迭代速度极快,发展历程可能会完全不同。你们团队是否考虑过重新自研硬件?还是将主要通过合作模式将这些技术推向市场?
Sundar Pichai:我认为我们会保持非常开放的态度。我从Waymo以及AI方面的TPU等项目吸取的教训是,我认为必须全力推动技术曲线发展,尤其是在涉及安全、监管等诸多因素的领域。我需要亲身参与产品反馈的完整流程。所以在现阶段,我认为自研硬件最终会变得非常重要。
七、算力比资金更稀缺:亲自操盘资源分配大战
John Collison:抱歉,我还有两个关于资本配置的问题想请教。
外界有一种看法:谷歌长期现金储备过高、财务杠杆用得太保守,一直保持着高额净现金头寸(即持有量、余额)。要知道,谷歌内部从来不缺好项目,创意多到做不过来;核心业务增长又极其稳健,公司对主业理解极深,而且主业增速一直显著高于公司的资本成本。
那么回头看,谷歌是不是本应该更激进一点?比如:“我们可以不再死守保守的净现金姿态,适度提高杠杆,把更多资金投向新业务,或者加大股票回购回报股东,又或者做更多少数股权投资,毕竟谷歌在对外投资这块本来就是顶级水平。”
Sundar Pichai:这个问题很有价值。比如,如果Waymo能更早实现现阶段的进展,我会愿意提前投入更多资本。从某种程度上说,我们的决策依据是项目的成熟度。
我们始终坚持做负责任的资本管理者:如果看好投资回报率,就会全力投入;若存在闲置资金,就会对外投资,比如我们对Stripe、SpaceX和Anthropic的投资,都是我们对资金的负责人应用。
如今随着AI技术变革,给我们带来了更多优质投资机会,我们也在加大投入。我们一直秉持这样的理念。
我其实很愿意更早给Waymo增资,但当时它的技术成熟度尚未达标。从安全角度来看,Waymo始终坚持安全优先,过早增资并不合理。
John Collison:有没有哪些项目,只要你们增加资本投入就能加快它们进展的速度?
Sundar Pichai:大部分项目都有其自然的增长节奏。但总体而言,即便部分决策可能存在偏差,我们的核心原则始终是:只要看好项目、拥有坚定信念,就会投入足够资本去推动落地。
John Collison:另一个关于资本配置的问题是,在以往的科技公司中,研发投入绝大部分是关于人力成本,人员编制管控十分严格。研发资源的分配,本质上就是调配高薪人才。除谷歌图书这类算力密集型项目外,技术成本相对于人力成本几乎可以忽略不计。
而如今,TPU算力分配已成为核心,那么谷歌内部具体的预算机制是怎样的?公司是否设有整体TPU预算?过去你们仅为项目分配人员编制,现在是否会同时分配人员与TPU额度?这两者是否纳入谷歌的统一预算管理?季度及年度评审又如何执行?
Sundar Pichai:我们一直都有算力预算。如今我们同时大规模使用TPU与GPU,对机器学习(ML)算力规划极为严谨。我们同样重视人员编制规划,但算力规划一直是独立环节。机器学习算力有过充裕的阶段,也经历过公司内部算力紧缺的时候,而当前的算力已经到了极度紧缺的程度。
我每周都会专门抽出一小时,精细化梳理算力分配问题。我会细化到各项目、各团队的算力使用量,基于数据评估分配合理性。
John Collison:现阶段,算力是核心稀缺资源,确保谷歌的算力投向最有价值的项目至关重要。
Elad Gil:这一套算力分配逻辑如何适配谷歌云(GCP)?毕竟谷歌云需要将算力分配给外部客户,而非内部使用,在整体供给约束下,如何平衡内外部分配?
Sundar Pichai:我们会提前规划。在制定远期规划时,云团队会同步推进预案,并落实相应计划。公司会为此提供资金支持,同时也会兼顾内部需求进行统筹。所有环节我们都会提前规划。
公司会同步为内部需求规划算力,同时与客户签订长期合约。我们对客户的合约承诺是神圣不可侵犯的。大部分问题通过提前规划解决,即便在供给约束下,谷歌云团队也会面临算力不足的问题,但远期规划能有效平衡需求。
John Collison:说到谷歌云,我有一个积攒已久的产品建议。
Sundar Pichai:你其实可以直接在X上发。
John Collison:哈哈没错。GCP、MCP的功能非常出色,AI能程序化对接谷歌云几乎所有功能,除核心权限模块外全部开放。某种程度上说,谷歌云的痛点在于功能过于丰富,我相信你也经常听到用户反馈平台太难用了。用户登后需要创建组织、项目,查找对应服务,整个流程非常繁琐。
但如今这些都不再重要了,大家只需指令AI调用对应谷歌云功能就行。谷歌云的全面性反而成为了它的巨大优势。我们在Stripe身上也面临类似问题:功能越多,用户越难找到合适的入口和用法,而AI能通读所有API文档,然后直接帮用户操作。这一模式效果非常好。
Sundar Pichai:AI有望成为一切的协调层。回到我之前的问题。即使是在企业内部,作为CEO并非没有掌握所有数据,但如何将这些数据集中到一个地方呢?过去需要搭建大型ERP系统打通数据源,而现在AI成为适配终端用户的智能协调层,体验极佳。
John Collison:产品功能越丰富,AI带来的益处就越明显,这在Stripe已有所体现,而谷歌云的受益程度会更大。
Sundar Pichai:我们还有很大优化空间,但你说得对,我认为这是一个巨大的机会。
John Collison:我对此也十分满意。这就涉及到我的产品建议了。让我感兴趣的是OpenClaw这类产品的市场适配性,它们为C端用户提供有状态AI服务(Stateful AI Service)。比如“汇总我感兴趣的每日新闻,每天早上推送给我”这类需要持久化状态的功能,目前主流AI应用都不支持。这项功能未来会推出吗?
Sundar Pichai:从发展方向上来说,我们应当为用户提供可靠、安全的持久化长效任务功能,同时完善身份、权限等配套机制。这就是智能体时代的未来方向,为C端用户落地这类功能,也是我们正在探索的前沿方向。
Elad Gil:这也是我想提的点。前Stripe CTO创立的Dreamer被Meta收购,其产品就实现了很好的状态持久化。
John Collison:用户还能自定义轻应用,操作极为简便。用户体验到这类功能时,会有明显的惊喜感。
Sundar Pichai:在我看来,未来C端AI产品底层都会搭载完整编码模型,配套完善的执行框架、技能体系,支持在云端、本地安全持久化运行。这些基础技术能力正在整合成型。
至于开发者,我感觉如今全球只有0.1%的人已经身处这种未来之中,他们在为自己构建这类应用。但如何把这套体验推向大众,实现普及,我认为是一个非常令人兴奋的全新前沿领域。
John Collison:我还有一个产品建议,抱歉你得忍受一下这个环节,这是采访的必经流程。我的另一点感受是:谷歌文档的搜索体验,远比Gmail差。明明两者搭载同样优秀的搜索引擎,却出现这种差异。
我认为原因在于邮件的关键词搜索往往很有效,用户能记住独特关键词;但我想查找2026年预算的文档时,在谷歌幻灯片中搜索“2026预算”,这个词在Stripe所有PPT里根本不算什么独特关键词,我永远找不到真正想要的那一份。我很好奇你也会遇到这种问题吗?
Sundar Pichai:我没有像你描述的那样强烈的感受,但你这么一说,我完全有共鸣。我已经想好要和哪个团队负责人沟通这个问题了。我认为我们能大幅优化体验。
未来几个月,谷歌文档等办公服务的AI集成会迎来显著升级。早期我们只是简单嵌入AI功能,但未来我们会优化上下文记忆和缓存机制,全面提升搜索能力,我们有很大的优化空间。
Elad Gil:我参与的很多公司,即便成立时间不长,也不得不彻底重构产品开发、工程实践流程,重新定义设计团队的职责与能力要求。谷歌是否也在重新审视这些流程?在其他方面是否发生了重大转变?
Sundar Pichai:我是这么理解的,你可以把它想象成一层层同心圆。谷歌内部有些团队正在发生力度非常大的转型,而对我来说一个很大的挑战是如何将这种变革扩散到更多团队,尤其是在2026年。
早期有些事情我们没法推进,是因为技术还很不稳定,经常出问题。
就像你看到了一个充满希望的新世界,但它还处在“半残废”状态。但今年,技术曲线迎来的拐点非常明显。尤其是GDM和部分软件工程团队已经彻底重构工作流,使用内部代号Jet Ski(即外部称作Antigravity)的工具,以智能体管理器为核心开展工作。
John Collison:我能否补充几个当前AI产业化落地的痛点,我很好奇你认为何时能够解决它们。在我看来,我们当前存在巨大的智能过剩问题。AI的能力已经极强,但如果你考察一家企业的对AI的掌握程度或运用程度,可能会发现他们存在不足之处。
我看到的问题大概是这样:第一,工程师要真正熟练地引导AI需要时间;第二,AI生成的代码不利于团队协作,代码迭代速度过快、修改频繁,多人协作难度远高于传统开发;第三,非技术部门面临数据权限问题:智能体需要查询“全球企业每日交易状态”,这类企业内部数据需要智能体自动应答,但当前的数据权限和使用习惯尚未跟上;第四,对岗位定义仍停留在旧有模式。工程师、产品经理、设计师此前的分工源自传统开发流程,在AI能力大幅提升后,部分岗位需要进一步融合。
总之,到2026年模型本身的能力已经达标,但我们对它们的实际应用率极低。你认为未来AI的普及节奏会是怎样的?
Sundar Pichai:事实上,Gemini团队、Gemini企业团队以及Antigravity团队正在精准攻克你说的这些问题,这正是我们的产品路线图。我们确实在内部率先使用这些工具,不断遇到障碍后再逐一突破。最终推出的产品就是这么打磨出来的。
我们仍在逐步推广(这套AI工具),因为在实际使用过程中,比如谷歌的SRE团队,他们会突然发现可以用AI搭建某一段自动化工作流。
但要更体系化地推进它落地,就需要解决一系列问题:当大家逐步掌握相关技能后,这些能力如何集中沉淀?如何让模型和全体员工都能便捷使用?同时,身份认证与权限管控是非常棘手的难题,我们也正在逐一解决。
这些也正是目前制约技术普及的关键所在。我们对安全问题高度重视,也必须非常谨慎。这类服务一旦出现失误,代价极高,因此我们必须严谨稳妥地推进。也正因如此,我们最终推出的产品会更加可靠,发挥的价值也会更大。
目前我们正投入大量前期固定成本,等未来将这些能力对外开放后,人们能用AI实现的事情将会迎来跨越式提升。其他企业也在朝着同一方向发力。
八、2027年拐点:智能体将接管非技术流程
John Collison:我推测谷歌每年会正式重新预测几次业务走势。至少在Stripe是这样:我们先制定年度预算,之后每年会做三次正式的业务重预测。
仔细想想,所谓重预测,本质上就是一个时点函数:你把当前的业务状态输入进去,一部分在人的脑子里,但大部分散落在各处文档里,比如“这个业务表现如何?那个项目进展怎样?这笔交易能否达成?”等等。把某一时刻的全部业务状态输入这个“函数”,输出的就是更新后的全年业绩数字。
你能想象未来由AI完全全自动、无人介入地完成预测吗?你认为谷歌第一个完全由智能体完成的业务预测会出现在哪个季度?
Sundar Pichai:我确实预计在部分领域2027年会成为一些关键场景的重要拐点。即便人工仍在参与,但他们也会基于AI工作流完成业务预测。可能在前期将采用人工复核方式保障预测准确性,待模型稳定后逐步实现完全自动化替代。到2027年,大量非技术流程会迎来深刻变革。
John Collison:我认为Elad之前的问题是,工程团队是AI的早期使用者,但在工程领域之外呢?所以你的看法是,到2027年很多非工程类流程会真正开始(更深层次的使用AI)?
Sundar Pichai:没错,你之前提问时,其实是在问Waymo或机器人公司这类场景。我认为初创公司会在这方面具备优势,他们的团队更加原生AI化(一开始就完全围绕AI构建工作方式和组织架构,),这一点从招聘面试流程就能看出来。而对我们这样的大公司,则需要开展大量再培训、组织转型等工作。
我觉得这是年轻公司的优势,但我们也必须推动这类变革。
John Collison:我们聊了很多谷歌从小规模起步的项目,比如Transformer,但它诞生时并非公司核心优先级。如今谷歌内部有哪些小规模项目是让你格外兴奋的吗?
Sundar Pichai:这可能出乎很多人意料。我们决定在太空建设数据中心时,只是一个极小的团队。实际上,只有少数人以及有限的预算,才能达到第一个里程碑。
所以我认为即便想法宏大,也应该从小处着手。这就是一个很小的例子。
就在昨天,我还专门花时间听一位工程师讲解后训练环节的某项改进,整场分享只有他一个人介绍自己的研究成果。听完我就觉得:“这会带来非常明显的效果提升。”这正是当下这个时代可贵的力量。
第二个项目我就不具体透露了,但相信未来某天我们会公开。这些小幅的进步都让我感到兴奋。
热门跟贴