(关注公众号设为标,获取AI深度洞察)
全文 13,000字 | 阅读约42分钟
【文章核心预览:】
开源态度转变:首次回应DeepSeek影响,Altman承认开源能为世界带来价值,透露OpenAI内部正在讨论开源可能。
AGI发展预测:认为AGI将渐进演进而非突然出现,2025-2027年AI进展将超越过去两年。
巨额投资应对:宣布5000亿美元Stargate项目,全力突破模型训练与算力瓶颈。
全球市场布局:德国已成为OpenAI最重要欧洲市场,呼吁欧洲加大AI投资。
人才培养新思路:强调未来人才需具备AI应用能力、适应力与批判性思维。
能源革新预期:预测AI能效持续提升,核聚变将成为地球主要能源。
DeepSeek开源引发全球AI圈震动之际,OpenAI CEO Sam Altman开启了新一轮全球巡演,密集拜访投资人与产业领袖。据报道,他在近期的一场闭门会议中向政策制定者表达了对DeepSeek崛起的担忧,强调了"Stargate计划"的紧迫性。在完成日本、韩国、印度、沙特等地访问后,Altman的巡演来到了德国柏林。
周五2月7日,在柏林工业大学的一场重要对话中,Altman首次公开活动中系统回应了开源之争。此前,他曾在Reddit上表示"OpenAI在开源上站到了历史的对立面",引发广泛讨论。而这一次,面对主持人关于DeepSeek开源的直接提问,Altman给出了耐人寻味的回应:
"开源模型对世界有好处,可以给人们带来不少价值。就现阶段的模型来说,我不认为有人会否认把它们开源能够带来价值。"更引人注目的是,当被问及OpenAI是否考虑开源时,他首次透露:"是的,我们有在讨论,但还没有最终决定。
讨论环节
Fatma(主持人):好,大家好,欢迎各位的到来,我也非常激动地欢迎我们今天的特邀嘉宾、我们的专家小组成员,以及各位的到来。今天,我们汇聚了在AI领域的领袖和专家,一起讨论AI在欧洲、中东、非洲(EMIA)的行业以及在整个社会中所带来的变革性力量。我叫Fatma Dennis,是计算机科学教授,研究方向在神经科学与人工智能的交叉领域,同时我也是柏林工业大学主管数字化和可持续发展的副校长。欢迎三位!我首先想问个有点儿随意但又挺有意思的问题,因为我自己用聊天机器人时偶尔会这样——你们对自己的聊天机器人“客气”吗?比方说,在提问时,会不会在结尾写上“请”或者‘谢谢’之类的礼貌用语?」
Nicole Büttner(企业家):我会这么做。
Volker Markl(教授):我过去常这么做,但最近好像少了。没有以前那样频繁了。
Sam Altman(OpenAICEO):我也会这么做。我其实也没有特别明确的理由,但确实是一直在犹豫要不要这么写,时不时又会继续写。
一、AI对科学研究的影响
Fatma(主持人):Sam,最近对OpenAI和你本人来说都是非常忙碌的时刻。在这样繁忙的时间里,你还能来柏林工业大学,我们真的非常非常荣幸。那么我想先问你这样一个问题:像ChatGPT这样的聊天机器人,如今常被用来做灵感来源、草拟文本、总结内容等等。它帮助我们节省时间,也算是一种‘抄近道’。但从科学研究和学术工作的角度看,你认为这会带来什么影响?毕竟,很多最具洞察力的想法往往需要我们投入时间和精力,而不只是靠‘抄近道’就能得到。
Sam Altman:我们在星期一发布了一个功能叫做“Deep Research”,它几乎引发了类似ChatGPT问世时的讨论。科学家们是对此最感兴趣的一群人之一。你可以给Deep Research一个查询请求,然后它会帮你做很多研究工作,去完成那些本来需要你花很多小时、很多天,甚至有时要花好几周才能做完的事。当然,以目前的形态来看,它还无法生成很多深层次的全新洞见,但就整合信息这一点来说,对于科学家或者研究人员非常有用。正如我理解的,AI就是用来在某些方面帮我们节省时间,以便人类可以在更高层次上开展工作。这其实就是人类发明工具的历史:我们把曾经需要人亲手去做的事情交给机器,从而把人从这些琐碎工作中解放出来,专注于更高层面的抽象工作。我觉得这会是非常好的。
Fatma(主持人):谢谢。Volker,你怎么看?比方说Deep Research这样的功能,或者说大模型、生成式AI,在科学和研究上会带来哪些变革?
Volker Markl:有很多方面可以说。首先,它显然会改变自然科学的研究模式等等。一个重点是如何在这些领域里构建“基础模型”。在那些领域里,数据常常具有不同的结构和模态,因此进行训练与整合时,还需要专家的介入。我们要思考如何把它做得更好。不过我觉得我们已经开始看到一些初步的尝试了,比如在病理学、地球观测等领域,都开始打造这种基础模型,并且确实能够加以利用。这对科学研究是颇具变革意义的。当然,在计算机科学等领域也是如此。很多人正如你所说,会用它来节省一些步骤或者加快进度,比如“Copilot”之类的功能,这确实相当重要。它可以帮助我们改进编程,对许多科学家而言,你就不必再去思考复杂的Python逻辑或者类似的东西,只要把它交给Copilot。这在科研中改变很大。不过,如果是做系统研究的话,情况就不同了,因为这些基础模型往往针对通用的编程需求,或者训练数据中的常见模式。但如果我要构建一个崭新的数据库系统、数据流处理引擎之类,这些就更困难。这并不在通用基础模型的主干里。可是对于API整合或通用分析任务而言,这些工具是非常强大的。所以,从这个角度说,它确实对科学研究有很强的推动作用。再比如,如果我们看看人文学科或其他领域,面向这些领域的文本或数据,需要进行专门的适配或训练。事实上,这已经在发生,能够为那些非常具体的领域提供问答等功能。另外,我们对所谓“涌现行为”(emergent behavior)还没有完全理解,也许在这个过程中会出现一些非常有趣的新东西。我想,对我而言令人兴奋的,是随着“人在回路”(human in the loop)等理念,以及实验速度的提升,这些模型还能推动知识发现。相信在几年之内,我们就能看到AI真正自主完成的重大科学发现。那真的很酷。
二、AI如何改变企业模式
Fatma(主持人):的确很酷。那么,也许从商业角度来讲,Nicole,你觉得ChatGPT这样的聊天机器人,会成为企业界的‘Game Changer’吗?换句话说,它可能会如何改变企业?
Nicole Büttner:这个问题很有意思。因为从目前看来,德国企业其实对这方面兴趣很大、接受度也很高,已经开始了初步的尝试。比如说我们也看到了很多企业用它来做检索或问答系统(RAG systems,Retrieval-Augmented Generation),效果不错。我觉得这其实是一个好的开端,但我个人更期待的是下一步会怎样,尤其是当我们真正把它纳入企业核心业务,产生核心价值的时候。我相信到那时候我们会需要一个庞大的生态系统。是的,人们可以直接使用GPT或者Copilot,但也需要进一步的技术和交互层,才能真正把它嵌入业务流程。所以,现在我们应该说还只是刚刚开始‘挠到表面’,在技术、数据、能力建设、以及技术落地速度等很多方面还得继续努力,才能将它从简易的问答场景扩展到更多的业务场景。这些都让我很兴奋。
Volker Markl:我也想从大学的角度补充一下。对我们来说,学生可以算是我们的‘用户’。其实这里面也有许多有意思的应用场景,比如我们怎么利用大语言模型(以及更广泛意义上的基础模型)来帮助学生。当然,学生现在常用到的功能,是文本总结之类。每当GPT回答了他们的一些问题,我们都得思考:学生能从中学到多少?学习效果有没有保证?不过,更有意思的一点在于,我们可以让聊天机器人变成一个‘助教’,甚至是一个个性化的‘导师’。比如,在我们这儿,它可以教学生数据库系统相关内容,让学生和它进行互动,然后系统根据学生个人的学习情况,以及课程的具体要求,做个性化的指引。我认为这方面有很大的潜力,也会在某种程度上彻底改变教学方式,因为它能帮助减少老师和助教在简单重复上的负担,让他们把精力放在更高层次和更复杂的内容上。我觉得这是一个非常好的机会,我们一定要把握,事实上已经有人在积极尝试了。
Fatma(主持人):是的。那我们等会儿也许会讨论一下AI对社会可能带来的风险,以及一些人担心的问题。但在此之前,我想先聊一聊今天宣布的‘OpenAI 与 BIFOLD之间的合作’。据我所知,你们刚刚开始了一个研究伙伴关系,OpenAI会提供价值5万美元的API额度,用于探索你们的o3 model模型,柏林工业大学也会和你们一起开展许多新的研究合作。我想问:对于这样一个与领先的基础研究机构合作的关系,你们各自有什么期待?
Sam Altman:实有很多原因让我对AI兴奋不已。我们之前多少也提到了。就我个人来说,AI给我带来最大兴奋点的单一方面,就是它能给科学发现带来的影响。我相信,如果我们能加速科学研究的过程,让我们用一年的时间去完成本需十年的科学进展,甚至某一天能用一年时间完成一百年的科学研究——这会极大地提升我们的生活质量。比如说解决最紧迫的问题、应对气候变化、让生活方方面面变得更好,比如治愈疾病。我觉得AI终于能真正推动这一切。
在场有多少人认为自己比GPT-4更聪明? (没有人或很少有人举手)
那有多少人认为自己在GPT-5面前还能保持更聪明? (也基本无人回应)
我原以为会看到更多人举手(笑)。其实我自己就不觉得我能比GPT-5更聪明,但我并不觉得沮丧,因为这意味着我们可以利用它来做更多不可思议的事情。我们将能够利用它来完成一些不可思议的事情,而且,我们希望推动更多的科学研究取得进展。这是人类历史的一条主线——不断创造工具来做更多事情。当然,这一次感觉会有一点不同,因为它带来的潜在能力是巨大的。但如果科学家能够运用这种‘高智商工具’,把更多的精力放在提出正确问题和加速研究进展上,那么所有人都会受益。所以我们非常高兴能让研究人员获得这样的能力。——顺便说一下,那两个认为自己比GPT-5更聪明的同学,我过一阵子还想再听听你们的看法。
Volker Markl:就我们这边而言,从比较宏观的角度看,如果大学只做学术研究,就难免会与实际需求脱节。而跟行业公司合作,就能让我们的研究更贴近实际问题,有更强的现实意义,也更能聚焦到真正的问题上,不会走偏,这是其一。其二是资源的获取,比如我们能不能接触到更多算力、更多模型等等。这一点是非常宝贵的。具体到BIFOLD和这次合作来说,一方面我们会研究如何在各种科学领域里应用大型模型,这就是刚才Sam提到的病理学、量子化学等领域的“基础模型”怎么去做。我们想要探索如何用这些系统来处理特定领域的科学任务,这是BIFOLD的目标之一:推动科学的新发现。比如,个性化医疗就很有潜力,或者优化医疗服务质量等等。BIFOLD整合了柏林工业大学与Charité医院的力量,在医疗保健等领域也有很大的机会。所以,我们现在有了所有这些不同的步骤——怎么才能让它们在可重复性方面做得更好、被记录下来?刚才Sam也提到了一些关于可解释性的功能,以及这些功能即将带来的影响。我认为在这一层面上,其实既有需求也有机会,需要我们审视整个过程,包括系统层面如何进行可扩展化。这恰恰是我们在BIFOLD所从事的研究:更加智能的算法、系统架构,还有更好的编程模型,帮助我们高效地编写AI应用。
另一方面,当然还有智能算法这一块,这其实就是机器学习的范畴。正如我们都知道的,而且我们可能待会儿还会提到,训练依然很昂贵。那么,在维持大规模数据集的同时,我们能不能在效率上有所提升?当然我们也可以在小规模数据上进行训练,或者做模型组合,但如果要在大型数据集上做训练……不知道Sam你怎么看,但是我认为我们想追求的那种‘涌现行为’——不管它给人带来期待也好还是恐惧也好——还是让人非常兴奋的。而且我觉得只有在大规模数据集上训练才有可能观察到这些涌现现象。至少这是我的预期:如果用小数据集,就很难让模型自动‘诱导’出那些新行为,因为那样的话我们就等于事先已经显式地规定了它要做什么,而没有得到那种‘隐式的诱导行为’。
三、AGI的真实含义
Fatma(主持人):是啊,我听到你这番话中包含了很多在未来合作中的研究机遇,真是太好了。那么,让我们转到另一个话题:AGI(通用人工智能)。Sam,你的一位前同事Dario最近写了一篇文章,说到他对下一代AI,也就是AGI的愿景。他提到,AGI就像是‘在数据中心里有一个天才之国’。你同意这种看法吗?另外,你觉得这对下一代的科学家意味着什么?
Sam Altman:我觉得我们现在已经足够接近‘AGI’这个概念了,因此它的精确定义开始变得重要。比方说,当你拥有‘各个领域的世界级专家’并且他们能不知疲倦地协同工作时,我想那就已经超出了大多数人对AGI的想象了。与其去讨论‘我们什么时候会到达AGI’之类的问题,我更想说:我认为未来几年里,我们会出现一些技术能力,能让很多人惊呼‘我从没想过计算机能做到这个。’再往后,或许会出现一种系统,可以在一年内完成十年的科学研究进展——那就更远一些,但那个时刻到来时,我觉得整个世界会显著加速变化,并从中获得巨大收益。目前来看,我们确实处在一个相当陡峭的上升轨迹上。去年有人唱衰说‘规模化训练不再奏效了,极限将近了’,但后来我们又找到了新范式,出现了这些具有推理能力的模型,而且它们相当聪明,这股趋势应该还能再持续一阵子。之后我也期待会再找到别的范式。我在总体上学到的一点是,当你看到技术呈现非常陡峭的指数曲线增长时,你不该去赌它会停下来。人们说‘这个快要到极限了’、‘那个快撑不下去了’,我觉得听到这种话时要保持怀疑。从我们的角度看,我们似乎发现了一种重要的算法突破,真的可以进行‘学习’,而且还会持续下去。我们肯定会遇到一些瓶颈,但我们应该能够想办法解决。我相信我们会到达AGI,甚至超越AGI,而且大体上会是一个相对平滑的扩大和进化过程。
Fatma(主持人):好的,也许我可以追问一下:如果有人声称‘我们达到了AGI’,你觉得现在哪个组织或者群体最有能力来独立验证这个说法?
Sam Altman:我认为唯一重要的衡量标准是它能给人们带来多少实用价值。如果这个系统对你来说很有用,超过了某个门槛——那就很好了。如果有人想辩论‘它到底算不算AGI’,其实并不重要。我还是觉得它会是一个连续的指数式增长,以及连续地提升实用性。唯一的问题就在于:它能帮助人类多大程度、给世界带来多大帮助。
Nicole Büttner:我个人也同意这种观点。AGI应该是一个不断变化的目标。技术不断进步,我们对AGI的定义也会相应地往前推。但就如同Sam说的,实用价值才是关键指标。我也认为,作为科技行业的一部分,我们还需要更好地‘交付’这项技术。其实我们大家都在好奇,现在AI每隔一段时间就有新进展,但对很多企业来说,他们真正想要的是:‘我们能不能把AI工具交给教师、护士、各种商业从业者,让它来帮助解决眼下非常紧迫的劳动力短缺啊、各种服务压力、经济与时间的种种限制,以及医学问题?’所以,从我的角度看,更让我关心的是我们是否能够在到达AGI之前,就准备好把它带给大众,用一种真正有用的方式去做落地。让这种‘过渡’或‘转化’能顺利进行,并且在到达AGI之前就已经打好基础。
四、Stargate项目
Fatma(主持人):也就是说,我们基本可以同意,让真正使用AI并且能从中受益的人来判断系统的实用性乃至它是否‘通用智能’,这才是最贴近的评价标准。好,我们换个话题,谈谈AI投资。美国最近有一些激动人心的动向,比如OpenAI刚宣布的Stargate项目,一家新公司将投入大约5000亿美元,可能在四年内保证——也许我们会有N3这样的硬件吧——来确保美国在AI领域的领导地位,其中包含微软、英伟达、甲骨文这些大公司。那么,Sam,我想问的是,除了这笔庞大的资金,Stargate究竟能让OpenAI做成哪些原本做不到的事情呢?
Sam Altman:这其中有两个要点。第一,拥有更大规模的算力(computer)后,我们就能训练更强大的模型。我觉得世界不会希望我们停留在GPT-5或GPT-6,人们希望继续往前推进。而Stargate能让我们在未来几年维持跟过去几年相同的技术改进曲线,并且我相信能让我们得到非常强大的模型。第二,人们对这些系统的使用需求真的很大。我们越是取得进展,就能持续降低成本。大致来说,每年我们都能把去年的‘智能能力’再降低一个量级成本,然后再降一个量级。摩尔定律让芯片性能每18个月翻一番,而我们这边每12个月可能就能降10倍成本,这就非常给力。但与此同时,人们对这些服务的需求上涨比10倍还快。而且随着我们训练出真正强大的模型——它们在推理时可能消耗巨量的算力——你可能非常愿意投入大量算力去攻克癌症之类的难题。因此,从我们的角度看,全世界对这类服务的算力需求正在急剧上升。看看我们自己在推理阶段的算力消耗也是这样不断增长。这就是Stargate另一个要做的事,让人们能用上足够的算力——我们现在已经有数亿人在用OpenAI的产品,而很快就会到达十亿级用户。他们用得越多,就越想要更多。
Fatma(主持人):谢谢。Nicole,从欧洲公司的角度来看,你觉得他们需要怎样的‘Stargate’式项目或举措?
Nicole Büttner:我们在欧洲一直在谈AI和新技术方面的法规问题。我是个创业者和投资人,所以我更想谈机遇。我觉得我们需要更多投资,而且得快点儿上马。欧洲企业跟美国企业相比,在创新和研发上的投入结构性地更少,而且投向的也是偏中端技术而非高新技术。我们必须尽快改变这种状况。所以,我希望能跟更多大型企业建立联盟,把这种‘转化机制’做好,让创意和投资能快速转化为实际业务价值。我觉得,这次美国Stargate项目其实也是一个很好的‘最后提醒’——我们在欧洲并不缺少资本,也有很出色的人才,还有非常有意思的海量数据以及各行各业。如何把这些独特优势和全球前沿技术结合起来?别忘了,还有很多欧洲研究人员也为这些核心算法做出了贡献。我们可以创造大量的就业、经济增长和商业价值,解决很多难题。所以我希望这能给欧洲带来新的动力。而在Merantix,我们正在努力做企业和前沿技术之间的桥梁。
Volker Markl:对我来说,一切都跟‘数据’紧密相关。正如你提到的,欧洲——尤其在德国——有非常丰富的企业数据可利用,比如制造流程数据、客户数据库等等。现在很多这类数据并没有被充分挖掘。我认为这里面蕴含巨大的机遇。当然,我们也会谈到法规、硬件规模等等,但我觉得关键还是要充分利用这些数据。我认为我们必须得朝那个方向走。
Sam Altman:从OpenAI的角度看,德国是我们一个非常重要的市场,是我们在欧洲最大的市场,全球范围内也能排进前五。人们用我们的工具做了很多不可思议的事情。我相信大多数欧洲人都希望AI能在这里发展,用它来推动经济增长、推动科研,同时也希望在欧洲拥有更完善的基础设施。我们对此也同样期待。我们很乐意在欧洲建立一个‘Stargate Europe’,当然需要一些合作与帮助,但我们确实想在这里建一个由欧洲来运作与管理的基础设施,我觉得那非常棒。我们也想把我们的产品在欧洲与世界其他地区同步推出。我觉得一个强大的欧洲对整个世界都很重要。欧洲人也会在此基础上做出很多了不起的创新。当然,欧洲人最终要决定他们想为这项技术制定什么样的规则——我们会遵守。但在我个人看来,让欧洲能够拥抱AI、不落后于世界其他地方,才符合欧洲自身的利益。
Fatma(主持人):那这就直接引出了‘欧洲AI法案’的话题。对于美国公司,面向欧洲市场时,你们怎么看待这些潜在的监管?
Sam Altman:我们会遵守法律,并且尊重欧洲人民的意愿……(笑场)。大家做什么决定,我们就按照规则来。
Fatma(主持人):Nicole,你怎么看?
Nicole Büttner:说到底,我们确实需要在不同的监管体系中寻找利弊,也要考虑这会带来怎样的经济影响和社会影响。我认为,作为一个大陆(欧洲),我们应该能够使用最先进的技术。我看不出拒绝使用前沿技术有什么好处。如果我们想要对一项技术进行塑造和影响,唯一的办法就是拥有它、掌握它、与之共事。我个人非常反对过度监管(尤其是在现在还很早期的时候)。我觉得我们应该尽可能保持创新活力,鼓励更多研发投入。不仅仅是关于具体法规,还关乎一种心态和关注点。我们想让国家最顶尖的人才——坐在这里的所有技术精英——把精力都放在法规上,还是放在机遇和如何解决现实问题上?在这个问题上,我的立场非常明确,我站在‘机遇’这一边。
Volker Markl:我只能表示同意。我认为至关重要的是,我们不要把自己跟这些新技术隔绝,而是拥有试验和探索的能力。当然,最后一定需要一些监管来防范伤害,但如果监管过早介入,就会非常危险,可能会切断经济发展和市场机会,也就扼杀了可能性。
五、OpenAI的开源问题
Fatma(主持人):好的,那我再转到另一个我感兴趣的话题:开源。就在Stargate项目宣布之后不久,又有一条重大新闻:一家中国公司开源了他们的聊天机器人,叫DeepSeek。在大学和科研领域,开源和开放数据一直非常重要,特别涉及到我们之前提到的可解释性和可复现性。Sam,我看到在DeepSeek R发布后,你自己好像也在Reddit上说过,‘OpenAI在开源上站到了历史的对立面’,大致是这个意思。你怎么看待这个所谓的‘开源发布’,以及更一般地,开源对于OpenAI和整个生成式AI竞争格局意味着什么?
Sam Altman:我觉得很明显,开源是有其存在价值的,而且开源模型对世界有好处,可以给人们带来不少价值。至于‘AGI是否应该开源’,这可以有很多争议;但就现阶段的模型来说,我不认为有人会否认‘把它们开源能够带来价值’。我们自己内部也有很多优先事项要权衡,所以说起来容易做起来难。但我乐见世界上有优秀的开源模型存在。
Fatma(主持人):那OpenAI内部目前也在讨论开源吗?
Sam Altman:是的,我们有在讨论,但还没有最终决定。
Fatma(主持人):好啊。Volker,你怎么看开源在这其中的利弊?
Volker Markl:我觉得这里有几方面。第一是开源模型本身,第二是开源训练数据,第三是开源训练过程。这些是不同层面。从科学的角度说,能把这三者都开源当然最有价值,因为这能让我们继续探索、学习,并且在科学上有更多的改进。当然也能理解商业公司投入了巨额资金,可能没有动力去把所有东西都开源。但对科学研究而言,这确实很关键。我认为在科研界,我们会看到开源趋势继续加强,因为可重复性和可信度都需要开源。甚至在一定程度上有助于可解释性。所以这对某些领域或场景的落地也许是必不可少的。还要指出的是,历史上常常是先出现封闭的专有系统,然后在某个阶段(比如市场走向成熟或标准化后),才变得开源。这有时也是跟随者进行市场策略的一部分。所以我觉得未来我们会看到更多的开源模型,也许会看到更开放的训练过程和数据,尤其在特定领域和科学研究中。但你难道不也同意吗?在大型语言模型,或者AI总体领域,早期就有很多东西开源,正是这点让发展速度加快了吗?
Fatma(主持人):‘绝对如此’,正如你所说,这正是关键之处。这也是科学的运作方式:科学就是公开发表、公开的流程。在科学研究的范畴里,这完全合情合理,这就是良好的科学实践——将内容公开。对我来说,这应该——而且通常也确实是所有公共资金支持的科研人员所应当遵守的要求。所以,也许接下来的问题是:你觉得这是不是让整个领域现在变得更加‘公平’了呢?比如在商业公司之间,开源聊天机器人出现后,会不会让更多人都有机会参与?
Nicole Büttner:我觉得可以把这理解为一个创新的生态系统,你需要各个部分共同运作才能充分发挥作用。有人在不断拓展前沿——我们也知道,这里面涉及资源,比如对计算基础设施的获取是关键,不是每个人都能负担得起。至于这是否合理,或者我们社会和经济应该如何来配置,这是另一个层面的问题。我想,的确需要有一些开源的东西,也需要更多人参与进来一起推进某些创新。但对我来说,这并不是一个‘要么开源,要么闭源’的二选一。就像在很多开源技术中,若要把它们应用到企业级别,你还需要再加一层东西。因为你不可能直接把它从GitHub拉下来就投产,这涉及安全、合规、可靠性等一系列问题,都需要额外的解决方案。所以对我而言,这是一个生态圈,双方会并行存在,并在彼此的互动中加速发展,给我们带来多样化,也让每个人都能加入进来、推动边界的拓展。
六、AI能源消耗与数据效率
Fatma(主持人):好。那我想再转向另一个议题,就是Volker还有Sam之前都提到过的‘数据效率’以及‘能源消耗’。我觉得这是在场很多人也非常关心的话题。直到最近,很多AI公司在训练时还在追求更大规模的模型和数据集。大家也在讨论,数据可能逐渐变成瓶颈。我们现在看到的一个趋势,也是在你们之前简短提到的,就是出现了更多‘推理模型’的概念。为了得到更好的答案,这些模型在推理阶段的计算需求在增加。那么,我第一个问题是:相比传统的预训练方法,这些‘推理模型’能带来哪些新的能力?
Sam Altman:这些模型正在变得极其高效。如果你看看‘每个token(或每个推理)所需的瓦特数’,为了得到一个高质量的回答,其实可能已经比让一个人来回答更节能——毕竟人类还需要吃东西来维持机体运转(笑),而且机器只需要电力,而且用量越来越少。它们现在真的是越来越高效了。我记得很久之前,谷歌刚出现时,人们也有过道德恐慌,说‘你发出一次搜索请求就会耗费数据中心大量电力,太糟糕了’。但我当时想,这实际上取代的是人们开着车跑15分钟去图书馆查资料,再开车回来。如果是这样,那显然数据中心用的电跟跑车相比反而要少得多。哪怕你因为搜索更方便而多搜索100次,也还是比开车去图书馆消耗的能源更低。目前AI所占全球能源的比例非常小,而且从‘每次查询’的能耗上看也很高效。要是我们真的担心能源过度使用,有一种极端做法是禁止AI,顺便把计算机和电灯泡也都禁止了,大家都坐在黑暗里。不消耗任何能源,这是一个可选择的世界。但还有另一种选择:我们使用AI,就算它可能需要几百兆瓦甚至上千兆瓦的电力,如果这能让AI帮助我们研究出如何做高效且廉价的聚变,并且能够快速大规模部署在世界各地,那么对解决气候问题将是巨大的推动。我相信这是AI能带来的希望。当然,我也可以在这里跟你分析AI有多么能效高,但我更想说的是:如果我们找不到新的科学方案来应对气候危机,那我们就真的完蛋了。显然,仅凭我们过去几十年的努力进展不够快,那不如试试AI吧。
Fatma(主持人):那么你认为,现在国家电网等能通过可再生能源来满足AI的用电需求吗?
Sam Altman:我觉得在未来几十年里,‘核聚变’将成为地球上主要的能源来源。所以我相信我们最终会完全没问题。
Fatma(主持人):Volker,也许在这个背景下,我想听听你对于高质量数据、以及高效数据管道在AI应用中重要性的看法?
Volker Markl:当然。我同意Sam的看法,我们必须考虑如何更高效地使用数据和模型。但这里有一个问题,那就是:我们能否在训练过程中通过算法上的改进把能耗降下来?因为也许有新的算法可以让训练复杂度从目前的二次方级别降低到N log N,甚至更低。另外,硬件也可能会不断改进,对能耗的降低也会起作用。这也正是科学的意义所在:推动我们在各方面前进。这也是我们研究的内容,很多研究团队在探索如何降低训练复杂度。当然我不是硬件专家,但硬件的进步同样重要,可能会进一步降低能耗。所以这是一个整体性的过程。就像Sam说的,我们应该从整体上看待能耗问题:AI确实会消耗一些能源,但也带来潜在益处。它的‘碳排放/能耗’成本和收益应当放在一起衡量。我们现在所处的时代面临气候变化、能源等很多严峻挑战,要确保AI能帮助解决问题,而不是让问题更糟。所以我们需要非常负责任地对待这些风险。
Fatma(主持人):是的,所以我们需要以一种非常负责任的方式来处理这一切,并时刻牢记潜在风险。好的,那在我们进入Q&A环节之前,我想再问一个更科幻一点的问题:如果我们借用《太空漫游2001》里HAL的场景,你们认为第一个真正达到‘AGI’的基础模型,会不会出现类似‘自我复制’、‘自我改进’、‘自我修改’这样的能力,也就是根据某种‘涌现的需求’自动演化?如果会,你觉得OpenAI或者其他公司会不会觉察到这种行为?在这种情况下,你们会承担什么责任去报告或应对这种社会影响?」
Sam Altman:有些人觉得AGI一定得能自我复制、自我改进、还要造太空探测器之类。可我个人会在它到达那个阶段之前就把它称为AGI。当然,如果我们真的快要靠近那个水平了,我们有责任告诉公众。我们肯定会这么做。
Fatma(主持人):你们会怎么告诉公众呢?怎么去监测到AI有这种‘意愿’?
Sam Altman:嗯,我觉得这个过程会是渐进的,不会说‘哗’一下就发生。大家经常把‘自我改进’想象成一个非此即彼的东西,其实它更像是逐渐演化:先是AI帮科学家加快一点进度,然后是帮助更大程度,然后又能做更多。所以我认为它不会是一个清晰的二元切换,而更像一种速率上的变化。
问答环节
问题1:第一道问题来自Oliver。他说:‘我想听听嘉宾对这样一种观点的看法:我们正用一些类似“魔法”的产品来推动经济和社会发展,而我们自己并不真正了解它们的内部工作原理。打个比方,如果汽车是从一个黑箱工厂出来的,那我们怎么能成功造出可靠的汽车呢?也就是说,我们如何信任这些“黑箱”模型,尤其是当前它们对我们而言确实不透明?
Sam Altman:我每天都在使用一些我并不真正明白其原理的产品。只要我知道某种输入会得到某种输出,我就可以用它。我可以使用一些极其复杂的系统,也许我可以大致解释它是怎么运作的,但我造不出来。比如我知道显微镜是怎么回事,大概能在纸上画个示意图,但要真让我造一台电子显微镜,那我就无能为力了。不过我还可以用它,这对我来说已经足够。当然,我们确实需要确保AI系统达到高水平的可靠性、可预测性和公认的安全标准。但使用者也很聪明,他们大多都懂什么时候该信任,比如ChatGPT在某些事情上的确能帮他们很多,而在另外一些时候则不一定能信。不过大部分用户并不需要自己去训练模型——这就像我们用其他技术产品一样,并不需要知道所有细节。这正是技术产品在经济上带给我们的价值:有人搭建了它,理解或掌握了足够多的原理;虽然我们对它不可能是百分之百的理解,但至少有相当高的理解度。我们的工作就是让它变得非常易用,让你一用就能从中获益,而不用纠结于训练过程中的每一个细节。
Volker Markl:是的,但从系统安全的角度,或者说在传统工程中,我们是通过设计来确保安全和可靠性,还会尽量去证明某些方面是正确的,比如做形式化验证之类。这样我们才放心地去使用它。而对AI来说,目前还远没有达到这种程度。对于那些有‘关键性风险’的场合,比如核电站里的控制系统,这时候出一点误差就可能导致严重事故——我觉得以目前的AI水平,还是不适合用在这些特别极端的领域里。当然,在没那么严苛的领域,我们就可以做权衡。这是社会层面的一种选择:对于某项AI在特定使用情境下可能带来的风险,我们要衡量它是否可接受。就我个人而言,我会认为某些领域目前还是不宜使用AI,至少还不到那种可以彻底放心的程度。
Nicole Büttner:对,我认为这非常依赖具体使用场景。当我们谈可解释性时,也要问自己:‘我们到底要解释什么?’是要知道模型在图像中看到了哪个像素点?还是更关注‘它是否确实在看肿瘤本身,而不是看着肿瘤后面那片组织?’我不确定我们是否需要对所有事都做到‘100%可解释’。我同意前面说的:我们需要先想明白自己真正需要的是什么。在很多场景下,尤其是在安全或健康相关的领域,如果人们不知道模型是怎么得出结论的,他们就会更犹豫是否接受这个结果。所以在这些地方,可解释性就显得更加关键,至少是影响他们的使用意愿。不过我觉得,就像人类一样,我们自己做决策时也没有100%透明的可解释性。所以,目前如果要说对模型提出‘百分之百可解释’的要求,恐怕也是一种幻想。
问题2:好的,下一个问题来自Veronique。她问:我们该如何确保AI只使用‘可信赖’的数据来进行训练,并且遵循FAIR数据原则(Findable可检索,Accessible可访问,Interoperable可互操作,Reusable可复用)呢?
Volker Markl:这涉及到数据集成的问题,需要保证所使用的数据源符合这些原则,并且有一定的验证机制。当然也可以通过半自动化的方式进行,比如在信息抽取和信息集成领域有很多研究,一些方法同样基于机器学习。我们需要真正去应用这些研究成果,并且建立检查与平衡来验证数据。比如,在为特定领域(如病理学)构建某种‘基础模型’时,我们就会注意选择高质量、符合FAIR原则的数据源。简单来说,就是要对这些原则做实实在在的落实。」
问题3:好,我继续下一个问题。Daniel问:‘让AI变得更强大的最大技术挑战是什么?’
Sam Altman:更好的算法、更大的计算机,以及更难的数据集……还有能帮我们更好地从用户反馈中学习‘哪里还有不足’的产品设计。这些都是关键。我想说的是,在未来两年里,我们会看到非常非常巨大的进展。我们已经知道如何让这些模型变得更好,而且目前没有看到明显的路障拦在面前。我们只需要把Stargate建起来,做很多高水平的工程,同时我们的研究人员继续努力探索就行。总的来说,我对从2025年2月到2027年2月之间的进步速度寄予厚望——我觉得这段时间给人的震撼感会比从2023年2月到2025年2月更大。
Volker Markl:是的。我想再补充一点,如何将多模态数据,以及那些在特定应用领域里相对稀疏的数据,以一种有意义的方式结合到模型里,这将会是个非常有意思的挑战。对某些特定领域来说,这可能能大幅提升AI的能力。
Sam Altman:这真是令人兴奋。你们将亲身经历并参与一个‘最快速的技术跃升’,很可能是人类历史上前所未见的。如果我们的预测正确,那么在未来几年里,你们在2027年就能做的事情,远远超出几年前我们所能想象的——不管是你们要做的研究项目、科学发现,还是新创业公司,这些都几乎难以置信。
Nicole Büttner:我们也非常兴奋。我所在的机构也在运营一只基金,投资那些把AI与具体领域相结合的初创公司,例如生物技术(TechBio)、医学领域等等。我认为这是一个特别棒的时代,能看到这一切的演进实在振奋人心。作为投资人,我非常期待!
问题4:好啊。这正好是下一个问题:如果你们现在还是学生,会如何准备好迎接这个未来?
Nicole Büttner:那我先来。我觉得保持‘批判性思考’会非常重要,学会持续思考。近期我了解到一个词叫“Liminality”(过渡状态),指的是介于过去与未来之间、即将发生但未完全成形的一种状态。我觉得我们现在可能就在这种状态里——过去的经验似乎无法再提供足够的选项,而我们感觉到未来正在逼近,但又不确定它确切会是什么样子。所以,要能在这种模糊和不确定的状态下继续前行,并且保持建设性与行动导向,这就意味着拥抱变化,也意味着巨大的机会。我认为这也和心态有关。
Sam Altman:比较显而易见的战术层面是‘熟练使用AI工具’。我念大学时,学编程是很重要的事情;而到了2025年年初和2025年年底之间,编程的形态又会发生巨变。你要站在这个趋势的‘正确一边’,所以要学会使用AI工具,学会如何让自己比以前做得更多、更快,这个非常直接。但还有一些不太明显,但同样重要的技能,比如‘适应力’和‘韧性’,这些可以通过练习来提高,而且会非常关键。此外,‘理解他人需要什么’也是一种可以培养的能力。等AI可以做任何事情、创造任何东西的时候,决定该做什么以及什么东西对人有价值就非常重要了。人类本能地关心别人的需求和别人创造的东西,我觉得这点不会变。有些人会说‘最关键的是提出正确的问题’,但我认为更重要的是弄清楚别人真正想要什么、什么能产生价值、以及如何让AI朝那个方向前进。我过去在Y Combinator做投资时,其中一个最深的体会就是:人们对这项技能的‘可学习程度’比我想象的要高。我们其实可以把它纳入教学中。
Volker Markl:我让你们两个先回答是因为这是个常见问题。我的答案其实一直都一样:过去有一个‘T型人才’(T-shaped)概念,相信很多人都听说过,即你需要既有广度又有深度。我认为这在今天依然很重要。举例来说,如果你学的是计算机科学,那么基础的编程能力就像Sam说的,同时你也需要一个深入的专业方向,比如机器学习算法、数据系统、机器人等。哪怕你在那个领域里学到的具体知识将来会过时,但你依然能保留‘如何快速适应和迁移’的能力——也就是刚才提到的适应力。所以,要在深度和广度上都投入。而当年我们请Eric Schmidt来这里时,也讨论过同样的问题。最后他得出的结论是‘不要只学市场营销’,因为那仅仅是广度方面。当然,懂一点市场营销也不错,但更重要的是你一定要有某种技术深度。所以我个人认为,遵从‘T型人才’的思路,会是个不错的指导方针。
问题5:这是对在座学生很好的建议。我再问一个最后的问题,请几位简短回答:你们对于‘2025年的AI’最期待的是什么?或者说最让你兴奋的是什么?
Sam Altman:我还是坚持‘加速科学进展’这个答案。
Volker Markl:对,我也觉得未来的科学研究会有剧烈的变化,AI会在科研过程中提供强有力的支持。我对这一点非常兴奋。我也很期待在‘新系统’层面上的发展。对现在从事AI和数据领域研究的我们来说,这是非常激动人心的时代,各种机会层出不穷。比如说创业的机会。同时在基础研究方面也有很大空间。虽然AI发展很快,但仍有很多开阔领域可以去探索。所以我也鼓励大家,要么在学术界,要么创业,要么去工业界,都可以投身进来,因为这就是未来,而这也令人非常兴奋。
Nicole Büttner:我非常期待比如在TechBio和医学上的应用。通过对人体和疾病的更深入理解,能开发出更有效的疗法,这让我觉得特别棒。我也对制造业和物流领域的应用感到好奇。有太多有趣的事情会发生,而AI会真正深入到核心业务层面,创造新商业模式。我觉得我们会从目前的‘知识检索’层面逐步深入到业务最核心的部分,而这将非常令人期待。
星标公众号, 点这里 1. 点击右上角 2. 点击"设为星标" ← AI深度研究员 ⋮ ← 设为星标
原文链接:https://www.youtube.com/watch?v=McuO7Osgzqo&ab_channel=TUBerlinTV
来源:官方媒体/网络新闻
排版:Atlas
编辑:深思
主编:图灵
热门跟贴