2026年初的AI圈,被一句话搅得底朝天。
Anthropic联合创始人丹妮拉·阿莫迪在一场闭门会上突然说,“AGI可能已经实现了。”
这话一出,在场的工程师们手里的咖啡差点没端稳,要知道,以前大家聊AGI,都是说“未来十年可能出现”的事儿。
以前提到AGI,我脑子里都是电影里那种能思考、有情感的机器人。
但丹妮拉这话的意思,好像跟咱们想的不太一样。
她觉得,不用等AI变成“全能选手”,只要在某些关键领域超过多数人类,就算摸到AGI的边了。
最早研究AGI的时候,科学家们想得挺美,觉得得造一个“啥都会”的机器,能写代码、能解物理题、能跟人唠嗑,甚至能自己生孩子(当然是机器人的那种)。
那会儿的标准叫“通用人工智能”,重点在“通用”两个字,得跟人类一样全面。
丹妮拉偏不这么看,她在采访里说,“为啥非得让AI跟人比‘全面’?人类自己都不是全能的。”
她觉得现在的AI,比如自家的Claude,在编程、科学推理这些领域已经超过不少专家了,这就该算AGI的“局部突破”。
这话不是空穴来风,Anthropic内部测试,让Claude跟20个资深工程师比写代码,结果Claude不光完成速度快一倍,bug率还低了不少。
有个参与测试的工程师私下跟我说,“以前改代码靠经验,现在得靠Claude‘教’我哪里错了,感觉自己像个刚入门的学徒。”
不光是编程,科学推理也一样。
前段时间有个医学团队用Claude分析复杂病例,它居然从一堆数据里揪出了一个被人类专家忽略的病因。
团队负责人后来苦笑,“以前觉得AI就是个工具,现在得把它当‘同事’请教了。”
丹妮拉这话一出口,行业里立马分成两派。
她哥哥达里奥·阿莫迪(也是Anthropic的老板)倒是挺支持,说“2026-2027年强AI系统肯定会出来”,还举了GPT-5.2的例子,去年底发布的这个模型,在知识类任务里跟人类专家较量,赢面加平局能到七成左右。
但反对的声音也不小,MIT的AI伦理专家梅根·穆雷就直接怼,“这是偷换概念,”她觉得现在的AI就像“偏科的学霸”,数学能考满分,让它判断“妈妈为什么生气”这种常识题,可能就抓瞎。
“连基本常识都搞不定,也好意思叫AGI?”还有些工程师更实在,觉得这就是“营销话术”。
一个在谷歌DeepMind工作的朋友跟我吐槽,“他们家Claude写代码是厉害,但让它设计个电路板试试?还得靠人一步步教。
现在吹AGI,无非是想让投资人多投点钱。”
吵归吵,有个现象倒是真的,AI进步的速度比咱们想象的快。
就说ClaudeCode吧,去年还得靠工程师改代码,今年已经能自己迭代优化了,八到九成的代码是它自己写的,人只需要告诉它“要做什么”。
这种“自我进化”的能力,确实让不少人心里打鼓。
普通人可能觉得这些离自己很远,但其实变化已经在身边发生了。
我邻居是个做财务的,以前月底对账得加班两天,现在用AI工具半小时搞定。
她说,“以前觉得自己经验足不怕被替代,现在得学怎么‘指挥’AI干活,不然真怕被淘汰。”
有个教授跟我开玩笑,“以前考试防作弊,现在得防AI帮学生作弊,不过话说回来,以后工作不就是要会用AI吗?堵不如疏。”
有个参与监管制定的专家私下说,“我们开会时还在讨论‘AI要不要交税’,结果技术已经跑到前面去了,这种感觉就像用老地图找新路,总怕走错方向。”
丹妮拉的观点虽然激进,但确实戳中了一个点,AGI的定义早就该更新了。
以前我们总想着“AI什么时候能像人一样”,现在可能该想“AI能帮人做到什么以前做不到的事”。
不管AGI算不算“已降临”,有个道理是肯定的,以后的世界,不是“人vsAI”,而是“会用AI的人vs不会用AI的人”。
与其纠结定义,不如赶紧学怎么跟这个“新同事”好好相处,毕竟它可不会等我们准备好。
热门跟贴