人工智能技术正以惊人的速度演进。从最初的图像识别、文本理解,到如今能够解答竞赛级数学题和博士级科学问题,AI的能力边界持续拓展。回顾下发展历程:2015年实现图像分类突破,2020年攻克视觉推理,2024年已能应对博士级难题。目前在8项关键任务中,仅多模态理解与复杂推理两项尚稍逊于人类,而这两项能力自2023年以来也在快速提升。这种发展态势使得越来越多专家推测,AI在主流基准测试上全面超越人类的“奇点时刻”或许不再遥远。
AGI时间表:产业乐观与学术审慎形成鲜明对比
当前AI虽在特定任务中表现卓越,但仍属于“狭义AI”范畴。能够跨领域思考、媲美甚至超越人类能力的通用人工智能(AGI),已成为各国和科技巨头竞相追逐的目标。中国明确将AGI发展置于战略高度,美国建议启动“曼哈顿计划”式攻关项目,沙特更是设定了2050年实现AGI的宏伟目标。OpenAI、DeepMind等领军企业也将AGI作为核心使命。
然而,对于AGI何时能够实现,业界领袖观点迥异。OpenAI首席执行官山姆・奥特曼预测2025年即可达成,埃隆・马斯克认为最晚不超过2026年。与产业界的乐观形成鲜明对比的是学术界的审慎声音。斯坦福大学李飞飞教授提出“AI仍处于前牛顿时代”的观点,西安交通大学郑南宁院士强调AGI发展“充满不确定性”。图灵奖得主杨立昆则明确指出“仅靠大语言模型无法实现AGI”。
更根本的争议在于AGI概念本身。这个自1997年提出的术语至今缺乏统一定义。杨立昆和阿莫迪都公开表示不认同这一概念,李飞飞坦言“不知AGI具体何指”。机器学习先驱Thomas Dietterich的批评更为尖锐,认为“无人能不以拟人化方式定义AGI,此概念缺乏科学性,使用它应当感到羞愧”。
历史镜鉴:七十载预言与现实差距
人工智能发展七十年来,每次技术突破都会引发AGI的热烈讨论。2016年AlphaGo成功之后,有调查显示近半数受访者认为AGI将在2030年前实现。明斯基断言“三到八年可造出具备人类智能的机器”,这些预言均未如期实现。
面对AGI的潜在到来,人类既期待其带来巨大福祉,又担忧其被滥用甚至失控的风险。杰弗里·辛顿警告“无人知晓AGI来临后的局面,安全研究严重滞后”,马斯克与他都认为AI引发末日级灾难的概率高达10%-20%。AGI究竟是文明的福音还是潜在的威胁?这个问题尚无定论,但可以肯定的是,人类社会需要为可能到来的AGI时代做好更充分的准备。
热门跟贴