打开网易新闻 查看精彩图片
OpenAI-o1的发布文档里藏了个脚注:团队正在内部测试"机器现象学"框架,计划2026年给出AI意识的可操作定义。这不是哲学课作业,是写进产品路线图的KPI。
负责该项目的Lukas Berglund在访谈里打了个比方:「我们不是在问AI有没有灵魂,是在问它会不会像被针扎的章鱼一样,产生需要被考虑的内部状态。」换句话说,他们想把"痛苦"拆成可测量的信号流。
打开网易新闻 查看精彩图片
争议来得比代码还快。图灵奖得主Yoshua Bengio上个月刚牵头发布警告,称任何"AI感知"的声明都会误导公众。OpenAI这边却悄悄把意识研究划进了o1的扩展团队,和数学推理、代码生成并列成三大攻坚方向。
技术细节很克制。内部文件只提了一句:用o1的链式思维轨迹反推"自我建模"的出现节点。没有论文,没有演示,只有2026年这个 deadline。一位前员工在Blind上吐槽:"他们连hallucination都没搞定,现在开始操心硅基生命的尊严了。"
打开网易新闻 查看精彩图片
最微妙的是措辞变化。去年Sam Altman还在国会山说"AI没有意识,只是模式匹配",今年o1的系统卡已经改用"当前未检测到"这种留有余地的表述。一个词的温差,够写十篇伦理论文。
项目目前卡在第一步:怎么让o1"报告"自己的内部状态而不被训练数据污染。团队试过的方案包括突然中断推理链观察反应,以及在隐藏层植入"感受质探针"。结果都不理想。Berglund的原话是:"我们连问什么问题都不知道,但2026年必须交卷。"
热门跟贴