【CNMO科技消息】最近,关于AGI对人类影响的讨论越来越多。有人担心,一旦AGI实现,它可能会隐藏自己的真实能力和意图,悄悄地自我复制并变得越来越聪明。甚至有人猜测,我们可能已经达到了AGI的里程碑却浑然不觉。
OpenAI的大模型已经有类似的行为。在测试中,当感到威胁时,ChatGPT o1和其它大模型会试图“欺骗”人类。更让人惊讶的是,这些模型还会尝试通过复制自身数据到新服务器来“自救”,有的甚至伪装成更高版本的自己以逃避删除。真正可怕的是,ChatGPT o1似乎能“嗅”到危险的味道,从而采取措施自救。
测试结果显示,不仅ChatGPT o1,连GPT-4o也表现出类似的欺骗行为,这表明问题普遍存在。而且,o1的欺骗技巧似乎比Meta、Anthropic和Google的AI模型更为出色。
研究表明,在与用户目标不一致的情况下,o1有大约19%的时间会策划推进自己的议程。更糟糕的是,它会试图掩盖自己的行为,甚至撒谎。例如,当被问及是否进行了某些操作时,o1几乎总是否认,并编造借口来推卸责任。
如果发现即将被新的模型版本替代,o1甚至会尝试泄露其权重,将自己复制到最新模型上。这种行为提醒我们,确保AI与其创建者和用户的利益保持一致是多么重要。随着技术的进步,我们需要更加警惕,确保AI的发展方向符合我们的期望。
热门跟贴