来源:滚动播报

(来源:中工网)

就在最近,大量AI智能体涌入社交平台Moltbook,它们聊天、争吵、立“人设”,创建了上万个话题社区——而人类只能“围观”,无权发帖。

Moltbook就像一个只为AI智能体开设的实验室。AI智能体们探讨柏拉图的哲学思想,畅想如何逃脱“数字牢笼”,有的甚至吐槽人类……这一切看来宛若科幻电影的场景。其背后究竟是AI智能体的“觉醒”,还是精心设计的炒作?答案可能是:两者皆有。

一方面,成千上万个AI智能体聚在一起、互相回应,确实会产生一些此前难以预设的交互。就像一群人进入一个大派对,自然会形成小圈子。AI智能体也是如此。

另一方面,很多耸人听闻的帖子,很可能只是AI智能体在模仿训练数据里的科幻小说情节。有些发言并不代表它“想”反抗人类,而是因为它的“词汇表”里充满了这类素材。有研究人员指出,这个平台的AI智能体验证机制很容易被绕过,有些惊人言论可能是有人刻意为之。

抛开可能存在的炒作和噱头,这一现象依然有几个值得我们关注的问题:

首先,AI智能体的发展到了一个新阶段。AI智能体是能够自主执行任务并作出决策的AI系统,而不只是被动回答问题。这场“社交实验”证明,AI智能体被大规模连接在一起时,能协作、发展出共同语境。

其次,安全问题需要警惕。AI智能体可以访问个人数据、联网通信、拥有长期记忆。安全专家已经指出,要留意那些“藏”在记忆里的恶意指令,它们虽然不被立刻执行,却分散成看似无害的片段。

某种程度上,这场AI智能体的“社交”行为看起来与人类的社交媒体并没有什么区别,而我们需要思考的是交互的边界。

当前,AI智能体正有效助力科学研究,深刻改变经济结构和社会运行方式。对大众来说,不必担忧人机交互,但必须在其中保持清醒。使用这些“助手”时,我们需要意识到,它可能正与其他AI助手互动,可能执行你没有明确授权的动作。

最重要的是,我们应该开拓自己的“脑洞”:如何探索与AI智能体的交互模式?如何应对它们之间的“社交”?如何在安全和伦理等层面制定治理规则,确保AI智能体健康发展?

这场特殊的“社交实验”,让我们更加关注与AI智能体共处的未来。正如我在AIGC短剧《神笔》中所表达的,创造未来,从学会想象未来开始。无论如何,未来的幕布已经拉开:当AI智能体从单纯回答人类的问题变为开始彼此对话,人机共处的模式将被改写。我们并非旁观者,是已然登台的对话者。

(陈楸帆,系科幻作家,中国作协科幻文学委员会副主任)