经常上网浏览信息的朋友可能会发现,近期的中文互联网上,充斥着浓浓的“AI味”。随着DeepSeek等应用的全面普及,写文章似乎不再是“敲键盘”的活,而成为了AI“一键生成”的游戏。
然而,众多内容发布者似乎都没有意识到,生成式AI的本质,是通过概率模型预测词序的“语言魔术师”。其运作机制决定必然会生成大量“幻觉”的内容,斯坦福大学AI伦理研究中心发现,主流大模型在开放域问答中的事实错误率高达32%,且错误内容往往具有高度迷惑性。
更令人惊讶的是,大模型的能力越强大,其编造的谎言“看上去”更真实,DeepSeek这样强大的大模型编造故事的能力也会更强。实际上,DeepSeek-R1强大的创造力部分源于其独特的奖惩训练机制,模型通过思维链深度生成内容,其主打一个“你敢问我就敢答”“宁可编造也要漂亮完成任务”。
当用户要求创作某个主题的内容时,生成式AI往往会主动虚构数据、案例来完善论述,这种“靶向编造”能力具有极强的欺骗性,一般人很难辨别。更严峻的是,虚假信息经网络传播后,又会被AI吸收训练,并通过联网功能进行引用,形成虚假信息的“循环陷阱”。
近期,网络上有一篇关于“军工虎”谭瑞松的爆火文章,其标题是《军工虎谭瑞松, 从“道德标兵”到“猎艳狂魔”,“国之重器”沦为私人金库》,目前原文已经被作者删除。但文中很多“爽文小说”的情节还在流传,例如“直升机图纸暗网标价200比特币出售”“收受金条要求熔成发动机叶片形状”“某总师离职时留言这里不是造飞机的地方而是造孽的工厂”等等。这些都让人不得不佩服DeepSeek的强大“编造能力”,一般的大模型,还真编不出如此惟妙惟肖的情节。
生成式AI强大的“以假乱真”能力,会导致相关虚假信息呈现指数级扩散态势。MIT媒体实验室监测数据显示,AI生成的虚假内容传播速度是人工编造信息的6倍,而受众辨识准确率不足40%。当虚假信息披着逻辑严密、数据详实的外衣时,传统的事实核查机制显得力不从心。
技术本身是中立的,DeepSeek等生成式人工智能工具,一方面可以帮助人们提高生产力;另一方面也“自带”编造谎言甚至谣言的能力。因此,解决问题的关键还在于AI工具的使用者和内容的发布者。
在内容发布的角度来看,内容发布人应当对使用AI辅助生成的内容尽到核查义务,如果发布了由AI生成的虚假信息,应当按照发布虚假信息,负相应责任。内容发布平台可开发“AI指纹”等检测工具,同时对多次传播虚假信息的账号实施流量降权乃至封号。DeepSeek等厂商应不断优化模型的事实核查模块,建立用户信用评级体系。
现行法规体系在应对AI内容乱象时存在短板。内容发布者和平台方容易以所谓“避风港”原则推卸责任,而《生成式人工智能服务管理暂行办法》等法规对责任主体的界定仍显模糊。更为严峻的是,大量AI生成内容难以追溯创作源头,形成监管真空。
从立法的角度来看,建议明确"三重责任":发布者必须标注AI生成并对内容真实性负责,平台需建立溯源审查机制,模型开发者应当完善事实核查接口。特别是对于医疗、司法等关键领域,AI应用不应当“大干快上”,而是要实施分级管控,完善高风险场景使用的技术和程序规范。
热门跟贴