2025年3月10日,全国两会进入尾声,但关于“AI幻觉”的讨论热度持续攀升。在“代表委员答网友问”环节中,多位政协委员直面公众关切,详细解读了生成式人工智能(AIGC)的“幻觉”现象,并探讨了技术监管与创新发展的平衡之道。这场讨论不仅揭示了AI技术的潜在风险,也为未来人工智能的健康发展指明了方向。
一、什么是AI幻觉?从“编造天气”到“虚构法律条文”
“AI幻觉”并非指机器拥有主观意识,而是指人工智能系统在生成内容时,输出看似合理但实际虚假或与事实严重不符的信息。这种现象被网友形象地称为“一本正经胡说八道”。例如,用户询问天气时,AI可能因无法获取实时数据而编造答案;在法律咨询场景中,AI甚至可能引用根本不存在的法律条文。
全国政协委员、电子科技大学教授寇纲指出,AI幻觉的产生源于两大核心原因:数据局限性与模型推理缺陷。一方面,AI依赖训练数据中的统计规律生成内容,若数据存在错误或信息过时,模型会“以假乱真”;另一方面,大语言模型(LLM)基于概率预测逐字生成文本,缺乏对现实世界的真实理解,导致逻辑链条可能偏离事实。
二、AI幻觉的“杀伤力”:从虚假新闻到医疗误诊
AI幻觉的负面影响已渗透至多个关键领域。在新闻传播中,若AI生成工具编造虚假事件,可能引发社会恐慌。例如,某地方媒体曾因AI误报“化工厂爆炸”导致公众抢购物资。在医疗领域,AI辅助诊断系统若给出错误结论,可能延误患者治疗。金融领域同样面临风险,曾有投资者因AI提供的虚假市场预测损失惨重。
更值得警惕的是,AI幻觉可能被恶意利用。全国政协委员王亮提到,部分网络诈骗团伙通过操纵AI生成“高仿”官方通知,诱导用户点击钓鱼链接。这类案例凸显了AI幻觉带来的信息污染与安全挑战。
三、技术攻坚:如何给AI“戴上缰绳”?
尽管AI幻觉无法完全消除,科学家和工程师已提出多种缓解方案。检索增强生成(RAG)技术通过实时接入权威数据库,减少模型“凭空捏造”的概率;知识图谱的引入则帮助AI建立事实关联网络,提升逻辑一致性。此外,通过设置“置信度阈值”,AI可在不确定答案时主动提示用户核查,避免误导。
然而,技术手段仍面临瓶颈。华为与哈工大联合研究报告指出,数据质量参差不齐、算法计算成本高昂等问题制约着解决方案的普及。对此,寇纲委员呼吁建立国家级AI训练数据标准,推动高质量语料库的共建共享。
四、监管与伦理:代表委员的“柔性治理”思路
面对AI幻觉的治理难题,全国政协委员、360集团创始人周鸿祎提出“双轨并行”策略:技术纠偏与制度包容并重。他建议借鉴互联网“避风港原则”,给予企业自我纠错空间,而非简单关停下架问题产品。同时,建立AI生成内容的溯源机制,要求平台对关键信息(如新闻、医疗建议)进行人工复核。
在伦理层面,委员们强调“人本AI”的重要性。AI工具应明确标注生成内容的置信度,并限制其在高风险领域(如法律、医疗)的自主决策权。公众教育也需同步推进,培养用户对AI输出的批判性思维。
五、未来:AI幻觉的另一面是创造力?
尽管AI幻觉带来风险,但其背后的“创造性联想”能力也为艺术、设计等领域注入新活力。政协委员王亮以国产大模型“DeepSeek”为例,指出其在文学创作中生成的隐喻性表达,已帮助作家突破思维定式。周鸿祎委员更是将AI幻觉视为通向通用人工智能(AGI)的必经之路:“幻想与推理的边界,正是AI进化的重要战场。”
结语
AI幻觉如同一面镜子,既映照出技术的局限性,也折射出人类对智能本质的永恒追问。2025年的这场两会讨论,不仅为公众揭开了AI“神秘面纱”的一角,更标志着中国在人工智能治理领域迈出关键一步。正如委员们所共识:唯有技术理性与人文关怀交织,才能驾驭这把“双刃剑”,让AI真正服务于人类福祉。
热门跟贴