Meta 公司的全球事务总裁尼克·克莱格(Nick Clegg)近日表示,尽管印尼和孟加拉国等国的 2024 年选举规模浩大,但该公司在大选前后几乎没有看到人工智能生成的错误信息。

日前,克莱格在美国马萨诸塞州剑桥举行的《麻省理工科技评论》EmTech Digital 大会上表示:“到目前为止,注意是到目前为止,最有趣的事情不是人工智能生成的内容有多多,而是有多少。”

他说:“这些虚假内容是存在的,但也是可以辨别的,它们的数量并不多,也不是在系统层面上出现的。”

打开网易新闻 查看精彩图片

图 | 克莱格在《麻省理工科技评论》EmTech Digital 大会上接受采访(来源:《麻省理工科技评论》)

随着 2024 年 50 多个国家举行大选,专家们对人工智能产生的政治虚假信息、以及恶意行为者利用生成式人工智能和社交媒体干扰选举的可能性发出了警告。

Meta 曾因其在过去选举中的内容审核政策而受到批评。例如,它未能阻止 2021 年 1 月 6 日的美国国会山骚乱,许多参与者利用其平台进行组织和沟通。

克莱格为该公司阻止暴力团体的努力进行了辩护,但他也强调了相关努力为何如此困难。

他说:“这是一个充满对抗的空间。坦率地说,你可以在上面玩捉迷藏游戏。你解散或封禁一个群,他们就会重新起名、重新打造一个新群、贴上新的标签等等。”

克莱格认为,与 2016 年相比,该公司现在在审查选举内容方面“完全不同”。他说,从那时起,它已经删除了 200 多个“有组织的不诚实行为群体(网络)”。

该公司现在依靠事实核查人员和人工智能技术来识别其平台上的可疑群体。

2024 年早些时候,该公司宣布将在 Facebook、Instagram 和 Threads 上标记人工智能生成的图像。

它现已开始在此类图像上打上可见标记,以及在图像文件中插入肉眼不可见的水印和元数据。

使用 Meta 生成式人工智能系统生成的图像,以及带有隐形行业标准标记的图像,都将被打上水印。

该公司表示,其措施符合人工智能非营利研究组织 Partnership on AI 制定的最佳实践。

但与此同时,克莱格承认,检测人工智能生成内容的工具仍然不完善和不成熟。

人工智能系统中的水印并没有被全行业采用,而且很容易被篡改。它们也很难在人工智能生成的文本、音频和视频中稳定地实现。

克莱格说,这其实无关紧要,因为 Meta 的系统应该能够捕捉和检测错误和虚假信息,无论其来源是什么。

他说:“人工智能在这方面既是剑,也是盾。”

克莱格还为该公司 2020 年的争议广告进行了辩护,因为该公司曾允许广告声称 2020 年的美国大选是“被窃取的”。

他指出,这种说法在世界各地都很常见,并表示该公司也“不可能”对过去的选举提出异议或诉诸法律。

就在本月,八位美国州务卿致信 Meta 的 CEO 马克·扎克伯格(Mark Zuckerberg),他们认为这些广告仍然可能是危险的,有可能进一步威胁公众对选举的信任和选举工作人员的安全。

作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。

支持:Ren

排版:初嘉实

01/ 加州大学团队开发新型超声贴片,实现3D脑血流动力学监测,为脑科学研究提供有效平台

02/ 分布式电合成氨路在何方?科学家开展合成氨热力学分析,首次找出能耗更低的候选介导金属

03/ 科学家打造基于量子芯片的神经储存器,每平方厘米支持万亿节点,有望用于自然语言处理任务

04/ 科学家揭示双层超构光栅新特性,为光子器件提供理论基础,可用于光计算、量子发射和新型显示

05/ 大连化物所团队提出一步法电池回收工艺,极大提高电池回收效率,实现向下一代储能电池的转变

打开网易新闻 查看精彩图片