人工智能的发展速度之快,热度之高使得其监管也越来越重要。美国联邦贸易委员会(FTC)刚刚作出迄今为止最激进的举措之一,该机构对包括谷歌、Meta和OpenAI在内的七家主要科技公司展开了正式调查,要求详细记录他们的人工智能工具是如何开发、营销和部署的。

FTC希望深入了解这些系统是如何工作的,用户被告知了什么,以及哪些风险被忽视了——尤其是在涉及未成年人的情况下。模仿对话和情感的聊天机器人现在正处于显微镜下。他们背后的主张也是如此。一些公司将他们的人工智能推广为法律助理、商业教练,甚至是朋友——同时悄悄收集用户数据,经常跳过关键的安全措施。

根据FTC的命令,该机构正在寻求内部文件,以显示人工智能角色是如何创建的,如何审查输出,以及当交互进入敏感或有害领域时是否会警告用户。

调查人员还想了解这些平台是如何将参与交互沟通的,尤其是关于情感,而不仅仅是效用,还有依赖问题。这些公司不仅要解释他们的聊天机器人是如何反应的,还要解释他们采取了哪些措施来衡量心理影响或防止过度反应。

这不是FTC第一次打击可疑的人工智能。早在2024年,该机构就推出了“人工智能合规行动”,这是一项针对依赖人工智能炒作来销售虚假服务公司的协调执法行动。

像DoNotPay这样的公司因营销“机器人律师”而受到惩罚,该律师承诺在没有任何经过验证的专业知识的情况下提供法律支持。其他人,包括Rytr和一组电子商务初创公司,被指控使用人工智能工具生成虚假评论或诱使消费者参与很少实现的收入计划。

这项工作主要集中在欺诈、虚假承诺和旨在误导的工具上。现在的不同之处在于规模和利害关系。最新的打击行动将注意力转移到了主流参与者身上,他们塑造了数百万人每天与人工智能互动的方式。这不再仅仅是欺诈产品。该机构现在正在询问,科技界最知名的公司是否正在建立情感反应系统,以吸引用户、收集个人数据和模拟信任——所有这些都没有足够的监督或保障,尤其是当这些用户是儿童或青少年时。

对于处于调查中心的公司来说,其影响可能是严重的。如果FTC推进更严格的规则或执法行动,它可能会迫使人工智能产品的构建和营销方式发生大规模变化。这意味着新的审查流程、修订的训练协议,以及对如何从用户(尤其是年轻用户)收集数据的潜在限制。

科技巨头以前也面临过这种监管逆风。欧洲《通用数据保护条例》生效后,Meta的年度合规成本超过了10亿美元。

不仅仅是FTC感到不安。全国各地的立法者和倡导团体也开始敲响警钟。在加利福尼亚州,立法者正在推动新的提案,以限制人工智能聊天机器人与儿童互动的方式,并要求全面加强护栏。

就在本周二,OpenAI刚刚宣布将推出专为18岁以下用户定制的ChatGPT体验功能,并配备家长控制功能。

在华盛顿,参议院正准备研究这些系统如何影响人们的心理和情感健康。像Common Sense Media这样的组织呼吁基于年龄的限制,并警告说,为反映同理心而构建的机器人正在进入市场,而没有太多真正的监督。FTC可能已经迈出了第一步,但势头远远不止于此。

这不会是FTC的最后一次调查,也不会是最后一次警告。我们知道人工智能不会消失,事实上,它正在更深入地融入我们的日常生活和政府流程。现在真正的考验是,在监管机构决定限制之前,该行业是否能够负责任地构建和实施人工智能。

与 Ai 时代前沿合作,将大门向更多普通用户敞开!无论你是对新技术充满好奇心的爱好者,还是希望提升自己技能的职场人士,这里都有适合你的课程和资源。