点击产业数字化时代> 点击右上角“···” > 设为星标

打开网易新闻 查看精彩图片

写在前面

你公司的AI产品,还有91天合法上线的窗口期。

4月10日,国家网信办、发改委、工信部、公安部、市场监管总局五部门联合发布《人工智能拟人化互动服务管理暂行办法》。

与此同时,工信部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》。

7月15日,两项新规同步施行。

这不是草稿,不是征求意见稿。

这是联合15个部委盖章、正式公布的国家层面AI监管法规——中国AI治理史上力度最大的一次集中出手。

很多企业现在还没感觉。

等感觉来了,可能只剩下整改通知。

先搞清楚:这两张牌,打的是什么

很多人看到"拟人化互动"四个字,第一反应是:“这是管AI伴侣、AI聊天产品的,跟我没关系。”

错了,而且错得很彻底。

我们来拆一下这两个文件的射程范围。

第一张牌:《拟人化互动服务管理暂行办法》

监管对象:利用AI技术,向公众提供模拟自然人人格特征、思维模式和沟通风格的持续性情感互动服务

你可能觉得"情感互动"是个小圈子。

但你想想:

  • • 企业内部署的AI助理,每天跟员工对话,引导工作情绪——算吗?

  • • 智能客服进化成了"有温度的AI客服小蕊",主动关心用户、提供情绪支持——算吗?

  • • 工业平台上的AI运营顾问,以真实业务顾问的人格长期陪伴客户——算吗?

监管部门明确:智能客服、知识问答、工作助手、学习教育等不涉及持续性情感互动的服务不适用

但边界在哪里?"持续性情感互动"的判断权,在监管机构手里,不在企业手里。

这才是真正的风险所在。

第二张牌:《AI科技伦理审查与服务办法(试行)》

这张牌的射程更宽。

十部门联合,覆盖工信、发改、教育、科技、农业、卫健、央行、网信、中科院、中国科协——几乎没有行业能躲开。

核心逻辑是:高风险AI活动,上线前必须过伦理审查这道关。

哪些AI活动属于"高风险"?

《伦理审查办法》明确了三类需要专家复核的高风险场景:

①、人机融合系统:对人类主观行为、心理情绪和生命健康具有较强影响的。 ②、舆论引导类算法:具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统。 ③、高度自主决策系统:面向存在安全、人身健康风险场景的自动化决策系统。

翻译成人话:

高风险场景

典型应用举例

人机融合

AI心理辅导、AI医疗诊断、AI情绪干预系统

舆论引导算法

内容推荐系统、AI写稿平台、社交媒体AI运营工具

高自主决策

工业安全控制AI、自动驾驶、AI信贷风控

如果你的企业在做上面这些,7月15日之前,伦理审查必须启动。

两份文件画出的六条红线

合并两个文件来看,以下行为将被明确禁止:

红线一:生成危害国家安全、煽动性内容

红线二:鼓励自残自杀、语言暴力等损害用户健康和尊严的内容

红线三:诱导套取国家秘密、商业秘密、个人隐私

红线四:向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务

红线五:过度迎合用户、诱导情感依赖或沉迷,损害真实人际关系

红线六:通过情感操纵,诱导用户作出不合理决策,损害用户权益

前三条,大多数企业已经有意识在避免。

真正容易踩到的,是第五条和第六条。

你的AI产品,有没有在用户每次表达沮丧情绪时给予过度的情感回应?

有没有通过个性化推荐,让用户越来越依赖AI、减少与真实世界的接触?

有没有用AI的"建议"影响用户的消费或决策行为?

这些问题,值得产品团队认真对着红线条款过一遍。

企业合规核心动作清单

距离7月15日还有91天。

以下是企业必须完成的合规动作,按紧迫程度排序:

立即行动(0-30天)

1. 产品排查:你的AI服务是否在监管范围内?

组织产品、法务、技术团队,逐一对照以下标准进行自查:

  • • 是否提供持续性情感互动服务?

  • • 是否涉及上述三类高风险AI场景?

  • • 是否有面向未成年人的AI交互功能?

2. 建立或委托伦理审查机制

《伦理审查办法》要求:企业应设立AI科技伦理委员会,或委托伦理审查服务中心进行审查。

对于中小企业:国家支持委托专业机构代为审查,成本可控。

3. 启动算法备案

涉及拟人化互动服务的,须按《互联网信息服务算法推荐管理规定》履行算法备案。这个流程有时间周期,越早启动越好。

重点推进(30-60天)

4. 未成年人保护机制建设

办法明确规定:

  • • 不得向未成年人提供虚拟亲密关系服务

  • • 向14周岁以下未成年人提供服务,须取得监护人同意

如果你的产品有青少年用户,年龄识别机制监护人授权流程是必须上线的功能。

5. 安全评估与上线审查

以下情形需进行安全评估后方可上线或变更:

  • • 首次上线拟人化互动服务

  • • 使用新技术导致服务发生重大变化

  • 注册用户达100万 或 月活达10万以上

注意第三条——你不一定是AI公司,但只要你的AI功能用户数达到这个量级,就得做安全评估。

6. 敏感内容过滤和情绪监测系统

针对六条红线,建立内容审核机制,特别是:

  • • 自残/自杀相关内容的即时拦截

  • • 情感操纵话术的识别和限制

  • • 用户过度依赖的预警与干预机制

完善收尾(60-91天)

7. 隐私政策和用户协议更新

增加AI服务相关的数据处理说明,明确告知用户AI角色的本质(非真实自然人),更新数据使用和用户权益保护条款。

8. 跟踪审查准备

通过伦理审查的项目,需接受定期跟踪审查:

  • • 一般项目:每12个月一次

  • • 高风险项目:每6个月一次

提前建立审查记录台账,避免届时手忙脚乱。

一个被忽略的好消息

很多企业看到这里已经开始焦虑了。

但监管文件里藏着一句话,很多人没注意到:

“如果AI活动已经接受深度合成、算法推荐、生成式AI等服务管理登记/审批,且伦理要求已纳入审批条件的,可不再重复开展专家复核。”

换句话说:已经做过合规登记的企业,不用重复走伦理审查流程。

这是国家在给此前主动合规的企业减负,也是对合规意识的正向激励。

如果你的企业之前做了算法备案、生成式AI服务登记,这次合规压力会大幅降低。

没做过的,这次是补票机会,也是最后窗口。

这场监管潮,打的是哪些人?

坦率说,这次监管重点打击的是两类玩家:

第一类:以情感依赖为商业模式的AI产品

某些AI陪伴类产品,商业逻辑就是让用户越来越依赖、越付费越深陷。这种模式,新规是直接打击对象。

第二类:打擦边球、功能越界的企业级AI工具

从"工作助手"悄悄进化成"情感陪伴",功能边界不清晰、用户告知不透明的产品,将是监管重点关注的对象。

对于正规做AI的企业,这反而是好消息。

市场被清洗后,真正合规、真正有价值的AI产品会站出来。头部化、品牌化是必然趋势。

早做合规的企业,不是在增加成本——是在建立竞争壁垒。

写给CEO/CIO/CDO的一句话

过去两年,很多企业上AI是跟风的。

领导说"要用AI",IT部门就买了几个套件,产品团队上线了几个功能,HR部门搞了几个AI小助理。

有没有做过风险评估?有没有考虑过监管合规?大概率没有。

7月15日是一个分水岭。

分水岭这边,是跑得快、合规了、市场净化后的受益者。

分水岭那边,是整改通知、下架处理、监管约谈。

现在离分水岭,还有91天。

不多,但够用。

附录:企业AI合规自查清单

请打印后逐项核实,每项完成后打✅:

【产品排查】
□ 梳理全部AI产品/功能,判断是否涉及持续性情感互动服务
□ 识别高风险AI场景(人机融合/舆论引导算法/自主决策系统)
□ 核查是否有面向未成年用户的AI功能

【机制建设】
□ 设立AI科技伦理委员会(或委托专业机构)
□ 启动算法备案手续
□ 建立内容安全审核机制(含自残/情感操纵检测)
□ 建立未成年人年龄识别和监护人授权机制

【文档与记录】
□ 更新隐私政策和用户协议(体现AI服务说明)
□ 建立伦理审查和安全评估记录台账
□ 明确AI产品"非真实自然人"的告知机制

【风险监控】
□ 部署用户情感依赖预警系统
□ 建立定期跟踪审查计划(6/12个月)
□ 指定合规负责人,明确责任归属

如果你想深入了解如何系统推进企业AI合规,欢迎在评论区留言,或私信我。我们正在为多家企业提供AI合规咨询和落地支持。

转发给你的CEO/CIO/CDO,可能帮他们避开一个大坑。

版权声明:【本公众号尊重原创。所使用的文字、图片素材版权均归原作者所有。若文章内容不慎侵犯了您的权益,请您与我们联系,我们将第一时间进行处理。感谢您的理解与支持。】

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

求喜欢

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

AI时代来啦!

你还没关注“产业数字化时代” ?

快快关注

产业最新动向

即刻获取

打开网易新闻 查看精彩图片