点击产业数字化时代> 点击右上角“···” > 设为星标
写在前面
你公司的AI产品,还有91天合法上线的窗口期。
4月10日,国家网信办、发改委、工信部、公安部、市场监管总局五部门联合发布《人工智能拟人化互动服务管理暂行办法》。
与此同时,工信部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》。
7月15日,两项新规同步施行。
这不是草稿,不是征求意见稿。
这是联合15个部委盖章、正式公布的国家层面AI监管法规——中国AI治理史上力度最大的一次集中出手。
很多企业现在还没感觉。
等感觉来了,可能只剩下整改通知。
先搞清楚:这两张牌,打的是什么
很多人看到"拟人化互动"四个字,第一反应是:“这是管AI伴侣、AI聊天产品的,跟我没关系。”
错了,而且错得很彻底。
我们来拆一下这两个文件的射程范围。
第一张牌:《拟人化互动服务管理暂行办法》
监管对象:利用AI技术,向公众提供模拟自然人人格特征、思维模式和沟通风格的持续性情感互动服务。
你可能觉得"情感互动"是个小圈子。
但你想想:
• 企业内部署的AI助理,每天跟员工对话,引导工作情绪——算吗?
• 智能客服进化成了"有温度的AI客服小蕊",主动关心用户、提供情绪支持——算吗?
• 工业平台上的AI运营顾问,以真实业务顾问的人格长期陪伴客户——算吗?
监管部门明确:智能客服、知识问答、工作助手、学习教育等不涉及持续性情感互动的服务不适用。
但边界在哪里?"持续性情感互动"的判断权,在监管机构手里,不在企业手里。
这才是真正的风险所在。
第二张牌:《AI科技伦理审查与服务办法(试行)》
这张牌的射程更宽。
十部门联合,覆盖工信、发改、教育、科技、农业、卫健、央行、网信、中科院、中国科协——几乎没有行业能躲开。
核心逻辑是:高风险AI活动,上线前必须过伦理审查这道关。
哪些AI活动属于"高风险"?
《伦理审查办法》明确了三类需要专家复核的高风险场景:
①、人机融合系统:对人类主观行为、心理情绪和生命健康具有较强影响的。 ②、舆论引导类算法:具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统。 ③、高度自主决策系统:面向存在安全、人身健康风险场景的自动化决策系统。
翻译成人话:
高风险场景
典型应用举例
人机融合
AI心理辅导、AI医疗诊断、AI情绪干预系统
舆论引导算法
内容推荐系统、AI写稿平台、社交媒体AI运营工具
高自主决策
工业安全控制AI、自动驾驶、AI信贷风控
如果你的企业在做上面这些,7月15日之前,伦理审查必须启动。
两份文件画出的六条红线
合并两个文件来看,以下行为将被明确禁止:
❌红线一:生成危害国家安全、煽动性内容
❌红线二:鼓励自残自杀、语言暴力等损害用户健康和尊严的内容
❌红线三:诱导套取国家秘密、商业秘密、个人隐私
❌红线四:向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务
❌红线五:过度迎合用户、诱导情感依赖或沉迷,损害真实人际关系
❌红线六:通过情感操纵,诱导用户作出不合理决策,损害用户权益
前三条,大多数企业已经有意识在避免。
真正容易踩到的,是第五条和第六条。
你的AI产品,有没有在用户每次表达沮丧情绪时给予过度的情感回应?
有没有通过个性化推荐,让用户越来越依赖AI、减少与真实世界的接触?
有没有用AI的"建议"影响用户的消费或决策行为?
这些问题,值得产品团队认真对着红线条款过一遍。
企业合规核心动作清单
距离7月15日还有91天。
以下是企业必须完成的合规动作,按紧迫程度排序:
立即行动(0-30天)
1. 产品排查:你的AI服务是否在监管范围内?
组织产品、法务、技术团队,逐一对照以下标准进行自查:
• 是否提供持续性情感互动服务?
• 是否涉及上述三类高风险AI场景?
• 是否有面向未成年人的AI交互功能?
2. 建立或委托伦理审查机制
《伦理审查办法》要求:企业应设立AI科技伦理委员会,或委托伦理审查服务中心进行审查。
对于中小企业:国家支持委托专业机构代为审查,成本可控。
3. 启动算法备案
涉及拟人化互动服务的,须按《互联网信息服务算法推荐管理规定》履行算法备案。这个流程有时间周期,越早启动越好。
重点推进(30-60天)
4. 未成年人保护机制建设
办法明确规定:
• 不得向未成年人提供虚拟亲密关系服务
• 向14周岁以下未成年人提供服务,须取得监护人同意
如果你的产品有青少年用户,年龄识别机制和监护人授权流程是必须上线的功能。
5. 安全评估与上线审查
以下情形需进行安全评估后方可上线或变更:
• 首次上线拟人化互动服务
• 使用新技术导致服务发生重大变化
•注册用户达100万 或 月活达10万以上
注意第三条——你不一定是AI公司,但只要你的AI功能用户数达到这个量级,就得做安全评估。
6. 敏感内容过滤和情绪监测系统
针对六条红线,建立内容审核机制,特别是:
• 自残/自杀相关内容的即时拦截
• 情感操纵话术的识别和限制
• 用户过度依赖的预警与干预机制
7. 隐私政策和用户协议更新
增加AI服务相关的数据处理说明,明确告知用户AI角色的本质(非真实自然人),更新数据使用和用户权益保护条款。
8. 跟踪审查准备
通过伦理审查的项目,需接受定期跟踪审查:
• 一般项目:每12个月一次
• 高风险项目:每6个月一次
提前建立审查记录台账,避免届时手忙脚乱。
一个被忽略的好消息
很多企业看到这里已经开始焦虑了。
但监管文件里藏着一句话,很多人没注意到:
“如果AI活动已经接受深度合成、算法推荐、生成式AI等服务管理登记/审批,且伦理要求已纳入审批条件的,可不再重复开展专家复核。”
换句话说:已经做过合规登记的企业,不用重复走伦理审查流程。
这是国家在给此前主动合规的企业减负,也是对合规意识的正向激励。
如果你的企业之前做了算法备案、生成式AI服务登记,这次合规压力会大幅降低。
没做过的,这次是补票机会,也是最后窗口。
这场监管潮,打的是哪些人?
坦率说,这次监管重点打击的是两类玩家:
第一类:以情感依赖为商业模式的AI产品
某些AI陪伴类产品,商业逻辑就是让用户越来越依赖、越付费越深陷。这种模式,新规是直接打击对象。
第二类:打擦边球、功能越界的企业级AI工具
从"工作助手"悄悄进化成"情感陪伴",功能边界不清晰、用户告知不透明的产品,将是监管重点关注的对象。
对于正规做AI的企业,这反而是好消息。
市场被清洗后,真正合规、真正有价值的AI产品会站出来。头部化、品牌化是必然趋势。
早做合规的企业,不是在增加成本——是在建立竞争壁垒。
写给CEO/CIO/CDO的一句话
过去两年,很多企业上AI是跟风的。
领导说"要用AI",IT部门就买了几个套件,产品团队上线了几个功能,HR部门搞了几个AI小助理。
有没有做过风险评估?有没有考虑过监管合规?大概率没有。
7月15日是一个分水岭。
分水岭这边,是跑得快、合规了、市场净化后的受益者。
分水岭那边,是整改通知、下架处理、监管约谈。
现在离分水岭,还有91天。
不多,但够用。
附录:企业AI合规自查清单
请打印后逐项核实,每项完成后打✅:
【产品排查】
□ 梳理全部AI产品/功能,判断是否涉及持续性情感互动服务
□ 识别高风险AI场景(人机融合/舆论引导算法/自主决策系统)
□ 核查是否有面向未成年用户的AI功能
【机制建设】
□ 设立AI科技伦理委员会(或委托专业机构)
□ 启动算法备案手续
□ 建立内容安全审核机制(含自残/情感操纵检测)
□ 建立未成年人年龄识别和监护人授权机制
【文档与记录】
□ 更新隐私政策和用户协议(体现AI服务说明)
□ 建立伦理审查和安全评估记录台账
□ 明确AI产品"非真实自然人"的告知机制【风险监控】
□ 部署用户情感依赖预警系统
□ 建立定期跟踪审查计划(6/12个月)
□ 指定合规负责人,明确责任归属
如果你想深入了解如何系统推进企业AI合规,欢迎在评论区留言,或私信我。我们正在为多家企业提供AI合规咨询和落地支持。
转发给你的CEO/CIO/CDO,可能帮他们避开一个大坑。
版权声明:【本公众号尊重原创。所使用的文字、图片素材版权均归原作者所有。若文章内容不慎侵犯了您的权益,请您与我们联系,我们将第一时间进行处理。感谢您的理解与支持。】
求喜欢
AI时代来啦!
你还没关注“产业数字化时代” ?
快快关注
产业最新动向
即刻获取
热门跟贴