----技术从试验场走向城市街道与公众生活,风险与规则一起长出来

引言

2025年的AI争议,不再只是“技术圈的话题”,而是真实世界的安全、权利与信任:自动驾驶在城市路网里反复“试错”,生成式AI与版权的边界被法庭一条条刻划,面部识别在便利与侵犯之间拉扯,算法偏见则把旧的不平等“数字化再生产”。本文以安全—版权—隐私—公平四条线索,梳理今年最具代表性的事件与判例,并给出可执行的治理与自保清单。

一、自动驾驶:安全事件与监管回路

  • 软件召回与安全缺陷:5月,美国NHTSA公告Waymo召回约1,200台无人车,起因是软件在低速场景下可能撞上链条、闸门等路障。Waymo已通过OTA在2024年末完成修复并备案。
  • 事故调查与合规风暴GM Cruise因2023年行人拖拽事故后,对监管提交了不完整/误导的材料,2024年与检方达成和解,承认提交虚假报告并缴纳罚金。
  • “补救是否足够”的复查特斯拉2023年底对Autopilot进行大规模召回升级,但NHTSA在2024年再次启动召回补救有效性评估,理由是升级可能不足以防止可预见的误用
  • 试点机器人出租车的早期问题:2025年6月,特斯拉在奥斯汀的Robotaxi测试被媒体与网友拍到压线、误入车道、与警车交互异常等问题,当地与联邦监管机构表示将持续关注。

要点:自动驾驶的商业叙事必须被可验证的安全证据透明的缺陷处理对齐,否则就会在“城市即试验场”的压力下,被召回、停运与诉讼反复拉回现实。

二、生成式AI×版权:几道关键“分水岭”

  • 训练数据的合法性Thomson Reuters v. ROSS一案中,法院认定为训练法律检索AI而**复制Westlaw摘要(headnotes)**构成侵权,这被视作AI训练版权责任的早期标杆之一。
  • “转化性使用”与“盗版来源”Bartz v. Anthropic中,法官一方面肯定大规模阅读作品进行模型训练具有高度转化性,另一方面指出从影子图书馆获取的盗版内容仍可能构成侵权;8月此案以和解收束。
  • 印度首例媒体诉讼:印度新闻社ANI起诉OpenAI,指控其在训练与输出中侵犯版权并造成名誉受损,显示新兴市场也在形成司法样本。
  • 中国的独创性门槛:2025年多起判决明确:**AI生成图像在具备“作者智力投入+个性化表达”**时可获著作权保护。

要点:**“来源合法+过程合规+结果可溯”**正成为全球共识;训练集的来源审计与存证,将直接决定风控成本。

三、面部识别:隐私边界与治理实践

  • 滥用的代价:美国多地警方仅凭人脸比对线索抓捕引发冤错;到2025年,至少8起被媒体确认的错捕案例进入公众视野。
  • 中国监管收紧《人脸识别技术应用安全管理办法》自2025年6月1日施行,明确适用范围、处理规则与备案要求;网信办随后发布应用备案通知,10万人脸信息即触发备案门槛。
  • 地方治理样本:上海开展专项整治,提出**“公共场所不刷脸为原则、刷脸为例外”**的目标,数千家酒店、商场、体育与卫生场所完成自查整改。

要点“默认不采集、必要才采集”正在制度化;平台与场馆需要等价替代方案(身份证/二维码),并对采集目的、期限与安全措施可被审计

四、算法偏见:从招录到司法的“数字化放大”

  • 招聘:亚马逊2018年内部测试的简历筛选模型因对女性系统性不利而被终止,成为行业早期警示案例。
  • 司法:对美国COMPAS量刑辅助系统的分析显示,对未再犯的黑人被告“高风险”误判概率约为白人的两倍,引发广泛争论并催生“可解释、公平”评估规范。

要点:偏见既来自历史数据的失衡,也来自指标选择与阈值设定;“只看准确率”不足以证明公平。

五、规则在成形:全球与中国的“红线/底线”

  • 欧盟《AI法案》:对高风险系统设定强制合规与最高7%全球营收或3,500万欧的罚款上限,确立“风险分级+强制审计”的监管框架。怀特凯斯律师事务所欧盟人工智能法案
  • 中国治理组合拳:在既有网安法/数安法/个保法框架下,通过人脸识别办法、视频图像条例等专项规则补位,强调目的限定、最小必要、单独同意、严格保护

六、如何“把风险关进流程”:三张简表

1)技术侧·最小合规工单

  • 训练/推理数据台账:来源、授权、保留周期、删除路径。
  • 偏见扫描:按人群切分Accuracy/TPR/FPR,触发>15%差异即停训复查。
  • 在线守门:高风险场景(驾驶/医疗/金融)启用人类在环与回滚开关。

2)法务侧·四到位

  • 训练来源证明(采购/授权/公开许可)到位;
  • 模糊用途描述改为场景白名单
  • 对外披露“模型能力边界与已知局限”;
  • 应急机制(召回、停用、告警)与责任分摊写入合同。

3)个人与机构·自保要点

  • 不被强制刷脸:索要非生物识别替代方案;保留文字/影像证据,可向网信部门投诉。政府网站
  • 内容创作者:保存创作过程证据(Prompt、版本稿、时间戳);投放平台签订训练排除/限制条款
  • 企业用户:在采购AI前做影响评估(AIA)与数据保护影响评估(DPIA),高风险业务引入第三方审计。

结语

技术在狂奔,伦理并非拉后腿,而是让技术活得更久的骨架。回望今年几起关键事件:召回与停运在告诉我们“安全是一号位”;法庭在教我们“从哪来、怎么用才算干净”;治理在强调“默认克制”。当规则与能力一起生长,AI才有资格成为基础设施,而不只是一次又一次的“试验”。