----技术从试验场走向城市街道与公众生活,风险与规则一起长出来
引言
2025年的AI争议,不再只是“技术圈的话题”,而是真实世界的安全、权利与信任:自动驾驶在城市路网里反复“试错”,生成式AI与版权的边界被法庭一条条刻划,面部识别在便利与侵犯之间拉扯,算法偏见则把旧的不平等“数字化再生产”。本文以安全—版权—隐私—公平四条线索,梳理今年最具代表性的事件与判例,并给出可执行的治理与自保清单。
一、自动驾驶:安全事件与监管回路
- 软件召回与安全缺陷:5月,美国NHTSA公告Waymo召回约1,200台无人车,起因是软件在低速场景下可能撞上链条、闸门等路障。Waymo已通过OTA在2024年末完成修复并备案。
- 事故调查与合规风暴GM Cruise因2023年行人拖拽事故后,对监管提交了不完整/误导的材料,2024年与检方达成和解,承认提交虚假报告并缴纳罚金。
- “补救是否足够”的复查特斯拉2023年底对Autopilot进行大规模召回升级,但NHTSA在2024年再次启动召回补救有效性评估,理由是升级可能不足以防止可预见的误用
- 试点机器人出租车的早期问题:2025年6月,特斯拉在奥斯汀的Robotaxi测试被媒体与网友拍到压线、误入车道、与警车交互异常等问题,当地与联邦监管机构表示将持续关注。
要点:自动驾驶的商业叙事必须被可验证的安全证据与透明的缺陷处理对齐,否则就会在“城市即试验场”的压力下,被召回、停运与诉讼反复拉回现实。
二、生成式AI×版权:几道关键“分水岭”
- 训练数据的合法性Thomson Reuters v. ROSS一案中,法院认定为训练法律检索AI而**复制Westlaw摘要(headnotes)**构成侵权,这被视作AI训练版权责任的早期标杆之一。
- “转化性使用”与“盗版来源”Bartz v. Anthropic中,法官一方面肯定大规模阅读作品进行模型训练具有高度转化性,另一方面指出从影子图书馆获取的盗版内容仍可能构成侵权;8月此案以和解收束。
- 印度首例媒体诉讼:印度新闻社ANI起诉OpenAI,指控其在训练与输出中侵犯版权并造成名誉受损,显示新兴市场也在形成司法样本。
- 中国的独创性门槛:2025年多起判决明确:**AI生成图像在具备“作者智力投入+个性化表达”**时可获著作权保护。
要点:**“来源合法+过程合规+结果可溯”**正成为全球共识;训练集的来源审计与存证,将直接决定风控成本。
三、面部识别:隐私边界与治理实践
- 滥用的代价:美国多地警方仅凭人脸比对线索抓捕引发冤错;到2025年,至少8起被媒体确认的错捕案例进入公众视野。
- 中国监管收紧《人脸识别技术应用安全管理办法》自2025年6月1日施行,明确适用范围、处理规则与备案要求;网信办随后发布应用备案通知,10万人脸信息即触发备案门槛。
- 地方治理样本:上海开展专项整治,提出**“公共场所不刷脸为原则、刷脸为例外”**的目标,数千家酒店、商场、体育与卫生场所完成自查整改。
要点:“默认不采集、必要才采集”正在制度化;平台与场馆需要等价替代方案(身份证/二维码),并对采集目的、期限与安全措施可被审计。
四、算法偏见:从招录到司法的“数字化放大”
- 招聘:亚马逊2018年内部测试的简历筛选模型因对女性系统性不利而被终止,成为行业早期警示案例。
- 司法:对美国COMPAS量刑辅助系统的分析显示,对未再犯的黑人被告“高风险”误判概率约为白人的两倍,引发广泛争论并催生“可解释、公平”评估规范。
要点:偏见既来自历史数据的失衡,也来自指标选择与阈值设定;“只看准确率”不足以证明公平。
五、规则在成形:全球与中国的“红线/底线”
- 欧盟《AI法案》:对高风险系统设定强制合规与最高7%全球营收或3,500万欧的罚款上限,确立“风险分级+强制审计”的监管框架。怀特凯斯律师事务所欧盟人工智能法案
- 中国治理组合拳:在既有网安法/数安法/个保法框架下,通过人脸识别办法、视频图像条例等专项规则补位,强调目的限定、最小必要、单独同意、严格保护
六、如何“把风险关进流程”:三张简表
1)技术侧·最小合规工单
- 训练/推理数据台账:来源、授权、保留周期、删除路径。
- 偏见扫描:按人群切分Accuracy/TPR/FPR,触发>15%差异即停训复查。
- 在线守门:高风险场景(驾驶/医疗/金融)启用人类在环与回滚开关。
2)法务侧·四到位
- 训练来源证明(采购/授权/公开许可)到位;
- 模糊用途描述改为场景白名单
- 对外披露“模型能力边界与已知局限”;
- 应急机制(召回、停用、告警)与责任分摊写入合同。
3)个人与机构·自保要点
- 不被强制刷脸:索要非生物识别替代方案;保留文字/影像证据,可向网信部门投诉。政府网站
- 内容创作者:保存创作过程证据(Prompt、版本稿、时间戳);投放平台签订训练排除/限制条款
- 企业用户:在采购AI前做影响评估(AIA)与数据保护影响评估(DPIA),高风险业务引入第三方审计。
结语
技术在狂奔,伦理并非拉后腿,而是让技术活得更久的骨架。回望今年几起关键事件:召回与停运在告诉我们“安全是一号位”;法庭在教我们“从哪来、怎么用才算干净”;治理在强调“默认克制”。当规则与能力一起生长,AI才有资格成为基础设施,而不只是一次又一次的“试验”。
热门跟贴