「我们既想要AI带来的钱,又担心它把我们卖了。」——这大概是6万多条加拿大民众反馈里最诚实的内心独白。

联邦政府去年搞了场30天的AI战略公开咨询,收了11,300多人提交的64,600多条意见。官方报告说大家诉求很分散,有人想商业化,有人怕安全风险。但到底有多分散?BetaKit做了份独立数据分析,发现加拿大人对AI的态度堪称精分现场:谈经济好处的占35.6%,担心AI作恶的占34.6%,几乎打平。

打开网易新闻 查看精彩图片

一张图看懂:加拿大人的AI焦虑图谱

这张数据图的核心就四个字:左右互搏。

经济成长(35.6%)和伦理伤害(34.6%)并列前两名,中间只隔1个百分点。环境伤害和生产力紧随其后。这不是「有人担心有人乐观」的简单分布,是同一批人在同一篇反馈里同时喊「快上车」和「踩刹车」。

政府咨询的问题设计本身就暴露了这种张力:怎么安全采纳AI、怎么扶持本土AI冠军企业、怎么吸引投资、怎么建主权AI基础设施、怎么建立公众信任——五个方向,三个半跟钱有关,一个半跟安全有关。民众的回答把这五个方向撕成了两半。

83%的反馈来自个人而非组织。这意味着不是行业协会在唱对台戏,是普通人在自家键盘前敲完了「AI能创造就业」又补一句「但算法歧视怎么办」。

政府的AI分析AI:黑箱里的黑箱

Innovation, Science, and Economic Development Canada(加拿大创新、科学和经济发展部,简称ISED)处理这6万多条反馈的方式,本身就是个隐喻。

他们用了内部搭建的大语言模型(LLM,即大规模语言模型)流水线,人类监督,AI归类,AI总结。官方没公布用了什么提示词,没给各主题的权重数字,也没解释「AI分析公众对AI的担忧」这个套娃结构有没有影响结论。

BetaKit找ISED部长Evan Solomon的办公室要说法,对方只甩了个链接:公众摘要和完整数据文件都在网上,自己看。至于AI怎么加权、怎么分类、有没有系统性地弱化某些声音——沉默。

这很AI时代的公关:用算法处理对算法的焦虑,用透明度话术回避透明度。

1%差距背后的政策赌局

35.6% vs 34.6%,这个差距小到可以忽略,又大到决定战略走向。

如果政府选择相信「经济」那一边,政策会偏向快速商业化、放松监管、砸钱搞算力基建。如果倒向「伦理」一边,就会看到更多安全审查、算法问责、使用限制。现在两边几乎一样重,意味着任何单边押注都会得罪近半民意。

更麻烦的是,这两个35%大概率高度重叠。同一个人既填了「AI能提升医疗效率」又勾了「担心隐私泄露」。这不是两拨人在打架,是一个人在纠结。

政府的回应话术是「继续加强与代表性不足群体和地区的接触」,翻译过来:样本还不够,我再听听。但6万多条意见已经是个庞大样本,再听下去,可能听到的还是同样的左右互搏。

为什么这件事值得科技从业者盯着

加拿大不是特例。全球发达经济体都在经历同一道选择题:AI竞赛的窗口期有限,但社会信任的消耗速度可能更快。

这份数据的真正价值在于量化了一个模糊感受——民众的焦虑不是边缘噪音,是与经济期待同等分量的主流诉求。做产品的、做政策的、做投资的,如果还把「伦理担忧」当成可以公关掉的杂音,会误判市场真实温度。

下次看到某国放出「民众热烈拥抱AI」的宏大叙事,记得问一句:你们的大语言模型是怎么分类「热烈」和「拥抱」的?原始数据开源了吗?

数据不会说谎,但分析数据的人可以选性不说。在加拿大这个案例里,连分析者自己都用了被分析的对象(AI)来处理数据——这层套娃结构,可能比那1%的差距更值得玩味。