来源:新蓝网
受访者简介:
于力军,AI科学家,北京大学计算机科学、经济学双学士,美国卡内基梅隆大学人工智能博士。现任谷歌DeepMind高级科学家。2024年,获国际机器学习大会最佳论文奖;2025年,获颁世界人工智能大会云帆奖“明日之星”。
中国蓝新闻记者:
人们非常关心的一个问题是,AI是否会在某些行业造成大量失业。作为业内人士,你是否观察到,AI已经在某些行业造成了失业现象?在未来不长的时间内,比如3到5年左右,就业上受AI冲击最大的会是哪些行业?面对可能的失业,作为个体,有哪些事情可以做,从而避免可能的失业命运?
于力军:
我觉得AI会造成失业。就从身边来看,比如普通程序员,特别是入门级的程序员的替代,可能已经开始了。
冲击比较大的行业,通常是工作完全在计算机上完成的,不太需要和物理世界进行交互的,并且工作的重复性比较高的行业,这种工作是容易被AI替代的,冲击比较大。举个例子,比如说一些文书整理,简单的财务处理等等。
作为个体,可能要更多地去从事创造性的工作,就更不容易失业。另一方面,在机器人暂时还没有发展得像数字空间的AI这么好之前,努力地去向物理空间拓展工作范围,可能会好一些。
中国蓝新闻记者:
你和马斯克曾有过直接交流,他在最近的一档播客节目中,表达了一些关于AI技术发展下人类未来生活图景的颠覆性观点,这里面我很感兴趣的两个观点是:人类可能实现“半永生”,钱在未来将变得毫无意义。你怎么看待他的这些观点,你认为是完全可能的,还是比较虚无缥缈的?如果是可能的,你认为那会是多久后的事,比如5年后,20年后,还是50年100年后?
于力军:
我觉得这两件事都是有可能的,但是时间应该不会太快。
通过延缓衰老甚至停止衰老,实现寿命的极大延长,是有可能在我们这一代人实现的。因为现在科技是在以指数级的速度发展,越来越快,随着AI技术对于信息处理等等方面能力的提高,我们可以去进一步理解生物内部各种机制的原理,可能就找到了办法。这个概率其实是越来越大。
比如破解蛋白质结构,曾经是一件非常需要人力的事,时间上也很漫长。但是现在已经有团队通过人工智能技术,把几乎所有蛋白质都解出来了,并获得了诺贝尔奖。
我觉得人类破解生命的密码,可能没有那么遥远,我们现在已经把基因组理解到了很深的层次。同时,基础科学也会被AI推着进步。现在AI已经能够去证明一些还没有前人能证明的数学定理,意味着AI在这些尖端领域已经超过了最聪明的人类,那它会帮助我们在这些事情上发展得更快。
实现寿命的极大延长,大胆猜个时间的话,我估计是过40年左右。
另一个观点,钱变得毫无意义。如果技术的发展给我们带来了物质的极大丰富,那钱作为一个交易媒介,确实它存在的价值可能就下降了。物质是稀缺的,你有一些东西,我有一些不同的东西,我们要进行交换。随着大家都拥有充足的物质,我也不需要你的什么,你也不需要我的什么,在这个情况下,钱就意义不大了。
但是它完全消失,应该还是很漫长的过程,因为这涉及到社会的资源分配。猜个时间的话,这个事我觉得可能要过100年。
(2024年,受访者获颁国际机器学习大会最佳论文奖)
中国蓝新闻记者:
最近有一些新闻,人们在使用AI工具时,因为频繁提出指令和修改意见,表达了不满意情绪等原因,遭遇了AI生成出带有辱骂内容的情况。相关公司解释到,这是一个技术问题,已经着手修复。这让我联想到一个略让人担忧的问题,如果某一天,AI的攻击性不是因为技术上的错误,而是某种更加主动的类似“意识”的原因,如果AI、智能机器人等事物自己发展出了攻击性,就像科幻电影里那样,人们该怎么办?你觉得这是可能的吗?你认为未来,AI有可能会拥有“意识”吗?
于力军:
AI工具生成了辱骂用户的内容,这应该是个技术上的问题,要通过技术手段解决。AI本质是一个概率模型,在它的词库里,任何词的概率可能都不是零,都会有可能发生。
回到社会层面,人们更担心的是,会不会AI有一天会变得对人类有威胁。数字空间的AI,暂时应该不至于。因为现在的AI是被动的,我有一个请求,它去进行处理,给我反馈一个答案。还没有进入到主动状态,就是说AI主动想要做点什么,还没有。
AI会不会发展到有“意识”。我觉得首先我们得想,人类的意识是从哪儿来的,它的机制是什么。如果我们认为人类的意识就是大脑里的各种物理化学反应带来的具象表现,那么如果AI可以有像人类这么长的寿命,不停地收集信息,与外界交互,做出各种行为,那么可能你可以认为它有“意识”。就是它有自己的记忆,可以选择接下来要做什么,这可能就是意识的一种表现形式。
不过,对于AI未来会不会发展到威胁人类安全的程度,从我个人角度,并不太担心。首先,对于像我这样研究AI的技术人员来说,我们的困扰不是觉得现在的AI太强,而是觉得它还太菜,很多事都做不好。其次,就算有一天AI变得非常厉害,我相信,人类手上相应的约束AI的手段也是有很多的。
(2022年,受访者与世界上第一台通用电子计算机ENIAC合影)
中国蓝新闻记者:
隐私问题也是人们非常关注的一个点。向AI工具提出各种问题,喂给它各种文字材料、图片、视频等等,用户的隐私如何保障?在这方面,AI科技公司是否有审慎稳妥的考虑,是否有足够的数据安全手段?毕竟数据都在AI科技公司手上,如何保证不被泄露或滥用?
于力军:
这方面我觉得最本质的肯定是法律法规的监管。其次可能是用户的反馈对公司道德上的约束。
通常,大公司一般不会说“我不用你的数据”,然后偷偷地去用,通常不会。但是在小的初创公司里,可能就不一样了。比如用户协议里说,你使用我们的产品,那你使用过程中的数据,可能会被我们用来改进产品。大公司,特别是用户量很大的,或者是面对企业服务的大公司,通常它的用户协议会额外写出来,你的数据不会被我们收集等等。
公司内部监管这块,我觉得美国的大公司通常都非常严格,不是说你级别高你就可以去访问数据,所有对于用户数据的访问可能都会留下痕迹,而且都必须是有正当理由的。
中国蓝新闻记者:
AI生成的视频目前还是能看出是AI的,不是真实的,从技术上说这是什么原因?未来是不是很快就能做到AI视频和实拍视频一模一样?那样会带来一些真假难辨的问题,怎么办?
于力军:
AI生成视频看起来和实拍视频不一样,本质原因就是模型不够好。可能是由于这个模型本身参数量大小的限制,或者投入训练的算力有限,或者是训练的数据没有那么丰富,使得它在输出的时候,要么是有明显的缺陷,比如最早的时候人可能会有6根手指头;要么是倾向于特定的风格,很明显的就是所谓的“AI画风”。
但是随着技术的进步,数据和算力的扩展,它应该是越来越像。和现实越接近,意味着这个模型的可用性就越高,可以产生的价值就越大。比如最典型的,我们可以拿这些AI生成的素材去替代本来需要消耗很高成本现场拍摄的片段,这是有直接价值的事情。
当然这也会导致一些问题,比如被用来实施诈骗,或者传播虚假信息。所以我们需要有其他的工具去识别。这件事,我们在做的时候是有预防的,所有生成的视频,都会有隐形的水印,无法被去除,这样很容易就可以被检测出来是否是AI视频,避免出现以假乱真的情况发生。当然,这也需要视频发布平台相应地做一些工作。
(2025年,受访者参加世界人工智能大会座谈会)
中国蓝新闻记者:
中国和美国都高度重视AI技术的发展。100分制下,假设美国现在在AI技术上的水平是90分,那么中国是多少分?世界其他地方,比如欧洲,比如日韩,是多少分?
于力军:
世界其他地方应该都在50分以下。中国的技术水平,我觉得可以打85分。AI技术方面,中美之间的差距是远小于世界其他国家和这两个国家之间的差距的。在中国,也有很多公司在激烈竞争,去发布各种各样的新模型,其实跟美国的差距通常不会超过半年。
中国蓝新闻记者:
如今有一些人认为,AI就是下一次的工业革命。还有一些人认为,AI不会是工业革命,因为它不会彻底改变人类的生产生活方式,更像是一种局部的某些行业范围内的技术革命。你怎么看待?更倾向于哪种观点?
于力军:
我觉得目前来看,AI对社会各方面产生的影响,应该已经远远超过局部的影响,它是有潜质成为一次工业革命的。但是它是不是工业革命,我们可能要从历史的角度,回过头才能看清。
(图片来自受访者供图)
热门跟贴