打开网易新闻 查看精彩图片

被称为人工智能(AI)“教父”的诺贝尔物理学奖获得者、加拿大多伦多大学教授杰弗里·辛顿对AI的危险性提出了警告。

27日(当地时间),据英国日刊《卫报》报道,辛顿教授在英国广播节目中表示:“AI技术的快速发展可能会对人类构成存亡的威胁。”

他认为,技术变化速度比预期的“快得多”,AI导致未来30年内人类灭绝的可能性高达10%至20%。

他过去也曾主张,技术发展对人类造成灾难性后果的概率为10%,相当于进一步提高了黯淡的概率数字。

辛顿教授反问道:“人类从未面对过比我们自己更聪明的东西。有多少更智能的东西被不聪明的东西控制呢?”

他接着说:“几乎没有这样的事例。我知道的唯一的例子是,通过进化的力量,婴儿控制母亲。”

他还预测说,与非常强大的AI系统相比,人类只是婴儿,“我们会像三岁的孩子一样。”

辛顿教授指出,刚开始AI研究时,没想到会发展得这么快,“大部分专家认为20年内会开发出比人聪明的AI,这是一个非常可怕的前景。”

他还表示:“技术开发速度比自己预想的要快得多。”并敦促政府进行限制的必要性。

他强调:“只交给追求利润的大企业可能不够。强制大企业进行更多安全研究的唯一方法只有政府监管。”

辛顿教授确立AI机器学习基础的功劳得到了认可,并获得了今年的诺贝尔物理学奖。

他被称为AI领域的“开拓者”,曾在谷歌担任副总裁,但去年4月与谷歌分手后,他公开警告AI的危险性,并被称为“内部告发者”(Whistleblower)。

他表示,为了自由警告AI对人类的不良影响,他离开了谷歌,并一直警告说,AI很快就会超越人类,对可能失控的危险也应该感到担忧。