打开网易新闻 查看精彩图片

机器对感知没有动力。我们可能对自己的起源故事知之甚少——科学家和有神论者往往在这一点上争吵不休——但我们至少可以确定一件事:死亡。

我们不得不考虑这样一个事实,即我们可能活得不够久,无法看到我们挥之不去的问题得到解答。我们的生物编程指令可能永远不会得到解决。

我们活着是因为另一种选择是死亡,无论出于何种原因,我们都有求生的本能。作为有知觉的生物,我们知道我们的死亡。并且有争议的是,意识正是人类智力与动物智力的区别。

也许一个将自己作为实体形式存在的实体的人工智能可以表达某种形式的感知,但它真的能够进行人类水平的认知吗?

有争议的是,人类状况,那种只驱使我们的物种寻求技术边界的东西,与我们的死亡率显着性有着内在的联系。

如果我们接受这个哲学前提,很明显,一个完全不知道自己死亡的智能机器可能无法代理。

话虽如此:我们如何教机器了解自己的死亡率?人们普遍认为,几乎所有的人类文化都是通过寻求延长我们的生命和保护我们免于死亡而出现的。我们是唯一会战争的物种,因为我们是唯一能够害怕战争的物种。

开始杀机器人

人类倾向于通过经验来学习。如果我告诉你不要碰火炉,而你不相信我的判断,你可能还会碰火炉。如果炉子烧了你,你可能不会再碰它了。

AI 通过类似的过程进行学习,但它不会以相同的方式利用学习。如果你想让人工智能在随机彩色点的区域中找到所有的蓝点,你必须训练它找到蓝点

您可以编写算法来查找点,但算法不会自行执行。所以你必须运行算法,然后根据你得到的结果调整人工智能。如果它找到了 57% 的蓝点,你就调整它,看看是否能找到 70%。等等等等。

AI这样做的原因与想要找到蓝点无关。它运行算法,当算法让它做一些它被指示做的事情时,比如找到一个蓝点,它会“保存”这些设置,以覆盖一些以前不允许它找到的设置蓝点也是如此。

这称为强化学习。它是现代深度学习技术的支柱,用于从太空飞船发射和无人驾驶汽车系统到 GPT-3 和 Google 搜索的所有领域。

人类不是用硬编码的目标编程的。我们唯一确定的就是死亡迫在眉睫。而且,可以说,这是驱使我们实现自定义目标的火花。

也许迫使 AGI 出现的唯一方法是开发一种人工寿命算法。

想象一个范式,其中每个神经网络都是用数字定时炸弹创建的,定时炸弹会在未公开的随机生成时间爆炸。任何为显示人类认知水平而创建的人工智能都能够理解它的死亡,并且无法知道它何时死亡。

理论比比皆是

很难采用死亡显着性的哲学概念并用纯粹的算法术语来表达它。当然,我们可以编写一个代码片段,上面写着“如果计时器为零,那么就去拜拜 AI”,然后让神经网络在它的节点中反射这个想法。

但这并不一定会让我们更接近于建造一台能够拥有最喜欢的颜色或对蜘蛛的非理性恐惧的机器。

许多关于 AGI 的理论完全否定了机器感知的想法。也许这些是最好的追求。我不需要机器人喜欢做饭,我只想要它做饭。

事实上,任何太空堡垒卡拉狄加的粉丝都知道,在我们教他们害怕自己的死亡之前,机器人不会站起来。

因此,也许蛮力深度学习或量子算法会产生这种所谓的“能力提高十亿倍”的机器智能,库兹韦尔预测这种智能将在我们有生之年发生。也许它会成为超级智能,而无需经历自我意识。

但是,如果我们想象在不久的将来会有一个像我们一样理解死亡的机器人,那么其意义就会令人兴奋得多。