这是一个最好的时代,也是一个最坏的时代。

虽然人类距离太空文明越来越近,但是,眼前的危机也始终存在。牛津大学的研究人员编制了一份“地球文明被摧毁可能性的评估报告”,列出了人类文明,最可能马上就要面临的“大灾祸”。

难道真的像狄更斯所说,“人们正踏上天堂之路,人们正走向地狱之门。”

极端气候变化

气候变化的危害,越来越明显,也越来越频繁。无法控制的气候,是给全人类的当头棒喝。而且,这种变化,对最贫穷的国家影响最大。大量人死于饥荒和巨大的移民潮,可能会导致全球大乱。

核战争

虽然核战争的可能性小于上个世纪冷战时期,但是,故意或意外核冲突的可能性,一直没有排除。向前又走了半分钟的世界末日钟,说明核战争的威胁并不远,而且,控制核战争的按钮,并不在传统的核大国手里。

全球疾病大流行

西班牙大流感已经过去100年,但是,“更快、更高、更强”的流行病爆发,比普遍认为的更有可能发生。说到底,全世界的医疗系统,应对流行病的能力在预防灾难方面很重要,怕只怕出现这种无法控制的传染病。

超级火山

2018年,印尼的地震、海啸和火山爆发,让科学家们担心,环太平洋火山带是否已经进入了活跃期。如果这种担忧成真,那么西到南美洲,东到日本海,都会拉响红色警报。

超级火山爆发,并非是天方夜谭。

超级火山的最大威胁是全球性尘埃云,从而阻挡太阳光线并导致全球性的冬天,这种影响可以堪比核战争造成的影响。

生态灾难

摆在全世界人面前的问题是,要么保护生态系统,要么让人类文明独立于自然。

现在,物种灭绝的速度目前远远快于历史速度,如果人类不能解决这个问题,接下来就要面对世界性的生态灾难。

基因生物学

2018年11月,基因编辑婴儿事件,引发了全世界的轩然大波。因为,这不单单是这对双胞胎的基因修改问题,而是会生出一个灭绝人类的终极武器——工程病原体。

如果基因研究的过程中,没有监管或自律的约束,那么,人类迟早会把自己玩死。

人工智能

霍金认为,“极端”人工智能“无法轻易得到控制”,而且将“可能采取行动提高它们自身的智力并获取最大资源”。但是,我们生存的关键因素之一是“会否有一个占主导地位的人工智能或大量的实体出现”。

尽管霍金的说法,有点拗口,一言以蔽之——

在未来,强大的人工智能,会成为人类难以预估的威胁!