牛津研究所预测人类可能的灭亡

对我们物种的持续生存构成最大威胁的是什么?看看镜子里的自己吧。
沃尔特斯艺术博物馆(巴尔的摩/马里兰州/美国)

我们大多数人满足于在空闲时间担心人类的未来,但英国牛津大学有一群学者,他们将此作为自己的职业使命。

人类未来研究所的每位成员都有自己的关注点。有些人关心气候变化及其对人类的影响;另一些人则关心人类认知的未来。该系的负责人尼克·博斯特罗姆(Nick Bostrom)的论文《将防止生存风险作为全球优先事项》刚刚发表,他一直以来都对我们作为一个物种的未来感到担忧。博斯特罗姆认为,人类是人类生存的最大威胁。

博斯特罗姆的论文关注一个特定的时间尺度:人类能否在下个世纪生存下来?这排除了在更遥远的未来可能导致人类灭绝的一些不太可能的自然场景:超级火山、小行星撞击、伽马射线爆发等。根据这篇论文,在如此短暂的时间范围内发生其中任何一种事件的几率都极小。此外,大多数其他自然灾害,例如流行病,不太可能杀死所有人类;我们作为一个物种已经幸存了许多次流行病,并且很可能在未来也会如此。

尼克·博斯特罗姆,www.existential-risk.org/concept.html

根据博斯特罗姆的说法,我们可能引以为傲的文明终结的灾难包括核浩劫、编程不当的超智能实体,以及我个人最喜欢的,“我们生活在一个模拟程序中,并且它被关闭了。”(顺便说一句,你该如何为那种情况做准备?)此外,人类还面临四种不同类别的生存风险。

灭绝:我们在达到技术成熟之前就自我毁灭
停滞:我们停留在当前的技术和智力落后状态
错误实现:我们取得了技术进步……但方式不可持续
后续毁灭:我们达到了可持续的技术成熟,然后一切都搞砸了

更确切地说,博斯特罗姆的论文是对他十年前发出的战斗号召的重申,呼吁人们认识到我们可能会用技术杀死自己的可能性。如今,他不再那么关注“如何”——无论是通过“灰粘”还是有意识的机器人而灭绝,最终都是灭绝。他最担心的是没有人真正着手解决这个问题。当然,这是可以理解的。生存风险是模糊的概念,即使是核冬天威胁,也未能让某些政府感到恐惧到停止制造热核武器。

博斯特罗姆当然在抱怨学术界关于“不那么重要的话题”的论文太多,比如“蜣螂”和“滑雪板”,这让他显得有些傲慢。这是令人好笑的失误。如果我在这个星球上学到了什么,那就是任何一个话题的存在,都会有人把它作为一生的事业去探究。

就像所有的科幻迷一样,我喜欢好的反乌托邦叙事、灾难场景和潜在的文明终结的浩劫。这带来了有趣的戏剧性和对某些行为伦理影响的探讨。如果博斯特罗姆和他的团队希望通过聘请聪明的年轻研究助理来解决这些问题,从而启动一场末日科学研究的巨轮,那么我赞赏他们的努力,并期待阅读他们的场景。希望下次他们能把对其他合法研究领域的无谓批评排除在外。

 

更多优惠、评测和购买指南

 
© .