现在有一种廉价的小型无人机型,配备了摄像头和GPS导航系统,机载小型电脑和一块手榴弹大小的炸药。这架无人机被设计成可以在城市道路巡航,寻找人类。它不需要精准识别特定的人,只需要识别人类的形态,当它识别出人体时,会飞到人类的位置,引爆炸药。
这种设想十分可怕,人工智能只需要能够在街道上空导航、识别人体并飞向他们就可以了。我认为,任何一个合格的人工智能研究生,只要有合适的资源,就能够构造一个这样的无人机原型,而且它们可以以低廉的价格大量生产。现在想象一下,若是成千上万的无人机被投放到伦敦、巴黎、纽约、德里或者东京街头,将会发生什么。想象一下大屠杀,想象一下恐怖的画面。据我所知,这样的无人机已经有人制造出来了[126]。
对许多人而言,关于人工智能自主武器是否应该存在,根本无须争议,然而,有关的争议确实存在。
这场争辩中最著名的主角之一,是美国佐治亚理工学院的罗恩·阿尔金(Ron Arkin)教授,他认为自主武器的出现肯定是不可避免的(总会有某个人,或者某个机构将它们最终制造出来),因此,最好的对策是思考如何设计它们,使它们的行为比普通人类士兵更合乎道德[127]。毕竟,他指出,人类士兵在道德方面并没有很好的记录。当然,他也承认,不可能出现拥有“完美道德”的人工智能自主武器,尽管如此,阿尔金教授仍然相信,我们能够制造出比人类士兵更有道德的自主武器。