“杀人机器人”似乎已被公认是下一轮军用技术的制高点。中美俄英法韩等主要军事大国,纷纷增加研发投入,争相打造不需人类驾驶员、操纵者的“钢铁雄师”。但同时,这引发的伦理争议与安全担忧日渐升温。一批机器人和 AI 领域的专家、企业家及技术领袖,正呼吁联合国禁止“杀人机器人”开发和使用。
20 日,来自 26 个国家的 116 名专家,由马斯克和 DeepMind 联合创始人 Mustafa Suleyman 领头,发表公开信号召全面禁止自主武器。
联合国最近已投票透过开启对此类军用武器的正式讨论,这包括自主化的无人机、坦克、机关枪。马斯克等人已向联合国提交一份公开信──希望在此时,即正式讨论开始前呼吁,推动联合国制定决议制止这波全球已开启的“杀人机器人”军备竞赛。
在公开信中,这批技术领袖对主持该讨论的联合国常规武器会议警告,这轮军备竞赛极有可能导致“人类战争形式发生第三次革命”,前两次分别由火药和核子武器引发。他们写道:
一旦研发出来,致命自主武器将使未来战争扩大到前所未有的规模,战争进展的速度也将超过人类对时间的理解。这类武器很可能成为恐怖的代名词,独裁者、恐怖分子能用在无辜平民上,也有可能被骇客利用,让自主武器做出我们不希望看到的行为。
留给我们行动的时间并不多。一旦这个潘朵拉的盒子开启,关上就难了。
之前 AI 专家曾警告,以现在的人工智能技术和发展速度,部署全自主武器将在几年内变得可行。虽然,AI 武器能让战场对军队服役人员来说更安全──更多人不需要上前线;但专家担心自主行动的进攻性武器,将大大降低战争的门槛,导致更大量的伤亡。
公开信在今年国际人工智能联合会议(IJCAI)开幕致辞上公布,得到机器人及 AI 领袖不少知名专家学者的支持。公开信全文以及署名者名单可见此。他们强调紧急行动的重要性,尤其联合国把讨论该问题的会议时间推迟到今年 11 月,原计划是 21 日。
这批联合署名公开信的专家,呼吁把“在道德伦理上站不住脚”的致命自主武器系统,加入联合国自 1983 年生效的特殊常规武器大会(CCW)武器禁用名单。后者包括化学武器及蓄意以致盲为目的的激光武器。
新南威尔士大学人工智能教授 Toby Walsh 对此表示:
几乎所有技术都有两面性,AI 同样如此。
它能帮助我们解决许多目前面临的社会问题:不平等、贫困、气候变化带来的挑战及仍未消退的全球金融危机。但是,同样的技术也能用到自主武器,让战争(进一步)工业化。
我们需要在今天决定,到底什么样的未来才是我们想要的。
大家很熟悉的马斯克是该领域的活跃人物。他很早就对前瞻性的 AI 政策立法多次呼吁,把人工智能说成人类的头号生存威胁。马斯克的说法造成很大争议,不少顶级学者及意见领袖表达不同观点,包括 Ray Kurzweil 与祖克柏。不少公众可能认可 AI 对人类社会有很大破坏潜力这说法,但同时认为真正造成“破坏”还离得远。
Clearpath Robotics 创始人 Ryan Gariepy 表示:
与其他科幻小说的 AI 潜在应用不一样,自主武器系统研发正处在一个转捩点,它对无辜平民造成杀伤的威胁非常现实,也有可能造成全球不稳定。
IJCAI 被专家用作讨论致命自主武器系统的论坛,已经不是第一次了。两年前,包括马斯克和霍金在内的数千名 AI、机器人专家以及工业领袖在该大会签署了另一封公开信,呼吁与这次相似的武器禁令。这推动了联合国对致命自主武器开启正式讨论。
核子武器的威胁还未解决,人类又将面临另一个自己制造的生存威胁。
(本文由 雷锋网 授权转载;首图来源:pixabay)