智能

马斯克又拉了一百多人呼吁小心人工智能,这次是为军用

徐弢 · ·

这种武器还没有被开发,但联合国、技术公司都有担忧。

马斯克又出来表达对人工智能的担忧,这次还有其它 115 位科技公司的创始人。

《卫报》周日报道称,来自 26 个国家、116 位机器人和人工智能公司的创始人递交了一封给联合国的建议信,希望后者可以禁止所谓“致命性自动化武器(LAWS)”的部署。其中包括特斯拉创始人马斯克,DeepMind 联合创始人 Mustafa Suleyman。

这里的“致命性自动化武器(LAWS)”不是指具体某一种武器。按照其定义,是机器人在没有人为操作下,自动筛选和攻击目标。

相比之下,目前军用无人机很多虽然可以搭载导弹杀人,但它攻击什么目标,是否攻击都由电脑前的人类操控。

在更通俗的说法中,这种武器还会被称作是杀人机器(killer robot)。

把这封信刊登出来的,是一家被名为“未来人生协会(Future of Life Institute)”的网站。

这封信表达的是这些科技领袖对联合国发出的预警,本质上是希望能推动联合国的讨论,以便在这种武器尚未被发明创造前就杜绝其使用。

他们认为,这种致命性自动化武器(LAWS)很可能会给人类带来预估以外的威胁。

致命自动武器有可能成为第三次武器革命。一旦开发成功,它们将把冲突的规模带到前从未有的大,也会超过人类能认知的速度。它们将成为恐怖的武器,将成为暴君和恐怖分子残害无辜民众的武器,或者被黑客挟持用于预期之外的功用。我们没有足够的时间行动。一旦潘多拉的盒子被打开,就很难被关上。

116 位机器人、人工智能公司的创始人提交给联合国的“预警”信

联合国从 2014 年 5 月开始讨论这种武器,也是在做预防的工作。前联合国秘书长潘基文称:“虽然自动武器系统尚未被部署,并且作为军用技术而言,它们的开发程度尚不清楚,这些问题的讨论必须立刻开始,不能等到这种技术被开发和扩散后再讨论。”

但有不少人认为,这种武器的诞生已经不远了。加州大学伯克利分校的机器科学和工程教授 Stuart Russell 认为,所需要的技术基础现在都已经具备,不需要另外的技术突破,问题在于会有多少资源被投入进去开发。

这次的预警信是针对于联合国从去年开始筹备的讨论,进一步讨论对这种武器的禁止。

总的来说,致命性自动化武器(LAWS)被认为可以分为 3 种,一种是需要人类授权射击开火,也就是说人是攻击的一环;另一种是机器人可以自己执行攻击任务,但人类可以否决;最后一种是完全没有人为的干预,机器自动完成攻击任务。

不难理解军队对杀手机器人的期待:它不会累不会困不会受道德谴责,打完仗也不会因为战后创伤自杀造成负面影响。

联合国从去年开始筹备、讨论的是,哪几种武器应该被禁止。他们为此设立了一个政府专家组(GGE),专门用于讨论这项武器相关的话题,最终可能是起草一份应对计划。其中还涉及到一个问题是,不少国家的防御系统本质上接近于这种自动武器,这也加大了联合国讨论的难度。事实上,联合国比较成功的一次武器禁令还是在 1995 年。


题图来自:Pixabay


原文链接 (已下线): https://www.qdaily.com/articles/44294.html
Wayback 快照: http://web.archive.org/web/20170823083059/http://www.qdaily.com:80/articles/44294.html
原始截图: http://ww3.sinaimg.cn/large/007d5XDply1g3xwm3tbxkj30u03gr4qp