智能
人工智能专家签署了保护人类声明,问题来了
就像那些看起来很有用的“哄女朋友的二十一条”,但首先你得有个女朋友。
距离科幻小说家阿西莫夫提出“机器人三定律”已经过去了七十多年。近日,又一封以保护人类为目的的声明出现了。这封声明由人工智能研究领域内的专家联合签署,而不是出自科幻小说家或是科技社会学家之手。
这封公开信呼吁人工智能(AI)领域的研究在技术的提升之外,还要关注人工智能的社会效应,将其尽可能地最大化,建议接下来的相关研究同时保证 AI 系统的智能和社会效益,也就是说,保证人工智能只做人类想要它们做的事。在公开信之外,还附加了一份研究优先文件,涉及法律、哲学、经济、信息安全、范式以及人工智能研究的多个研究分支。
已经在这封公开信上签名的专家包括物理学家史蒂夫·霍金、《人工智能:一种现代方法》的作者Stuart Russell、美国人工智能主席 Tom Dietterich、微软雷蒙研究院院长 Eric Horvitz、人工智能开发公司 DeepMind 创始人、Facebook 人工智能实验室负责人 Yann LeCun、Space X 创始人 Elon Musk,此外还有在人工智能、机器学习等领域进行研究的教授、学生和研究者。
公开联署仍在继续,加入这项宣言的研究者为数不少,至少鼠标往下拉了一屏又一屏也没有到头。如果你也认同这样的想法,可以在生命未来研究所(Future of Life Institute ,FLI)的网站上留下签名。
自人工智能这个概念出现以来,人们就一直在担心人工智能的侵袭,就像人们从机器人远未成型之前就开始担心机器可能会占领世界。在这一点上,研究者和从业人士的未雨绸缪几乎都反应在类似《终结者》之类的电影、文学作品上。比如 Space X 和特斯拉的创始人 Elon Musk 就多次在推特和演讲中强调人工智能的未来发展中存在着巨大的威胁,“它们也许比核武器更加危险”。
提出声明的生命未来研究所就是在这样的背景下,由一群数学家和计算机学家倡议成立的志愿研究组织,它们的研究目的就是减轻人工智能发展中可能存在的危险。
人工智能可能具有强大的能力,却缺失如人类一般的应急判断能力、人情味以及爱。那些伦理学、社会学的问题相应而来,在电影 Her 中,那位人工智能主角这样表达“她”的爱:“我爱的越多,才能爱你越多。”机器智能通过深度学习来获得关于“爱”的信息,她可以同时“爱”六百多个人,而人却很难接受这一点。
比起这些文艺的问题,人们更担心超级智能或是超级机器可能带来的危险,问题是,现在的人们是不是有些担心地过头了?在考虑“人工智能可能多危险”之前,也许应该先考虑“人工智能离我们还有多远”这个更基础的问题。
如日本大阪大学智能机器人实验室的 Hiroshi Ishiguro 教授来说,机器人就应该越像人类越好,东芝在刚刚结束的美国消费电子展上也推出了高仿真机器人,尽管活动的灵活性和沟通能力并不高,这些以“模仿人类外表”为目的的机器人已经走上了“复活蜡像馆”一般的不归路。至于让机器像人脑一样思考,还不在它们的学习范围内。
On Intelligence 一书的作者 Jeff Hawkins 则认为那些试图用中央处理器去模拟大脑“计算”的研究基本上都走错了路,现有的研究离理解“大脑是如何工作”以及制造出“像大脑一样工作的机器”也还远得很。
现在,我们也许可以看到构成真正智能的一些方面有了一定的进展,比如图像识别、语音识别、文字识别等等,从手机、家居、工具、自行车乃至平底锅都被冠上了“智能”的名字,却没有一个完全的智能体将这些割裂开的系统组合起来。
我们已经用上了机械手臂组装部件,用上了能够预置轨迹的机器人进行运输,用上了大型科学计算软件帮助我们更快的搜索,但是那个帮助人类将这些感官、手足、感觉联系起来的“大脑”仍未出现。
换句话说这些令人担心的人工智能还没什么智能,不过是工具而已。人工智能专家签署这个声明就和研究汽车的专家一起签署汽车将保护人类声明一样。
15 世纪时,阿兹克特人将从未见过的西班牙人当作“白色的天神”,在火车刚刚出现的时候,人们将它称为“铁马”,也许在人类真正害怕的那种“智能”出现的时候,我们会忘记,它们曾经被叫做“人工智能”。
在此之前,我们已经想象过无数次人工智能可以做些什么以及可能做些什么不利于人类的事,那么,首先,让我们期待一下真正的“人工智能”出现的那一天。
题图来自 Boston Magazine
原文链接 (已下线): https://www.qdaily.com/articles/5196.html
Wayback 快照: http://web.archive.org/web/20190623164135/https://www.qdaily.com/articles/5196.html
原始截图: http://ww3.sinaimg.cn/large/007d5XDply1g3wgo42q0xj30u03pqhdt