智能
五大科技巨头联合,保护人类不会被机器人抢走工作
他们不是想要形成强制性力量,强迫科技公司进行自我调整,而是更想要培养出一种“公众认知”,为人工智能工作设定出“最佳实践方式”。
*本文只能在《好奇心日报》发布,即使我们允许了也不许转载*
本周三,五大科技公司表示,面对人工智能的迅猛发展,他们已经成立了一个联合组织来制定基本规则,以保护人类和人类的工作。
这个“AI 伙伴关系”(Partnership on AI)组织是亚马逊、Facebook、Google、IBM 和微软五家公司联合发起的,旨在努力减轻公众对于正在学习自主思考的机器的恐慌,或许也能缓解企业对于这项新技术受到政府监管前景的焦虑。
这个组织的成立正值公众就此话题展开辩论的重要时期,而辩论的焦点正是应用于各种机器人和其它智能系统(包括无人驾驶汽车以及工作场所自动化系统)中的人工智能技术。
基于这五个巨头的共识,这一行业联合组织制定了一系列用于工程开发和科学研究的基本道德标准。
在周三的一个电话会议上,五位代表各自公司的人工智能研究人员表示,他们认为人工智能技术将成为影响全世界社会效益与经济效益的重要力量,但他们也承认,有可能会出现对人工智能技术进行滥用的各种途径。
他们表示自己的举动并不是想要形成强制性力量,强迫科技公司进行自我调整。相反,他们更想要培养出一种“公众认知”,为人工智能工作设定出“最佳实践方式”。
穆斯塔法·苏莱曼(Mustafa Suleyman)是应用人工智能公司 DeepMind 的总裁——这家人工智能技术开发公司在 2014 年被 Google 收购,他表示:“我们绝对相信,人工智能是可以以一种积极正面的方式改变这个世界的。我们认为,现在最要紧的是开始思考公众参与的新模式、行业合作的新模式以及我们现在开发工作透明度的新模式。”
联合组织发布了八项原则,这让人想起艾萨克·阿西莫夫(Isaac Asimov)首创的“机器人三大定律”——这三大定律最早出现在他 1942 年发表的一篇科幻小说里。新的原则包含了较高层次的理念,比如“我们将努力确保人工智能技术尽可能地让更多人使用,使更多人受益”。
不过,至少还有一个原则体现出,这些公司认识到了他们可能会被卷入道德问题的泥潭里,因此这个原则呼吁工程师要反对把人工智能技术应用于武器装备或其它能够用来侵犯人权的工具中。
微软研究中心的常务总经理埃里克·霍维茨(Eric Horvitz)表示:“在过去的两到四年间,对人工智能技术的过分夸大已经引起了一些对于公众焦虑反应的担忧,这让政府本身也会受到一些误导。”
几位研究人员称,他们也在与苹果等科技公司以及新兴非盈利性研究机构 OpenAI 等其它机构联系,询问其是否要加入到这个联合组织里来。
翻译 熊猫译社 乔木
题图来自 www.techinsider.io
© 2016 THE NEW YORK TIMES
原文链接 (已下线): https://www.qdaily.com/articles/32825.html
Wayback 快照: http://web.archive.org/web/20180918190213/http://www.qdaily.com:80/articles/32825.html
原始截图: http://ww3.sinaimg.cn/large/007d5XDply1g3ygosc3saj30u03ir7wh