智能

想靠讲故事让人工智能拥有人性,你们也是naive

王震宇 ·

虽然这讲故事的方法其实还挺科学,但是科学家们,你们也是太藐视人性的复杂了。

不管你对未来持何观点,有一批人的想法是这样的:鉴于 AI 的智慧很可能在几十年内全面超过我们,为了让到时候已不可控制的人工智能不至于“野蛮地屠杀我们”,它们必须得到“教化”。

基于这样的观点,来自乔治亚理工的 Mark Riedl 和 Brent Harrison 正尝试用讲故事的方式来教化 AI 的“人性”。

这个叫做 Quixote 的项目是 Riedl 另一个早期项目的 Scheherezade 的续集和再版。Scheherezade 旨在通过任务众包的合作方式将一个个故事分解成情节变化和发展的逻辑节点——这件事要给文学爱好者知道,恐怕又是一场纷纷的争议。

在我们评论这个做法是否可行之情,我们县看看它的具体原理。在 Quixote 中,他们先利用 Scheherezade 将许多案例故事绘制成包含各个情节元素的结构图,然后再通过不同元素组合绘制出一条“最可靠”(也就是最道德、最人性)的路径。基于此,情节元素的不同选择被转换成了一个个“节点事件”,而这些节点最终构成一个节点树。在每棵节点树上,Riedl 和 Harrison 都会给每个节点赋予不同的奖励点数,从而引导并训练人工智能始终走在“正确”的道路上。

也就是说,教机器人做一个游戏,善良点的那些呢,得分更高,恶的那些呢,就不太高。为了成为学霸,机器人必须选择善良。

啊,这或许是一个比较肤浅的解读,但就目前获得的信息来看,的确也是一个肤浅的项目。如果人性可以转化成逻辑问题从而规避恶的那一面,那这个世界怎么会变成今天的样子!人性最著名的特点,难道不是“这个不好说”吗,一些从前认为是恶的东西,现在早就转换了观念,最经典的就是 LGBT 问题。

有些人或许会建议仅仅从普世价值的角度去看待这个机器人培训课,但是我们进行这个探讨的前提,恰恰是人类的智商不足以控制人工智能的时候。所以不仅要考虑普世问题,还要考虑大量灰色地带。

这样的话,就好像人类抓着头发要离开地球一样。如果机器人的善恶都是你教的,你自己都没搞清楚的事情,怎么能指望它们能守规矩呢?讲故事就更帮不上忙了。

图片来源:engadget


原文链接 (已下线): https://www.qdaily.com/articles/22262.html
Wayback 快照: http://web.archive.org/web/20190623170049/https://www.qdaily.com/articles/22262.html
原始截图: http://ww3.sinaimg.cn/large/007d5XDply1g3w9nbxilbj30u03frb29