商业
反犹分子投广告之后,Facebook COO 说会加入更多人工审查
在被指出之前,Facebook 自己都不知道自己广告受众定位系统有这些不恰当的标签
Facebook 的算法又惹祸了。
上周,非盈利新闻机构 ProPublica 上周发表了一篇文章,指出当你在 Facebook 上创建广告的时候,可以选择“Jew hater”(仇恨犹太人的人)、“How to burn jews”(如何烧犹太人)、“History of ‘why jews ruin the world’”(为什么犹太人毁灭了世界)这样的标签来找到广告的目标受众。

ProPublica 试着用前面提到的这些标签来投放广告,不过 Facebook 系统提示说人数太少,随后他们又往受众描述里添加了“German Schutzstaffel”(纳粹党)和“National Democratic Party of Germany”(德国极右翼政党德国国家民主党)的标签,在 15 分钟后,系统提示审核通过,广告成功投放。
之所以会出现这些标签,是因为部分 Facebook 用户自己在个人资料里将这些内容列为“兴趣”、“工作”、“研究领域”,Facebook 算法直接抓取了它们,转化为广告系统中的受众描述。实际上,按照 Facebook COO Sheryl Sandberg 的说法,在 ProPublica 报道之前,Facebook 根本就不知道他们的广告受众描述里还有这样的标签。
在 ProPublica 报告了这个问题之后,Facebook 立刻把类似的标签从广告系统里删除了。昨天,Sandberg 又在 Facebook 上发表声明,宣布他们“正在加强广告受众定位系统和工具”。
作为 Facebook 整个广告机构的负责人,Sandberg 是第一次对 Facebook 广告算法缺乏人工监督这事发言,她强调 Facebook 不容忍这类仇恨言论,在收到报告之后暂时停用了自动定位受众的系统。“我们从未打算或者预料到这个功能会以这样的方式被使用——这是我们的错。而且我们也没有自己发现(问题)——而这也是我们的错。”
在声明中,Sandberg 表示目前 Facebook 正在确保不符合 Facebook 标准的内容不会被用来定位受众,人工审查目前所有的受众标签,恢复他们“护士”、“老师”等五千种最常用的标签,而且未来他们还会用更多人来进行广告标签审核,不过 Sandberg 并未透露具体的人数。
除此以外,Facebook 还打算推出举报系统,鼓励 Facebook 用户举报 Facebook 广告系统的各种滥用和错误使用。
从美国大选开始,Facebook 的广告和不实内容的传播就备受关注。就在上周,Facebook 也宣布过一次要用更多人力来审核广告,不过当时所说的是审核广告内容,避免广告里出现任何违背 Facebook 标准的内容。
原文链接 (已下线): https://www.qdaily.com/articles/45454.html
Wayback 快照: http://web.archive.org/web/20171217204153/http://www.qdaily.com:80/articles/45454.html
原始截图: http://ww3.sinaimg.cn/large/007d5XDply1g3yc3br3c2j30u0401kjl
