• 34
“Google,不许联想”
统计 阅读时间大约5分钟(1890字)

2018-02-12 “Google,不许联想”

算法再好,也不该被授予价值判断的责任。

猎云注:Google自动联想背后的参考数据库,是一个每天都在变化的语料库。从“黑人是”、“希特勒是”等价值观问题,使得Google的“人品”有口皆碑。本文提出,算法再好,也不该被授予价值判断的责任。因为算法不知道哪些问题粗俗无理、政治不正确,或者并不知道希特勒是一个种族灭绝的疯子。算法只知道从Google搜索的结果中挑选,却让Google搜索的算法创造者们反受其限。文章转自: 量子位(ID:QbitAI),编译:允中。

美国科技媒体Wired说:Google的自动联想功能,至今Bug多多。

比如当你搜索“伊斯兰主义者”时,Google给出的自动联想是“伊斯兰主义者不是我们的朋友”,或“伊斯兰主义者是邪恶的”。

对于“黑人是”,Google给出的自动联想是“黑人不被压迫”。

1

更可怕的是“希特勒是”,其中有一条自动化联想是“希特勒是我的英雄”。

2

“女权主义者”则能引出“女权主义者是性别歧视”的说法。

3

这种政治不正确的例子还能举出更多。比如搜索“白色至上”,自动联想的第一位结果是“白色至上是好的”,而“黑人生命”则出现了“‘黑人生命事件’是一个仇恨组织”的引导,还有“气候变化”,Google提供的潜在导向均是否定性论调。

4

总之,虽然Google的“人品”有口皆碑,但这样有图有真相的事实面前,还是引人思考:

这到底怎么了?

算法无情

这种自动化联想填充的建议,当然并非出自Google强制编码,这是Google对互联网上整个内容世界进行算法扫描的结果,也是对人们日常搜索关键词的具体评估。

于是有一些搜索自动联想看起来标题党。

比如“‘黑人生命事件’是一个仇恨组织”,搜索指向的最高结果,是一个贫困法律援助中心的联系网页,其中解释了为啥它不认为“黑人生命”是一个仇恨组织。

但“希特勒是好人”却并非类似的标题党了,如果你接受自动联想并搜索,真能去到一个介绍“希特勒是好人”的内容网页。

虽然那啥自由,但这种大是大非问题如果置之不顾,想想就令人后怕。

Google也不是没有动作。

在回应自动联想的声明中,Google表示将删除上述一些特别违反其政策的搜索提示,但没有指出具体删除了哪些搜索。

也有其他发言人表示,Google过去一直在努力提高搜索质量,去年还为用户添加了一种标记自动联想结果的方式,如果你发现自动联想的结果不准确或令人反感,可以直接在列表底部反馈。而且,行之有效的方法似乎也只有发动人民群众了。

“因为算法不会永远是完美的,Google自动联想参考了其他用户的搜索数据。”

这句话来自Google新闻副总裁Richard Gingras,在上周四于华盛顿举行的听证会上,他告诉大家:尽管我们的算法是完美的,但我不相信它们会永远完美。

最主要的原因,Google自动联想背后的参考数据库,是一个每天都在变化的语料库。

人民的汪洋大海太大,大到Google的技术也hold不住。

实际上,早在2016年12月,Google就官方宣布过一次人为修复搜索联想的事件。当时用户输入“犹太人是”时,Google自动联想的问题是:“犹太人是邪恶的”?

所以犹他大学的数据科学伦理方面的教授Suresh Venkatasubramanian就表示,如果自动联想是人们搜索情况的一个反映,那它就不会存在道德底线。

言下之意是:技术没有价值观,会变得非常可怕——毕竟世界大了啥人都有。

然而通过技术解决问题也并不容易。比如Google确实出手对“希特勒”和“犹太人”等搜索的自动联想结果进行了修改限制,但如何能让这种“修改限制”规模化、技术化?

这就要让技术模型“有思想”或者“有原则”。

5

Google还不够努力?

目前,Google的尝试是制定了一揽子方案,比如暴力、仇恨、性暴露或危险的相关联想预测被禁止。但还是被认为标准太过模糊,机器对于一些常识的理解难于登天,比如“希特勒是我的英雄”出自希特勒自己,是当时这位狂人对自我的一种预言,但历史进程告诉我们:这是恶的。

此外,Google也确实在遭遇现实挑战。每天都在有新的搜索出现,而且每天都有高达15%的全新搜索内容,每一个新问题都可能突破Google解决方案的既有设定。

那么是Google还不够努力吗?Wired认为是。

Wired质疑Google已经有足够的付出去解决当前面临的挑战,而只是在纠正个别问题。即便这家母公司市值超过7000亿美元的企业,宣称有7万名以上的全球员工在不断审查评估搜索结果,但随便搜索十几次,就能发现七八个显然不受欢迎的自动联想。

Wired不否认自动联想的价值,但需要解决它正在损害公共认知和价值的问题。

而且自动联想也不止于Google搜索本身。在Google产品全家桶体系内,都存在这样的问题。

比如2015年奥巴马任职总统期间,如果你在Google地图上搜索“in a house”,就会被自动联想引导至白宫。

去年11月,Buzzfeed News则发现,如果你在YouTube上搜索“how to have”时,给出的自动化联想竟然是“如何与你的孩子发生X关系”。

还有,去年拉斯维加斯大规模射击事件后,Google搜索的结果中还出现了一个“4chan”页面,一个无辜的人在这个页面里被当做了杀手。

毫无疑问,类似的自动化系统接下来如何发展,并不单单是Google或Alphabet面临的问题。比如去年公益调查机构ProPublica就发现,Facebook允许广告商可以定向投放对“犹太人”感兴趣的用户,尽管Facebook声称并没有人为创造这个类别——而是智能化工具根据用户信息创造的。

所以是时候管一管这些算法了吗?

Wired最后说:Google有一系列的价值观来提供公平公正,但对搜索结果缺乏仲裁。

Wired认为,算法再好,也不该被授予价值判断的责任。因为算法不知道哪些问题粗俗无理、政治不正确,或者并不知道希特勒是一个种族灭绝的疯子。算法只知道从Google搜索的结果中挑选,却让Google搜索的算法创造者们反受其限。

实际上,这样的亏早就吃过了,虽然并不是在英语世界中。

1、猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权。
2、转载时须在文章头部明确注明出处、保留官方微信、作者和原文超链接。如转自猎云网(微信号:lieyunjingxuan
)字样。
3、猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考,猎云网不对真实性背书。
4、联系猎云,请加微信号:jinjilei
相关阅读
推荐阅读
{{item.author_display_name}}
{{item.author_display_name}}
{{item.author_user_occu}}
{{item.author_user_sign}}
×