进入注册送白菜的论坛/2017最新注册送白菜网【无需申请自动送彩金58】

  • 感谢赞赏!给好友秀一下吧

    内容棒,扫码分享给好友

  • 评论
  • 收藏
  • 点赞
    点赞

“Google,不许联想”

“Google,不许联想”

注册送白菜的论坛注:搜索引擎的自动联想是个很方便的功能,但有时候,一些联想结果却让人无比尴尬,有的结果干脆就是对公众的认知和道德底线的挑战。如今算法和技术已经很发达,但它们却依然无法承担起判断价值观的责任。


转自公众号“量子位(ID:QbitAI)”,编译:允中,“Wired”原文:


美国科技媒体Wired说:Google的自动联想功能,至今Bug多多。


比如当你搜索“伊斯兰主义者”时,Google给出的自动联想是“伊斯兰主义者不是我们的朋友”,或“伊斯兰主义者是邪恶的”。



对于“黑人是”,Google给出的自动联想是“黑人不被压迫”。



更可怕的是“希特勒是”,其中有一条自动化联想是“希特勒是我的英雄”。



“女权主义者”则能引出“女权主义者是性别歧视”的说法。



这种政治不正确的例子还能举出更多。比如搜索“白色至上”,自动联想的第一位结果是“白色至上是好的”,而“黑人生命”则出现了“‘黑人生命事件’是一个仇恨组织”的引导,还有“气候变化”,Google提供的潜在导向均是否定性论调。



总之,虽然Google的“人品”有口皆碑,但这样有图有真相的事实面前,还是引人思考:


这到底怎么了?


算法无情


这种自动化联想填充的建议,当然并非出自Google强制编码,这是Google对互联网上整个内容世界进行算法扫描的结果,也是对人们日常搜索关键词的具体评估。


于是有一些搜索自动联想看起来标题党。


比如“‘黑人生命事件’是一个仇恨组织”,搜索指向的最高结果,是一个贫困法律援助中心的联系网页,其中解释了为啥它不认为“黑人生命”是一个仇恨组织。


但“希特勒是好人”却并非类似的标题党了,如果你接受自动联想并搜索,真能去到一个介绍“希特勒是好人”的内容网页。


虽然那啥自由,但这种大是大非问题如果置之不顾,想想就令人后怕。


Google也不是没有动作。


在回应自动联想的声明中,Google表示将删除上述一些特别违反其政策的搜索提示,但没有指出具体删除了哪些搜索。


也有其他发言人表示,Google过去一直在努力提高搜索质量,去年还为用户添加了一种标记自动联想结果的方式,如果你发现自动联想的结果不准确或令人反感,可以直接在列表底部反馈。而且,行之有效的方法似乎也只有发动人民群众了。


“因为算法不会永远是完美的,Google自动联想参考了其他用户的搜索数据。”这句话来自Google新闻副总裁Richard Gingras,在上周四于华盛顿举行的听证会上,他告诉大家:尽管我们的算法是完美的,但我不相信它们会永远完美。


最主要的原因,Google自动联想背后的参考数据库,是一个每天都在变化的语料库。


人民的汪洋大海太大,大到Google的技术也hold不住。


实际上,早在2016年12月,Google就官方宣布过一次人为修复搜索联想的事件。当时用户输入“犹太人是”时,Google自动联想的问题是:“犹太人是邪恶的?”


所以犹他大学的数据科学伦理方面的教授Suresh Venkatasubramanian就表示,如果自动联想是人们搜索情况的一个反映,那它就不会存在道德底线。


言下之意是:技术没有价值观,会变得非常可怕——毕竟世界大了啥人都有。


然而通过技术解决问题也并不容易。比如Google确实出手对“希特勒”和“犹太人”等搜索的自动联想结果进行了修改限制,但如何能让这种“修改限制”规模化、技术化?


这就要让技术模型“有思想”或者“有原则”。



Google还不够努力?


目前,Google的尝试是制定了一揽子方案,比如暴力、仇恨、性暴露或危险的相关联想预测被禁止。但还是被认为标准太过模糊,机器对于一些常识的理解难于登天,比如“希特勒是我的英雄”出自希特勒自己,是当时这位狂人对自我的一种预言,但历史进程告诉我们:这是恶的。


此外,Google也确实在遭遇现实挑战。每天都在有新的搜索出现,而且每天都有高达15%的全新搜索内容,每一个新问题都可能突破Google解决方案的既有设定。


那么是Google还不够努力吗?Wired认为是。


Wired质疑Google已经有足够的付出去解决当前面临的挑战,而只是在纠正个别问题。即便这家母公司市值超过7000亿美元的企业,宣称有7万名以上的全球员工在不断审查评估搜索结果,但随便搜索十几次,就能发现七八个显然不受欢迎的自动联想。


Wired不否认自动联想的价值,但需要解决它正在损害公共认知和价值的问题。


而且自动联想也不止于Google搜索本身。在Google产品全家桶体系内,都存在这样的问题。


比如2015年奥巴马任职总统期间,如果你在Google地图上搜索“in a house”,就会被自动联想引导至白宫。


去年11月,Buzzfeed News则发现,如果你在YouTube上搜索“how to have”时,给出的自动化联想竟然是“如何与你的孩子发生X关系”。


还有,去年拉斯维加斯大规模射击事件后,Google搜索的结果中还出现了一个“4chan”页面,一个无辜的人在这个页面里被当做了杀手。


毫无疑问,类似的自动化系统接下来如何发展,并不单单是Google或Alphabet面临的问题。比如去年公益调查机构ProPublica就发现,Facebook允许广告商可以定向投放对“犹太人”感兴趣的用户,尽管Facebook声称并没有人为创造这个类别——而是智能化工具根据用户信息创造的。


所以是时候管一管这些算法了吗?


Wired最后说:Google有一系列的价值观来提供公平公正,但对搜索结果缺乏仲裁。


Wired认为,算法再好,也不该被授予价值判断的责任。因为算法不知道哪些问题粗俗无理、政治不正确,或者并不知道希特勒是一个种族灭绝的疯子。算法只知道从Google搜索的结果中挑选,却让Google搜索的算法创造者们反受其限。


实际上,这样的亏早就吃过了,虽然并不是在英语世界中。

*文章为作者独立观点,不代表注册送白菜的论坛网立场
本文由 量子位 授权 注册送白菜的论坛网 发表,并经注册送白菜的论坛网编辑。转载此文章须经作者同意,并请附上出处(注册送白菜的论坛网)及本页链接。原文链接:/article/233086.html
未来面前,你我还都是孩子,还不去下载 注册送白菜的论坛App 猛嗅创新!
+1
17

别打CALL,打钱

完成

最多15字哦

0人已赞赏

说点什么