作为回应“助推极端主义内容”的批评,谷歌决定更改算法,但结果仍未令人满意。
据英国《卫报》(The Guardian)2日报道,谷歌公司的一名高级搜索工程师透露,在美国频繁发生大规模枪击事件的背景下,错误信息变得非常普遍,因此谷歌不得不通过调整算法来弥补。
潘杜·纳亚克(Pandu Nayak)于14年前入职谷歌公司,主要工作是搜索引擎的开发。他在接受《卫报》采访时表示,由于大规模的谋杀事件,谷歌越来越难以提供准确的搜索结果。
纳亚克表示,“很不幸,近几年的枪击事件在不断增加。而在这些扑朔迷离的事件中,各种各样的错误信息都可能会出现。”
“为了解决这样的问题,我们开发了算法来识别发生的不良事件,我们应该强化“权威”观念,增加“权威”在心中的分量,这样在关键时刻才能筛选出高质量的内容,而不是错误的信息。”纳亚克说。
根据谷歌的定义,权威是指符合该公司的搜索质量评估指南的页面,评估指南是一份166页的PDF文档,谷歌将其分发给1.6万名搜索质量评估人员。
这些员工负责检查谷歌算法的调整情况,确保其达到最佳效果,并在两个尺度上对搜索结果进行评级:一个是搜索者的需求是否得到满足(例如,如果用户搜索“谷歌工作”,结果显示谷歌总部的位置即是“不符合”需求,而结果显示公司职业的主页则视为“完全符合”);另一个是标记页面的质量,该指南将超过80页的指南定义为“极高质量的主要内容”,“极高水平的专业性、权威性、可信性”和“极为优质的声誉”。
这份搜索质量评估指南2013年才首次发布,但长期以来,评估人员都是谷歌判断算法变化的核心力量。然而直到最近,他们才明确排除了搜索结果中的仇恨言论、虚假信息和假新闻。
2017年,在《卫报》和《观察家报》连续报道谷歌助推极端主义的内容之后,该公司在评级中增加了一项标记,名为“令人反感的攻击性”。
其中一篇报道特别指出,搜索“大屠杀真的发生了吗”,置顶结果是白人至上主义论坛Stormfront中的某条链接,该链接内容解释了如何向他人否认大屠杀。
但纳亚克表示,如今该搜索已经包含在评估指南中,被视为需要标记的内容。
“值得注意的是解决这个问题的方式。我们并非简单地从查询中删除这个结果。我们不进行手动干预来“修复”查询的原因在于:某个特定的问题只是冰山一角,通常还有很多其他的问题,就像冰山的主体一样,只是尚未有人选择向我们报告。”纳亚克补充说,“所以在这个特殊的案例中,我们真正想做的是第一时间深入了解问题发生的原因。比如,我们的算法中的哪一部分导致了问题的发生?这样你就能找到问题的核心并解决它,那么即使不能解决整座冰山,也能解决很大一部分。”
纳亚克向《卫报》记者展示,“大屠杀真的发生了吗”的一条搜索结果指向美国大屠杀纪念馆。然而,对于英国用户来说,置顶的搜索结果仍是《观察家报》最初披露该问题的报道原文。
新闻推荐
还记得南极洲的海冰面积上一次增长是什么时候吗?这种情况有可能不会再次发生。在南极拍摄到的帝企鹅。视觉中国资料图据英...