您的位置 首页 科技新闻

Facebook内容审核高管:杜绝不良内容,目前要靠人力而不是机器

Facebook内容审核高管:杜绝不良内容,目前要靠人力而不是机器

《大西洋月刊》的作者Alexis C. Madrigal同内容审核专家及Facebook的高管会谈,该高管罕见地审视了Facebook的政策相关工作。本文原题Inside Facebook’s Fast-Growing Content-Moderation Effort,2月7日发表于《大西洋月刊》网站。

Monika Bickert为人严肃,令人印象深刻。她拥有哈佛大学的法律学位,在成为Facebook全球政策的负责人之前,出任助理检察官一职,主要负责处理腐败的政府官员。

在2月2日圣克拉拉大学法学院的一次会议中,Bickert特地对Facebook的内容管理团队做了详细的介绍。该会议是由学校的高科技法协会的负责人Eric Goldman组织的。

Bickert强调了内容审查对人类的必要性。她说,Facebook目前在全球拥有7500个内容审查员,实现了马克·扎克伯格在2017年5月定下的目标,那时候公司只有4500名内容审查员。换句话说,他们的审查员数目在过去八个月里几乎增加了一倍,大约等于Twitter或Snapchat的员工总数。

而且那些人还大都不是硅谷出身的。

“雇佣内容审查员的基本考量是语言,而且他们也具备某种特定的专业知识。他们被雇佣进公司后先是熟悉相关政策,然后慢慢才学习某一领域的专业知识”,她说,“审查小组的结构是这样的,我们可以提供全球7天24小时的全覆盖。这意味着我们会在都柏林雇佣一位缅甸人,或者想出其他的人员和语言配备,这样就可以在24小时内对内容进行审查或回复。这就是我们的目标,但并不总是成功。”

内容审查、社交媒体的政治化

随着社交媒体成为文化和政治的战场,内容审查已经成为Facebook一个最为紧迫的话题。圣克拉拉会议于去年年底在加州大学洛杉矶分校举行,会议的重点是处理“人类基本的粗鲁行为”。互联网公司已经代替了传统意义上政府的角色,开始对公众在虚拟空间内发表的言论进行管理,尽管他们都很难做到公平。除了Facebook之外,Google、Pinterest、Reddit、Yelp以及其他许多公司的代表也在会上发表了讲话。

为了让人们有一个直观的了解,Google的Nora Puckett说,该公司的整个安全团队有1万人,但其中包括的人远远不止内容审查者。另一方面,Pinterest的Adelin Cai则表示,针对其2亿用户的内容审查团队仅有11名全职人员。

在Facebook,有60个人专门为公司的内容审查制定政策。这些政策不是你在Facebook的服务条款或社区标准中读到的。这是一套专门为内容审查员制定的深层次的、非常具体的操作指令,每两个星期由Bickert的团队进行审核和评价,并在内部会议上公布。例如在《卫报》中曾曝光的一项规定指出,虽然Facebook上发裸体照片一般都是“禁止的”,但在历史大屠杀照片的背景下显示成人裸体却不在此列。

“每周我们都会更新这些政策,不过有时只是微调而已。”Bickert说。

而在每两周的内容评审会议上,公司上下的不同团队——包括工程、法律、内容审查人员、外部合作伙伴如非营利组织——都向Bickert 的团队提供政策建议,Bickert称之为“迷你立法会议”。

她的同事Neil Potts后来也发表了讲话,同样强调了Facebook和政府之间的相似之处。他说:“我们确实在某些方面与政府有共同的目标。如果政府的目标是保护他们的选民,也就是我们的用户和社区,那我认为我们应该助其一臂之力。”

对于内容审查的标准规定的如此详细的原因是,Facebook希望减少内容审查员所做决定的偏差。

“我们试图确保标准足够细致,这样就不会给审查人员留下太多的解释空间”,Bickert表示,“我们知道人们可能会持有异见。审查人员对裸露的水平或者暴力的程度也有自己不同的看法。或者是不是应该确定一些禁忌词汇?构成种族歧视有什么标准?我们有非常具体的指导,所以审查人员不管是在菲律宾,还是在印度或者德州,他们都会做出同样的决定。”

为了达到这样的目标,公司对所有审查员的工作也进行了持续的审核,已确定“如果这个人是不是我们需要的,或者这个人的审查决定是不是达到了我们政策的要求。”

但过于具体也可能成为这些规则的弱点。“我们总会碰到这种情况——你看到一个什么东西的时候,从技术上来说其实不构成违背仇恨言论的标准,但是当你看到它的时候,其实你会不由自主地确定这其实就是在煽点仇恨和矛盾,制造对立与冲突”,Bickert表示,“所以这些东西其实打了擦边球,所以我们必须要细化这些标准,这样才能更好地控制偏见。”

技术、人工智能和审查

Bickert在演讲中揭露的一则轶事似乎表明,Facebook并不总是像现在这样认真对待内容审查。当Facebook推出直播时,他们必须通过技术工具查看有没有哪一部分具有倾向性。所以,如果一个Facebook Live视频长达两个小时,评论者就不得不试着弄清楚有哪些令人反感的内容。

“内容审查员审查视频的工具最终被证明它不是我们所需要的”,Bickert表示,“它没有在审查视频方面给予审查员足够的灵活性。”

审查的引入反映了时代风向的转变,扎克伯格已经不是2015年的扎克伯格了,那时的他是一个纯粹的工程师,而非社区建设者。

在过去一年半的时间里,Facebook似乎确实在内容审查方面倾注良多,尽管该公司有能力克服竞争和平台转变等问题,但内容审查仍旧是一块烫手山芋。这类问题并不像技术方面的挑战那样通过投入大量的工程师就可以解决。

“我们经常被人问说:人工智能什么时候才能拯救我们所有人?”Bickert说,“但我们还有很长的路要走。”

当前的机器学习技术不善于考虑特定的职位、用户或社区组织的背景。因为这不是这些工具的工作原理,所以尽管我们看到其他领域的发展突飞猛进,但这一领域的发展还任重道远。

“有些领域的技术工具正在帮助我们完成审查工作”,Bickert说。“但对绝大多数人,当我们看到仇恨言论,或者恃强凌弱,或者恶意骚扰的时候,要知道还有人也在看着它,这个人试图弄明白线下世界发生了什么,以及它在网络上是如何表现出来的。”

本文来自网络,不代表IT界立场,转载请注明出处:https://www.itjie.com/21908.html

作者: IT界

IT界:一个神奇的IT科技资讯门户网站
联系我们

联系我们

13683682021

在线咨询: QQ交谈

邮箱: [email protected]

工作时间:周一至周五,9:00-17:30,节假日休息

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部