【猎云网(微信号:ilieyun)】5月22日报道(编译:蔡妙娴)
日前,英国《卫报》首次刊文揭示了Facebook内部的内容审核秘密原则和指导纲要,引起了全球对这家社交媒体巨头所扮演的角色及道德规范的讨论。
《卫报》获得了100多条内部训练手册、电子表格和作业图,以前所未有的广度展现了Facebook处理暴力、仇恨言论、恐怖主义、黄色内容、种族主义和自残等内容的原则。
甚至对于打假球和吃人肉,Facebook都出台了专门的规定。
这些文件是Facebook编写代码,制定内容审核规定的基础,而当前,他们的代码和规定正受到欧洲和美国的巨大政治压力。
Facebook谈到,让公司高管头疼的事情太多,比方说他们需要快速判定“复仇色情”能否登陆平台。审核人员常常被庞大的工作量压垮,每一个决定只容许10秒钟的思考时间。
某消息人士表示:“Facebook没法控制平台内容。它发展得太快、太大了。”
许多审核人员认为规定前后不一致,某些堪称古怪,并为此而担心。在这当中,最复杂、最让人困惑的,就是有关色情内容的规定。
一份文件显示,Facebook每周光虚假帐户(也就是FNRP,不是真人)报告就能收到650万份。忧心忡忡的批评家表示,Facebook已经成了全球最大的内容发布商,必须多做努力,筛除仇恨、恶意和暴力内容。对此,Facebook制作了数千张幻灯片和图片作为指导原则。然而从另一面来说,这份指导大纲也给自由言论支持者敲了一记警钟,Facebook已然成为全球最大的审查机构,双方都希望内容发布更加透明。
去年,《卫报》先后获得了这些审核人员的必读手册,部分内容包括:
1.“谁来给特朗普一枪”这种言论应当删除,因为一国领袖是特殊保护对象。但是,如果用户发布“想扭断贱人的脖子,就得确保所有压力放在脖子中间”,或者“滚开,去死吧”这样的言论,则不必删除,因为它们不属于可信威胁。
2.暴力死亡视频可以标记为令人不适,但不是所有都需要删除,因为它们能唤起人们对精神疾病的意识。
3.部分无性肢体虐待和儿童暴凌不必删除,除非包含残酷虐待或庆祝内容。
4.允许分享动物虐待照片,部分极端图片可标记为令人不适。
5.允许分享所有包含裸体或性活动的“手工”艺术作品,但不包括数字制作的性活动艺术内容。
6.允许分享堕胎视频,只要不存在裸体内容。
7.Facebook允许用户直播自残行为,因为公司“不想审查或处罚在痛苦中的人”。
8.任何拥有10万以上粉丝的用户都被视为公众人物,不享有一般用户的全面保护措施。
文件中提到其他允许上传的内容还包括:“在爸爸回来撕烂脸之前,女儿要乖乖等着”,以及“我希望谁来杀了你”等等。这些威胁被评为一般化或不可信内容。
在一份泄漏的文件中,Facebook承认,“人们会在网络上使用暴力语言来表达愤怒”,而且这样做“很安全”。
文件中是这样说的:“他们觉得,说这种话不会有什么后果。因为缺乏面对面交流所能产生的同情感,对于自己威胁的对象,他们也无比冷漠。”
“我们应当认为,暴力言论大多数是不可信的,除非有细节化的语言提供合理证据,证明用户已经不再是简单的表达情感,而开始策划或设计暴力行为。从这个角度讲,‘我要杀了你’或‘滚开去死吧’这种言论即是不可信的,是厌恶或愤怒等情感的暴力表达。”
文件补充写道:“人们经常用开玩笑、不严肃的方式来表达厌恶和异议。”
Facebook认为,“不是所有不友善言论或令人反感的言论都违反了公司规定。”
Facebook全球政策与管理主管Monika Bickert表示,公司现在拥有20多亿用户,想要达成普遍共识很困难。
Bickert说:“我们想要一个多元的全球社区,那么人们对什么样的内容应该发布,什么样的内容不该发布必然有不同的标准。无论你把线划在哪里,总会存在灰色地带。比方说,讽刺、幽默和不当内容之间就经常交叉。我们很难决定某个内容是否应当出现在平台上。”
“我们清楚地知道,自己有责任保护社区内用户的安全。这是公司的承诺。我们也将继续积极投入,保证这是一个安全的网站,但同时,我们也想赋予用户这样的权力,当发现某个内容违反平台规定时可以给我们上报。”
Bickert表示,某些评论在某种背景下可能违反Facebook的规定,某些情况下则不。
泄漏文件显示,Facebook在面对暴力死亡、无性虐童和动物虐待等内容时,态度是这样的:“暴力死亡视频令人不适,但可以帮助唤起人们的意识。对于这类视频,我们认为未成年人需要保护,而成年人需自己选择。在遇到人类暴力死亡视频时,我们负责将其标记为令人不适的内容。”
这类视频应对未成年人隐藏,但无需删除,因为它们能唤起人们对“自残后果和战争精神创伤等重要问题”的意识。对于无性虐童内容,Facebook表示:“我们不会撤销虐童图片,而将其标记为令人不适的虐童内容。但如果包含残酷的手法和庆祝内容,我们将撤销相关虐童图片。”
在另一张幻灯片中,Facebook表示,不主动删除虐童图片,并非为了鼓励用户互相分享以“拯救这些儿童”,他们只是想保护用户。
不过Facebook也承认,“有些情况下,为了帮助孩子,我们会允许发布无性虐童图片。”
对于动物虐待内容审核政策,Facebook在另一张幻灯片中解释道:“我们允许这类图片和视频记录内容的存在,是为了唤醒人们的意识,但是我们会添加观看保护,比方说那些令人非常不适的内容。”
“一般来说,动物虐待图片是可以出现在平台上的,只有极为残酷的图片会被标记为令人不适。”
文件显示,在去年的抗议事件(当时有人上传了一张标志性的越南战争照片,照片中的女孩赤身裸体)后,Facebook已经制定了全新的裸体内容审查原则。
现在,Facebook允许用户上传“有新闻价值的裸体照片”,但不允许出现“大屠杀时期的儿童裸体照”。
Facebook告诉《卫报》,公司正在使用软件,在某些图片内容发布到平台上之前拦截下来。不过,“我们希望人们能谈论国际时事,因此暴力图片的分享背景有时候很重要。”
Bickert说,Facebook属于“一种新的类别,并非传统的科技公司,也不是传统媒体公司。我们开发了这项技术,自然对其使用方式感到有监督职责。不过,人们在平台上读到的新闻并不是我们编写的。”
因为无法判断暴力图片的新闻成分或“意识”价值,Facebook已经备受批评。就在不久之前,两起杀人视频的出现,又把这家公司推向了风口浪尖。
5月1日,几名英国国会议员在调查报告中表示,“规模最大、资金最充裕的几家大型社交媒体公司采取的行动还不够,没能解决非法或危险内容问题,也没有制定合理的社区规范来保证用户安全,他们应当为此感到羞愧。”
内容审核专家Sarah T Roberts表示:“当你规模较小的时候还好说,也就是在一群人之间制定原则,统一价值取向而已。但当你的用户数量已经能在全球人口中占据重大比例时,那肯定是一团糟。”