「社交媒体平台的内容审核问题,并非简单的“多雇点人”的问题。面对海量信息,科技公司拥有的控制权,要比想像中小很多。」

2019年3月22日,新西兰基督城纪念公园墓地,枪击案受害者的遗体进行下葬仪式。
2019年3月22日,新西兰基督城纪念公园墓地,枪击案受害者的遗体进行下葬仪式。摄:Carl Court/Getty Images

“这像是第一场互联网原生(internet-native)的大规模枪击案”——新西兰基督城的恐怖袭击发生后,《纽约时报》的专栏作家Kevin Roose这样评价

2001年9月11日,全球各地的人们从电视上目睹了位于资本主义心脏地带的纽约世贸中心双子塔的倒塌,看到绝望的人们从高楼上坠落。2019年3月15日,枪声从世外桃源般的新西兰基督城传来。这一次,人们透过互联网和社交网络,目睹了一场血腥的大屠杀,看到同样绝望的人们倒在血泊中。

这场恐怖袭击从头到尾都是一场设计好的了“病毒式传播”——在Twitter和在线社区8chan上预告,在Facebook上如同射击游戏一般直播,枪手在开始屠杀前甚至借用了网络流行语,让“哥们”(lads)订阅知名YouTube博主PewDiePie。很快,直播视频被网友们以各种目的保存、并重新上传到各大平台,伴随着充满着彩蛋和“表情包”(meme)的宣言迅速扩散,其传播速度远远超过了社交媒体管理方的反应速度。

“这像是第一场互联网原生(internet-native)的大规模枪击案。”

根据Facebook的官方声明,尽管最初恐怖袭击的直播观看量仅有200,加上回播也不过4000次,但在接下来的24小时内,总共有150万条枪击案直播的视频被重新上传到Facebook上,其中120万条在上传时即被拦截,但仍有30万条视频成功发布,事后才被删除。同样的现象也发生在其它平台上,在恐怖袭击发生后相当长的一段时间内,普通用户只要通过简单搜索,就可以在网络上找到这段血腥视频。

科技公司成为众矢之的

在这次恐怖袭击中,科技平台的确存在诸多应对不力的问题,比如Facebook并没有在第一时间发现恐怖袭击的直播,而是依赖于用户举报,并且等到新西兰警方联系后才开始加速处理。在YouTube上,大量经过编辑重新上传的视频在恐袭发生24小时后依然没有被删除。在Reddit上,一个名叫“看人怎么死的”(/r/watchpeopledie )的板块成为了视频扩散的重要环节,一位版主明确表示,除非有人审查,否则这段视频不会被删除,因为“你应该自己决定是否要看到未经过滤的事实”(该版块在恐袭过后一天左右才被Reddit官方封禁)。

于是,在该事件中手忙脚乱的科技公司们,自然就成为了人们批评的对象。《卫报》的科技编辑Alex Hern表示:“我不明白为什么YouTube和Facebook不能雇一个人——就一个人——坐在那里搜索‘新西兰恐怖袭击’,然后删除不断出现在这个关键词下明显的重复上传。”《华盛顿邮报》的媒体专栏作家Margaret Sullivan也呼吁科技平台严肃对待这一问题,承担起“编辑判断”(Editorial judgement)的责任。

如今,传统媒体已经逐步丧失了“守门人”的权力,而科技平台看上去既没有足够意愿、也没有足够能力接过这项权力。

媒体人的不满完全可以理解,试想如果是恐怖分子将自己进行恐怖袭击的录像带和信件寄到报社,很难想像有编辑会决定将其内容不经删减和编辑而完整刊发。但如今,传统媒体已经逐步丧失了“守门人”的权力,而科技平台看上去既没有足够意愿、也没有足够能力接过这项权力。

人工智能难堪大任

然而,解决这一问题,真的就是“多雇几个人”就可以迎刃而解吗?

Facebook事后在声明中回应了质疑,解释了为何近年来在内容审核上越来越倚重的人工智能没有起到作用——人工智能系统需要大量的“训练数据”,因此较为常见的裸体图像、恐怖主义宣传、暴力画面可以迅速通过人工智能进行识别,但对于这次更为罕见的“直播枪击”,人工智能没有太多用武之地。

另外,尽管机器能够更为精准地识别出原始的视频片段,但有大量用户通过转录、剪辑、调色等手段重新上传了视频,增大了机器审查的难度。而中国读者可能会对这样的经历有深刻感受,每当网络上有内容被删帖,用户们常常可以通过截图、将图像倒置或扭曲等方法躲过审查——尽管往往只是暂时的。

较为常见的裸体图像、恐怖主义宣传、暴力画面可以迅速通过人工智能进行识别,但对于这次更为罕见的“直播枪击”,人工智能没有太多用武之地。

根据科技媒体The Verge的报导,YouTube内部已经建立起了一套处理色情内容和恐怖主义相关内容的机制,这套系统和探测侵犯版权内容的系统相似,对于未经编辑重新上传的内容可以在第一时间拦截,该系统同样能识别出经过剪辑的片段,系统会将这些内容转交给人工审核员处理,审核人员不仅包括平台雇佣的第三方审核人员,也包括YouTube的全职员工。

但这套系统对于新西兰恐袭这样的突发新闻事件处理起来并不简单。在枪击案发生后,除了部分用户恶意传播扩散视频内容外,还有大量的媒体和记者出于报导目的,传播了恐袭视频片段和恐怖分子的宣言(“天空新闻”澳大利亚分台甚至选择完整播出了直播片段)。因此,即便是同样的视频片段,在不同语境下也有不同意义,内容审核并非简单的非黑即白。

2019年3月22日,新西兰基督城枪击案的枪手将行凶过程在社交媒体上直播。

2019年3月22日,新西兰基督城枪击案的枪手将行凶过程在社交媒体上直播。影片截图

人海战术应对海量信息?

在过去几年中,因为内容安全频频出现危机,各大科技平台已经迅速扩大了内容审核人员的规模。YouTube于2017年末宣布雇佣1万人进行内容审核工作,Facebook到目前为止已经雇佣了1.5万名内容审核员,这一数字比起2018年翻了一番。

耐人寻味的是,尽管运行逻辑不同,但中国大陆的互联网平台也采取了相同手段应对类似挑战:在多次被官媒点名批评并被政府要求整改后,“今日头条”去年宣布将现有6000人的运营审核队伍扩大到1万人;而“快手”在被广电总局约谈后,也决定大幅扩招内容审核团队,且党员团员优先;第三方审核行业已经发展成为一个利润丰厚的行业

尽管运行逻辑不同,但欧美国家和中国大陆的互联网平台采取了相同手段应对类似挑战。

但和每天只需要处理有限数量新闻的编辑不同,科技平台内容的数量和规模远远超出人工处理的能力。Facebook声明中提及,在此次新西兰恐袭事件中移除了至少150万条视频;尽管YouTube没有提供关于此次事件的数据,但根据其CEO苏珊·沃西基(Susan Wojcicki)此前透露的数据,YouTube每分钟上传的视频时长达到500小时,在2018年第三季度移除了800万条视频,其中很大一部分视频在没有任何播放量时就已经被移除。这样的天文数字,是传统媒体无法想像的。

科技巨头并非全能

社交媒体平台的内容审核问题,并非简单的“多雇点人”的问题。面对海量信息,科技公司拥有的控制权,要比想像中小很多。

在过去很长一段时间内,科技平台的确没有承担起足够的内容审核责任。根据1996年美国通过的《通信礼仪法》230条,鼓励网站从善意原则出发移除淫秽、暴力、骚扰等内容,但网站可以免于为用户发布的信息承担责任。按照这一条款,互联网平台从法律上并不需要为平台上的内容承担责任。

但这并不意味着科技公司就愿意对平台上的内容采取放任不管的态度。在2016年美国大选假新闻风波后,舆论、民众和政府都给了科技公司越来越大的压力,互联网平台的态度已经有了大幅转变,开始在内容审核上承担起了更大责任。Facebook的CEO马克·扎克伯格2018年出席国会听证会时,明确表示Facebook需要为平台上的内容承担责任;而Google的CEO 桑德尔·皮查(Sundar Pichai)在出席国会听证会时,也表示Google有责任提供准确的信息。

2016年美国大选假新闻风波后,舆论、民众和政府都给了科技公司越来越大的压力,互联网平台的态度已经有了大幅转变,开始在内容审核上承担起了更大责任。

从商业角度考虑,科技公司也有动机减少平台上出现的不良信息。对于主要收入来自广告费用的社交媒体平台来说,平台上如果充满了不良信息,会导致广告商的撤离——就在新西兰恐袭发生前不久,YouTube已经因为内容审核问题陷入一场风波,有人曝出YouTube上有用户利用儿童视频开展色情活动,迪士尼、雀巢、麦当劳等广告大客户因此宣布暂停在YouTube上投放广告。

但另一方面,平台在内容审核时也必须保持慎重,避免因为“误伤”招致“限制言论自由”的批评——此前Facebook曾将著名摄影作品“越战女孩”判断为儿童色情而删除并封杀账号,结果引来大量批评。哪怕是在已经建立起广泛全面审查体系的中国,甚至是采取“先审后播”的极端方法,依然无法避免疏漏

这一问题无法单单依赖人工解决,也无法仅仅依赖人工智能来解决。

内容审核的新挑战

这一次新西兰恐怖袭击,并不是平台第一次面临内容审核上的挑战。2017年,为了应对ISIS和其它恐怖组织利用社交媒体平台宣传极端思想和招募成员,Facebook、Microsoft、Twitter和YouTube成立了“全球反恐互联网论坛”(The Global Internet Forum to Counter Terrorism),各大科技公司通过这一组织分享数据,并且和联合国等机构合作,共同应对恐怖主义在网络上的威胁。

Google旗下的孵化器Jigsaw还开发出“重定向”(Redirect Methods)的方法,通过AdWords和YouTube推荐,向在网上搜索恐怖主义内容的孩子推荐针对性的内容,避免孩子受到恐怖主义的影响。根据BuzzFeed News的报导,各大科技公司采取的举措的确在抑制ISIS的影响上起到了一定的效果,ISIS曾经在YouTube、Twitter等平台上的宣传网络几乎完全消失,新出现在平台上的宣传恐怖主义的视频也会迅速被删除。

和ISIS这类恐怖主义不同,如今的右翼极端主义组织形式更加去中心化,也更具有迷惑性。

但和ISIS这类恐怖主义不同,如今的右翼极端主义组织形式更加去中心化,也更具有迷惑性。互联网政治研究者夕岸在《从反女权到新朋克,另类右翼运动如何发家?》中这样评价“另类右翼”的松散联盟:“他们既可以大肆散布歧视言论,又可以辩解说自己只是在捍卫言论自由和西方文明,他们既可以严肃地骚扰攻击他人,又可以在争议不利于自己的时候,谎称一切只是为了‘好玩’(Lulz——Lol的讹用版本,即从别人的痛苦中获得快乐)。”

尽管各大社交媒体平台的的规则中都有针对煽动暴力、仇恨言论的规定,但相比ISIS,各大科技公司长期对于右翼极端主义往往采取容忍和无视的态度,直到近两年才开始更加重视其影响,例如对于违反平台规则的美国阴谋论者Alex Jones和英国记者Milo Yiannopoulos进行封杀。

但人们对于右翼极端主义威胁的忽视不仅仅存在于社交网络上,也存在于现实世界中——《纽约时报》2018年11月曾刊载文章,指出美国政府在过去20多年来一直忽视右翼极端主义的威胁,使得这股势力不断做大,发展到了现在无法控制的地步。这股势力在全球范围内的传播和扩散,固然和互联网以及社交网络脱不开干系,但其根源则根植于社会和文化中,单单凭借平台的内容审查无法解决。

作为一场“互联网原生”的恐怖袭击,新西兰枪击案或许标志着一个里程碑式的事件。我们不能寄希望于科技公司自觉承担全部责任,毕竟后者不是慈善组织,实现利润最大化、同时逃避承担责任,几乎是其本能反应。必要的政府监管、以及社会舆论的施压因此不可或缺。在手工操作和人工智能青黄不接的转折点上,要避免类似袭击对互联网生态和公共舆论的冲击,如何就内容审核机制提出建设性改进方案,仍然是互联网从业者不得不面对的难解谜题。

(华思睿,旅美媒体人)