发表文章 | 南方周末记者 徐悦东 通讯员 李梦媛
6月5日,YouTube预览了有关“憎恶论调”的条文,宣称将全面明令禁止“所含黑人TDATE2007主义者和新法西斯主义者文本”的音频。另一家使用者量少于10亿的音频撷取中文网站则表示,此前她们早已尽全力减少这类音频出现在使用者视线中的振幅,但现在她们要做得更加全盘。除以上文本以外,YouTube还将禁言某些驳斥纳粹党大屠杀等史实的音频。
作为英国最小的音频撷取中文网站,YouTube 有少于10亿使用者。
除YouTube之外,Facebook、Twitter等多个子公司都早已采取类似措施,对不断涌现的憎恶论调进行控管。然而,那些措施也引起了争论。批评者则表示,那些条文侵害了使用者发表个人见解的基本权利。但也有人指出,面对互联网上仇恨论调泛滥成灾的情况,那些子公司目前的应对措施还非常有限完善。
他们该如何限量发行憎恶论调的边界线?互联网平台与否如果处理憎恶论调?在社会越来越多样化的今天,他们与否如果包容包括憎恶论调在内的相同声音?
在英国,人们难以就憎恶论调的表述达成一致一致意见
一般指出,如前所述族群、宗教信仰、双重国籍、异性恋、性向、伤残等身分特征,故意鼓动特别针对个人或社会群体的暴力行为及仇恨的论调,都可能构成憎恶论调。许多北欧国家都特别针对憎恶论调制定了法律:英国的社会秩序法和澳大利亚的民法都明令禁止公开发表鼓动族群和宗教信仰憎恶的论调。而经历了第二次世界大战经验教训的德国,则明令禁止公开发表驳斥大屠杀及特别针对少数族群的憎恶论调。日本在三年前也早已修法压制憎恶论调。
与那些北欧国家相同的是,英国并没有相关法律明令禁止憎恶论调。除非某个论调会引起“明显而即刻的危险”,否则都受到《第一修正案》的保护。因此,即使某些论调非常令人反感,政府也不能对其进行限制和惩罚。因此,在《第一修正案》的基本原则下,英国没有对憎恶论调进行修法。
如何对憎恶论调进行表述,也成为了难题。在2017年有关“憎恶论调包容度”的调查中,82%的英国人则表示,人们难以就憎恶论调的表述达成一致一致意见,这也是无法明令禁止憎恶论调的重要原因。在对憎恶论调、冒犯论调,以及单纯的政治观点进行区分的时候,每个人的标准可能都不尽相同。
在这个问题上,自由派和保守派出现了明显的分歧。比如,59%的自由派指出“跨异性恋者有心理疾病”是憎恶论调,但只有17%的保守派对此表示赞同;81%的自由派将“带有族群歧视的称谓”视为憎恶论调,而少于半数的保守派都指出这只是冒犯性论调,称不上憎恶。 但是,对“英国是一个邪恶的北欧国家”、“黑人都是族群主义者者”等叙述,保守派将其表述为憎恶论调的比例大大增多。
自由派与保守派对憎恶论调的表述存在分歧
不过,总体来看,无论持有哪种政治观点的社会群体,都有少于半数的人指出国会不应对憎恶论调进行修法。但是,作为私营企业的科技子公司可以采取更有力的措施,来规范互联网平台上的论调。
互联网平台早已成为憎恶论调的温床?
一直以来,YouTube、Facebook和Twitter等互联网平台很少删除憎恶论调。它们通常遵循《第一修正案》的原则,接纳种种带有歧视性质的言论。Twitter的首席执行官杰克·多西曾说过:“如果他们屈服于外部的压力,不再包容各种政治观点,那Twitter就将成为由个人见解所构成的、没有原则的平台。”
互联网为人们提供了相对自由的发声平台,但也使憎恶论调出现在公众的视线中。在美剧《傲骨之战》中,律所的客户chumhum网就为旗下的社交平台上的大量憎恶论调所困扰,希望定制条文来约束那些使用者。这一情节反映了英国现实中的憎恶论调与互联网暴力行为现象:在法律的保护之下,人们可以肆无忌惮地攻击他人或者某个社会群体,而不需要承担任何后果。
这种情况在特朗普上台之后变得更加严重。自2016年大选开始,一群支持特朗普的“另类右翼”聚集在4chan和8chan等匿名互联网论坛上,每天发表大量鼓动对少数社会群体憎恶的论调。根据CNN的调查,2018年的匹兹堡犹太教堂枪击案过后,那些中文网站上的反犹论调猛增,谷歌上有关“杀光犹太人”等憎恶论调的搜索量也急剧上升。而另一个研究则显示,在Twitter上,女权主义者政治家和记者每隔三十秒就会遭到憎恶论调的攻击,而黑人女性遭遇的攻击则是黑人女性的两倍多。
憎恶论调的大量涌现,使得社交媒体几乎沦为传播暴力行为和憎恶的工具。于是,越来越多的公众和媒体开始质疑,毫无底线地包容憎恶论调与否合理。像YouTube、Facebook这样有着庞大的使用者群的科技巨头,在全世界都有不可估量的影响力,它们或许如果承担更多的社会责任,而不是一味地打着自由的旗号来回避憎恶论调、互联网暴力行为和阴谋论等种种问题。
科技子公司面临进退两难的处境
与英国相比,欧洲对憎恶论调显得更加警惕。特别是近年来,在欧洲难民危机不断蔓延的状况之下,互联网上涌现出大量憎恶论调,使得族群关系更为紧张。为了压制互联网恐怖主义者,欧盟在2016年开始敦促科技子公司对憎恶论调进行监管。Facebook、Twitter、微软和谷歌子公司与欧盟达成一致协议,承诺在接到举报之后,将于24小时内删除相关憎恶论调和恐怖宣传,但同时也则表示,会在压制憎恶论调的同时坚守自由的准则。
然而,在这两者之间取得平衡并不是件容易的事情。2018年8月,英国知名极右翼阴谋论者亚历克斯·琼斯遭到了多个中文网站的封杀,苹果、YouTube和Spotify等平台相继移除琼斯的播客、音频与账户,Facebook和Twitter也禁言了他的账号。琼斯则为自己鸣不平,抨击那些主流平台联手审查互联网论调。在琼斯事件事态愈演愈烈之后,特朗普于8月19日发出推文声援琼斯,指责媒体对保守派存在严重仇恨,故意压制后者的声音。
亚历克斯·琼斯
而今年6月,YouTube因拒绝删除保守派评论员史蒂文·克劳德的音频而面临争论。在音频中,克劳德用对同性恋的侮辱性称谓来形容Vox记者卡洛斯·马扎。但YouTube则表示,克劳德的音频主要是在发表政治观点,因此没有违反平台规则。之后,YouTube取消了克劳德的频道的广告收入,但没有进行其他惩罚。YouTube的这一做法引起了少数社会群体的指责。
可以看到,那些对憎恶论调的处理结果并不令人满意。实际上,科技子公司经常处于进退两难的境地,并同时受到保守派和自由派的指责。一方面,它们希望维护良好的公共讨论环境,但另一方面,又要坚持自由和包容的原则,否则就会受到“歧视”的指责。另外,如何使审核程序公开透明,减少公众的质疑,也是那些互联网平台所面临的重要问题。
算法若想解决憎恶论调的问题?
目前,Facebook和Twitter等子公司都采取技术手段,用机器学习算法和人工审核结合的方式,来提高处理憎恶论调和虚假信息的效率。去年 5 月,Twitter宣布调整算法,依据多方面指标来对评论文本进行筛选。 Twitter 不会直接删除有问题的评论,而是将那些评论藏到折叠区中。Twitter 则表示,采用新算法之后,评论区的憎恶论调数量减少了 8%。
Facebook则在今年宣布了四种方法来减少憎恶论调和假新闻,其中包括调整算法的工作方式,扩大与事实核查专家的合作,等等。Facebook也通过OCR技术来识别图片中的文本,以此扩大检测憎恶性论调的范围。
然而,依靠算法并不能完全明令禁止憎恶论调。Facebook称其算法能够捕捉到绝大部分恐怖主义者和暴力行为文本,但只能阻止52%的憎恶论调。不过,与两年前的23%相比,早已有了不小的进步。
在面对比较复杂的文本时,算法也存在着一定的局限性。在上周三,英国历史教师奥尔索普就被YouTube的审核所“误伤”。他的频道中有关希特勒的影像资料由于触犯了“不得涉及纳粹党”的条例而全部被删除。在他上诉后,YouTube恢复了他的账户。
奥尔索普则表示理解YouTube试图净化互联网环境的做法,因为他上传的音频经常被极右人士观看和评论,一直令他感到很烦恼。但是,YouTube这种删除音频的方式实在过于粗暴。面对这类复杂的历史资料,YouTube如果更加仔细地进行鉴别,而不是简单地用算法解决。
憎恶论调背后,是不平等的权力关系
随着各大互联网平台不断加强对憎恶论调的监管,围绕憎恶论调的争论也一直在继续。反对监管的人指出,只要限制了某一种论调,就会损害整体的抒发自由和多元的话语空间。然而,也有观点指出,这种自由并不是中立的。在一部分人享受自由的同时,憎恶论调的承受者却不得不生活在歧视带来的伤害之中。
纽约大学法学院教授杰里米·沃尔登在《憎恶论调的危害》中强调,限制憎恶论调,与“憎恶”这种情感无关,而是与憎恶论调带来的后果有关。在一个秩序井然的社会中,每个人都有免于被敌意、暴力行为和歧视伤害的基本权利,而憎恶论调则破坏了这种重要的公共利益,剥夺了她们在社会中本该享有的尊严。
为什么憎恶论调可以对人造成伤害?除言语本身带有侮辱、恐吓和威胁性质以外,很大程度上是因为双方之间不对等的权力关系。许多人对于憎恶论调不敏感,是因为她们处于社会结构中的优势地位,忽视了憎恶论调对女性、少数族群和性少数等弱势社会群体的压迫。如果无限制地包容憎恶论调,会使少数社会群体因恐惧而压抑自己的抒发,从而变得更加沉默和边缘化。因此,在讨论憎恶论调与否属于抒发自由的时候,也必须要看到被自由所遮蔽的异性恋、族群和阶级等问题。
作者:南方周末记者 徐悦东 通讯员 李梦媛
编辑:罗东
校对:薛京宁