「20多年来,互联网以革命者的名义改变了我们很多的东西。但是同时在某种意义上,它也露出了它的另外一面。比如说它垄断的一面、拒绝开放的一面、攫取利润的一面。所以你看互联网长得并不像天使,它一半像天使、一半像魔鬼。」
——吴晓波
几年前,扎克伯格在生日演讲中讲到,Facebook的理想是让这个世界变成一个统一的社区,他将会继续“打造全球性社区,加深人与人之间的联系,让任何人都可以分享任何东西”作为 Facebook的创建初心。
多年来,扎克伯克坚持认为,Facebook既然只是个连接世界的平台,就不用对在这个平台上发布的内容负责。结果就是,这样的认知给Facebook带来了巨大的麻烦,使Facebook过去两年间在内容监管方面饱受批评。
的确,早期的网络治理曾经主张网络中立,崇尚网络自由主义,强调道德自律,也因此形成了互联网原教旨主义:让这个世界没有信息的不平等,任何一个信息可以无障碍、免费化的方式到达全世界的任何地方。我们每一个人将变成世界大同中的一部分。
然而随着非法、有害信息不断传播,网络犯罪和盗版日益猖獗,全面加强网络监管的呼声日益成为主流。
早在2007年,Facebook因为年轻用户看到了性侵和其他不恰当的内容受到了49位州司法部长的激烈批评,特别是在发生了数据门(操纵大选)之后,公众和舆论促使Facebook将自己的审查制度一再升级,不断调整自由表达和极端言论之间的平衡点。
为此,扎克伯克最近两年来对外宣称,Facebook已经引入事实核查,聘请更多的专业人士加入,同时加大力度研发算法。
但实际上,在2018年上映的一部纪录片中,揭露了算法和专家背后,真正对抗着世界的暗面的那些人。
上帝、天使、清道夫
在Facebook之前,很多企业就已经注意到了内容审核的重要性。一直试图将儿童色情、极端信息、虚假内容、恶作剧和各种令人讨厌的帖子关闭掉,同时留下其它类型的信息继续保持流通。
但是负责内容筛选或甄别的并不是企业宣称的专家和AI算法,而是一个个真人组成的审查员团队。
这部去年上映的纪录片,描述的对象便是所谓的网络清道夫。他们供职于世界上最大的社交网站Facebook,或世界上最大的搜索网站Google。他们并不是这些企业的员工,而是属于外包人员,任职于菲律宾的一家审核公司。
审查员们的工作就是扮演着互联网上帝的角色,审核每一张上传的图片和每一条视频,他们对这些图片和视频,掌握着生杀大权,决定着对这些内容能够保留还是删除。
在纪录片中,没有经过内容审核机制的互联网,充满了这个世界的冲突。
种族的,还是意识形态上的,好像所有人都在网上宣泄观点和情绪。一些恐怖主义见缝插针如病毒蔓延。在海洋般的信息流中,虐杀、自残、色情、极端组织言论、政治宣传夹杂在各式猫咪、美食和旅行的照片里面,大量的垃圾信息需要有人来负责清理。
成为审查员之前,这些人需要经过三到五天的上岗培训,培训的内容,例如必须在三到五天内记住37个恐怖组织——他们的旗帜、制服、谚语。
通过类似这样的培训,审查员上岗并化身成为道德天使,通过机械又辛劳的工作,使人们相信对社会的美好想象。
但这些人并非受过良好的教育,他们大多没有良好的文化教育背景,有的甚至刚刚学会用电脑。每天所要面对的,是恐怖主义,儿童色情,自残虐杀等等你不愿触碰的灰色地带,“习惯每天看着上百人死去”。因此他们被称为互联网中最“脏”的职业。
很多人将这份工作视为“福利”,因为审查员们的工作就是强制涉猎大量黄色图片、文字、视频等,但实际上,这些人每天要审核25000条内容,每一张图片的判断时间只有短短的八秒。
审查员每天接触到的每张图片都无比真实
有些负责暴力视频的审查员,每天要看大量血肉横飞,残肢断臂的画面,还有更多耸人听闻的视频,包括虐待妇女、儿童和动物。有人表示他们每看几个视频就得休息一下才能缓过劲儿来。在日积月累的病态工作下,审查员们渐渐麻木,丧失了对人类的信心。
“当我离开公司时,我已经三年没有握手了,因为我发现人们很恶心。我只是无法触及人,”
高额的工资?不存在的。几年前,国内某家互联网公司以20万高薪招聘“首席淫秽色情鉴定官”,但实际上,在招聘网站中网络信息审核员这一职位的平均工资只有5-7千元左右。相比我国,纪录片中出现的审查员时薪仅有1美金。
还有人会痛恨这些网络审查。认为审核破坏了自由。比如一位艺术家创作的川普油画,因为画中人是裸体,所以被清道夫删除。艺术品和成人照片的界限,往往在这时变得模糊不清。
另一位摄影家,通过拍摄了战争中死去的少年,希望引起人们对战争的反思。但清道夫们觉得它会宣扬暴力,因此删除了照片。
几乎每个审查员都或多或少因为这份工作产生了心理阴影,那为什么不选择辞职另谋出路?
除了养家糊口的经济压力外,相当一部分审查员也因为这份工作产生的自豪感而选择继续留下。
“如果我们没有工作一小时,那互联网就会一团糟。” 片中一位审查员说到。
Facebook在2017年的遭遇印证了这句话:一名泰国男子在播放了杀害11个月大的女儿后自杀的视频。这段视频引起了全世界的一片哗然,并在社交网络上保留了近24个小时,这让Facebook成为众矢之的。
因此,Facebook的内容管理员从2017年的1万人,增加到2019年的3万人。
如此庞大数量的审查员却被要求,绝对不会透露他们为谁而工作,如果违反了保密协议,他们就会失去工作并面临10000美元罚款,甚至牢狱之灾。
为什么不能说?因为一旦泄露了这些秘密,会对互联网巨头们的广告收入造成严重影响。要知道,Facebook和Google一起占据了全球80%的数字广告收入。
为此,Facebook将这项工作包装成一个叫做honeybadger(蜜獾)的项目,审核员们只能说自己正在做一个关于honeybadger项目或者自称是社区运营的数据分析师。
Facebook当然也考虑过试图采用AI来审核网站内容,但目前来看还有一段距离。
Facebook曾在今年3月份宣布,将推出一套能够识别出试图自杀或自残的用户的AI系统。这套系统通过比对用户的帖子和评论与其先前帖子的相似性来判断其自杀的风险。
如果系统判断某条帖子具有自杀倾向,就会在其他用户浏览这条帖子时,突出显示“上报自残”的选项。
值得注意的是,是否上报最终还是由人来决定的。AI无法判断,它只能提供帮助。
网络监管走向何方
Facebook之所以此前极力推崇互联网原教旨主义,与其商业模式有着直接的联系——通过获取和追踪海量免费内容以及用户数据,推送更精准的广告。
因此互联网巨头需要通过推荐算法攫取更多的注意力。在华尔街日报的一项调查中发现,YouTube的算法推荐,就会把用户一步步导向越来越极端的观点和内容,这是抓住用户注意力的最好办法。
如果你经常关注新闻的话,格力、格兰仕、伊利、小米等厂商在近一个月频频开撕,做法似乎已经变得有些无所不用其极,但也同时吸引了大量用户的注意力。
眼球经济和推荐算法,正在将互联网引入极端,如果没有恰当的内容审核,往下滑一步也许就意味着深渊。
就像连线杂志评论的那样,Facebook带来的是更分裂而不是更加开放和紧密连接。(You can’t make the world more open and connected if you’re breaking it apart.)
包括美国本土和欧盟在内,Facebook面临着越来越强的监管压力,监管之路却充满了各方博弈。
在意识到网络监管的必要性之后,扎克伯格3月在华盛顿邮报上发表了一篇文章,不仅主动提出监管机构应该更加活跃,并且应该在一些区域中更加深度介入。
例如,扎克伯格在提一条建议中就呼吁组建一个第三方独立机构,制定审核内容的统一标准,规定好内容的边界,把控诸如校园霸凌、自杀、恐怖暴力等不得体的内容。
如果你关注了过去一年Facebook与监管机构之间的争斗会发现,小扎在文章中的所有建议似乎都是在“自缚手脚”,处处针对发生在自己身上的经历和丑闻下狠手。
但美国一家智库分析,这Facebook提出这建议,不仅撇清了与监管之间的关系,还能够进一步巩固公司的市场地位。
作为内容提供的主体,互联网企业需要通过技术手段主动照顾好包括未成年人在内的平台上的一切活动,有了独立机构对于内容的统一管理,Facebook就完全有理由在出事后把皮球踢给标准和监管机构,一切都按照监管的要求办事,从此降低被起诉的风险。
同时,当企业做到规模足够大之后,对于监管机构会出现反制力,从而左右监管机构的决策。美国智库机构预测,Facebook会通过游说来确保新规则有利于自己而不是竞争对手。
无论如何,Facebook在短期内依旧会“我行我素”,一方面继续通过人工+AI的方式审核越来越多的内容,另一方面与监管机构陷入不休的规则制定中。
科技并不是天然站在道德一边,而是站在利益这一边的。科技巨头更愿意和那些能帮他们实现利益的一方合作。在新书《库克传》的最后,阐述了苹果近年来面对的相同问题:利用更优势地位榨取供应商的代工厂,必然导致供应商强压成本,产生更多社会责任问题。
在不为人知的另一面,网络清道夫们短期内也依旧只能拿着与所受精神暴力不成正比的低廉工资,“高尚”而卑微地活着。