泰伊|Facebook吹哨人亮明身份:他们牺牲社会利益赚取利润( 二 )


Facebook表示,公民诚信部门的工作已分配给其他部门。豪根则表示,Facebook问题的根源在于它在2018年对算法进行的调整——正是这个算法决定了你能在Facebook信息流上看到什么内容。
豪根:所以,如果你您坐下来刷5分钟手机,可能只会看到100条内容。但这确是Facebook从成千上万的备选项里面挑选出来的。
这套算法根据你过去互动率最高的内容进行选择。
豪根:Facebook的这种内容筛选方式存在很多弊端,其中之一就是它会针对我们所参与的内容或引发我们反应的内容进行优化。但它自己的研究表明,仇恨、分裂、极端的内容更容易引发人们的愤怒情绪,而不太容易激发其他的情绪。
主持人:错误信息、愤怒的内容——这些都很吸引人,而且……
豪根:非常诱人。
主持人:……能加强用户的粘性。
豪根:没错。Facebook已经意识到,如果他们把算法调整得更加安全,人们在它网站上停留的时间会减少,点击的广告也会减少,他们赚的钱也会减少。
豪根说,Facebook明白2020年大选蕴含的危险。因此,它开启了安全系统以减少错误信息——但她说,其中许多变化都是暂时的。
豪根:选举一结束,他们就把系统关掉了,或者把设置改回原来的样子。这时的重点是增长,而不再是安全。
在我看来,这简直是对民主的背叛。
Facebook表示,该公司仍然保留了一些安全系统。但在大选结束后,一些人利用Facebook来组织1月6日的暴乱。检察官引用了一些Facebook的帖子作为证据——包括武装人员的照片以及许多文字内容,例如“赶紧通过子弹或投票来恢复共和吧!”极端分子使用了许多平台,但Facebook是主要阵地。
根据豪根保留的内部留言板副本,Facebook员工在袭击发生后情绪激动。“……难道我们没有足够的时间来弄清楚如何在不助涨暴力的情况下管理言论吗?” 我们搜寻其中的积极的评论后,发现了这一条,“我认为我们的领导团队没有无视数据,无视异议,无视真相……”但却引来了这样的回复:“欢迎来到Facebook!我发现你是2020年11月才入职的……我们多年来一直都在目睹……公司领导层不痛不痒的行动。”“……同事们……不能问心无愧地为一家没有采取更多措施减轻平台负面影响的公司工作。”
主持人:Facebook本质上放大了人性中最阴暗的一面。
豪根:这是这些不幸的后果之一,对吧?Facebook没有人是恶意的,只是激励措施错位了,对吧?问题在于,你看的内容越多,Facebook赚的钱就越多。人们喜欢参与引起情绪反应的事情。他们接触到的愤怒越多,互动就越多,看的内容也就越多。
正因如此,欧洲的一些主要政党才投诉Facebook。豪根获得的这份2019年的内部报告称,各方“……强烈认为算法的变化迫使他们在Facebook上的沟通中产生了负面情绪……导致他们采取更极端的政策立场。”
主持人:欧洲政党其实是在对Facebook说:你编写算法的方式正在改变我们领导国家的方式。
豪根:是的。你在强迫我们采取我们不喜欢的立场,众所周知,这对社会有害。我们知道,如果我们不采取这些立场,就无法在社交媒体行业胜出。
她说,有证据显示,Facebook的这种负面影响已经蔓延到Instagram上。
主持人:你发现的Facebook内部研究中,有一份谈到了Instagram如何伤害青春期少女。一项研究表明,13.5%的少女表示,Instagram会使强化她们的自杀念头;17%的少女表示,Instagram会使饮食失调更为严重。
豪根:Facebook自己的研究表明,当这些年轻女性开始观看这种强化饮食失调的内容时,她们会变得越来越沮丧。这实在令人心痛不已。实际上,这能让她们更多地使用这款Instagram。因此,他们最终进入了这个反馈循环,让她们越来越讨厌自己的身体。Facebook自己的研究表明,Instagram不仅对青少年构成危险,而且还对青少年构成了实实在在的伤害,这种情况比其他社交媒体更为严重。

推荐阅读