社交|Facebook吹哨人亮明身份:他们牺牲社会利益赚取利润( 二 )


“种族暴力”包括2018年缅甸军方使用Facebook发动的种族灭绝行动 。
豪根表示,她于2019年加入Facebook 。她加入Facebook是为了打击错误信息,因为她曾因为网络阴谋论而失去了一位朋友 。
豪根:我从不希望任何人遭受我这样的痛苦经历 。确保Facebook呈现高质量信息事关重大 。
在Facebook总部,她被分配到公民诚信(Civic Integrity)部门,负责处理包括错误信息在内的选举风险 。但在美国大选之后,事情却发生了转折 。
豪根:他们告诉我们,“我们准备解散公民诚信部门 。”他们的意思是说,“哦,太好了,我们过了大选这一关 。没有发生骚乱 。现在可以解散公民诚信部门了 。”但几个月后却发生了暴乱 。当他们解散公民诚信部门时,我心想:“我不相信他们愿意投入应该投入的资源来防止Facebook变成危险的地方 。”
Facebook表示,公民诚信部门的工作已分配给其他部门 。豪根则表示,Facebook问题的根源在于它在2018年对算法进行的调整——正是这个算法决定了你能在Facebook信息流上看到什么内容 。
豪根:所以,如果你您坐下来刷5分钟手机,可能只会看到100条内容 。但这确是Facebook从成千上万的备选项里面挑选出来的 。
这套算法根据你过去互动率最高的内容进行选择 。
豪根:Facebook的这种内容筛选方式存在很多弊端,其中之一就是它会针对我们所参与的内容或引发我们反应的内容进行优化 。但它自己的研究表明,仇恨、分裂、极端的内容更容易引发人们的愤怒情绪,而不太容易激发其他的情绪 。
主持人:错误信息、愤怒的内容——这些都很吸引人,而且……
豪根:非常诱人 。
主持人:……能加强用户的粘性 。
豪根:没错 。Facebook已经意识到,如果他们把算法调整得更加安全,人们在它网站上停留的时间会减少,点击的广告也会减少,他们赚的钱也会减少 。
豪根说,Facebook明白2020年大选蕴含的危险 。因此,它开启了安全系统以减少错误信息——但她说,其中许多变化都是暂时的 。
豪根:选举一结束,他们就把系统关掉了,或者把设置改回原来的样子 。这时的重点是增长,而不再是安全 。
在我看来,这简直是对民主的背叛 。
Facebook表示,该公司仍然保留了一些安全系统 。但在大选结束后,一些人利用Facebook来组织1月6日的暴乱 。检察官引用了一些Facebook的帖子作为证据——包括武装人员的照片以及许多文字内容,例如“赶紧通过子弹或投票来恢复共和吧!”极端分子使用了许多平台,但Facebook是主要阵地 。
根据豪根保留的内部留言板副本,Facebook员工在袭击发生后情绪激动 。“……难道我们没有足够的时间来弄清楚如何在不助涨暴力的情况下管理言论吗?” 我们搜寻其中的积极的评论后,发现了这一条,“我认为我们的领导团队没有无视数据,无视异议,无视真相……”但却引来了这样的回复:“欢迎来到Facebook!我发现你是2020年11月才入职的……我们多年来一直都在目睹……公司领导层不痛不痒的行动 。”“……同事们……不能问心无愧地为一家没有采取更多措施减轻平台负面影响的公司工作 。”

推荐阅读