媒体播放器|TikTok第三方内容审核员称公司在培训期间向其展示儿童性虐待材料

《福布斯》的一份报告对TikTok的审核团队如何处理儿童性虐待材料(CSAM)提出了质疑--称其为非法照片和视频提供了广泛而不安全的访问权限 。
媒体播放器|TikTok第三方内容审核员称公司在培训期间向其展示儿童性虐待材料
文章图片

一家名为Teleperformance的第三方审核机构的员工称,该机构与TikTok及其他公司合作,要求他们审查一份被称为DRR或TikTok审核标准的每日必读的令人不安的电子表格 。据称,该电子表格包含违反TikTok准则的内容,包括“数百张”儿童裸体或受虐待的图片 。这些员工说,TikTok和Teleperformance的数百人可以从办公室内外获取这些内容--这为更广泛的泄漏打开了大门 。
Teleperformance向《福布斯》否认向员工展示了性虐待的内容,TikTok说其培训材料有“严格的访问控制,不包括CSAM的视觉例子”,尽管它没有确认所有第三方供应商都符合这一标准 。
员工们讲述了一个不同的故事,正如《福布斯》所描述的,这是一个法律上很危险的故事 。内容审核员经常被迫处理发布在许多社交媒体平台上的CSAM 。但虐待儿童的图像在美国是非法的,必须小心处理 。公司应该向美国国家失踪和被剥削儿童中心(NCMEC)报告这些内容,然后将其保存90天,但尽量减少看到这些内容的人数 。
【媒体播放器|TikTok第三方内容审核员称公司在培训期间向其展示儿童性虐待材料】这里的指控远远超出了这个限制 。它们表明,Teleperformance公司向员工展示了图片和视频,作为在TikTok上标记内容的例子,同时对这些内容的访问权进行了快速和宽松的处理 。一名员工说,她联系了联邦调查局,询问这种做法是否构成了传播CSAM的犯罪行为,尽管不清楚是否已经立案 。

    推荐阅读