AR/VR隐私风险峰会在斯坦福大学举行,提出IRB隐私审查系统,避免数据滥用( 五 )

受到峰会关注的一个解决方案是:采用类似于全球大学,医疗中心和公司企业中的机构审查委员会(IRB)系统。传统的IRB会审查研究人员的建议,并确保当被试同意成为研究一部分时,所述研究能够以无偏见的方式进行,从而最大限度地降低其参与实验的风险。与更一般的技术咨询委员会不同,IRB是独立机构,由不同背景成员组成,并且专注于道德,正义,以及尊重作为研究数据来源的被试。

我们认为IRB模型可以在VR和AR领域中取得成功,因为潜在的危害相对容易理解,而且潜在的解决方案与现有的IRB方法类似。我们希望这种类型的审查模型能够在整个行业范围内普及。一种可行的方式是,由一个集中的专家组来审查每家公司的隐私政策。这个专家组的作用是评估每家公司的数据收集、存储和使用政策之于用户的风险,确定损害的程度,并且建议可采取的措施,从而最大限度减少用户的潜在风险。

IRB的诞生源于不道德的科学研究,源于人们受到不公正伤害(特别是弱势群体)的惨痛历史教训。尽管AR和VR是相对较新的消费者技术,但我们认为当前的行业将出现可能造成人类伤害的实验。

我们希望在VR/AR行业中建立一个倡导保护用户的独立声音。反过来,我们相信相关的保护措施将能吸引更多的消费者拥抱沉浸式技术。当然,我们需要进行大量的测试,迭代和改进才能保证审查委员会的战略可行性。但我们对这一解决方案的潜力持乐观态度,它们有望帮助VR和AR成为真正用户友好的技术。

推荐阅读