技术|隐私计算技术存痛点:生态壁垒、法律合规问题待解决( 二 )


魏凯表示 , 无论是针对隐私计算技术还是人工智能技术的使用 , 法律都不会从合法性上给出确切的定义 , 法规只关注是否侵犯相关的利益 , 关注隐私计算在实践中能否很好地落实法律最小化原则、是否能显著降低泄漏风险 。
所以 , 企业使用隐私计算技术进行数据聚合时 , 是无法完全规避法律风险的 , 比如基于联邦学习的交换数据里面含有梯度 , 梯度仍然可以揭示出一些个人信息的特征 , 具体还要看使用场景和业务逻辑 , 针对具体情况进行法律风险的规避 。
魏凯称 , 隐私计算的使用不能作为逃避法律的挡箭牌 , 技术只是某种程度上降低了产生后果的风险 , 归根到底其实还是要看它的商业模式是否合规 , 数据来源是否合法 , 数据的授权和使用目的是否正当 。
徐世真表示 , 隐私计算不同技术路线各有合规痛点 。 比如性能良好的多方安全计算路线需引入计算辅助方 , 面临可信挑战;传统联邦学习的安全性证明不严谨;硬件TEE方案有较好的性能和算法生态 , 但数据集中式处理 , 依赖厂商硬件的可信赖程度 , 所以需要结合具体场景需求采用合适的技术路线 。
功能上看 , 隐私计算解决的是数据流通安全性的问题 , 能够避免流通过程中的资产损失却无法解决端到端的安全问题 , 无法保障全链路的安全 。隐私计算仅仅是企业合规建设的一环 , 要在法律法规的框架下进行 。 徐世真建议 , 技术厂商可与律师事务所等机构开展合作 , 针对人工智能、数据交换等新场景下监管机构的合规要求 , 对内健全技术合规体系建设 , 对外面向企业输出应用合规咨询服务 。

推荐阅读