标准|是时候谈谈可信AI的问题了( 二 )


“可用不可见 , 是指在相关法律要求下 , 数据对使用者是不可见的 , 以确保对用户的安全性;可控可计量 , 是在不能明文的基础上 , 建立多方信任机制 。 参与进来的机构、个人 , 身份要统一管理 , 要对数据和模型合规性进行审核 , 再让多方对此达成一致执行 , 也就是计算合约 , 以控制计算用量 。 ”
在实现数据的保护性利用后 , 进一步解决的是数据溯源问题 。 王云河认为 , 在计算的过程中加上存证、区块链技术等 , 有助于在发现模型造成了一些社会的恶劣影响时 , 找到记录和数据源头 。 “用这项技术解决模型有没有问题 , 数据是不是合法 , 数据有没有被“投毒”等隐患 , 帮助AI 打造安全底座 。 ” 。
【标准|是时候谈谈可信AI的问题了】打造可信AI的生态空间 需要标准先行
面对AI的信任危机问题 , 各界始终在探寻解决之道 。 陈俊琰分享了近年来国际上可信AI的相关政策或者是标准落地情况 。
国际上主要是以指南及法案的形式对人工智能的可信度进行规范 , 例如2018年《可信人工智能伦理指南草案》的发布、2019年《可信赖人工智能道德准则》、2021年的《欧盟人工智能法案》等 。 也有在标准制定上的探索 , 构建人工智能管理框架 , 对可信AI进行监管 , 以提升信赖度 。 例如今年发布的《关于识别和管理人工智能歧视的标准提案》、《人工智能风险管理框架》等 。
“宏观来看 , 国外的可信AI做到了法规和标准先行 , 但也存在不够灵活 , 容易产生‘一刀切’的问题 。 ”陈俊琰表示 。
相比之下 , 我国在可信AI建设方面 , 正在从政策、生态、法律、标准制定等方面综合发力 。 《国家新一代人工智能标准体系建设指南》、《促进可信人工智能发展倡议》等文件的出台 , 除了监管部门的通力合作 , 信通院、京东为代表的企业界、人工智能产业发展联盟、人工智能治理与可信委员会等 , 都在努力推进行业倡议、标准研制等 。
何凤翔介绍 , 在可信AI的技术攻关和标准研制方面 , 京东探索研究院和信通院白皮书的思路一脉相承 , 从四个方面做可信AI方面的研究 , 即稳定性、可解释性、隐私保护、公平性 。 他表示:“我们从基础理论出发来研究最前沿的问题 , 从这些理论问题、理论结果出发 , 设计新的可被信赖的全新AI算法 , 再尝试把这些AI算法应用到产品中去 , 完成技术的最终落地 。 ”
沙龙现场 , 专家一致认为 , 人工智能需要在技术和标准的共同努力下演进 。 相比之下 , 标准是“1” , 而技术是后面的“0” , 不可本末倒置 。
“未来 , 我们需要进一步加强人工智能法制和标准体系的建设 。 需要类似信通院、京东等产业界、企业界的力量参与开展可信AI的评测工作 , 形成比较完善的可信AI的评测体系 。 同时 , 可信AI的人工智能生态打造 , 不仅不会限制我们人工智能的发展 , 反而有利于供给侧和需求侧的互相信任 。 ”陈俊琰说 。

推荐阅读