数据|提升1000倍!未来计算“加速度”

■采访人员 计红梅
作为一种小型鸟类 , 玄凤鹦鹉的大脑仅有2克重 , 能耗仅50毫瓦 , 飞行速度却可达每小时22英里 。 相比之下 , 无人机的板载处理器重量是它的20倍 , 能耗是它的350倍 , 充电一次却只能飞行10到20分钟 。
虽然传统计算架构在过去70年取得了巨大进步 , 但与现有的计算性能相比 , 大脑仍然是最无敌的计算设备 。 现实和未来的距离如何拉近?
“未来已来 , 只是分布不均 。 ”在近日以线上形式举行的2020英特尔研究院开放日活动上 , 英特尔研究院院长Rich Uhlig援引科幻小说家William Gibson的话如此作答 。
当天 , 该研究院集成光电、神经拟态计算、量子计算、保密计算和机器编程等前沿领域的负责人悉数到场 , 揭秘了他们计划开启未来计算、致力于1000倍性能提升的诸多颠覆性研究 。
拐点已至
2004年 , 英特尔提出了一个宏大的目标 , 让光作为连接技术的基础 。 当时 , 他们看到 , 随着计算带宽需求不断增长 , 电气输入/输出(I/O)的规模无法保持同步增长 , 从而形成了“I/O功耗墙” , 限制了计算运行的可用能源 , 由此开始将目光转向光通信和硅光子技术 。
十多年后 , 在此次活动上 , 英特尔研究院PHY研究实验室主任James Jaussi断言:“光互连和电气互连这两种连接方式之间已经有了一个明显的拐点 。 ”其主要原因有二:首先 , 我们正快速接近电气性能的物理极限 。 如果不进行根本性的创新 , 高能效电路设计将存在诸多限制 。 其次则是由于“I/O 功耗墙”面临与日俱增的挑战 。
为此 , 他首度提出了“集成光电”的概念 , 即通过协同集成将CMOS电路与光子技术整合起来 。 他认为 , 此举“能够系统性地消除成本、能源和尺寸限制方面的障碍 , 为服务器封装赋予光互连的变革性能力” 。
开放日上 , 作为英特尔在关键技术构建模块方面的重大进展之一 , 他们最新研发的比传统组件小1000倍的微型环调制器首次亮相 。 “传统的芯片调制器占用面积太大 , 并且IC封装的成本很高 。 而此次开发的微型环调制器 , 将调制器尺寸缩小到原来的1/1000的大小 , 从而可以消除将硅光子集成到计算封装中的主要障碍 。 ”Jaussi说 。
近一年多来 , 量子计算机成为业界关注的焦点之一 。 作为英特尔研究院量子应用与架构总监 , Anne Matsuura在开放日上宣布 , 该公司第二代低温控制芯片Horse Ridge II已准备就绪 。 这标志着英特尔在突破量子计算可扩展性方面又取得一个里程碑式成果 。
可扩展性是量子计算的最大难点之一 。 据介绍 , 在2019年推出的第一代Horse Ridge控制器的创新基础上 , Horse Ridge II支持增强的功能和更高集成度 , 以实现对量子系统的有效控制 。 新功能包括操纵和读取量子位状态的能力 , 以及多个量子位纠缠所需的多个量子门的控制能力 。
“我们正在逐步实现商用级量子计算的愿景 。 ”Matsuura说 。 不过 , 她坦言 , 目前仅有100个量子位 , 甚至数千个量子位的量子计算系统 , 无法实现商用化这一目标 。 “我们需要开发包含数百万个量子位的全栈商用级量子计算系统 , 才能达到实用性的目标 。 ”
释放数据潜力 , 安全性是重要考量因素之一 。 为了解决这一问题 , 英特尔一直在推动保密计算的发展 。 英特尔研究院安全智能化项目组首席工程师Jason Martin介绍了其最新的软件保护扩展技术 。 它可以将保密性、完整性和认证功能整合在一起 , 以确保使用中的数据安全无虞 。 不过 , 这一技术只能保护单台计算机上的数据 。 而为了支持更多机构在协作中安全地使用敏感数据 , 英特尔和美国宾夕法尼亚大学佩雷尔曼医学院正在合作探索采用联邦学习技术 , 消除不同数据所有者在整合数据时所遇到的障碍 , 在获得洞察的同时确保数据隐私 , 以追求计算性能1000倍的提升 。
此外 , Martin透露 , 他们还在研究一种不需要解密数据的方法 , 即同态加密技术 。 它允许应用在不暴露数据的情况下 , 直接对加密数据执行计算操作 。 然而 , 这一技术也面临一些挑战 , 如数据处理的成本会随着数据的增加而剧增 , 使得同态加密未能得到广泛使用 。 “我们希望未来普及这项技术 。 为此 , 我们正在研究新的软硬件方法 , 并与合作伙伴和标准机构展开合作 。 ”Martin说 。
冰山一角
在展望第三代人工智能发展路径时 , “类脑”是学术界提出的重要思路之一 。 2017年 , 英特尔推出首款神经拟态研究芯片Loihi , 在神经拟态硬件的开发上迈出重要一步 。
时隔几年 , 英特尔研究院神经拟态计算实验室主任Mike Davies宣布 , 该项研究很快将进入下一个阶段 , 即携手生态系统合作伙伴一同探索实际应用 , 扩大该技术的适用范围 。
Davies表示 , 通过对神经拟态系统上的应用进行持续开发、原型设计和测试 , 该公司和合作伙伴已获得了越来越多的成果 , 并显示在各种工作负载中神经拟态计算都能带来性能的一致性提升 。 例如 , 埃森哲测试了在Loihi芯片上识别语音命令的能力和在标准图形处理单元(GPU)上识别语音命令的能力 , 发现Loihi不仅达到了和GPU类似的精度 , 而且能效提高1000倍以上、响应速度快200毫秒 。
他坦言 , 短期内 , 由于成本问题 , 神经拟态计算只适用于边缘设备、传感器等小规模设备 , 或是对成本不敏感的应用 , 如卫星、专用机器人等 。 “随着时间的推移 , 我们预计内存技术的创新将降低成本 , 让神经拟态解决方案扩大适用范围 , 运用于各种需要实时处理数据但受限于体积、重量、功耗等因素的智能设备 。 ”Davies说 。
和神经拟态计算一样 , 机器编程是此次开放日上英特尔展示的重点之一 。 当天 , 英特尔研究院机器编程研究主任及创始人Justin Gottschlich宣布 , 该公司推出了机器编程研究系统ControlFlag , 它可以自主检测程序代码中的错误 。 “虽然仍处于早期阶段 , 这个新颖的自我监督系统有望成为一个强大的生产力工具 , 帮助软件开发者进行耗时费力的Debug 。 在初步测试中 , ControlFlag利用超过10亿行未标记的产品级别的代码进行了训练并学习了新的缺陷 。 ”
展望未来 , 我们是否可以设想一个人人都能创建高质量软件的未来?Gottschlich的回答是肯定的 。 通过构建机器编程的三大支柱 , 即意图、创造和适应 , 他们希望未来能够实现这一蓝图:人类向机器表达他们的意图 , 机器就会自动创建并完成该意图所需要的所有软件 。
“我们刚刚介绍的这五项正在进行的颠覆性研究项目 , 只是冰山一角 。 在追求1000倍性能提升目标的路上 , 我们还会有更多的成果和大家分享 。 ”Uhlig最后说 。
【数据|提升1000倍!未来计算“加速度”】[责任编辑: 肖春芳 ]

    推荐阅读