全球|从黑科技到热科技 释放算力加速AI落地( 四 )


浪潮作为一个平台厂商通过两个方面的努力来抹平这道鸿沟 。
一是算力平台本身 , 要支持不同的芯片 , 能够有一个非常高性能、强壮的平台来统一容纳各种芯片 , 提供芯片之间的高速交换、节点之间的高速信息连通 , “浪潮现在是唯一一个能够设计、研发、支持八颗国产最高端的AI芯片在一个系统里面进行高速互联的AI服务器的厂商 。 ”刘军表示 。 在AI算力平台方面浪潮一路领跑 , 以先进的技术换来全球市场份额第一的地位 。
二是软件层面 , 每一颗芯片都需要与客户的应用对接 , 这就意味着用户要为不同的AI芯片构筑新的烟囱系统 。 浪潮的AI开发服务平台AIStation构建了一个支持多元异构AI芯片的规范接口的标准 , 目前已经接入了国内外六家公司的12款AI芯片 , 可以在一个资源平台上面实现高效管理多元的AI芯片 , 这就给客户最终使用带来极大的方便 , 他们只需要聚焦于自己业务的创新 , 不需要为底层多元算力分散精力 , 从而大大提升了创新的效率 。
“浪潮将发挥算力平台领导厂商的作用 , 建立起多元AI芯片和产业AI化之间的桥梁 。 ”刘军表示 。
“源1.0”填补算力与应用之间的鸿沟 人工智能那么好 , 但是怎么跟客户的业务、应用场景结合?一面是轰轰烈烈在发展的AI技术 , 一面是迫不及待想通过AI创新的企业 。 “我们发现很多科学家在用不同领域的模型去解决问题 , 但当场景或者数据发生了变化 , 就要推倒重来 , 大大影响了产业落地速度 。 ”刘军认为在AI技术与应用场景之间的鸿沟主要是来自通用性的挑战 , 大多数AI模型都只能用于某一特定领域 , 通用性不强 , 限制产业AI化进程 。
人工智能如何发展出像人类具备逻辑、意识和推理的认知能力 , 是人工智能研究一直在探索的方向 。 “目前来看 , 通过大规模数据训练超大参数量的巨量模型 , 被认为是非常有希望实现通用人工智能的一个重要方向 。 ”王恩东院士认为 , 随着巨量模型的兴起 , 巨量化已成为未来人工智能发展非常重要的一个趋势 。
近年来人工智能的发展 , 已经从“大炼模型”逐步迈向了“炼大模型”的阶段 , 全球知名的AI领先公司在巨量模型上都予以重兵投入 。 这两年大模型这个概念特别热 , 谷歌、微软、英伟达、浪潮、智源研究院、百度、阿里等公司相继推出了各自的巨量模型 。 显然 , “巨量数据、巨量算法和巨量算力”正在成为迈向通用人工智能的重要路径 。
其中浪潮人工智能研究院发布的“源1.0”致力于打造最“博学”的中文AI模型 ,“源1.0”的单体模型参数量达2457亿 , 超越美国OpenAI组织研发的GPT-3 , 是目前全球最大中文巨量模型 , 占据权威中文语言理解测评基准CLUE的零样本学习(zero-shot)和小样本学习(few-shot)2项榜单榜首 。

推荐阅读