展会信息港展会大全

业内公认的AI发展最大挑战,有哪些技术突破机会?
来源:互联网   发布日期:2019-08-14 20:32:17   浏览:7593次  

导读:于 80 多年前提出确立的冯诺依曼架构至今还在统治现有的计算机。但是,随着机器学习等 AI 技术的发展,由于存算分离的冯诺依曼瓶颈的存在,这个经典计算机体系结构,已经愈发难以满足机器学习的计算需求。 近日,在接受DeepTech 采访时,第四范式硬件业务部...

于 80 多年前提出确立的冯诺依曼架构至今还在统治现有的计算机。但是,随着机器学习等 AI 技术的发展,由于存算分离的“冯诺依曼瓶颈”的存在,这个经典计算机体系结构,已经愈发难以满足机器学习的计算需求。

近日,在接受DeepTech 采访时,第四范式硬件业务部门负责人蔡斯扬告诉 DeepTech:“从整个学界和产业界来看,目前 AI 进一步发展的公认问题、同时也是最有挑战的部分,在于计算机体系架构”。

作为 AI 发展的“三驾马车”(数据、算法、算力)之一,未来算力的进一步发展受到了 X86、冯诺伊曼计算机体系的制约,革新计算机系统架构的时机正在成熟。“第四范式当前正在与英特尔就如何突破制约计算力发展的瓶颈展开深入探讨,双方希望通过软硬件的最优化结合,打造领先的 AI 技术架构和算力。” 蔡斯扬说。

有越来越多的学者表态称,体系结构创新将是信息科学技术领域几十年来的核心命题,甚至将带来下一个“黄金时代”。这意味着,新的算力基础设施,一定是考虑在架构级别而非晶体管级别来进一步突破摩尔定律。

图丨“天机”芯片(来源:Nature)

目前,业内在探索非冯诺依曼计算架构上也已经取得了一些进展,例如发展逻辑计算与数据存储一体化的 AI 芯片、类脑芯片(如不久前清华发布于Nature的“天机”芯片),也有越来越多的非冯诺依曼计算机正在全球各大科技企业前沿实验室中酝酿,如光子计算机、量子计算机、神经计算机以及 DNA 计算机等。

美国国防高级研究计划署(DARPA)于 2017 年实施的“电子复兴计划”,同样在关注非冯诺依曼架构的新型处理器及其配套的软件工具的开发。在国内,国家自然科学基金设立的“企业创新发展联合基金”中,也在 2019 年将人工智能领域针对非冯诺依曼的存算一体研究方向列入其中。

在这股新浪潮之下,蔡斯扬对 DeepTech 介绍道,以第四范式为企业提供 AI 专用算力的自身实践来看,他们从 3 个方向切入,希望能够给冯诺伊曼体系和给整个计算机算力瓶颈带来新的突破。

首先是"软件定义算力",面向 AI 的核心软件主要来自于算法,而面向算法优化的异构计算将在未来五年迎来黄金发展期。

(来源:阿里巴巴)

在异构计算中,目前 AI 芯片霸主 GPU 还只是异构计算中的一种,现在市场上已经有 NPU、ASIC、FPGA 等各种各样的计算平台被运用到AI计算中。之所以会出现这么多各种形式的 AI 芯片,正是因为算法的多元化,例如机器学习算法有 LR、GBDT,深度学习中的 CNN、DNN 等,这些算法都非常复杂,如果机器要很快地把这些算法跑起来,一定需要算法的逻辑跟芯片计算的逻辑相互匹配度高,效率好。

具体的实现上,产业链上不同厂商合作共同实现软硬件协同创新成为新范式。以英特尔和第四范式的合作为例,英特尔的产品从 SkyLake 演进到第二代至强可扩展处理器 Cascade Lake,整数运算、浮点运算均得到了 30% 左右的提升,第四范式的 Sageone 系统从 SkyLake 迁移到 Cascade Lake,却可以实现整个性能综合提升 4 - 8 倍。

4 - 8 倍提升背后,正是双方在软件加硬件的协同创新。“第四范式和英特尔成立了一个联合实验室,双方的合作便在于软件和硬件的协同优化。因为英特尔有自己的技术路线图,第四范式有自己的框架路线图,我们需要在两者之间找到一个最优化的共同技术路线”,蔡斯扬说。“与此同时,双方的合作是基于我们对软件的理解和英特尔对硬件的理解,以及对芯片的理解和体系的理解,实现对 AI 系统的软硬一体的整体优化。目前,双方通过第二代至强可扩展处理器、傲腾数据中心级持久内存,去提升 AI 的计算性能、优化仿存和内存容量等,其背后的涉及的技术工作相当复杂。”

(来源:东方 IC)

第二个突破口在于数据。他指出,目前许多客户在进行数字化转型和AI转型中最大的瓶颈,是有了算力但是没有数据,没有数据便难以建立模型。数据在哪,如何收集,收集之后的数据如何成为机器能看懂的数据,如何存储数据以保证数据在AI训练和推理中能够被快速地使用和调用……这些都是现在数据亟需优化的方向。

其中,统一的 AI 数据治理对企业来说将非常必要,数字化转型提出的要求之一就是要将历史的批量数据和线上的流式数据进行同步。只有如此,系统才不会在建模过程中出现数据不同步导致的运行准确性问题。AI的数据治理是要把海量数据统一地汇聚进来,同时以特征和事件的方式进行归类和清洗,整个的数据弧构建和传统的BI有着本质区别,所以这也是未来一个重要的变化点之一。“这里涉及很多技术细节,所以未来AI的存储形态会发生一些变化”,他说。

第三个突破口在于网络。一般认为,网络和 AI 关系不大,但是第四范式发现,团队在开发企业级AI集成系统 SageOne 的时候,花了相当长时间在优化网络。这是因为在机器学习的过程当中,整个 I/O 的交互以及分布式机器学习跨节点的通讯压力非常大。

图丨第四范式打造的 SageOne 平台(来源:第四范式)

“从底层的算力开始,AI 的演进和发展有一个明显的轨迹,那就是伴随着数据量和计算力的爆发,AI 才在近 5 年得到了蓬勃的发展。目前来看,数据、算力,而非算法的突破,是 AI 最近 5 年在实质性商业价值有突破性进展的根本原因……事实上,尽管不少互联网、AI 公司都在用包括机器学习在内的AI算法,但这些算法大多数都不是最近5年的技术。驱动这 5 年 AI 蓬勃发展的核心原因,是数据的爆发和算力性价比的提升”,蔡斯扬说。

未来,AI 在算力基础设施建设、突破计算架构瓶颈上还有很多创新的机会,算力也将是继续支撑人工智能向前发展的重要一环。由此可以看来,走向非冯诺依曼体系架构变革,将为 AI 推动产业变革提供更为持久的驱动力。

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港