展会信息港展会大全

英特尔首次发布AI加速器芯片 脸书已使用百度参与开发
来源:新京报   发布日期:2019-08-22 12:48:13   浏览:5548次  

导读:新京报讯(记者 梁辰)8月22日,英特尔公布了即将推出的两款针对大型数据中心设计的处理器,这是该公司首次披露高性能人工智能加速器产品。 这两款芯片是Nervana神经网络处理器系列产品,其中一款用于训练,另一款用于推理,这是人工智能算法形成的两个关键...

新京报讯(记者 梁辰)8月22日,英特尔公布了即将推出的两款针对大型数据中心设计的处理器,这是该公司首次披露高性能人工智能加速器产品。

这两款芯片是Nervana神经网络处理器系列产品,其中一款用于训练,另一款用于推理,这是人工智能算法形成的两个关键环节。2016年8月,英特尔收购美国创业公司Nervana Systems,随后将其与自身业务整合,并追加3.5亿美元的投入,用于研发和自身产品匹配。

不仅如此,英特尔还表示,这些产品是近两年在投资了以色列人工智能公司Habana Labs和NeuroBlade后推出的。Habana Labs的解决方案Goya性能优于目前数据中心常用方案的1到3个数量级,而NeuroBlade的优势在于降低成本和功耗。

与通用芯片不同,人工智能专用加速器强调的是适当的时间提供给合适的智能。英特尔全球副总裁兼人工智能产品事业部总经理Naveen Rao表示,针对复杂的人工智能应用,数据中心和云端需要提供通用计算以及专门的加速。

英特尔披露用于训练的NNP-T可以进行定制,以便加速各种负载,而用于推理的NNP-I利用10纳米制程技术提升了每瓦性能。事实上,这些产品将与谷歌的TPU、英伟达以及亚马逊AWS自研芯片竞争。

与专为谷歌机器学习框架TensorFlow设计的TPU不同,英特尔的产品支持百度、Facebook以及谷歌等提出的主流机器学习框架。2019年7月,Naveen Rao曾在百度人工智能开发者大会上宣布,为了提升训练模型速度双方合作开发处理器产品。此次英特尔发布产品时还宣布,Facebook正在使用这些产品。

新京报记者 梁辰 编辑 程波 校对 李世辉

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港