展会信息港展会大全

Facebook发布了一款超硬核的“最强大脑”
来源:互联网   发布日期:2017-03-10 10:33:14   浏览:21138次  

导读:在去年4月的全球开发者大会上,扎克伯格畅想了未来十年Facebook的人工智能发展蓝图:成为整个社交网站的核心动力。接近一年过去,可以看到Facebook至少在硬件上是没有停下脚步。 3月9日,Facebook工程师Kevin Lee宣布,为了进一步加速神经网络的训练,将推出...

在去年4月的全球开发者大会上,扎克伯格畅想了未来十年Facebook的人工智能发展蓝图:成为整个社交网站的核心动力。接近一年过去,可以看到Facebook至少在硬件上是没有停下脚步。

3月9日,Facebook工程师Kevin Lee宣布,为了进一步加速神经网络的训练,将推出新一代GPU服务器Big Basin。新一代的服务器其实是2015年Facebook推出的Big Sur服务器的升级版,并且同样都会在Open Computer Project平台上进行开源。

无论人工智能还是机器学习,它们出现在人们面前的形象常常是算法和代码,而服务器则是背后“看得见摸得着”的那一部分。Big Sur一直是Facebook发展人工智能的利器,其强大的计算能力为Facebook语言技术和图像技术提供支持。这次的硬件升级将存储量从12G提升到16G,模型训练量能够再提升30%,同时在进行神经网络训练时,其训练速度能比Big Sur高出一倍。

与NVIDIA的DGX-1架构非常相似,Big Basin由8个NVIDIA Tesla P100 GPU (搭载NVLink技术的 Tesla P100加速器)加速器组成,这些GPU们由 NVIDIA NVLink连接在一起组成了一个盒子。这个服务器也被公司成为JBOG ( Just a Bunch of GPUs )——一堆GPU,这一大堆GPU的能量就意味着足够为机器学习提供支持。

不像无人车和机器人,Facebook本身的社交平台属性弱化了人工智能技术的外露特征,让很多用户感受不到人工智能的冲击力,但其实我们日常使用的很多Facebook 服务无一不是人工智能在背后发生作用:语音识别、语音文字转换、图像的分类和识别,Big Basin 和它的前身 Big Sur 就是实现这些服务的重要支撑。

你每天能多做3套模拟题的结果可能是期末多考30分,机器学习每天多训练30%的模型,结果可能就是更精准地图片识别、更快速的语音识别、更合理的资讯推荐,每一个Facebook的用户作为阅卷老师,最后都应该能体会到这样的变化。

人工智能是很多科技公司的急于抢占的阵地,对 Facebook 而言则是“阿喀琉斯之踵”。一是因为 Facebook 本身入局较晚,二是缺乏杀手级应用。

在人工智能浪潮中,科技公司要站稳脚跟就需要为自己找到一块壁垒。Google被认为是走在人工智能行业的前列,从 TenserFlow 开源平台到旗下的 DeepMind 人工智能公司,从成绩斐然的围棋算法到离商业化最近的云服务和智能家居,Google 战略布局思路可以说是很清晰了。而其他的科技公司,即便触手没有伸到四面八方,但也有自己的战略根据地,微软有 Cortana Platform、IBM 有 Watson。

相对而言 Facebook 就略显薄弱,虽然在去年推出 Messenger 聊天机器人,准备打造大型聊天机器人生态系统,但是前段时间来自外媒 The Information 的调查报告显示,Messenger 聊天机器人在没有人为干预的情况下,能准确处理用户请求的准确率还不到30%。这70%的错误率揭开 Facebook 在人工智能研究领域研究处于弱势的伤疤,Facebook 也决定削减一些开支,让 Messenger 从低质量聊天中转型,只做一些特殊问题的处理。

Facebook 削减开支的是打人工智能的退堂鼓了?从今天新硬件产品的升级看来并非如此,而是把注意力转移到提升基础设施上,毕竟身体是革命的本钱。

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港