世界上最快超级计算机打破AI纪录 用强大计算能力训练深度学习算法

olivia chan

1

世界上最具价值的公司正在竞相使人工智能变得更智能。谷歌和Facebook都吹嘘他们使用了数十亿张照片和数千个高性能处理器进行实验。但去年年底,田纳西州东部的一个项目规模悄悄超过了任何一家企业级人工智能实验室。该项目由美国政府运营。

这项创纪录的项目涉及到橡树岭国家实验室(Oak Ridge National Lab)世界上最强大的超级计算机Summit。这台计算机于去年6月摘得桂冠,在中国连续5年蝉联榜首之后,美国再次摘得桂冠。作为气候研究项目的一部分,这台巨型计算机启动了一项机器学习实验,其运行速度比以往任何时候都要快。

Summit占地面积相当于两个网球场,在该项目中使用了2.7万多台强大的图形处理器。它利用它们的强大功能来训练深度学习算法,这种技术驱动着人工智能的前沿,以每秒10亿次运算的速度,在超级计算圈中被称为exaflop(每秒一百万万亿次的计算速度)。

“深度学习以前从未达到这样的水平,”在劳伦斯伯克利国家实验室的国家能源研究科学计算中心(National Energy research Scientific Computing Center)领导一个研究小组的Prabhat说。他的团队与Summit总部橡树岭国家实验室的研究人员进行了合作。

恰如其分的是,世界上最强大的计算机的人工智能训练集中在世界上最大的问题之一:气候变化。科技公司训练识别人脸或路标的算法;政府的科学家们训练他们的系统,通过对气候模拟的大量输出来探测像飓风这样的天气模式。(目前还不清楚该项目使用了多少电力,也不清楚向空气中排放了多少碳。)

这次峰会的实验对人工智能和气候科学的未来都有意义。该项目展示了将深度学习应用于超级计算机的科学潜力,超级计算机传统上用来模拟核爆炸、黑洞或新材料等物理和化学过程。它还表明,如果你能发现它预示着未来的突破,机器学习可以从更强大的计算能力中受益。

谷歌的工程总监Rajat Monga表示:“在我们这么做之前,我们不知道它能达到这种规模。”他和其他谷歌员工在这个项目上提供了帮助,将公司的开源TensorFlow机器学习软件适应Summit的巨大规模。

大多数关于扩展深度学习的工作都是在互联网公司的数据中心内进行的,服务器通过将问题分解来协同工作,因为它们的连接相对松散。像Summit这样的超级计算机有不同的架构,它们有专门的高速连接,将数千个处理器连接成一个可以整体工作的系统。直到最近,在使机器学习适应这种硬件方面的工作还相对较少。

Monga说,使TensorFlow适应Summit规模的工作也将为谷歌扩大其内部人工智能系统的努力提供信息。英伟达的工程师也在这个项目上提供了帮助,他们确保了这台机器上的数万个英伟达图形处理器能够顺畅地协同工作。

在深度学习算法背后寻找更强大计算能力的方法,在该技术最近的崛起中发挥了重要作用。2012年,研究人员将Siri应用于英伟达的图形处理器上,Siri用来识别语音和路牌识别的技术突然变得有用起来。

可行性研究报告

广告、内容合作请点这里:寻求合作

咨询·服务

相关阅读

精彩推荐