Facebook最近刚加入一些新机器到Prineville的服务器大军中。同时,公司也装载了新的大功率服务器,旨在加速对软件翻译、更聪明的虚拟助手以及文字识别等人工智能技术的训练。
Facebook新的Big Sur服务器是围绕本来为图片处理而开发的大功率处理器——GPU来设计的。这些处理器加强了最近人工智能的一个技术飞跃——深度学习。由于GPU使得如何训练软件的旧观念被运用到更广大更复杂的数据集中,软件可以变得惊人的“善解人意”,特别是在理解图片和文字方面。
Kevin Lee,Facebook一位致力于服务器工作的工程师表示,他们在帮助Facebook的研究员们通过以运行更快、使用更多数据的方式来训练软件。”这些服务器是人工智能和机器学习研究的专用硬件。GPU可以记录一张照片,把它们分成无数小像素,然后同时处理。”
每8个GPU就配置一台Big Sur服务器,Facebook使用的是擅长于图像识别的半导体供应商Nvidia制造的GPU。Lee没有确切表明到底配置有多少服务器,但是据他所说,有数千块GPU在工作着。公司的Prineville,Ashburn和Virginia的数据中心都安装了Big Sur服务器。
因为GPU极其耗能,与数据中心里其他服务器不同,Facebook不得不把它们排放松散,以免产生过热点,给冷却系统带来麻烦,以至于耗能更多。现在每个七英尺高的架子里都只能放下八个Big Sur服务器,而这些架子过去可以容纳30个只负责做一些用户数据处理等日常工作的Facebook常规服务器。
在运行大数据中心和运用GPU来进行机器学习研究这些方面,Facebook不是唯一一家。海内外的巨头,比如微软、谷歌以及百度等也运用GPU来进行深度学习的研究。
社交网络是非比寻常的。它开创了Big Sur服务器设计、其它服务器设计,以及建立Prineville数据中心的新纪元。公司把这些设计和计划捐献给了一个非盈利项目——开放计算项目(Open Compute Project)。这个项目由Facebook于2011年发起,旨在鼓励计算机公司互相协作,设计出低耗高效的数据中心硬件。这个项目至今已经帮助了数家亚洲硬件公司,抢占了一些传统供货商如戴尔和惠普的市场。
Facebook AI研究项目的主管Yann LeCun说道,当今年早些时候Big Sur服务器宣布使用的时候,他相信该技术通用之后,会有更多组织建造强有力的机器学习基础设施,然后加速此领域的发展进程。
不过,未来机器学习服务器建造的计划可能不会以GPU为核心,如今很多家公司在致力于新芯片的设计。相比于GPU来说,这种芯片是特别为深度学习的算法而制作的。
今年五月,谷歌宣布其已经开始使用自己设计的TPU芯片来驱动产品中的深度学习软件,如语音识别。在训练之后,这一代的芯片似乎更适合于运行算法,而不是像Big Sur服务器一样,最初的训练步骤是为了加速。但是,谷歌已经开始第二代芯片的研究。Nvidia和其它几家新公司包括Nervana也在开发为深度学习定制的芯片。
普渡大学副教授Eugenio Culurciello表示,深度学习的有效性意味着这种芯片将会被广泛应用。“市场对这种芯片已经有巨大需求了,而且这种需求只增不减。”
当被问到Facebook是否在开发定制芯片时,Lee表示,公司正在“研究中”。