更新时间:2021-10-12 18:53:17
大家好,我是本栏目的编辑郝帅。现在我来给大家解释一下上面的问题。很明显,人工智能是如何通过神经网络而不是80年代和90年代的旧学校系统来实现的。显然,硬件正在开始发展,很明显,我们为这些硬件系统供电的方式将不得不改变。
GPU和人工智能硬件消耗大量电力。本周,我们与Vicor公司的Robert Gendron进行了对话,这家公司专门为AI系统供电。Vicor与Kisaco Research合作,后者将于9月17日和18日在加州山景城举办2019 AI硬件峰会。
罗伯特谈到为什么他们的动力模式需要不同于传统制造设备。他还讨论了如果企业想要降低能源成本,尽可能提高人工智能的效率,这些系统的电源需要如何工作。
罗伯特詹德龙:我们已经看到了用于人工智能应用的GPU和ASIC,它们的功率需求已经从几百瓦增加到现在我们正在与一些客户合作到千瓦级。更重要的是,动力水平本身就是如何提供动力的。也就是说,它通常小于1伏,与计划相比,它小于1伏,这意味着它有大约一千安培的电流。因此在非常低的电压下具有非常高的电流。
最好考虑一个灯泡。典型的灯泡是60瓦。我们再次讨论处理器消耗的千瓦数。此外,处理器是服务器机架,然后是服务器群。因此,我们通常通过AI处理器来讨论大量的功耗。
具有讽刺意味的是,行业中常用的解决方案已经存在了大约20年。称为多级供电方案。你可以想象它是一个并联的电压调节器或电源模块,也可以通过组合更多的这些电源模块来扩展它,以创建一个越来越大的整体电力传输系统。
(04:15)所以这是你的脸书世界,你的谷歌世界的巨大服务器中心之一?
RG:是的,确切地说。我的意思是你面前可能有和我一样的笔记本电脑。如果您有这种多相方案,您的处理器正在供电,例如,这些小功率块中的三个或四个被缩放在一起。但是对于图形处理器,你可以并行给其中20个电源模块供电。