GPU驱动的应用需要高度优化的散热

GPU驱动的应用需要高度优化的散热

关于Rahi Systems

Rahi Systems是一家全球数据中心解决方案提供商,提供物理基础设施,存储,计算和网络中的全套产品。 此外,Rahi还提供专业和管理的服务,以帮助客户在物流,交付,设置和持续支持其数据中心解决方案。

Nvidia最初为视频游戏市场设计的图形处理单元(GPU)支持人工智能(AI)的快速发展。 寻求利用Nvidia GPU能力的组织必须准备他们的数据中心以获得极高的功率密度以及随之而来的热量。

Nvidia用GPU改革了电脑游戏。 通过同时执行多个数学计算,这些专用电路能够在视频游戏中产生更清晰,更快和更平滑的运动。

然后,在2007中,Nvidia开创了“GPU加速计算”概念,超越了游戏市场。 GPU与大规模并行处理环境中的传统计算机处理单元(CPU)相结合,使计算密集型程序运行得更快。 这种发展提供了必要的处理以实现基本的人工智能功能,如深度学习。

深度学习是一种计算模型,旨在松散地模仿人类大脑与神经元和突触合作的方式。 Nvidia的GPU用于创建所谓的“人工神经网络”,它使用大量高度互连的节点协同工作来分析大型数据集。 这使机器能够发现模式或趋势,并从这些发现中学习。 这是人工智能的本质。

CPU和Nvidia GPU之间的关键架构差异使这成为可能。 一个CPU有几个核心,拥有大量的高速缓存,可以同时处理一些软件线程。 CPU也针对顺序处理进行了优化 - 按接收顺序执行处理。 GPU拥有数百个内核,可以处理数千个线程并同时执行多个进程。

与单独使用CPU相比,GPU加速计算可以运行一些100软件。 这使它成为支持各种AI应用的深度学习算法的完美选择。

GPU也为数据中心环境带来重大挑战。 虽然CPU稳定地变得更节能,但GPU消耗大量电力。 采用GPU加速计算导致数据中心的功率密度更高 - 根据一些估计,按每机架30kW到40kW的顺序排列。 许多超大规模数据中心每个机架只消耗大约10kW。

这种大小的功率密度意味着明显更大的热负荷,很少有环境准备好处理。 热通道遏制是必不可少的,随着 行内冷却系统 将他们的能力集中在附近的设备上。 行内冷却 捕获并中和排出的热空气,然后才能流入数据中心。

通常建议使用冷水冷却系统进行GPU加速计算,因为水的热容量约为空气的四倍。 然而, 行内冷却 通过缩短气流路径并减少待冷却空间的体积来提供更高的效率。

Enconnex行内冷却 单位可以让您灵活地选择您选择的冷却液。 可用于冷凝水,冷冻水和DX空气和水冷配置, Enconnex行内冷却 这些设备的散热能力超过100kW,但在任何数据中心环境中都能舒适地使用。

Nvidia GPU正被用于加速数以百计的AI驱动应用,如量子化学,流体动力学,视频编辑和医学成像。 希望利用AI的组织必须确保他们的数据中心基础架构能够处理这些功能强大的芯片产生的热量。

Rahi Systems将在Nvidia展出 GPU技术大会, 三月26-29在加利福尼亚州圣何塞停靠#1225展位,了解更多关于我们的行内冷却解决方案,并拿起您的免费赠品!

 

发表评论