研华推出用于AI训练端的SKY-642 GPU服务器

来源:智汇工业

点击:1043

A+ A-

所属频道:新闻中心

关键词:研华 GPU服务器

    过去的两年里,研华着手布局AIoT解决方案,将自己定位为一个全面的人工智能平台解决方案提供商。为此,研华推出了从1U到4U的各种机架式GPU服务器。近期,研华发布了新款4U机架式高密度GPU服务器SKY-642,一款支持适用于人工智能训练端的GPU卡。


      研华SKY-642-4U高密度GPU服务器


      研华的SKY-642 4U高密度GPU服务器的设计是结合大数据收集和分析的发展趋势。


      ●支持多达10个Nvidia v100 32GB PCIe卡,具有点对点功能,确保每个GPU之间的最大频宽和最短的延迟;


      ●前置的12x 2.5”/3.5”硬盘盘位最大程度上提升服务器存储能力;


      ●IPMI监控系统包括10个GPU卡和HDD状态,智能风扇控制通过有效温度调节,确保SKY-642中10个 GPU的稳定性。


    GPU之间的快速点对点通信


      在深度学习和大数据分析领域,应用程序需要更多与可扩展性并行工作的GPU功能。通过采用均衡负载模式,SKY-642实现了点对点功能,缩短了GPU卡之间的延迟,同时加快了计算时间。


    更好的散热和系统风扇设计


      自SKY-642开始设计满载10个GPU卡,散热是一个重要的问题。采用一个双层热插拔系统风扇增加了风流和气压,用于冷却10个双层GPU卡时,近似的无线设计提高了系统的效能。一个专为CPU和GPU设计的单独空气通道,确保所有的GPU卡不是由CPU预热。这使得系统风扇控制比以往任何时候都更智能——单独的风扇区域根据GPU和CPU的最大负载分别控制每个系统风扇。风扇控制降低了不同工作负载下SKY-642的声学性能。


    智能平台管理界面


      在IPMI 2.0规范支持下,SKY-642允许用户监视、管理和控制远程服务器。用户可以监控传感器,并在任何传感器发生故障时接收警报。受监控的传感器跟踪服务器中使用的GPU卡的温度,并管理事件日志以找出重要信息。通过使用IPMI KVM或电源控制来实现远程服务器控制,以使服务器能够通电/断电和进行电源循环。


    (审核编辑: Doris)