欢迎光临
我们一直在努力

AI 服务器产业链图谱

AI服务器产业链包括芯片CPU、GPU,内存DRAM和内存接口及HBM,本地存储SSD,NIC、PCIe插槽、散热等。

服务器CPU架构包括X86、ARM、MIPS和RISC-V等。

AI芯片是AI服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,AI芯片按架构可分为GPU、FPGA、ASIC和NPU等。

HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。

服务器本地存储的选择方案则包括HDD和SSD,SSD的主要硬件组件包括NANDFlash、主控芯片和DRAM,核心软件为企业级SSD的固件,数据中心级SSD已不再是一个硬盘,而是一个具备处理、缓存、计算、安全保护的小型系统,SSD渗透率有望逐渐提升。

从服务器和AI服务器构成看,芯片和存储都是核心,决定着AI服务器的算力和宽带大小。

传统的通用型服务器中,售价10424美金的2x Intel Sapphire Rapids Server,CPU的成本占比约17.7%,内存和硬盘占比超过50%。

而AI服务器,售价为268495美金的Nvidia DGX H100中,CPU占比仅1.9%,GPU占比高达72.6%。内存价值量提升,但占比下降至4.2%左右。AI服务器较通用服务器价值量提升明显。

赞(0) 打赏
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《AI 服务器产业链图谱》
文章链接:http://www.suanliquan.com/2371.html
本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。

评论 抢沙发

评论前必须登录!

 

龙泽智能云 - 云安全管理服务商

提供一站式云安全解决方案,使云端部署化简为零,轻松快捷运用云服务

产品官网联系我们

觉得文章有用就打赏一下文章作者

非常感谢你的打赏,我们将提供更多内容,一起创建美好的网络世界!

支付宝扫一扫

微信扫一扫

登录

找回密码

注册