核心观点: AMD 于今日凌晨召开产品发布会,正式发布MI300 系列。MI300A 采用CDNA 3 GPU 搭配24 个Zen 4 CPU内核的架构,其内存为128GB 的HBM3,性能与MI250 相比提高八倍,效率提高五倍。MI300X 为针对LLM大语言模型推的升级版,内部为纯GPU 架构,其搭配192GB 的HBM3,存储带宽达5.2TB/s ,同时拥有896GB/秒的Infinity Fabric 带宽。由于其拥有更大的HBM 密度,该升级意味着单个MI300X 便可运行一个参数高达800亿的模型。此外,公司还发布了搭载8 个MI300X 的Instinct 平台,搭配了1.5TB 的HBM3 内存。根据AMD在产品发布会上的表述,Instinct 平台将与MI300X 一起,在今年Q3 出样,并于Q4 正式量产。同时,AMD 也持续对AI 软件堆栈ROCm 进行升级,并与Pytorch、Tensorflow 等厂商一起完善相关生态系统,以此来进一步加强自身在AI 领域的竞争力。 推出新一代数据中心处理器EPYC 系列产品,丰富AI 领域产品版图。本次发布会除MI300 外,AMD 还介绍了专为云原生计算负载而设计的第四代EPYC(霄龙)服务器处理器Bergamo;以及为高性能技术计算而优化的Genoa-X,以丰富自身AI 领域产品版图。具体来看,云原生产品Bergamo 是AMD 首款专门针对云原生计算设计的产品,其基于AMD 的密度优化Zen 4c 架构,以提供尽可能多的计算资源。Genoa-X CPU 则基于AMD的标准Genoa 平台,采用3D V-Cache?技术,通过在每个CCD 上垂直堆叠SRAM 模块来提高可用的L3 缓存。同时,AMD 还展示了用于减少数据中心网络开销的P4 DPU 以及Smart NICs 和Smart Switch。 生成式AI 和大型语言模型的应用热潮持续,AI 算力市场规模有望持续扩充。在发布会上,AMD CEO Lisa Su认为“我们仍处于AI 生命周期的非常、非常早的阶段。毫无疑问,在可预见的未来,人工智能将成为硅消费的关键驱动力”,她表示,2023 年数据中心AI 加速器市场规模约为300 亿美元,预计至2027 年,整体市场规模将以50%的CAGR 增长至约1500 亿美元。 投资建议:AIGC 推动AI 服务器需求增长,建议关注:算力:海光信息、寒武纪(计算机组覆盖)、工业富联、芯原股份、龙芯中科等;连接:源杰科技、澜起科技、裕太微、聚辰股份、帝奥微等;PCB:胜宏科技、沪电股份;存储:深科技、北京君正、兆易创新、东芯股份等;电源:杰华特;制造:中芯国际、长电科技、通富微电、甬矽电子等;应用:海康威视、大华股份、韦尔股份、思特威、格科微、恒玄科技、晶晨股份、全志科技、瑞芯微等。 风险提示:AIGC 发展不及预期,AI 服务器出货量不及预期,国产厂商技术和产品进展不及预期。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。