人工智能热潮下,高端存储芯片(HBM)库存告急。SK海力士和美光已经向客户发出警告称,2024年的HBM芯片已售罄,库存紧张的状况预计将持续至2025年,2025年的HBM芯片订单也已爆满。
目前,韩国的SK海力士主导了HBM市场,其他两家存储芯片巨头美光与三星正在迎头赶上。值得关注的是,中国存储芯片公司也开始投入HBM芯片的研发。
对于像OpenAI的ChatGPT这样的大语言模型来说,HBM芯片在其模型训练中发挥着至关重要的作用。在各大科技巨头争先公布更高性能的AI大模型的背景下,用于AI训练的HBM芯片也出现了严重紧缺,并成为芯片公司激烈竞逐的新领域。
英伟达承包了大部分
HBM是一种DRAM标准存储芯片,于2013年首次推出,它的核心技术是依靠芯片垂直堆叠以节省空间并降低功耗,非常适合处理复杂人工智能应用程序产生的大量数据。
晨星股票研究总监Kazunori Ito在上周的一份报告中表示:"我们预计整个2024年HBM内存供应将持续紧张。"
Gartner分析师盛陵海对第一财经记者表示,HBM供应紧张主要是来自英伟达、AMD这些芯片巨头的需求,它们几乎承包了所有的产能。"他还称,英伟达将HBM用于其GPU,推动了业内对HBM的需求。"AI训练和推理需要高带宽的存储芯片。"
但这些芯片的制造更加复杂,提高产量也很困难。根据市场情报公司TrendForce今年3月的一份报告,与个人电脑和服务器中常见的DDR5内存芯片相比,HBM的生产周期要慢1.5至2个月。
截至今年3月,SK海力士仍是英伟达AI芯片的唯一HBM供应商,尽管英伟达也在考虑使用三星等其他厂商的HBM芯片。在英伟达最新发布的Blackwell架构的AI芯片中,整个GPU芯片封装了192GB的高速HBM3e芯片,大大增强了数据吞吐能力。
尽管SK海力士是最先拥有HBM3标准芯片量产能力的存储芯片公司,不过三星、美光今年也有相关量产计划,且都有望使用HBM3标准。第一财经记者向美光方面求证,对方称目前尚未有公开量产消息供发布。
黄仁勋此前称HBM制造难度极大,"堪称奇迹"。他在今年3月的英伟达GTC大会上透露,除SK海力士外,英伟达正在测试三星的HBM芯片,并有望在未来使用。
为了满足不断增长的需求,SK海力士已经计划通过投资美国印第安纳州的先进封装设施以及位于韩国的半导体产业集群来扩大产能。
SK海力士在本月初的新闻发布会上表示,将在第三季度开始量产最新一代HBM芯片——12层HBM3e,而三星也在这一技术方面努力赶超SK海力士,三星计划在第二季度内开始量产,从而有望成为业界率先交付12层HBM3e芯片样品的企业。
"目前三星在12层HBM3e样片工艺上处于领先地位,如果三星能够比同行更早实现量产交付,我认为它可以在2024年底和2025年获得更多市场份额。"大和证券执行董事兼分析师SK Kim在一份投资报告中表示。
三星在上个月的第一季度财报电话会议上表示,2024年的HBM供应的存储容量较去年增加了三倍多。
"我们已经与客户就承诺的供应完成了谈判。到2025年,我们将继续将供应量同比至少扩大两倍。"三星表示。
中国企业也在研发
目前已有中国公司启动了HBM芯片的开发工作。尽管我国在该领域的起步较晚,但最近两三年来发展迅速。
盛陵海对第一财经记者表示,目前中国拥有HBM芯片的封装技术,但HBM芯片制造能力尚不成熟,仍处于发展早期阶段。此外,与国际存储芯片巨头相比,中国公司还在努力开发基于上一代技术的HBM2芯片产品。
国内NAND内存芯片巨头长江存储此前表示,该公司不具备量产HBM的能力,不过据公开信息,该公司旗下正在计划IPO的武汉新芯公司可能正涉足HBM芯片的研发和生产。
根据企查查公开信息,武汉新芯正在建设一家工厂,每月可生产3000片12英寸HBM晶圆,于今年2月开始建设。长江存储和武汉新芯均未对此发表评论。
对此,盛陵海对第一财经记者表示:"12英寸产线的标准是每月生产20000片,武汉新芯可能涉及购买一些HBM设备,但还不具备量产能力。"
长鑫存储作为中国目前存储芯片的巨头,在HBM芯片制造方面具有国内领先优势。
另据Anaqua的AcclaimIP数据库,长鑫存储已在美国、中国及中国台湾地区申请了近130项专利,涉及HBM芯片制造和功能相关的不同技术问题,其中超过一半的专利于今年申请,也涉及开发HBM3所需的技术。
金融机构White Oak Capital投资总监Nori Chiou预估,中国芯片制造商在HBM方面仍落后于全球先进水平,这一差距大约在10年左右。但他表示,中国正在努力提升其在HBM市场内存和先进封装技术方面的能力。