突然间,HBM成了谈话的主要话题。为什么?
最近生成人工智能的爆炸性增长是这一兴趣的关键部分,但还有更多原因加速进入这个市场。简单的答案是,HBM是人工智能应用中使用的DRAM,在主流DRAM亏损时保持盈利。
所以,突然间,每个人都想参与这个持续盈利的市场。
在过去的几年里,SK hynix是世界上唯一的HBM供应商,其两个主要竞争对手三星和美光无所谓让SK hynix拥有该市场。从他们的角度来看,HBM是一个成本高昂的小利基市场,与HBM相比,标准DRAM可以赚得更多的回报。
然后,DRAM市场在2022年崩溃,DRAM制造商发现自己的生产能力过剩,运营损失惨重。一些DRAM价格在崩溃过程中下跌了近70%,但SK hynix的经营比其竞争对手更好,原因是SK hynix正在销售一种价格没有下降的产品,或者可能下跌了一点,可以在整个经济衰退期间仍然盈利。
从那时起,DRAM的收入一直在增加,这很大程度上还是由于人工智能的需求激增。超大规模数据中心正在花费大量资金在高性能计算机上,这些计算机需要对他们可以访问的所有互联网数据进行人工智能训练。
在23年第一季度91亿美元的市场低点后,24年第二季度收入为231亿美元,几乎与22年第二季度(235亿美元)的收入一样高。
然而,在三星和美光股价下跌的时候,SK hynix的市场份额正在增加。
请注意,三星在23年第3季度后重新获得了损失的份额,但美光没有。美光进入HBM市场的速度很慢,而三星的反应更快。
美光现在希望尽快夺回市场份额。
对于那些不熟悉HBM的人来说,它基本上是堆叠的DRAM芯片,主要用于加速高端GPU和其他人工智能处理器,这种芯片主要用于大语言模型训练,但也存在于网络和高性能计算(HPC)应用中。大语言模型训练是生成人工智能模型的基础。当堆叠DRAM并将其连接到处理器附近时,实际上在处理器的软件包中可以以更快的速度运行,增加连接数量以增加几倍的带宽,并降低功耗,但这样做的成本非常高。