ChatGPT已经从下游人工智能应用程序“流行”到上游芯片领域。除了将GPU等人工智能芯片推向高峰外,它还极大地推动了市场对新一代内存芯片HBM(高带宽内存)的需求。据报道,自2023年初以来,三星和SK海力士的HBM订单迅速上涨,价格也上涨。一些市场参与者透露,HBM3规格DRAM的价格最近上涨了5倍。这也给冬季的内存市场带来了一丝春天的痕迹。
ChatGPT爆红提升HBM需求
ChatGPT作为一种自然语言人工智能应用,不仅对芯片计算能力有很大的需求,而且对内存技术也有很高的需求。例如,自ChatGPT推出以来,高速数据传输速度的HBM内存芯片几乎已成为ChatGPT的必要配置,市场需求激增。据报道,自2023年初以来,三星和SK海力士的HBM订单迅速上涨,价格也上涨。
一些市场参与者透露,英伟达已经将SK海力士的HBM3安装在其高性能GPU H100上,H100已经开始提供ChatGPT服务器。最近,最新一代高带宽内存HBM3的价格上涨了5倍。
SK海力士HBM设计团队项目负责人朴明宰写道,HBM是一种高附加值DRAM产品,可实现高带宽,适用于超级计算机、人工智能加速器等性能要求高的计算系统。随着计算技术的发展,机器学习的应用越来越广泛,机器学习的基础是神经网络模型,自20世纪80年代以来一直是研究的热点。HBM作为最快的DRAM产品,在克服计算技术的局限性方面发挥着关键作用。
此前,HBM虽然性能优异,但与普通DRAM相比,其应用较少。这是因为HBM需要复杂的生产过程,平均价格至少是DRAM的三倍。然而,人工智能服务的扩张正在扭转这种局面。据报道,已有2.5万多张英伟达计算卡参加了深度学习培训。未来,随着对ChatGPT等生成人工智能需求的不断增加,对HBM的需求也将急剧增加。三星内存副总裁Kim Jae-joon指出,基于自然语言技术的交互式人工智能应用的发展,如ChatGPT,有利于提高内存需求。高效、大量的计算能力和高容量的内存是人工智能学习和推论模型的基础。
存储巨头齐争高性能市场
自去年以来,由于消费电子产品需求下降等因素,存储行业已进入下行周期。SK海力士的年净利润降至2.4万亿韩元,同比下降75%。去年第三季度和第四季度,三星电子存储业务的收入和营业利润也同比下降。Trendforce集邦咨询公司预计,2023年第一季度DRAM价格将继续下跌。其中,PC和服务器DRAM的下降仍然接近20%。HBM的热需求相当于一个“强心针”。在这种情况下,SK海力士、三星电子、美光等内存制造商表示,他们将致力于HBM的发展。企业之间的产品开发竞争也在升温。
2013年,SK海力士将TSV技术应用于DRAM,成功开发了第一代HBM芯片。此后,SK海力士推出了HBM2、HBM2E、HBM3数代产品。据报道,SK海力士正在开发HBM4,预计新一代产品将在高性能数据中心、超级计算机和人工智能领域得到更广泛的应用。SK海力士首席财务官金友贤表示,该公司正在关注基于人工智能的新服务器替换存储器需求的积极信号。该公司计划继续投资DDR5/LPDR5、HBM3等主要产品的量产和未来的高增长。
虽然三星电子在HBM的发展上落后一步,但它也在寻找新的突破。据报道,三星电子正在开发新一代集成人工智能处理器存储计算芯片HBM-PIM。北京大学信息科学技术学院微纳电子系副教授叶乐表示,存储计算芯片将人工智能引擎引入存储库,将处理操作转移到HBM本身,有效增加数据传输带宽,提高存储处理速度。存储计算技术正在产品化。目前,基于SRAM的存储计算已进入产品化前夕。DRAM存储计算适用于大计算力人工智能芯片,因此还需要解决一系列其他技术问题。
上下游发力抢占先机
与HBM相关的上下游企业也在努力抓住机遇。AMD为HBM的诞生和发展做出了巨大贡献。AMD首先意识到DDR的局限性,并产生了开发堆叠内存的想法,然后与SK海力士合作开发了HBM,并在其Fury显卡中使用了世界上第一个HBM。ISSCC2023年国际固态电路会议,AMD考虑在Instinct系列加速卡集成包装HBM高带宽内存,继续堆叠DRAM内存,可以直接在集成内存中执行一些关键算法核心,而不是CPU和独立内存之间的往复通信,以提高人工智能处理的性能,降低功耗。
英伟达也非常重视处理器和内存之间的协调,并一直要求SK海力士提供最新的HBM3内存芯片。据报道,已有2.5万多张英伟达计算卡参加了深度学习培训。如果所有互联网公司都在搜索引擎中添加ChatGPT等机器人,对计算卡和相应服务器的需求将达到50万元,这也将推动HBM的需求大幅增长。
IP制造商也首先布局了HBM3。去年,Synopsys推出了第一个完整的HBM3IP解决方案,包括2.5D多芯片包装系统的控制器PHY(物理芯片)和IP验证。HBM3PHYIP基于5nm工艺,每个引脚率可达7200mbps,内存带宽可提升至921GB/s。Rambus还推出了支持HBM3的内存接口子系统,包括完全集成的PHY和数字控制器,数据传输速率为8.4Gbps,可提供1TB/s以上的带宽。
RambusIP核产品营销高级总监FrankFero在接受采访时指出,HBM仍处于相对较早的阶段,未来还有很长的路要走。可以预见,随着越来越多的制造商在人工智能和机器学习领域的不断努力,内存产品设计的复杂性迅速上升,对带宽提出了更高的要求,宽带需求的上升将继续推动HBM的发展。