拯救内存市场?chatgpt效应下hbm需求不断提升-yb体育app官网

来源:全球半导体观察    原作者:奉颖娴    

chatgpt聊天机器人已经从下游ai应用“火”到了上游的芯片领域,作为一款自然语言类ai应用,chatgpt算力需求巨大,其发展离不开高性能计算芯片的支持,比如gpu。

此外,在ai算力中,内存技术也非常重要,比如hbm技术,受益于chatgpt的火爆,正从幕后走向台前。

1
chatgpt爆红提升hbm需求

近日,韩媒报道2023年开年后三星、sk海力士两家存储大厂hbm订单快速增加,价格也水涨船高,市场人士透露近期hbm3规格dram价格上涨5倍。

业界认为,chatgpt的出现使得hbm市场需求提升,这有望为存储器市场带来了新的发展机会。

资料显示,hbm(high bandwidth memory,高带宽存储器)是一种可以实现高带宽的高附加值dram产品,与普通dram相比,hbm以堆叠方式实现更大带宽,带宽是指在特定单位时间内可以传输的数据量,基于该特性,hbm主要应用于高性能计算场景中,比如超级计算机、ai加速器、高性能服务器领域。

hbm在与cpu及gpu协同工作中,可以提高机器学习和计算性能。目前chatgpt的火热发展已令英伟达等gpu厂商受益——chatgpt使用了1万多个英伟达的“a100”gpu学习了庞大的文档数据。而hbm可以安装在gpu中,通过高速数据处理,不断完善chatgtp服务体验,英伟达“a100”就最高配备了80gb hbm2内存。

此外,媒体报道英伟达已经要求存储厂商生产最新的hbm3内存,搭配英伟达的a100 gpu供chatgpt使用。

2
hbm市场两大主流厂商介绍

目前hbm市场以sk海力士与三星为主,sk海力士hbm技术起步早,占据较大市场。

sk海力士

早在2014年sk海力士便与amd联合开发了全球首款硅通孔(tsv, through silicon via)hbm产品。

2018年sk海力士发布第二代hbm产品hbm2,容量为4gb/8gb,对比第一代新增多项增强型功能,比如伪通道模式优化内存访问并降低延迟,从而提高有效带宽。

2020年sk海力士发布hbm2的扩展版本hbm2e,容量为8gb/16gb,是hbm2的两倍,具有技术更先进、应用范围更广泛、速度更快、容量更大、散热性能更好等特点。

2021年10月sk海力士发布全球首款hbm3,容量是hbm2e的1.5倍,由12个dram芯片堆叠成,总封装高度相同,适用于ai、hpc等容量密集型应用,该产品已于2022年6月开始量产。

此外,sk海力士还在研发hbm4,预计新一代产品将能够更广泛地应用于高性能数据中心、超级计算机和人工智能等领域。

三星

三星hbm的布局从hbm2开始,2016年1月,三星宣布开始量产4gb hbm2 dram,同年三星生产8gb hbm2 dram。

2018年初三星开始投产第二代hbm2,代号为“aquabolt”,单颗封装容量达8gb,带宽307gb/s。

2020年2月三星宣布推出hbm2e flashbolt,与前一代8gb hbm2“aquabolt”相比,16gb hbm2e flashbolt容量翻倍,带宽增加至538gb/s,提升约1.75倍。

此外,2021年2月三星还与amd合作开发hbm-pim(processing-in-memory) ,将内存和ai处理器合而为一,在cpu和gpu安装hbm-pim时,显著提高服务器运算速度。

封面图片来源:拍信网

网站地图