July, 24, 2023, Taipei--高速コンピュテーションでDDR SDRAMの帯域制約により、HBM(High Bandwidth Memory)がメモリ移転速度制限を克服するための推奨ソリューションとして登場してきている。
HBMは、その革新的な転送効率として認識されており、最大容量で動作するコアコンピュテーションコンポーネンを可能にする上で極めて重要な役割を果たしている。トップティアAIサーバGPUsは、主にHBMを使うことで新たな業界標準となっている。TrendForceは、世界的なHBM需要は、2023年に年率約60%成長、2億9000万GBに達し、2024年にさらに30%成長と予測している。
TrendForceの2025年予測は、Chat-GPT相当の5大規模AIGC製品、Midjourneyの25中規模AIGC製品、また80の小規模AIGC製品を考慮に入れると、世界的に必要とされる最小コンピューティングリソースは、145,600から233,700 Nvidia A100 GPUsの範囲となる。スーパーコンピュータ、8Kビデオストリーム、それにAR/VRなどの新興技術が、クラウドコンピューティングシステムワークロードを同時に増やすと予想されている。高速コンピューティング需要がエスカレートするからである。
HBMは、高速コンピューティングプラットフォーム構築には、明らかに優れたソリューションである。DDR SDRAMと比較して帯域が高く、省エネだからである。それぞれ2014年、2020年にリリースされたDDR4 SDRAMおよびDDR5 SDRAMと比較すると, この差は明白である。だが、それらの帯域は、2倍の差に過ぎない。DDR5、将来のDDR6が利用されるかどうかに関係なく、より高い転送パフォーマンスの探求は、不可避的に消費電力増となる、これは潜在的にシステムパフォーマンスに不利な影響を及ぼす。HBM3およびDDR5を例にとると、前者の帯域は、後者の帯域の15倍であり、さらにスタックチップを追加することで強化できる。それだけではなく、HBMは、GDDR SDRAMあるいはDDR SDRAMの一部を置き換えることができるので、電力消費をより効果的に管理できる。
TrendForceは、増え続ける需要の背後にある原動力は、Nvidia A100, H100, AMD MI300,、独自のASICsを開発しているGoogleやAWS など大規模CSPsを装備したAIサーバであると結論づけている。AIサーバの出荷量、GPUs、FPGAs、およびASICsを搭載したものを含め、2023年には、約120万ユニットに達する見込である。年成長率は約38%。TrendForceは、AIチップ出荷量の同時急増も予想しており、50%を超える成長となる見込である。