HBM是什麼?AI運算為何少不了它?一文看懂關鍵零組件的成長機會、概念股

2024-08-23 11:10

? 人氣

資料中心廣為建設、AI應用盛行之際,高頻寬記憶體(HBM)用量預估將遽增(圖片來源:美光科技官網)

資料中心廣為建設、AI應用盛行之際,高頻寬記憶體(HBM)用量預估將遽增(圖片來源:美光科技官網)

人工智慧(AI)的興起推升高效能運算需求,業界尋求突破傳統記憶體技術的極限。因此,高頻寬記憶體(HBM)躍升為關鍵元件,負責處理AI高負載工作下的高速資料處理,同時保有高強度的傳輸速度。 

透過<Google新聞> 追蹤風傳媒

小小一片卻能作為AI應用的動力來源 

HBM主要應用於資料密集型任務,可加速處理的特性,使其非常適合深度學習和機器學習等人工智慧應用,如高效能計算(HPC)、人工智慧(AI)、圖形處理單元(GPU)和伺服器等領域。這些應用程式依賴龐大的資料集和複雜的演算法,需要快如閃電的資料存取和處理能力,而這正是HBM的優勢所在。 

AI伺服器是HBM應用的最佳範例,也是開發與部署AI基礎設施的主力。美光副總裁暨運算與網路事業部運算產品事業群總經瓦伊迪亞納坦(Praveen Vaidyanathan)指出,AI伺服器所需的記憶體容量是傳統伺服器的5到6倍。而HBM的高頻寬和容量,可順暢處理大量資料集和複雜運算,滿足AI伺服器的硬體需求。 

除了AI伺服器之外,HBM在汽車產業也占一席之地,自駕車和駕駛輔助系統(ADAS)開發就是一例。自駕車和駕駛輔助系統在駕駛期間會收發巨量資訊,須仰賴如HBM的高速資料處理能力,以回應複雜計算和即時資料統整需求。產業市調機構Mordor Intelligence指出,伴隨AI和無人車應用的崛起,HBM市場規模不斷擴張,預期未來5年的CAGR(年均複合增長率)將超過25%。 

HBM 在記憶體領域的優勢 

HBM 的主要優勢在於其3D堆疊架構。傳統DRAM記憶體是將晶片平放在電路板上;而HBM則是將多片DRAM晶片垂直堆疊,並以矽穿孔(Through Silicon Vias, TSV)技術連接,使晶片更加輕薄。這種創新的設計有兩個優點: 首先是增加頻寬,其垂直堆疊架構使得記憶體和處理器之間介面更寬,創造了「門」讓資料同時傳輸。這可大幅增加頻寬,使資料傳輸速度比傳統DRAM快上許多。 

再者是縮小使用空間:垂直堆疊記憶體晶片之後,HBM使用的空間傳統DRAM模組小。這對於空間有限的應用特別有利,例如講求尺寸精巧的AI晶片;考量到資料中心動輒布置成千上萬個機櫃,導入HBM可以節省的空間將特別可觀,這也是提高終端消費者空間使用效率的有利因素。 

SK海力士、三星、美光,主導HBM全球供應 

全球HBM市場領導者目前共有三家主要廠商,分別是:SK海力士(SK Hynix)、三星(Samsung)和美光(Micron)。 

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章