訂單排至2024年底,GPU產業鏈中,核心受益環節有哪些?
5月31日晚間,國產GPU廠商景嘉微發布公告稱,擬向特定對象發行A股股票預案,募集資金總額不超過420,073萬元,扣除發行費用后的募集資金凈額將用于高性能通用GPU芯片研發及產業化項目、通用GPU先進架構研發中心建設項目。
公告顯示,“高性能通用GPU芯片研發及產業化項目”將由景嘉微全資子公司長沙景美集成電路設計有限公司組織實施,總投資金額為378,123萬元,自主開發面向圖形處理和計算領域應用的高性能GPU芯片。意在實現國內游戲、專業圖形渲染、數據中心、人工智能、自動駕駛等應用領域GPU芯片的國產替代。
據介紹,該項目還將與第三方芯片封裝測試廠商共建公司專用的封裝測試生產線,由公司投資采購相關封裝測試設備,第 三方廠商運營該設備并為公司后續開發的 GPU 產品提供封裝測試服務。該項目實施完成后,公司將實現對先進封裝工藝的產能綁定,一方面有利于 將先進封裝工藝與高性能 GPU 產品研發高效結合,推動 GPU 產品突破前道制程 工藝限制,持續提升產品性能,從而增強產品競爭力;另一方面,有利于保證公 司 GPU 產品的交付周期、產量和品質的穩定性、可靠性,提高公司的業績表現。
至于“通用GPU先進架構研發中心建設項目”,將由景嘉微全資子公司無錫錦之源電子科技有限公司組織實施,總投資金額為96,433萬元,主要布局前瞻性技術領域,面向滿足未來高性能計算和數據處理需求的重要方向,將在江蘇省無錫市建設通用GPU先進架構研發中心。
GPU 封裝:大算力時代下,被寄予厚望的 Chiplet
AIGC 算力大時代下,GPU 支撐強大的算力需求。GPU 即圖形處理器(英語:graphics processing unit),又稱顯示核心、視覺處理器、顯示芯片,可以兼容訓練和推理,被廣泛運用于人工智能等領域。作為AI 硬件的心臟,GPU 的市場被英偉達和 AMD 等海外巨頭壟斷。
ChatGPT 這樣的生成式 AI 不僅需要千億級的大模型,同時還需要有龐大的算力基礎。訓練 AI 現在主要依賴 NVIDIA 的 AI 加速卡,達到 ChatGPT 這種級別的至少需要 1 萬張 A100 加速卡,而一顆英偉達頂級 GPU 單價高達 8 萬元。
存算一體化突破算力瓶頸,GPU 封裝進入正當時。在 AI 運算中,神經網絡參數(權重、偏差、超參數和其他)需要存儲在內存中,常規存儲器與處理器之間的數據搬運速度慢,成為運算速度提升的瓶頸,且將數據搬運的功耗高。2016 年英偉達率先推出首款采用 CoWoS 封裝的繪圖芯片,為全球 AI 熱潮拉開序幕。英偉達 H100 擁有 800 億個晶體管,相比上一代的 A100,有著六倍的性能提升以及兩倍的 MMA改進,采用的 CoWoS 2.5D 晶圓級封裝。在算力芯片性能暴增的時代下,相關的封裝產業鏈也逐漸的進入高速發展時期。
Chiplet 是后摩爾時代的半導體工藝發展方向之一。Chiplet 將大型單片芯片劃分為一組具有單獨功能的小芯片單元 die(裸片),小芯片根據需要使用不同的工藝節點制造,再通過跨芯片互聯和封裝技術進行封裝級別集成,降低成本的同時獲得更高的集成度。
Chiplet 技術要把原本單個大硅片“切”成多個再通過封裝重新組裝起來,而單個硅片上的布線密度和信號傳輸質量遠高于 Chiplet 之間,這就要求必須發展出高密度、大帶寬布線的先進封裝技術,盡可能的提升在多個 Chiplet之間布線的數量并提升信號傳輸質量。支持Chiplet的底層封裝技術目前主要由臺積電、日月光、英特爾等公司主導,包含從 2D MCM 到 2.5D CoWoS、EMIB 和 3D Hybrid Bonding。
HBM與先進封裝需求大漲
2023年ChatGPT引發的AI熱潮仍在繼續,近期媒體報道,今年擁有云端相關業務的企業,大多都向英偉達采購了大量GPU,目前該公司訂單已排至2024年。
同時,由于英偉達大量急單涌入,晶圓代工企業臺積電也從中受益。據悉,英偉達正向臺積電緊急追單,這也令臺積電5納米制程產能利用率推高至接近滿載。臺積電正以超級急件(superhotrun)生產英偉達H100、A100等產品,而且訂單排至年底。
業界認為,隨著ChatGPT等AIGC(生成式人工智能)快速發展,未來市場對GPU的需求將不斷上升,并將帶動HBM以及先進封裝發展。
資料顯示,AIGC模型需要使用AI服務器進行訓練與推理,其中,訓練側AI服務器基本需要采用中高端GPU,在這些GPU中,HBM的滲透率接近100%。
全球市場研究機構TrendForce集邦咨詢預估2023年AI服務器(包含搭載GPU、FPGA、ASIC等)出貨量近120萬臺,年增38.4%,占整體服務器出貨量近9%。
從高端GPU搭載的HBM來看,英偉達高端GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU來說,搭載HBM3技術規格,其中傳輸速度也較HBM2e快,可提升整體AI服務器系統運算效能。隨著高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,集邦咨詢預估2023年HBM需求量將年增58%,2024年有望再成長約30%。
先進封裝產能方面,當前臺積電CoWoS封裝技術為目前AI服務器芯片主力采用者。
集邦咨詢估計在高端AI芯片及HBM強烈需求下,TSMC于2023年底CoWoS月產能有望達12K,其中,英偉達在A100及H100等相關AI Server需求帶動下,對CoWoS產能較年初需求量,估提升近5成,加上AMD、Google等高端AI芯片需求成長下,將使下半年CoWoS產能較為緊迫,而此強勁需求將延續至2024年,預估若在相關設備齊備下,先進封裝產能將再成長3-4成。
