人工智能借助 Micron 等公司的芯片實現記憶升級
昨天有新聞爆出,Micron Technology 正在推動一項新的業務焦點——“雲內存業務部”,該部門將打造一種稱爲 HBM 芯片(高帶寬內存芯片)的產品。
HBM 芯片是一種 3-D 堆疊的 SDRAM 微處理器,傳統上用於高性能硬件配置。在模型設計領域,我們看到大語言模型獲得了更多內存容量,並且能夠更充分地利用存儲在內存中的上下文數據。
所以,發生這場硬件革命是合乎邏輯的。更有意思的是,參與者究竟有哪些。
HBM 市場
業內人士指出,Micron 是全球領先的 HBM 芯片供應商之一,而 Samsung 與 SK Hynix 也是主要玩家。
那麼,究竟是誰在製造這些芯片?
以 Samsung 爲例。業內消息顯示,Samsung 正在與其競爭對手代工夥伴 TSMC 合作,共同開發 HBM 芯片。
我們已經多次看到,TSMC 作爲代工廠在市場中佔據主導地位。其他公司利用 TSMC 提供的原始製造能力,並在 TSMC 產能基礎上發展各自的方案。這反過來引發了從汽車芯片短缺,到近期與出口管制相關的一些棘手地緣政治問題。看起來,如果全球有十幾家代工廠,世界局勢可能會好很多。
不過,在製造這些高設計芯片的過程中,Samsung 和 TSMC 是否在與 Nvidia 進行競爭?
其實並非如此。
其他業內報道顯示,Nvidia 原本計劃從 Samsung 採購這些芯片,但供應商未能達到 Nvidia 的要求。
3 月 20 日的一份新聞稿中,Nvidia CEO Jensen Huang 表示,Samsung “有着舉足輕重的作用”,但同時提到該公司尚未正式採購 Samsung 的 HBM3E 芯片。
HBM 芯片:內部構造
首先,HBM 芯片是一種 3-D 堆疊的 DRAM 芯片。
該內存單元緊鄰 CPU 或 GPU 放置,以克服延遲問題,並實現低功耗下的高帶寬。
我向 ChatGPT 進一步詢問了這些芯片的規格,它給出了以下信息:
帶寬:每個堆疊 819 GB 每秒
速度:每個引腳 6.4 GB
容量:每個堆疊最高可達 64 GB
散熱:更高效能
應用場景:人工智能、HPC、GPU (在此語境下,我們主要討論的是用於 AI 應用)
ChatGPT 還提供了一張有趣的圖示,將 HBM 的構造與一種稱爲 GDDR6 的遊戲芯片進行了對比,後者價格更低且更廣泛可用。
你可以從這類公開資源中獲得更多信息,瞭解 HBM 如何按照特定需求進行工程設計。
市場影響
讓我們簡要看一下這一科技市場的角落,爲企業高管或其他關心此領域的人提供一些背景信息。
首先,Nvidia 在過去一年內從歷史高點下跌約 40%,最近的交易週期中股價一直徘徊在 100 美元左右,這在表面上歸因於美國的出口管制。Huang 及其團隊宣稱,Nvidia 將因新規定損失 55 億美元,這一說法近期引起了廣泛關注。接着是 Micron,目前股價約 70 美元,約爲歷史高點的一半,自冬季以來大幅回落。至於 Samsung,其股票在短時間內下跌了約 8%。AMD 等公司同樣表現不佳。
正如 AJ Bell 投資總監 Russ Mould 所言(由 Elsa Ohlen 爲 Barron’s 報道),“來自 AI 芯片冠軍 Nvidia 的警告稱,由於美國對向中國出口管制的收緊,公司將面臨 55 億美元的損失,這標誌着華盛頓和北京之間不斷升級的針鋒相對進入了新篇章。”
這就是當前一些引人注目的全新硬件發展動態。從大語言模型的角度來看,背景則是具備持久記憶功能的模型進步。比如,我曾談論過使用 Sesame 的 AI 聊天夥伴,並觀察到“ Maya”似乎在好日子裡能記住我作爲回訪用戶的名字。連同鏈式思維,記憶能力正爲我們那些充滿活力、備受期待的神經網絡朋友和鄰居打造更多可能性。