用戶名: 密碼: 驗證碼:

英偉達Grace-Hopper提供一個緊密集成的CPU + GPU解決方案

摘要:英偉達Grace-Hopper提供了一個緊密集成的CPU + GPU解決方案,針對生成式人工智能逐漸成為主導的市場環(huán)境。


  ICC訊 英偉達Grace-Hopper提供了一個緊密集成的CPU + GPU解決方案,針對生成式人工智能逐漸成為主導的市場環(huán)境。

  為了提高性能,這家GPU制造商將HBM3e內(nèi)存放入了名為GH200的新型芯片封裝中,該封裝包括一個Grace CPU和一個Hopper GPU。Hopper以前在芯片封裝中使用HBM3存儲器。

  英偉達將把兩個GH200芯片(每個都有一個72核CPU和一個Hopper GPU)連接到一個更大的芯片集群中,用于擴展數(shù)據(jù)中心。

  HBM3e內(nèi)存比HBM3快50%,總帶寬為每秒10TB;CPU基于Neoverse V2設計。英偉達CEO黃仁勛表示:“這些芯片正在生產(chǎn)中,我們將在2023年年底左右進行樣品測試?!?

  一個封裝中的兩個GH200芯片將具有282GB的HBM3e內(nèi)存,這相比于之前GH100芯片的192GB HBM內(nèi)存是一大改進。它還將擁有每秒8千萬億次的人工智能計算能力,以及每秒10 TB的HBM3e性能。

  該芯片組可以接受任何大型語言模型,“可以瘋狂地進行推理”。英偉達表示,這些芯片可以運行3.5倍大的模型,并通過更快的內(nèi)存帶寬獲得性能提升。

  該公司打算將256個GH200 GPU配置到一個名為Grace Hopper的超級計算機系統(tǒng)中,該系統(tǒng)將提供1百億億次的人工智能性能。黃仁勛將該系統(tǒng)稱為“世界上最大的單一GPU”,所有256個GH200協(xié)同工作。

  目前所有的大型學習模型都是在Grace Hopper超級計算機這樣的系統(tǒng)上訓練的。黃仁勛說,未來隨著人工智能在設備之間的分布越來越廣,每個應用程序都將使用一個大型語言模型。隨著越來越多的公司探索人工智能來提高運營效率,HopperGPU現(xiàn)在很受歡迎。該公司承認GPU供應短缺。

  黃仁勛還描繪了如何分解其GPU路線圖以滿足分布式模型。Grace Hopper超級計算機位于頂部,然后可以將其分配到具有不同要求的服務器和桌面GPU上的不同GPU上。

內(nèi)容來自:SSDFans
本文地址:http://getprofitprime.com//Site/CN/News/2024/01/03/20240103063017258138.htm 轉載請保留文章出處
關鍵字:
文章標題:英偉達Grace-Hopper提供一個緊密集成的CPU + GPU解決方案
1、凡本網(wǎng)注明“來源:訊石光通訊網(wǎng)”及標有原創(chuàng)的所有作品,版權均屬于訊石光通訊網(wǎng)。未經(jīng)允許禁止轉載、摘編及鏡像,違者必究。對于經(jīng)過授權可以轉載我方內(nèi)容的單位,也必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和本站來源。
2、免責聲明,凡本網(wǎng)注明“來源:XXX(非訊石光通訊網(wǎng))”的作品,均為轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責。因可能存在第三方轉載無法確定原網(wǎng)地址,若作品內(nèi)容、版權爭議和其它問題,請聯(lián)系本網(wǎng),將第一時間刪除。
聯(lián)系方式:訊石光通訊網(wǎng)新聞中心 電話:0755-82960080-168   Right