ChatGPT作為當下最火爆的AI應用,之所以能達到如此“聰明”的程度,背后離不開海量的訓練,離不開強大的算力,使用的是NVIDIA A100加速計算卡。
(資料圖片)
GTC 2023春季技術大會上,NVIDIA又發布了頂級的H100 NVL,它是已有H100系列的特殊加強版,專為大型語言模型(LLM)進行優化,是部署ChatGPT等應用的理想平臺。
H100 NVL單卡具備多達94GB HBM3高帶寬顯存(內存),照此容量看顯然是開啟了完整的6144-bit位寬,并啟用了全部六顆,等效頻率按照5.1GHz計算的話,帶寬就是恐怖的3.9GB/s。
但也有個問題,六顆HBM3顯存總容量應該是96GB,但是這里少了2GB,官方沒有解釋,猜測還是出于良品率考慮,屏蔽了少數存儲單元。
相比之下,H100 PCIe/SXM版本都只開啟了5120-bit位寬,六個顯存位只使用五個,容量均為80GB,區別在于一個是HBM2e 2TB/s帶寬,一個是HBM3 3.35TB/s帶寬。
H100 NVL還可以雙卡組成一個計算節點,彼此通過PCIe 5.0總線互連,總顯存容量就是188GB,總顯存帶寬7.8TB/s,NVLink帶寬600GB/s,總功耗可達700-800W。
計算性能相當于H100 SXM的整整兩倍,意味著也開啟了全部16896個CUDA核心、528個Tensor核心,其中FP64雙精度浮點性能64TFlops,FP32單精度浮點性能134TFlops。
再加上Transformer引擎加速的輔佐,在數據中心規模,H100 NVL與上一代A100相比,GPT-3上的推理性能提高了多達12倍。
H100 NVL將在今年下半年開始出貨,價格……盡情想象去吧。
值得一提的是,NVIDIA還同時推出了其他兩套推理平臺:
NVIDIA L4:
適用于AI視頻,性能比CPU高出120倍,能效提高99,提供強大的的視頻解碼和轉碼能力、視頻流式傳輸、增強現實、生成式AI視頻等。
NVIDIA L40:
適用于圖像生成,針對圖形以及AI支持的2D、視頻和3D圖像生成進行了優化,與上一代產品相比,Stable Diffusion推理性能提高7倍,Omniverse性能提高12倍。
順帶一提,CPU、GPU二合一的NVIDIA Grace Hopper適用于圖形推薦模型、矢量數據庫、圖神經網絡,通過NVLink-C2C 900GB/s帶寬連接CPU和GPU,數據傳輸和查詢速度比PCIe 5.0快了7倍。
【本文結束】如需轉載請務必注明出處:快科技
責任編輯:上方文Q
標簽:
新聞排行
圖文播報
科普信息網 - 科普類網站
聯系郵箱:85 572 98@qq.com 備案號: 粵ICP備18023326號-39
版權所有:科普信息網 www.www44bkbkcom.cn copyright © 2018 - 2020
科普信息網版權所有 本站點信息未經允許不得復制或鏡像,違者將被追究法律責任!