MLPerf2.0的結果與去年12月發布的v1.1結果大致相同,AI的總體性能比上一輪發布提高了大約1.8倍。
有21家公司和機構在最新一輪的測試中提交了MLPerf基準測試的成績,提交的成績總數超過了260份。
NVIDIA依然“打滿全場”
本次測試中,NVIDIA依然是唯一一家完成2.0版本中全部八項基準測試的參與者。這些測試包含了目前流行的AI用例,包括語音識別、自然語言處理、推薦系統、目標檢測、圖像分類等方面的內容。
除了NVIDIA之外,沒有其他加速器運行過所有基礎測試。而NVIDIA自2018年12月首次向MLPerf提交測試結果以來就一直完成所有基礎測試。
共有十六家合作伙伴使用了NVIDIA平臺提交了本輪測試結果,包括華碩、百度、中國科學院自動化研究所、戴爾科技、富士通、技嘉、新華三、慧與、浪潮、聯想、寧暢和超微。在這一輪MLPerf的基準測試結果中,NVIDIA及其合作伙伴占了所有參賽生態伙伴的90%。
這顯示出了NVIDIA模型良好的通用性。
通用性在實際生產中,為模型協同工作提供了基礎。AI應用需要理解用戶的要求,并根據要求對圖像進行分類、提出建議并以語音信息的形式進行回應。
要完成這些任務,需要多種類型的人工智能模型協同工作。即使是一個簡單的用例也需要用到將近10個模型,這就對AI模型通用性提出了要求。
好的通用性意味著用戶在整個AI流程中可以盡可能的使用相同的設施工作,并且還能夠兼容未來可能出現的新需求,從而延長基礎設施的使用壽命。
AI處理性能三年半提高23倍
在本次基準測評結果中,NVIDIA A100仍然保持了其單芯片性能的領軍者地位,在八項測試中的四項中取得了最快速度的成績。
兩年前,NVIDIA在MLPerf 0.7的基準測試中首次使用了A100 GPU,這次已經是NVIDIA第四次使用該GPU提交基準測試成績。
自MLPerf問世以來的三年半時間里,NVIDIAAI平臺在基準測試中已經實現了23倍的性能提升。而自首次基于A100提交MLPerf基準測試兩年以來,NVIDIA平臺的性能也已經提高了6倍。
性能的不斷提升得益于NVIDIA在軟件上的創新。持續釋放了Ampere架構的更多性能,如在提交結果中大量使用的CUDA Graphs可以最大限度地減少跨多加速器運行的啟動開銷。
值得注意的是在本輪測試中NVIDIA沒有選擇使用其最近發布的Hopper GPU,而是選擇了基于NVIDIAAmpere架構的NVIDIA A100 Tensor Core GPU。
NVIDIANarasimhan 表示NVIDIA更希望專注于商業上可用的產品,這也是NVIDIA選擇在本輪中基于 A100提交結果的的原因。
鑒于新的Hopper Tensor Cores能夠應用混合的FP8和FP16精度的數據,而在下一輪MLPerf測試中NVIDIA很有可能會采用Hopper GPU,可以預見在下一輪基準測試中,NVIDIA的成績有望取得更大的飛躍。
新聞排行
圖文播報
科普信息網 - 科普類網站
聯系郵箱:85 572 98@qq.com 備案號: 粵ICP備18023326號-39
版權所有:科普信息網 www.www44bkbkcom.cn copyright © 2018 - 2020
科普信息網版權所有 本站點信息未經允許不得復制或鏡像,違者將被追究法律責任!