科普信息網

MLPerf2.0基準測評結果發布 性能三年半提高23倍

發布時間:2022-07-04 09:51:54 來源:快科技 責任編輯:caobo

MLCommons社區發布了最新的MLPerf2.0基準測評結果。在新一輪的測試中,MLPerf新添加了一個對象檢測基準,用于在更大的OpenImages 數據集上訓練新的 RetinaNet,MLperf表示,這個新的對象檢測基準能夠更準確反映適用于自動駕駛、機器人避障和零售分析等應用的先進機器學訓練成果。

MLPerf2.0的結果與去年12月發布的v1.1結果大致相同,AI的總體能比上一輪發布提高了大約1.8倍。

有21家公司和機構在最新一輪的測試中提交了MLPerf基準測試的成績,提交的成績總數超過了260份。

NVIDIA依然“打滿全場”

本次測試中,NVIDIA依然是唯一一家完成2.0版本中全部八項基準測試的參與者。這些測試包含了目前流行的AI用例,包括語音識別、自然語言處理、推薦系統、目標檢測、圖像分類等方面的內容。

除了NVIDIA之外,沒有其他加速器運行過所有基礎測試。而NVIDIA自2018年12月首次向MLPerf提交測試結果以來就一直完成所有基礎測試。

共有十六家合作伙伴使用了NVIDIA臺提交了本輪測試結果,包括華碩、百度、中國科學院自動化研究所、戴爾科技、富士通、技嘉、新華三、慧與、浪潮、聯想、寧暢和超微。在這一輪MLPerf的基準測試結果中,NVIDIA及其合作伙伴占了所有參賽生態伙伴的90%。

這顯示出了NVIDIA模型良好的通用

通用在實際生產中,為模型協同工作提供了基礎。AI應用需要理解用戶的要求,并根據要求對圖像進行分類、提出建議并以語音信息的形式進行回應。

要完成這些任務,需要多種類型的人工智能模型協同工作。即使是一個簡單的用例也需要用到將10個模型,這就對AI模型通用提出了要求。

好的通用意味著用戶在整個AI流程中可以盡可能的使用相同的設施工作,并且還能夠兼容未來可能出現的新需求,從而延長基礎設施的使用壽命。

AI處理能三年半提高23倍

在本次基準測評結果中,NVIDIA A100仍然保持了其單芯片能的領軍者地位,在八項測試中的四項中取得了最快速度的成績。

兩年前,NVIDIA在MLPerf 0.7的基準測試中首次使用了A100 GPU,這次已經是NVIDIA第四次使用該GPU提交基準測試成績。

自MLPerf問世以來的三年半時間里,NVIDIAAI臺在基準測試中已經實現了23倍的能提升。而自首次基于A100提交MLPerf基準測試兩年以來,NVIDIA臺的能也已經提高了6倍。

能的不斷提升得益于NVIDIA在軟件上的創新。持續釋放了Ampere架構的更多能,如在提交結果中大量使用的CUDA Graphs可以最大限度地減少跨多加速器運行的啟動開銷。

值得注意的是在本輪測試中NVIDIA沒有選擇使用其最發布的Hopper GPU,而是選擇了基于NVIDIAAmpere架構的NVIDIA A100 Tensor Core GPU。

NVIDIANarasimhan 表示NVIDIA更希望專注于商業上可用的產品,這也是NVIDIA選擇在本輪中基于 A100提交結果的的原因。

鑒于新的Hopper Tensor Cores能夠應用混合的FP8和FP16精度的數據,而在下一輪MLPerf測試中NVIDIA很有可能會采用Hopper GPU,可以預見在下一輪基準測試中,NVIDIA的成績有望取得更大的飛躍。

標簽: 測評結果發布 基準測試的成績 流行的AI用例

上一篇:微軟推送Windows11Build25151Dev更新
下一篇:最后一頁

新聞排行