要約:

  • Nvidiaは、最新のMLPerf AIベンチマークセットで、グラフニューラルネットとLLMの微調整においてトップを獲得。
  • MLPerfによる新しいテストでは、大規模言語モデルの微調整とグラフニューラルネットに焦点が当てられている。
  • NvidiaのHopperアーキテクチャを使用したシステムが結果を支配し、11,616個のNvidia H100 GPUを搭載したシステムが9つのベンチマークで記録を更新。
  • 競合他社も線形スケーリングに近づいており、Intelは1,024個のGPUを使用したシステムでGPT-3タスクを67分で完了。
  • Nvidiaは、Hopperアーキテクチャのままでもトレーニング時間を向上させ、ソフトウェアの改善によって成果を上げている。

感想:

今回のMLPerfベンチマーク結果から、NvidiaがAIトレーニングにおいて依然として優位性を維持していることが明らかです。特に、大規模なGPUシステムを活用したトレーニングタスクにおいて圧倒的な成果を挙げています。競合他社も線形スケーリングに向けて取り組んでおり、今後のAI産業の展望が非常に興味深いです。Nvidiaのソフトウェア改善によるトレーニング時間の短縮や、新しいアーキテクチャの導入による革新にも注目が必要です。

元記事: https://spectrum.ieee.org/mlperf-nvidia-conquers