• OpenAIの次のモデル(プロジェクト名Orion)であるGPT-4の性能向上が期待されていたほどではない
  • AIの性能向上が低く、前のモデルからの進化が少ないと報告されている
  • 大規模言語モデルLLMの開発企業は、AIの性能が増加するという「スケールの法則」を経験してきた
  • ただし、最近ではこの「スケールの法則」が破られた可能性が高まっている
  • LLMの性能向上が限界に達し、より重要なのはその応用であると予測されている

「スケールの法則」によるAIの性能向上が減少している可能性が指摘されており、これが続くとNvidia GPUsの需要も低下する可能性がある。LLMの性能向上は限界に達し、その応用がますます重要になってきているようだ。

元記事: https://www.mk.co.kr/en/world/11166122