• AI企業は、巨大な言語モデルの開発から、テスト時の計算に焦点を移している。
  • 主要なAI研究所は、膨大なLLMのトレーニングに膨大な費用がかかり、複雑なシステムが頻繁に故障することに直面している。
  • OpenAIの次期モデルOrionやGoogleのGemini 2.0、AnthropicのOpus 3.5モデルに関する問題が報告されている。
  • OpenAIの共同創業者Ilya Sutskeverは、現在自身のAI研究所SSIを運営し、「今重要なのは正しいものをスケールさせること」と述べている。
  • AI研究所は、テスト時の計算に注目し、問題を解決するための時間をモデルに与えることで、スケーリングの新たなアプローチを模索している。
  • 従来の言語モデル開発は続く可能性があり、OpenAIのo1は数学的な処理を向上させ、GPT-4はテキストの生成を効率的に行う。
  • このシフトは、AIハードウェアの分野にも影響を与える可能性があり、Nvidiaの支配を揺るがすかもしれない。

考察:
この記事から分かるように、AI企業は巨大な言語モデルの開発に対するアプローチを変えつつあり、テスト時の計算に注力する方向にシフトしています。従来のスケーリングに対して、問題解決に時間をかける新しいアプローチを模索しており、これによりAIシステムの進化が期待されています。また、これがAIハードウェアの分野にも影響を与える可能性があり、今後の展開が注目されます。

元記事: https://the-decoder.com/openai-co-founder-predicts-a-new-ai-age-of-discovery-as-llm-scaling-hits-a-wall/