- Elon Muskが次世代のGrok 3 LLMモデルを、驚異的な100,000台のNVIDIA H100 AI GPUでトレーニングしたことを発表
- 他のAIに焦点を当てた企業も、AIチャットボットの需要の増大に対応するために、自社のLLMモデルの高度なバージョンを次々とリリースしている
- Elon MuskのAIスタートアップ、xAIもこの競争に参加し、プレミアムユーザー向けのAIアシスタントとして設計された”Grok”シリーズのLLMモデルの開発を発表
- Elonは、次世代のGrok 3モデルをプロモートし、100,000台のH100sでトレーニングしたことをツイート
- 100,000台のNVIDIA H100 AI GPUを使用してGrok 3をトレーニングすることは、市場がまだ見たことのない結果を生むだろう
- Grok 3は、NVIDIAのA100 AI GPUを40,000台でトレーニングされたOpenAIのGPT-4 LLMモデルと比べて、より進化した性能を持つことが期待される
- Elonは、Grok 2のトレーニングを改善し、次世代のGrok 3 LLMモデルはこれらの前モデルを基に構築され、xAIによる大規模な製品になると述べている
- Elonはさらに、xAI向けにNVIDIAのフラッグシップ製品であるBlackwell B200 AIアクセラレータを取得する計画であり、これには90億ドルという巨額の価値がある
- xAIがAIのハイプにどのように貢献するか、ElonのAIスタートアップが次の大きな流行になる可能性がある
xAIの取り組みがAIのハイプにどのように貢献するか、ElonのAIスタートアップが次の大きな流行になる可能性があることは興味深い。Grok 3が100,000台のNVIDIA H100を利用することで、モデルのトレーニングにおよそ30億ドルかかる見込みであり、ElonはxAIにおいてあらゆる面で最大限の努力を払っていることを示している。