• 大規模言語モデル(LLM)のトレーニングは今後2〜3世代で、大都市の電力が必要になる見込み
  • AWSは将来の需要に対応するために電力プロジェクトに投資
  • MetaのLlama LLMの歴史を見ると、新しいモデルは平均しておよそ7ヶ月ごとに登場
  • OpenAIは新モデルの開発に約1〜2年かかる
  • AI企業は100,000以上のNvidia H100 GPUを使用するクラスターが必要
  • AIジャイアントはエネルギー供給ネットワークの脅威を認識し、再生可能エネルギーへの投資や原子力の開発に注力
  • AIの発展において電力制約が制約要因となっており、持続可能なエネルギー源が早急に必要

AIの発展においては、電力制約が重要な要素であり、再生可能エネルギー源の早期導入が不可欠です。今回の記事では、大規模な言語モデルのトレーニングに必要な電力量が将来的に急増する見込みであり、AI企業はエネルギー生産の増加に取り組んでいます。また、原子力などの新たなエネルギー源にも注力しており、将来のAI技術の発展において持続可能なエネルギー源の重要性が高まっています。

元記事: https://www.tomshardware.com/tech-industry/artificial-intelligence/aws-ceo-estimates-large-city-scale-power-consumption-of-future-ai-model-training-tasks-an-individual-model-may-require-somewhere-between-one-to-5gw-of-power