• OpenAIはGPT-2を開発し、訓練には1時間あたり256ドルかかった
  • ハードウェア、ソフトウェア、データの進歩により、訓練コストが大幅に削減されている
  • GPT-4の訓練には1億ドル以上かかった
  • llm.cプロジェクトはGPT訓練の直接実装により高速化
  • ハードウェアの進化にもかかわらず、AI訓練は高額化の傾向
  • AIデータセンターの電力消費が増加しており、専門家の懸念も高まっている

AIの訓練コストは技術の進歩により削減されているが、ハードウェアの高額化や電力消費の増加などの要因で高額化の傾向にあることが示唆されています。今後もAIモデルの開発には膨大な資金が必要とされるでしょう。また、AIデータセンターの電力消費に関する懸念も高まっています。

元記事: https://www.tomshardware.com/tech-industry/artificial-intelligence/former-tesla-ai-director-reproduces-gpt-2-in-24-hours-for-only-672