要約:
- 中国のDeepSeekは、少ないリソースを使用して訓練されたDeepSeek V3大規模言語モデル(LLM)をリリースし、米国の競合企業に匹敵または一部で超える性能を発揮している。
- DeepSeekの創業者は、AIを研究した杭州大学出身のLow-Keyである。
- DeepSeekは、主に新卒者やAIキャリアの初期段階にいる開発者を採用し、能力を経験よりも重視している。
- DeepSeekのチームには、物理学の学位を持つGao HuazuoやAI研究所の修士課程を修了したZeng Wangdingなどが含まれている。
- DeepSeekのV3モデルは、新しいトレーニングアーキテクチャと手法を組み合わせて、わずか600万ドルで2,000台のNvidia H800チップを使用して2か月間訓練された。
感想:
DeepSeekは、少ないリソースを使いながらもAIモデルの性能を向上させる画期的な取り組みを行っています。経験よりも能力を重視する採用方針や新卒者や若手を中心とした開発者の採用など、従来とは異なるアプローチが注目されます。また、DeepSeekのV3モデルの成功は、中国が制約の中でもAI分野で米国を上回る可能性を示唆しており、今後の展開が注目されます。
元記事: https://www.koreatimes.co.kr/www/world/2025/01/501_390192.html