- 2025年、中国のベンチャー企業DeepSeekがオープンソースの大規模言語モデル(LLM)分野で急成長
- DeepSeek V3は6710億のパラメータを持ち、他社よりも少ないコンピューティングリソースを使用して約2か月で訓練される
- DeepSeekはNvidiaの中国向けH800 GPUを使用してコスト効果的な訓練アーキテクチャを活用
- DeepSeekのV3モデルは2.8百万GPU時間で訓練され、他社よりも効率的なモデルを開発
- DeepSeekはUSの制裁にもかかわらず、低コストで強力なLLMを開発し、中国のAI企業の進歩を示す
DeepSeekは他社よりも効率的にリソースを活用して強力なLLMを開発したことから、中国のAI企業が進歩していることを示しています。Nvidiaの中国向けGPUを使用したコスト効果的な訓練プロセスにより、DeepSeekは競合他社よりも効率的なモデルを開発しました。
元記事: https://www.yahoo.com/tech/meet-deepseek-chinese-start-changing-093000172.html