- DeepSeek-R1という大規模言語モデルが、米国製品と同等の性能を持ちながら、より少ないコンピューティングリソースと低コストで動作する
- DeepSeekは、米国の企業(OpenAI、Google、Meta)が開発したLLMと同等の性能を持つが、Nvidia製の2,000個の古い世代のチップを使用し、約6百万ドルのコンピューティングパワーで訓練される
- DeepSeekの性能向上には、より効率的にチップ同士が通信できるようにする新しいアルゴリズムが使用されている
- DeepSeekはオープンソースであり、外部の観察者がその性能向上に貢献したことが確認できる
- DeepSeekの発表により、米国市場のテクノロジー株が売られ、NASDAQ指数は3.1%下落し、Nvidiaの株価はほぼ17%下落した
DeepSeek-R1の登場により、AI市場における米国の支配力が揺らいでいる可能性が浮上しました。これに対する市場の反応は過剰であるとの意見もあります。DeepSeekの実際の影響を正確に判断するには、さらなる情報が必要です。米国企業がAIデータセンターやインフラに数百億ドルを投資する計画が支配力を維持するかどうかに疑問が投げかけられています。