- DeepSeek社がAI分野で先を行く女性たちを祝う「VentureBeat Women in AI Awards」にDeepSeek Coder V2を発表
- DeepSeek Coder V2はMoE(Mixture of Experts)コード言語モデルで、プログラミング言語をサポートし、GPT-4 Turboなどを凌駕
- DeepSeek Coder V2は一般的な推論や言語能力においても優れた性能を維持
- DeepSeekはAGIの謎を解明する使命で設立され、DeepSeek Coderファミリーを含む複数のモデルをオープンソース化
- DeepSeek Coder V2は16Bと236Bのパラメーターオプションを備え、GitHubとCommonCrawlからのデータを活用して技術と性能を向上
私の考え:DeepSeek社のDeepSeek Coder V2は、MoEモデルを活用してプログラミングや数学のタスクに優れた性能を発揮しています。オープンモデルとしては初めて、他の有力なモデルを凌駕する成果を達成しており、AI分野で注目される存在となっています。