- DeepSeekは、DeepSeek Coder V2をリリースし、オープンソースの専門家集合(MoE)コード言語モデルを提供
- DeepSeek Coder V2はDeepSeek-V2に基づき、コーディングと数学のタスクに優れ、300以上のプログラミング言語をサポート
- DeepSeek Coder V2は、GPT-4 Turbo、Claude 3 Opus、Gemini 1.5 Proなどのクローズドソースモデルを凌駕し、初のオープンモデルとなった
- DeepSeek Coder V2は一般的な推論と言語能力においても優れたパフォーマンスを維持
- DeepSeekの使命は、好奇心を持ってAGI(人工汎用知能)の謎を解明すること
- DeepSeek Coder V2は、言語サポートを338に拡張し、コンテキストウィンドウサイズを128Kに拡大している
- DeepSeek Coder V2は、MBPP+、HumanEval、Aider、MATH、GSM8Kなどのベンチマークで高いスコアを獲得
- DeepSeek Coder V2は、一般的な推論と言語理解のタスクでも優れたパフォーマンスを発揮
- DeepSeek Coder V2は、MITライセンスのもとで提供され、研究や商業利用が可能
- DeepSeek Coder V2は、Hugging Faceを通じて異なるサイズのモデルをダウンロードできる
- DeepSeekは、DeepSeek Coder V2をチャットボットを介して利用できるようにも提供
DeepSeek Coder V2はオープンモデルとして高い性能を示し、AGIの解明に向けて貢献している。MITライセンスの下で提供されることで、研究や商業利用の幅広い可能性がある。DeepSeekのモデルは、コーディングや数学のタスクに優れるだけでなく、一般的な言語理解のタスクでも十分なパフォーマンスを発揮しており、クローズドソースモデルに追いつこうとしている。