- DeepSeekがDeepSeek Coder V2を発表。オープンソースのコード言語モデルで、MoEアプローチを使用。
- DeepSeek Coder V2は、プログラミングおよび数学のタスクにおいて優れ、300以上のプログラミング言語をサポート。
- DeepSeekは、GPT-4 Turbo、Claude 3 Opus、Gemini 1.5 Proなどの主要なクローズドソースモデルを凌駕すると主張。
- DeepSeek Coder V2は、一般的な推論と言語処理能力も保持。
- DeepSeekは、DeepSeek Coderシリーズを含むいくつかのモデルを公開し、V2では86から338のプログラミング言語をサポート。
- DeepSeek Coder V2はMITライセンスの下で利用可能であり、Hugging Faceから16Bおよび236Bのサイズでダウンロード可能。
- DeepSeekは、モデルへのAPIアクセスを提供し、DeepSeek Coder V2の機能を探索するためのインタラクティブなチャットボット機能も提供。
DeepSeek Coder V2は、プログラミングと数学のタスクにおいて高い性能を示すオープンソースのコード言語モデルであり、他のモデルを凌駕していることが示されています。DeepSeekの成長は、中国のAI分野において注目を集めており、DeepSeek Coder V2のMITライセンスにより、学術研究や商業利用が制限なく可能となっています。
元記事: https://www.fudzilla.com/news/ai/59209-chinese-come-up-with-a-new-deepseek-coder