• DeepSeekは、DeepSeek Coder V2をリリースし、オープンソースの専門家集合(MoE)コード言語モデルを提供
  • DeepSeek Coder V2はDeepSeek-V2に基づき、コーディングと数学のタスクに優れ、300以上のプログラミング言語をサポート
  • DeepSeek Coder V2は、GPT-4 Turbo、Claude 3 Opus、Gemini 1.5 Proなどのクローズドソースモデルを凌駕し、初のオープンモデルとなった
  • DeepSeek Coder V2は一般的な推論と言語能力においても優れたパフォーマンスを維持
  • DeepSeekの使命は、好奇心を持ってAGI(人工汎用知能)の謎を解明すること
  • DeepSeek Coder V2は、言語サポートを338に拡張し、コンテキストウィンドウサイズを128Kに拡大している
  • DeepSeek Coder V2は、MBPP+、HumanEval、Aider、MATH、GSM8Kなどのベンチマークで高いスコアを獲得
  • DeepSeek Coder V2は、一般的な推論と言語理解のタスクでも優れたパフォーマンスを発揮
  • DeepSeek Coder V2は、MITライセンスのもとで提供され、研究や商業利用が可能
  • DeepSeek Coder V2は、Hugging Faceを通じて異なるサイズのモデルをダウンロードできる
  • DeepSeekは、DeepSeek Coder V2をチャットボットを介して利用できるようにも提供

DeepSeek Coder V2はオープンモデルとして高い性能を示し、AGIの解明に向けて貢献している。MITライセンスの下で提供されることで、研究や商業利用の幅広い可能性がある。DeepSeekのモデルは、コーディングや数学のタスクに優れるだけでなく、一般的な言語理解のタスクでも十分なパフォーマンスを発揮しており、クローズドソースモデルに追いつこうとしている。

元記事: https://www.globalvillagespace.com/tech/deepseek-releases-open-source-deepseek-coder-v2-an-ai-code-language-model-supporting-300-programming-languages/