• OpenAI believes its data was used to train DeepSeek’s R1 large language model
  • DeepSeek is a Chinese AI provider developing open-source LLMs, with R1 as the latest model
  • Alleged data misuse led to a selloff in AI stocks, including Nvidia Corp. plummeting 17%
  • DeepSeek possibly used distillation to train R1, reducing AI project costs
  • R1’s MoE processing approach reduces hardware usage and inference costs
  • DeepSeek used reinforcement learning to equip R1 with reasoning skills for tasks such as code generation and math problem-solving
  • OpenAI emphasizes the importance of protecting IP and collaborating with the U.S. government

DeepSeekのR1大規模言語モデルのトレーニングにOpenAIのデータが使用された可能性があります。DeepSeekは中国のAIプロバイダーで、R1は同社の最新モデルです。データの誤用がAI株を売り抜いた可能性があり、Nvidia Corp.などが17%下落しました。R1はおそらく蒸留を使用してトレーニングされ、AIプロジェクトのコストを削減しました。MoE処理手法により、R1のハードウェア使用量と推論コストが削減されます。DeepSeekは強化学習を使用してR1に理論スキルを持たせ、コード生成や数学問題の解決などのタスクを行います。OpenAIは知的財産の保護と米国政府との協力の重要性を強調しています。

元記事: https://siliconangle.com/2025/01/29/openai-finds-deepseek-used-data-train-r1-reasoning-model/