- OpenAI believes its data was used to train DeepSeek’s R1 large language model
- DeepSeek is a Chinese AI provider developing open-source LLMs, with R1 as the latest model
- Alleged data misuse led to a selloff in AI stocks, including Nvidia Corp. plummeting 17%
- DeepSeek possibly used distillation to train R1, reducing AI project costs
- R1’s MoE processing approach reduces hardware usage and inference costs
- DeepSeek used reinforcement learning to equip R1 with reasoning skills for tasks such as code generation and math problem-solving
- OpenAI emphasizes the importance of protecting IP and collaborating with the U.S. government
DeepSeekのR1大規模言語モデルのトレーニングにOpenAIのデータが使用された可能性があります。DeepSeekは中国のAIプロバイダーで、R1は同社の最新モデルです。データの誤用がAI株を売り抜いた可能性があり、Nvidia Corp.などが17%下落しました。R1はおそらく蒸留を使用してトレーニングされ、AIプロジェクトのコストを削減しました。MoE処理手法により、R1のハードウェア使用量と推論コストが削減されます。DeepSeekは強化学習を使用してR1に理論スキルを持たせ、コード生成や数学問題の解決などのタスクを行います。OpenAIは知的財産の保護と米国政府との協力の重要性を強調しています。
元記事: https://siliconangle.com/2025/01/29/openai-finds-deepseek-used-data-train-r1-reasoning-model/