- OpenAIが最も高度な推論AIモデルo3とo3-miniを導入
- 新しい枠組み「deliberative alignment」を展開し、倫理的推論を統合
- o3モデルは安全性ポリシーを内部参照し、問題を小さな推論ステップに分割
- o3シリーズの開発には合成データを使用、人間生成のトレーニングデータが不足
- 合成データの品質問題に注意喚起、モデルの「Model Autophagy Disorder(MAD)」が懸念
- 合成データの利用によりスケーラビリティと一貫性の課題に対処
- o3モデルはGemini 1.5 FlashやGPT-4o、Claude 3.5 Sonnetよりも優れた結果を示す
- o3モデルは来年展開され、研究者やユーザーによる実世界シナリオでの能力評価が予想
- OpenAIは倫理的AIシステムの構築に向けた基礎的ステップとしてdeliberative alignmentを考えている
この記事では、OpenAIがAIモデルの安全性を向上させる方法について紹介しています。新しい推論AIモデルo3やo3-miniは、倫理的推論を統合する枠組みを使用し、安全性ポリシーを内部参照して問題を解決するという点で他のモデルと異なります。合成データの利用により人間生成のデータ不足の問題に対処し、モデルの安全性を向上させることが期待されています。
元記事: https://www.bankinfosecurity.com/unpacking-openais-latest-approach-to-make-ai-safer-a-27147