要約:
- OpenAIの研究者が新しいAIモデルであるCriticGPTを発表。
- CriticGPTはChatGPTが生成したコードの間違いを特定することを目的としており、人間のトレーナーが大規模言語モデル(LLM)の出力をより正確にするのを支援する。
- CriticGPTはプログラミングコードを分析し、潜在的なエラーを指摘することで、人間が見逃すかもしれない間違いを見つけやすくする。
- CriticGPTの批評は、人間の批評よりも自然発生的なLLMエラーの場合において、63%のケースでアノテーターに好まれた。
- CriticGPTはコードレビューだけでなく、非コードタスクでも誤りを特定する能力を示し、複数の部分にわたるエラーを見つけることが課題とされている。
- OpenAIはCriticGPTのようなモデルをRLHFラベリングパイプラインに統合する予定であり、ヒューマントレーナーにAI支援を提供することで、LLMシステムの出力を評価するためのツールを開発する一歩としている。
考察:
この研究では、CriticGPTという新しいAIモデルがコードの間違いを特定するために有用であることが示されています。特に、人間のトレーナーが大規模な言語モデルの出力をより正確にするための支援を提供する点で注目に値します。CriticGPTは、コードレビューだけでなく非コードタスクにも適用可能であり、人間が見逃す可能性のある微妙なエラーを見つける能力を持っているようです。ただし、モデルにはまだ制限があり、将来のAIシステムが取り組む可能性のあるより長く複雑なタスクを評価する準備が不十分かもしれません。人間の評価者がAIの支援を受けていても、非常に複雑なタスクや回答は依然として課題であることに注意が必要です。