- 2023年2月、Googleの人工知能チャットボットBardは、ジェームズ・ウェッブ宇宙望遠鏡が太陽系外の惑星の初めての画像を捉えたと主張しましたが、それは事実ではありませんでした。
- パデュー大学の研究者がOpenAIのChatGPTに500以上のプログラミングの質問をしたところ、半数以上の回答が不正確であることが判明しました。
- 大きなモデルがより複雑な問題に回答するようになると、専門家たちはその能力がほとんどの人間を超えるようになることを懸念しています。
- 2つの大きなモデルによる議論を通じて、より正確な回答を見極めさせることで、判断者(人間または機械)が真実を識別できるという理論が提案されました。
- 最近の研究では、AIディベーターを訓練して勝利させることが、非専門家の判断者が真実を認識する能力をさらに向上させたことが報告されています。
私の考え:
この記事では、大きなモデルがより複雑な質問に回答する際に生じる信頼性の問題に焦点が当てられています。2つのモデルによる議論を通じて真実を見極める手法が提案され、その有効性が実証され始めています。AIシステムが人間の価値観や目標と一致することを確保するために、今後はよりスケーラブルな監督手法が必要とされるでしょう。ディベートを通じた判断方法は、AIの精度を評価するための一歩となる可能性があり、AI安全性における重要な課題の解決に向けた前進であると言えます。
元記事: https://www.quantamagazine.org/debate-may-help-ai-models-converge-on-truth-20241108/