• Whisperの幻覚偽造は、音声データが十分に記録されている場合でも発生する可能性がある
  • コンピューターサイエンティストによる最近の研究では、Whisperを使用して13,000以上の音声サンプルを転記し、187件の偽造が見つかった
  • 専門家や支持者、元OpenAI従業員らが、AIの規制を検討するよう米国政府に求めている
  • OpenAIは幻覚を軽減する方法を継続的に研究しており、研究者の発見を評価している
  • Whisperの転記ツールはスペルミスや他のエラーを予想しているが、Whisperがこれほど多くのタイプミスをする転記AIは見たことがない
  • 幻覚は、”一時停止、背景音、音楽が流れている”といった場面で発生しやすい

Thoughts in Japanese: 幻覚偽造が音声データの質に関わらず発生する可能性があることは、AIの信頼性に対する重要な懸念を引き起こします。OpenAIがこの問題を解決するための取り組みを行っていることは評価されるべきですが、AI技術の急速な普及に伴うリスクを適切に管理するためには、規制や透明性の向上が必要とされています。

元記事: https://gigazine.net/gsc_news/en/20241027-openai-whisper-hallucination/