オックスフォード・インターネット研究所の規制と倫理の専門家は、LLM(Large Language Models)によって生み出された新しい害悪を特定し、これが民主主義社会に長期的なリスクをもたらすと考え、LLM提供業者に新たな法的義務を設ける必要があると指摘しています。

  • LLMは、科学、教育、社会に長期的な害悪をもたらすと考えられる「不注意なスピーチ」という現象を引き起こす。
  • LLM提供業者に真実を伝えるという新たな法的義務の創設を提唱。
  • 「不注意なスピーチ」は、人間のバイアスによるフィードバックや断定的な出力の生成を訓練する注釈など、真実に基づいた出力を進展させる要素によって複雑化する。
  • LLM提供業者はモデルを真実に合わせるべきであり、出力の真実性を優先する法的義務の創設を提案。
  • 提案には、トレーニングデータの公開、モデルの制限の説明、人間のフィードバックからの強化学習やプロンプト制約によるモデルの微調整の説明、出力へのファクトチェックや信頼スコアリング機能の組み込みが含まれる。

オックスフォードの研究者たちは、LLMにおける真実の公共ガバナンスに向けて、モデルを改善すべきだと主張しています。

元記事: https://www.ox.ac.uk/news/2024-08-07-large-language-models-pose-risk-society-and-need-tighter-regulation-say-oxford