• オックスフォード大学の規制と倫理の専門家が、LLM(Large Language Models)によって生じる新しい害を特定し、民主社会に長期的なリスクをもたらすとして、LLMプロバイダーに新たな法的責務の創設が必要であると指摘
  • 論文「大規模言語モデルは真実を伝える法的義務を持つか?」において、LLMが事実の不正確さ、誤解を招く参照、バイアスのある情報を含む確からしい、役立つ、自信に満ちた応答を生成し、これを「不注意なスピーチ」と定義
  • LLMプロバイダーに真実を伝えるAIモデルの作成を求める新しい法的義務の実現可能性を分析することで、不注意なスピーチの問題に対処することを目的とする
  • 人間のフィードバックやアノテーションなど、真実に基づく出力を前進させるためには関連のない要因によって複雑化される
  • LLMプロバイダーは、モデルを真実に合わせるために、訓練データのオープンさやモデルの制約の説明、事実確認や信頼スコア機能の組み込みなど、さまざまな取り組みを提案

LLMによる「不注意なスピーチ」は、真実を優先するモデルの作成を促進し、公開的な真実のガバナンスに開発を再配置することを目指す提案に関するオックスフォードのアカデミックスは主張

元記事: https://phys.org/news/2024-08-large-language-pose-society-tighter.html