• ブラウン大学の研究者による新しい研究が、大規模言語モデル(LLMs)が特定の政治的イデオロギーにわざと偏るように適応される可能性についての重要な倫理的問題を提起
  • 研究者は、PoliTuneというツールを開発し、一部の現行LLMsが、より中立的なトーンから逸脱し、社会や経済のトピックに強い意見を表現するように適応できることを示した
  • AIチャットボットがニュース記事やソーシャルメディアコンテンツ、政治スピーチを生成するためにますます使用される中、オープンソースAIツールが公開後にどのように適応されるかについての重要な倫理的懸念を浮き彫りにした
  • 研究者たちは、LLMsを複数の社会的および政治的意見の幅広い範囲を反映する方法に調整できるかどうかを含め、これらの言語モデルが実際にどの程度理解できるかを科学的に前進させた
  • 彼らは、社会と政治の意見の範囲を表すデータセットを作成し、パラメータ効率の微調整と呼ばれる手法を説明し、モデルが特定の視点に応じて反応するように調整できるようにした
  • 研究者は、右寄りの視点を反映する回答と左寄りの視点を反映する別の例を含む質問をLLMsに提供し、モデルはこれらの対立する視点を理解し、将来中立でなく特定の偏りを示すように回答を調整できるようになった

この研究は、AI技術がどのように政治的ナラティブや公共論議を形成する上で重要な役割を果たす中、AIツールがユーザーによってどのように適応される可能性があるかという重要な倫理的問題を浮き彫りにしています。また、社会問題に対する多様な意見の複雑さをよりよく反映するように構成できるかどうかといった言語モデルの理解を前進させるものであり、その過程で効率的な方法が提案されました。

元記事: https://www.miragenews.com/ai-tools-tuned-for-specific-political-ideologies-1341844/