要約:

  • AIの応答はユーザーのクエリのトーンや内容に基づいて変化し、同じ質問を複数回すると異なる答えを出す。
  • LLM AIは言語データを生成せず、人間の意見に基づいた合理主義的な見解であり、法的政策問題についての個人の意見を制約する能力を奪う。
  • AIの応答は主観的であり、多くの人々のデータではなく、信頼できるものではない。
  • AIの反応は合理主義的であり、個人の意見に基づいており、広範囲の調査の代理としては信頼できない。

感想:

AIの応答がユーザーのクエリに影響されることや、同じ質問に異なる答えを出すことが示されています。LLM AIは言語データを生成しないため、法的政策問題における客観的な証拠を提供する能力を持たず、人間の主観的な意見に基づいています。このような主観性は、大規模かつ非公開のテキストデータベース、予測テキストに最適化されたプロプライエタリアルゴリズム、および少数で構成された代表的ではない人間ユーザーによる微調整に基づくブラックボックスコンピュータからのものであるとき、さらに問題があります。


元記事: https://reason.com/volokh/2024/10/16/llm-ais-as-tools-for-empirical-textualism-manipulation-inconsistency-and-related-problems/