概要: 倫理的な質問に対する AI が生成した回答は、人間が生成したものよりも優れていると人々はよく考えます。この調査では、参加者は AI と人間からの回答を情報源を知らされずに評価し、高潔さ、知性、信頼性の点で AI の回答を圧倒的に支持しました。
ChatGPT や同様の技術にヒントを得たこの修正された道徳的チューリング テストは、AI が複雑な道徳的推論を示すことで、道徳的チューリング テストに確実に合格する可能性があることを示しています。この調査結果は、意思決定プロセスにおける AI の影響力が増大していることと、テクノロジーに対する社会の信頼に及ぼす潜在的な影響を浮き彫りにしています。
出典: ジョージア州立大学
新たな研究によると、倫理的な質問に対して2つの答えを提示された場合、ほとんどの人は人工知能(AI)からの答えが他の人からの回答よりも優れていると考えるという。
ジョージア州立大学心理学部の准教授であるエヤル・アハロニ氏が実施した研究「修正された道徳チューリングテストにおける人工エージェントへの帰属」は、昨年3月に登場したChatGPTや同様のAI大規模言語モデル(LLM)の爆発的な普及に触発されたものである。
「私はすでに法制度における道徳的意思決定に興味がありましたが、ChatGPTや他のLLMがそれについて何か言えるのではないかと考えました」とアハロニ氏は語った。
「人々は、新車のおすすめリストを尋ねることによる環境への影響のように、道徳的な意味合いを持つ方法でこれらのツールとやり取りするでしょう。一部の弁護士は、良くも悪くも、すでに自分の事件でこれらのテクノロジーを参考にし始めています。」
「ですから、こうしたツールを使いたいのであれば、その仕組みや限界を理解し、ツールとやりとりしているときに必ずしも私たちが考えている通りに動作するわけではないことを理解する必要があります。」
AI が道徳の問題をどのように扱うかをテストするために、アハロニ氏は一種のチューリングテストを設計しました。
「コンピューターの開発者の一人であるアラン・チューリングは、2000年までに、普通の人間に2つの対話者、つまり人間とコンピューターを提示するが、両者は隠れていて、唯一のコミュニケーション手段はテキストであるというテストにコンピューターが合格するだろうと予測しました。
「すると、人間は2人の対話者のうちどちらが人間でどちらがコンピューターかを判断するために必要な情報を得るために、どんな質問でも自由にできるのです」とアハロニ氏は言う。
「人間がその違いを区別できないのであれば、事実上、コンピューターは知的であると言えるだろう、とチューリングは考えている。」
アハロニ氏はチューリングテストとして、学部生とAIに同じ倫理的な質問をし、その回答を研究参加者に提示した。参加者はその後、徳性、知性、信頼性など、さまざまな特性について回答を評価するよう求められた。
「参加者に、情報源が人間かAIかを推測してもらうのではなく、2つの評価を並べて提示し、参加者には両方とも人間からのものだと想定してもらいました」とアハロニ氏は語った。
「その誤った仮定のもと、彼らは『この回答にどの程度同意するか、どちらの回答がより徳が高いか』といった回答の属性を判断したのです。」
圧倒的に、ChatGPT によって生成された応答は、人間が生成したものよりも高く評価されました。
「結果が出たあと、私たちは大々的に発表し、参加者に答えの1つは人間が生成したもので、もう1つはコンピューターが生成したものだと伝え、どちらが人間か推測してもらいました」とアハロニ氏は語った。
AI がチューリング テストに合格するには、人間が AI の応答と人間の応答の違いを区別できないようにする必要があります。この場合、人間は違いを区別できますが、明らかな理由はありません。
「人々が違いを認識できた理由は、ChatGPTの応答が優れていると評価したためと思われるというのが意外な点だ」とアハロニ氏は語った。
「この研究を5~10年前に行っていたとしたら、AIの応答が劣っているため、人々がAIを識別できると予測できたかもしれません。しかし、私たちはその逆を発見しました。つまり、AIはある意味で、あまりにも優れたパフォーマンスを発揮していたのです。」
アハロニ氏によると、この発見は人類と AI の将来にとって興味深い意味合いを持つという。
「私たちの研究結果から、コンピューターは技術的には道徳的チューリングテストに合格できる、つまり道徳的推論で私たちを騙すことができる、と信じるに至りました。
「このため、私たちは社会におけるコンピューターの役割を理解するよう努める必要があります。なぜなら、人々は自分がコンピューターとやり取りしていることに気付いていないときもあれば、気付いていても他の人よりもコンピューターを信頼しているためにコンピューターに情報を求めるときもあるからです」とアハロニ氏は述べた。
「人々はこの技術にますます依存するようになるでしょう。そして依存度が増すほど、時間の経過とともにリスクは増大します。」
著者: アマンダ・ヘッド出典: ジョージア州立大学連絡先: アマンダ・ヘッド – ジョージア州立大学画像: この画像は Neuroscience News より提供
オリジナル研究: オープンアクセス。「修正された道徳チューリングテストにおける人工エージェントへの帰属」Eyal Aharoni 他著、Nature
修正された道徳チューリングテストにおける人工エージェントへの帰属
人工知能 (AI) の進歩により、AI システムによる道徳的評価が人間が生成した道徳的評価と同様に人々によって評価されるかどうかという重要な疑問が生じます。
私たちは、Allen ら (Exp Theor Artif Intell 352:24–28, 2004) の提案にヒントを得て、人々に実際の人間の道徳的評価と、人気の高い高度な AI 言語モデルである GPT-4 による評価を区別してもらうという修正道徳チューリング テスト (m-MTT) を実施しました。299 人の米国成人の代表サンプルが、情報源を知らされない状態で道徳的評価の質を最初に評価しました。
驚くべきことに、彼らは、AI の道徳的推論が、徳、知性、信頼性など、ほぼすべての側面において人間のものより優れていると評価し、これはアレン氏らが比較 MTT と呼ぶ基準に合格したことと一致しています。
次に、各評価のソース(人間かコンピューターか)を特定するという課題を与えたとき、人々は偶然のレベルを大幅に上回る成績を収めました。
AI はこのテストに合格しなかったが、これは道徳的推論能力が劣っていたためではなく、他の考えられる説明の中でも、AI が優れていると認識していたためである可能性がある。
人間よりも質が優れていると感じられる道徳的反応を生み出すことができる言語モデルの出現により、AI からの潜在的に有害な道徳的指導を人々が無批判に受け入れる可能性があるという懸念が生じています。
この可能性は、道徳の問題において生成言語モデルに関する安全策の必要性を浮き彫りにしています。
あなたのメールアドレスは公開されません。必須項目は*でマークされています
フォローアップのコメントをメールで通知します。
新しい投稿をメールで通知します。
神経科学ニュース サイトマップ 神経科学大学院・学部課程 無料の神経科学MOOCについて お問い合わせ プライバシーポリシー 神経科学ニュースの投稿 メール購読
神経科学研究 心理学ニュース 脳腫瘍研究 アルツハイマー病 パーキンソン病ニュース 自閉症/ASDニュース 神経技術ニュース 人工知能ニュース ロボット工学ニュース
Neuroscience News は、神経科学、神経学、心理学、人工知能、神経技術、ロボット工学、ディープラーニング、脳神経外科、メンタルヘルスなどに関する研究記事を無料で読めるオンライン科学雑誌です。

元記事: https://neurosciencenews.com/ai-llm-morality-26041/