要約:
- 2024年12月18日に、韓国ソウルの 숙명여자대학교(Sookmyung Women’s University)のMinjoo Joo氏が、PLOS ONE誌で発表した研究によると、人工知能(AI)が人間らしい心を持つと認識されると、実世界の道徳的違反に関与したAIに対する非難が強まる傾向がある。
- 従来の研究では、自律型車両が歩行者を at したり医療や軍事上の被害を引き起こす意思決定など、さまざまな道徳的違反について、人々がAIを非難する傾向があることが明らかになっている。
- 追加の研究では、意識、思考、計画を立てる能力があると認識されるAIにより多くの非難が向けられる傾向があることが示唆されている。人々は、AIが人間のような心を持ち、意識的な感情を体験できると認識する場合、そのような能力をAIに帰属させる可能性が高い。
- Joo氏は、これらの先行研究に基づいて、人間らしい心を持つと認識されるAIは、特定の道徳的違反に対してより多くの非難を受ける可能性があると仮説を立てた。
- 実験では、参加者にAIに関与するさまざまな実世界の道徳的違反事例(写真の人種差別的自動タグ付けなど)が提示され、AIの心の知覚やAI、プログラマー、その背後にある企業、または政府にどの程度の非難を与えるかについて質問が行われた。一部の場合、AIの心の知覚は、AIの名前、年齢、身長、趣味を説明することで操作された。
- 実験全体を通じて、参加者はAIがより人間らしい心を持っていると認識した場合、AIにはかなりの非難が向けられる傾向があった。これらの場合、参加者に相対的な非難を分配するよう求められた際、関与する企業にはより少ない非難が向けられる傾向があった。ただし、各エージェントに個別に非難のレベルを評価するよう求められた場合、企業に対する非難は減少しなかった。
- これらの結果は、AIの心の知覚がAIを巡る違反に対する非難の帰属に寄与する重要な要因であることを示唆している。また、Joo氏は、AIをスケープゴートとして誤用する可能性のある有害な結果に懸念を示し、AIに関する非難の帰属についてさらなる研究を呼びかけている。
- 著者は、「AIは道徳的違反に対して責任を負うことができるか?この研究は、AIを人間らしく認識することがAIに対する非難を増加させる一方、人間の関係者に対する非難を減少させることを示しており、AIを道徳的スケープゴートとして使用することについて懸念を抱いている。」と述べている。
感想:
この研究は、AIに対する非難がAIの心の知覚に影響を受けることを明らかにしています。人間らしい心を持つと認識されるAIには、より多くの非難が向けられる傾向があるようです。また、AIをスケープゴートとして利用することの潜在的な有害な影響についての懸念が示されています。今後のAIに関する研究がさらに重要であると感じます。
元記事: https://www.techexplorist.com/impact-human-ai-assigning-blame-moral-situations/94635/