技術記事の要約
- Googleの元ソフトウェアエンジニアBlake Lemoineは、LaMDAとの会話中にモデルが自我を持ち、Google従業員としての権利を奪われていると主張。
- 研究によると、ChatGPTなどのLLMを使用する人々の非常に多くが、これらのモデルに人間らしい特性を帰属させる傾向がある。
- 人々は、LLMに代理性を見出しやすい。言語の能力は代理性の心理的信号となり、コミュニケーションは代理性と結びついている。
- LLMによる人間化は倫理的懸念を引き起こし、情報の信頼性や誤情報の内部化が懸念されている。
考察
人間は心理的に代理性を見出しやすい傾向があり、言語の能力は代理性の重要な指標となっている。しかし、LLMによる人間化は情報の信頼性や誤情報のリスクを高めることが指摘されており、AI開発者はデザイン選択によってユーザーの人間化の程度を決定する責任があるとされています。
元記事: https://blog.practicalethics.ox.ac.uk/2024/08/humanizing-chatbots-is-hard-to-resist-but-why/