要約:
- LLM(Large Language Models)は認知課題において、人間と似たようなパフォーマンスを示し、合理的な基準から逸脱した判断や意思決定をしばしば行う。
- LLMは確率判断や算術操作課題において、人間らしいバイアスやエラーを示す。これらの類似点は、LLMを人間の認知のモデルとして使用する可能性を示唆している。
- Princeton大学とWarwick大学の研究者は、Arithmetic-GPTというLLMを、人間の選択データセットで微調整することで、人間の行動を予測する精度を向上させている。
- Arithmetic-GPTは生態学的に妥当な算術データセットで事前学習され、人間の意思決定を正確に予測することが示されている。
- 研究結果は、Arithmetic-GPTが人間の意思決定タスクにおいて、他の伝統的な認知モデルや一部の先進的なLLMを上回ることを示し、10倍交差検証による堅牢性も確認されている。
考察:
LLMを人間の認知モデルとして活用することで、人間の行動を予測する精度を向上させる可能性があることが示されています。特に、Arithmetic-GPTのようなLLMは、人間の意思決定タスクにおいて有力なモデルとなり得ることが示唆されています。この研究は、LLMを認知モデルとして活用する際の課題を明確にし、合成データセットと神経活動パターンの活用を通じて、LLMの堅牢性を確認しています。