要約:
- 11-20マネー要請ゲームは、2人のプレーヤーが11から20シェケルの金額を要求するゲームで、一方が他方よりも1シェケル少なく要求するとボーナスが発生する。
- このゲームはゲーム理論のレベル-k推論の例であり、人間の思考を模倣する大規模言語モデル(LLMs)が人間と似た行動を示すかどうかが検証された。
- Boston UniversityのYuan Gaoらが行った研究では、LLMsは人間と似た結果を示さず、LLMsを人間の代理として使用する際には極めて慎重であるべきと警告された。
- LLMsの行動は人間とは異なり、言語パターンを使用して次の単語を予測するため、人間の思考とは根本的に異なる。
感想:
LLMsが人間の行動を再現できない理由は、彼らが人間のように推論しないためであり、これは社会科学者にとって警鐘となる結果である。LLMsは人間に似た外見を持つが、行動は根本的に予測不可能に異なると警告されている。
元記事: https://www.discovermagazine.com/mind/how-ai-systems-fail-the-human-test