• バース大学とドイツのダルムシュタット工科大学による最近の研究によると、ChatGPTなどの大規模言語モデル(LLMs)は人類に対する存在の脅威を与えないと結論づけられた。
  • 研究は、自然言語処理に関する主要な国際会議である2024年のAssociation for Computational Linguisticsで発表された。
  • LLMsは指示に従い、言語の使用に熟達していることを示すが、明示的な指導なしに新しいスキルを独立して学習または獲得することはできない。
  • AIモデルは基本的に制御可能であり、予測可能で安全であると研究では発見された。
  • LLMsは複雑な推論能力を獲得することは期待されておらず、より洗練された言語を生成し、明示的なプロンプトに対する応答を向上させる可能性はあるが、高度な推論能力を獲得することはない。
  • この結論は、AIがいずれ人間の知能を超え、人類の存続に危険をもたらすという広く懸念されている点に疑問を投げかけている。
  • 研究チームは、LLMsの新たな能力やこれまで遭遇していないタスクを実行する能力をテストするための実験を実施した。
  • たとえば、LLMsは明示的なトレーニングやプログラミングなしに社会的状況に関する質問に回答できる。
  • この能力は以前、モデルが社会的状況について「知っている」ことに起因すると考えられていたが、研究者によってインコンテキストラーニング(ICL)の結果であることが示された。
  • 研究の共著者であるバース大学のコンピュータサイエンティストであるDr. Harish Tayyar Madabushiは、LLMsが推論や計画などの危険な能力を獲得する懸念は根拠がないと述べた。
  • 研究チームのテストは、LLMsに新たな複雑な推論能力がないことを明確に示した。
  • AIの潜在的な誤用に対処することは重要であるが、存在の脅威に基づいて規制を制定するのは時期尚早であると提案された。

この研究は、AIが人間の知能を超える可能性や人類の存続に危険をもたらす可能性についての広く懸念されている問題に対して新たな視点を提供しています。AIモデルが基本的に制御可能であり、予測可能で安全であることが示されたことは、AI技術の将来における発展に対する理解を深める上で重要な知見です。

元記事: https://www.newsbytesapp.com/news/science/ai-language-models-pose-no-existential-threat-to-humanity-study/story