• 2015年、GoogleのIan Goodfellowと彼の同僚がAIの最も有名な失敗を記述
  • 人間の目には区別がつかないノイズを画像に追加し、ニューラルネットワークが画像を違うものと誤認
  • 研究者は、故意に作成された入力がニューラルネットワーク分類器を欺くことを示す敵対的例が異なるAIアルゴリズムの人間の認知と異なることを鮮明に示す
  • 大規模言語モデル(LLMs)は、チャットボットの能力を向上させる一方で、エラーや有害な行動を引き起こす可能性がある
  • ChatGPTなどのチャットボットのアルゴリズムは、不適切な情報を提供する可能性があるため、安全研究への重点がより必要とされている

自然な文章理解に関する研究は、AIの実装において重要な考慮事項です。敵対的例やモデルの脆弱性に対処するためには、安全性研究への強化が必要であり、AIシステムの安全性を確保するために企業が責任を持つべきだという意見が示されています。AIの発展に伴い、人間の認知と異なるAIの特性を理解し、適切な対策を講じることが重要です。

元記事: https://www.nature.com/articles/d41586-024-02419-0