• LLMベースのAIは、’mammal’の’m’や’hippopotamus’の’p’を数える際に誤りを com/ cometer することがある。
  • Strawberry問題はLLMの特性に起因する。
  • 高性能なLLMのほとんどはTransformerという深層学習モデルに基づいて構築されており、入力テキストをトークン化して数値表現に変換。
  • Transformerアーキテクチャでは、単語をトークン化して入力を受け取るため、単語をアルファベット単位に分割することが困難。
  • Jog氏は、LLMの問題を避ける方法として、ユーザーに通常の文章ではなくプログラミング言語コードを使用するように提案。
  • ChatGPTはPythonのcount関数を使用して正しい数値 ‘Output = 3’ を返答。
  • LLMはトークンパターンマッチング予測アルゴリズムであり、理解や推論が可能な ‘知能’ ではない。
  • AIが日常生活により統合されるにつれて、その限界を認識して責任を持って使用し、現実的な期待を持つことが重要。

自然言語処理技術の進歩は素晴らしいが、LLMがアルファベットの単位に言葉を分解することに難しさを抱えていることが明らかになりました。このような限界を認識することは、AIを適切に活用し、現実的な期待を持つ上で重要です。Jog氏の提案するプログラミング言語コードの使用は、AIとのコミュニケーションにおいて有効な方法であるようです。

元記事: https://gigazine.net/gsc_news/en/20241019-strawberrry-problem/