- GitHubのAIプログラミングアシスタントCopilotを使用するエンジニアは、効率の向上を経験せず
- Uplevelによる最近の報告書によると、Copilotの使用は誤りが41%増加する可能性あり
- Uplevelは800人の開発者のパフォーマンスを3ヶ月追跡し、Copilotを使い始めた後もう一度3ヶ月追跡
- Copilotは開発者の助けにもならず、損傷も与えず、コーディングスピードも上昇しないことが示された
- GitHub Copilotは大規模言語モデル(LLM)を中心にしており、誤ったデータを出力することがある
- 大規模言語モデルは「幻覚パッケージ」を生成することがあり、AI生成コードの理解とデバッグが難しくなる可能性あり
GitHubのCopilotを使用しても効率が向上せず、誤りの増加が懸念されていることが示されました。大規模言語モデルによるAI生成コードは幻覚パッケージを生成し、デバッグが難しくなる可能性があるため、AIツールの使用による作業量増加が懸念されています。
元記事: https://futurism.com/the-byte/ai-programming-assistants-code-error