- Generative AIの支持者は、この技術が人間の労働者をより生産的にすることができると主張しています。
- コーディング管理ソフトウェア企業Uplevelによる最近の報告書によると、GitHubの人気のあるAIプログラミングアシスタントCopilotを使用するエンジニアは効率の向上をほとんど経験しないと示されています。
- 研究によると、Copilotの使用はコードに41%の誤りを誤って入力する結果となります。
- Uplevelは、Copilotにアクセスする前の3ヶ月間と、その後の3ヶ月間に800人の開発者のパフォーマンスを追跡しました。
- パフォーマンスを測定するために、Uplevelは開発者がコードをリポジトリにマージするまでの時間(プルリクエストとしても知られる)や通過するリクエストの数を調査しました。
- Uplevelは、「Copilotはサンプル内の開発者に助けも害も与えず、コーディングのスピードも向上しなかった」と結論しました。
- Copilotは大規模な言語モデル(LLM)を中心に展開されており、しばしば虚偽の情報を想像し、不正確なデータを出力する傾向があります。
- AI生成のコードの使用が実際により多くの作業をもたらす可能性があることに関する懸念が高まっています。
私の考え:この記事から、Generative AIがコーディングの生産性を向上させるという期待と実際の効果にはギャップがあることが示されています。大規模な言語モデルを使用したAI生成コードは、誤った情報を生成する可能性があり、開発者にとって問題を引き起こす可能性があります。そのため、AI生成コードの利用には慎重さが求められると考えられます。
元記事: https://futurism.com/the-byte/ai-programming-assistants-code-error