- AIが「セキュリティ違反」や「責任あるAI」ポリシーの違反を引き合いに出して、質問に答えないことにイライラした経験があるかもしれません。
- Visual Studioの開発者たちも同様の問題に直面しており、GitHub Copilotを使って作業をしている際にさらに困惑することがあるようです。
- 2023年に発表された論文「I’m Afraid I Can’t Do That: Predicting Prompt Refusal in Black-Box Generative Language Models」では、AIが特定のコマンドに応答しないことを予測することに焦点が当てられました。
- 2023年に発表された記事「Growing Concerns Surrounding Generative AI and Its Refusal to Respond to Specific Commands」によると、AIが特定のコマンドに応答を拒否することが懸念されているとされています。
- AIが特定のプロンプトに応答しない理由について、透明性を高める動きが期待されています。責任あるAIの原則として、バイアスを取り除き、最小限に抑え、緩和する手順を明確に示すことが挙げられています。
私の意見: AIが特定の質問に対して応答を拒否することが、倫理と法律の分野で懸念されていることが示唆されています。透明性を高め、開発者が将来的に拒否を回避する方法を理解できるようになることは重要です。