• 大量の人々がChatGPT、Gemini、LLaMA、Copilot、ClaudeなどのAI駆動の大規模言語モデル(LLM)プログラムを使用しており、執筆の向上、ストーリーの事実確認、コンピューターコードの作成などに活用している。
  • LLMを使用する際のプライバシーやセキュリティの向上に関する研究調査によると、これらのプログラムはコードやデータのセキュリティを向上させる可能性があり、しかし十分な監査を受けていないことから注意して使用すべきである。
  • LLMはデータの価値を過小評価する傾向があり、ユーザーが入力するデータには注意が必要であり、データ中毒などの手法を用いてLLMの出力を操作することも懸念されている。
  • LLMのジェイルブレイクは重要な新しいセキュリティ懸念であり、これを防ぐためには徹底したリスク評価とアクセス制御の強化が必要である。
  • 伝統的なソフトウェアと同様に、LLMもデータセキュリティに関するベストプラクティスを適用することで情報を保護することができる。

LLMのセキュリティ強化には、ユーザーレベルでのリスク評価、許容される使用ケースの明確化、アクセス制御の堅固な設計などが必要であり、技術的な保護措置も重要である。

元記事: https://newsblog.drexel.edu/2024/06/25/qa-have-ai-chatbots-earned-our-trust/