要約:
- 米陸軍のCIOであるLeonel Garcigaは、新しい方針ガイドラインを発表し、生成型人工知能と大規模言語モデルの開発、展開、利用に関する方針を詳細に記載した。
- 文書は、既存の法的およびセキュリティ規制に準拠し、機密および分類データの処理のための必要な承認を取得し、どのシステムが生成型AIソフトウェアに依存しているかを利用者が効果的に判断できるようにするよう、生成型AI開発者およびシステム所有者に指示している。
- 開発者はまた、トレーニングデータソースを文書化し、ソフトウェア制御環境をテストし、生成型AIアプリケーションが国防情報ネットワーク内で運用するための承認を取得する必要がある。
- 米陸軍のコマンドは、これらのアプリケーションの使用を禁止するのではなく、生成型AIツールのリスクと利点の両方を評価する適切なプロセスを開発するよう奨励されている。
- コマンド開発者、システム所有者、ユーザーは、生成型AIソフトウェアのために適切なリスク評価フレームワークを適用する必要がある。
考察:
米陸軍が生成型人工知能と大規模言語モデルの使用に関する方針を整備することは重要です。セキュリティと機密情報に関する適切な取り扱いが求められる中、リスクと利点を評価し、適切なプロセスを確立することは、安全性と効率性の向上につながるでしょう。