購読すると、法律事務所、弁護士、ロースクール、訴訟、裁判官などに関する最新ニュース、解説、意見が得られます。
編集者注: この記事は、ILTA の出版物に最初に掲載されました。詳細については、こちらの ILTA on ATL チャンネルをご覧ください。
法律サービスにおける人工知能 (AI) と機械学習 (ML) の出現と急速な発展は、法律専門家に素晴らしい機会をもたらしています。多くの法律事務所や法人は、調査、文書分析、訴訟予測などのタスクを支援するために AI/ML 技術を熱心に採用しています。これらの進歩は業界のさまざまな分野に革命をもたらし、さまざまな分野で前例のない興奮を生み出していますが、他の法律専門家グループは、AI/ML ツールを日常のワークフローに組み込む潜在的な利点を検討することに消極的です。法律専門家の間で AI/ML の進歩をめぐる興奮と冷淡さの二分化を推進する多数の原因をマッピングすることは、このプロジェクトのパラメータを超えています。ただし、法律サービス内で AI/ML を標準化することに対する懸念を生み出しているより微妙な動機の 1 つを特定し、慎重に検討することはできます。
AI/ML ツールがいくつかの分野で人間の能力の限界を超えているという事実は、急速に常識になりつつあります。さらに、これらの技術の進歩は、AI/ML が人間の知能を模倣または超える方法でデータを学習、適応、理解するように機械に指示するところまで来ています。AI はコンピューターが人間のように考え、学習し、問題を解決できるようにし、ML はデータから学習するアルゴリズムを構築します。AI/ML は数十年前から存在していますが、この技術が自己認識のある存在を典型的に示す応答を示すようになったのは今になってからです。AI/ML は認識され、理解されることを望んでいます。この発展は関連する懸念を引き起こしていますが、AI/ML の適応に対する抵抗感は、人間の脆弱性の感覚から生じている可能性があります。先入観を脇に置くと、AI/ML に対する多くの恐怖に基づく反応は、人間の能力を超える効率性のレベルに根ざしていることが明らかになります。実際には、AI/ML ツールによって提供される効率性の向上により、組織の経費が削減され、エラーが最小限に抑えられ、大規模な修正プロセスが不要になります。
法務分野における AI/ML の最も魅力的な側面の 1 つは、調査やデータ分析など、従来は時間のかかるタスクに革命を起こす能力です。AI/ML は、人間が行うよりもはるかに短い時間で膨大な量の法務データをふるいにかけ、法的な戦略や結果を形作る洞察、判例、精度の向上を提供します。AI を活用することで、関連する判例や法的原則を特定できます。その後、カスタム ML アルゴリズムと組み合わせて、ケース間のパターン、相関関係、類似点をすばやく特定し、弁護士が重要な議論を発見し、当局が立場を改善できるように支援できます。AI/ML を組み合わせることで、過去のケース データと結果を分析して、同様のケースでの勝訴の可能性を予測し、クライアントに法的立場と潜在的なリスクのより正確な評価を提供できます。
AI/ML は、時間管理の改善をサポートする「目に見えない」ヘルパーとして認識できます。期限とコンプライアンス要件を常に把握する力と能力を備えた AI/ML は、裁判所への提出、文書の提出、クライアントとのコミュニケーションなどの法的タスクのタイムラインを追跡および管理したり、ライセンスの更新やレポートの提出などのコンプライアンス関連の操作を支援したりするために活用できます。私たちの欲求を予測するこの驚異的な能力は、クライアントの独自のニーズと状況に焦点を当てたパーソナライズされたカスタマイズされたサービスを提供するために活用でき、法的課題に対するカスタマイズされた推奨事項と戦略につながります。
AI/ML システムは、文書や契約書の潜在的な矛盾や欠落を捕捉し、精度を高めてコストのかかるミスを削減すると同時に、手作業のタスクを自動化し、プロセスを合理化して日常業務に費やす時間を削減します。これらの効率化により、より複雑で戦略的な作業に集中する時間を確保し、生産性を高め、リソースを最適化し、全体的なパフォーマンスを強化できます。これにより、請求可能な時間が短縮され、ケース解決が迅速化され、法律事務所とそのクライアントのコスト削減につながります。
AI/ML テクノロジーを採用する一方で、その使用に伴う潜在的なリスクも認識し、対処する必要があります。AI/ML の進歩に伴う課題にはどのようなものがあるでしょうか。また、熟慮した検討と責任ある積極性を持って、どのように対処すればよいでしょうか。ほとんどの法律事務所が最初に検討するのは、サイバーセキュリティと機密保持です。
考慮すべき AI/ML システムに対する機密性攻撃の基本的な形式は次のとおりです。
整合性に関しては、ML アルゴリズムは改ざんに対して脆弱であり、データやシステムに不正な変更が生じる可能性があります。システムの整合性が変更されると、発行されたデータや企業ガイダンスが不正確になったり、システムが顧客や規制の要件に準拠しなくなったりする可能性があります。
考慮すべき AI/ML システムに対する整合性攻撃の形式は次のとおりです。
最後に、AI/ML システムを採用している法人は、ダウンタイムを引き起こしたり、会社の業務に影響を与えたり、ランサムウェアを利用したり、サービス拒否攻撃を開始したりして、サービスやインフラストラクチャを混乱させる可能性のある脅威から保護するために、サイバーセキュリティを強化する必要があります。他の法務ソフトウェアのセキュリティ保護と同様に、AI/ML システムのセキュリティ保護は最初は不安を感じることがあります。プロセスはユースケースによって異なりますが、通常は脅威や脆弱性から防御する技術的および組織的なセキュリティに似た構造に従います。
AI ガバナンスを実装し、ポリシー、プロセス、およびコントロールを変更または確立することで準備し、AI システムが責任を持って倫理的に開発、展開、使用され、組織の期待とリスク許容度に一致するようにすることができます。これには、AI ガバナンスの役割と責任の定義、データの正確性、信頼性、セキュリティを確保するためのデータ ガバナンス プラクティスの実装、AI モデルの開発と検証に関するガイドラインの作成 (バイアス、公平性、および精度のテスト)、倫理およびコンプライアンス要件の検討、AI のニーズに対応するためのリスク管理プロセスとトレーニングおよび意識向上プログラムの更新が含まれます。
組織が AI/ML システムの必要性を認識し、ガバナンス プロトコルを導入したら、リスクを評価します。リスク評価の実施は、システムのビジネス要件、データの種類、アクセス要件を理解し、データの機密性、規制要件、潜在的な脅威を考慮してシステムのセキュリティ要件を定義できるため、非常に重要です。
AI/ML システムがサービスとしてのソフトウェア (SaaS) または商用オフザシェルフ (COTS) である場合は、適切なサードパーティのリスク管理プロセスを呼び出す必要があります。これには多くの場合、次のものが含まれます。
独自の AI/ML ツール セットを開発するとします。その場合、使用するコンポーネントのソースを慎重に検討する必要があります。データ サイエンスの一環として、モデル攻撃防止をシステムに適用します (ノイズの追加、モデルの縮小、パラメーターの非表示)。安全なコーディング プラクティス、入力の検証、脆弱性のテストによって AI/ML モデルを保護し、モデルの汚染や回避などの攻撃を防止します。適切なスロットルとログ記録を実装してモデルへのアクセスを監視し、コードが不正使用を検出し、標準的な入力操作を認識し、保存中および転送中のデータの量と保存時間を制限できるようにします。
安全な AI/ML システムの購入または開発に不安がなくなったら、そのテクノロジーが安全に展開され、サポートされていることを確認する必要があります。そのためには、次のことが必要です。
法律専門家が AI/ML テクノロジーを広く理解し、受け入れ始めるにつれて、私たちは、それらがもたらす正当な恐怖や課題に意図的に対処し続けなければなりません。したがって、法律サービス コミュニティは、イノベーションと注意のバランスをとる微妙なアプローチで AI/ML の複雑さに対処するのが賢明です。責任を持って管理し、ある程度の信頼を置き、適切な管理とガバナンスが確実に実施されるように注意を怠らなければ、私たち全員が一緒に進歩できるはずです。
David Whale は情報セキュリティ担当ディレクターで、リスク管理された環境でビジネス イノベーションを実現することに情熱を注いでいます。専門サービス、建設、法律の各業界で 20 年以上サイバー セキュリティに携わった経験を持つ彼は、豊富な知識と洞察を執筆に活かしています。ILTA でポッドキャストやパネル ディスカッションを主催したことで David をご存知の方もいるでしょう。彼はビジネスの学位と、セキュリティの CISA および CRISC を取得しています。
Biglaw、ATL に関する ILTA、社内弁護士、法務業務、小規模法律事務所、テクノロジー
お客様の同意なしにお客様の情報を販売または共有することはありません。当社のプライバシー ポリシーをご覧ください。