2022年にChatGPTが発売されて以来、企業は生成AIテクノロジーを業務に導入しようと競い合っています。
経営幹部は、AI が生産性を向上させ、データを分析し、雑務を削減することに期待を寄せていると述べています。
マイクロソフトとLinkedInが2月から3月にかけてフルタイム労働者31,000人を対象に調査した「2024年仕事のトレンド」レポートによると、ビジネスリーダーの5人に4人近くが、自社が競争力を維持するためにテクノロジーを導入する必要があると考えている。
しかし、職場に AI を導入すると、評判、財務、法的損害などのリスクも生じます。リスクに対処する上での課題は、リスクが曖昧なことであり、多くの企業がリスクを特定して測定する方法をまだ理解しようとしています。
責任を持って実行される AI プログラムには、ガバナンス、データ プライバシー、倫理、信頼と安全性に関する戦略が含まれている必要がありますが、リスクを研究する専門家は、これらのプログラムがイノベーションに追いついていないと述べています。
職場で責任を持ってAIを活用する取り組みは「本来あるべきスピードに程遠い」とボストンコンサルティンググループのマネージングディレクター兼シニアパートナーのタッド・ローズランド氏はBusiness Insiderに語った。BCGによると、こうしたプログラムには多額の投資と、導入までに最低2年かかることが多いという。
これは大きな投資と時間の投入であり、企業のリーダーたちは、生産性を高める方法で AI を迅速に開発するためのリソースの割り当てに重点を置いているようです。
「優れたリスク管理能力を確立するには、多大なリソースと専門知識が必要ですが、今日ではすべての企業がそれを提供できるわけではありませんし、利用できるわけでもありません」と研究者で政策アナリストのナンジラ・サム氏はMITスローン・マネジメント・レビューに語った。同氏はさらに、「AIガバナンスとリスクの専門家に対する需要は供給を上回っている」と付け加えた。
企業のAI規制遵守を支援するガバナンスプラットフォーム、Credo AIの創設者ナヴリナ・シン氏によると、投資家はこうしたプログラムのためのツールやリソースへの資金提供においてより重要な役割を果たす必要があるという。スタンフォード大学人間中心人工知能研究所の報告書によると、生成型AIのスタートアップへの資金は2023年に252億ドルに達するが、責任あるAIに注力する企業にどれだけの資金が投入されたかは不明だ。
「ベンチャーキャピタルの環境は、AIガバナンスよりもAIイノベーションに偏った焦点を当てていることも反映している」とシン氏はBusiness Insiderにメールで語った。「責任を持ってAIを大規模かつ迅速に導入するには、倫理的な枠組み、インフラ、ツールに同等の重点を置き、すべてのセクターで持続可能で責任あるAI統合を確保する必要がある」
このギャップを埋めるための立法努力が進められている。3月にEUは人工知能法を承認した。同法はAIアプリケーションのリスクを3つのカテゴリーに分類し、許容できないリスクを伴うものを禁止する。一方、バイデン政権は10月に包括的な大統領令に署名し、人工知能モデルを開発する大手テクノロジー企業にさらなる透明性を求めている。
しかし、AI の革新のスピードを考えると、現時点では政府の規制だけでは企業が自らを守るのに十分ではないかもしれません。
「AIの取り組みが実用化される前に中止される、あるいはさらに悪いことに、実用化された場合に予期せぬ社会的リスク、評判の失墜、規制上の複雑さをもたらす失敗につながる可能性がある、重大な責任不足のリスクがある」とシン氏は述べた。