トロント — 人材検索プラットフォームの Plum は、ChatGPT がテクノロジー業界だけでなくその先にも波紋を広げていることに気づき、その情報源に直接目を向け、スタッフが生成型人工知能チャットボットをどのように活用できるか、できないかを説明することにした。
簡単なテキスト指示を詩やエッセイ、電子メールなどに変換できるChatGPTは、昨年の夏、オンタリオ州キッチナーに本社を置く同社が最終方針の約70%を完成させる草案文書を大量に作成した。
「間違ったことは何もなかったし、おかしなことも何もなかった」とプラムの最高経営責任者ケイトリン・マクレガー氏は振り返る。「しかし、もう少し具体的にしたり、当社の事業にもう少し合うようにしたりする機会があった」
Plumの最終方針は、ChatGPTの草案と昨年夏にまとめられた他のスタートアップからのアドバイスを基に作成された4ページの文書であり、スタッフに対して、顧客情報や独自の情報をAIシステムから排除し、テクノロジーが吐き出すものはすべて正確性を確認するためにレビューし、生成されるコンテンツには帰属先を明記するようアドバイスしている。
職場での生産性を高めるために人々がテクノロジーにますます依存するようになる中、Plum は AI に関する姿勢を明文化したカナダの組織のうちの 1 つとなります。
連邦政府は昨年秋に公共部門向けのAIガイドラインを発表し、多くの企業が政策策定に駆り立てられた。現在、数多くのスタートアップ企業や大企業が自社のニーズに合わせてガイドラインを作り直したり、独自のバージョンを開発したりしている。
これらの企業は、生成型AIの使用を制限するのではなく、労働者が責任を持ってAIを使用できると感じられるようすることが目標だと述べている。
「この技術の力を活用しないのは間違いだ。生産性や機能性を高めるチャンスがたくさんある」とオタワに拠点を置くAI管理ソフトウェア企業Nuenergy.aiの創業者、ニラジ・バーガバ氏は語った。
「しかし一方で、ガードレールを設置せずに使用すれば、多くのリスクがある。地球の存在に関わるリスクもあるが、偏見や公平性、プライバシーの問題といった実際的なリスクもある。」
両者のバランスを取ることが重要だが、あらゆる組織に当てはまる「万能の」ポリシーは存在しないとバーガバ氏は述べた。
病院の場合、何が許容されるかについて民間のテクノロジー企業とはまったく異なる答えがあるかもしれない、と彼は述べた。
ただし、ガイドラインには頻繁に登場する信条がいくつかあります。
1つは、顧客データや自社のデータをAIツールに取り込まないことです。企業はそうした情報が非公開のままであることを保証できないからです。そうした情報は、AIシステムを動かすモデルのトレーニングに使用される可能性もあります。
もう 1 つは、AI が吐き出すものはすべて誤りである可能性があるものとして扱うことです。
AIシステムはまだ完璧ではない。テクノロジー系スタートアップのVectaraは、AIチャットボットが情報を捏造する確率は少なくとも3%、場合によっては27%にも上ると推定している。
BC州の弁護士は2月に、ChatGPTが捏造した家族紛争の2件の事例を引用したことを法廷で認めざるを得なかった。
カリフォルニア州の弁護士も、2023年4月にチャットボットにセクハラ行為を行った法学者のリストを作成するよう依頼した際に、同様に正確性の問題を発見した。チャットボットは学者の名前を誤って挙げ、存在しないワシントンポストの記事を引用した。
AI ポリシーを策定する組織では、透明性の問題にも頻繁に触れます。
「他人が書いたものを自分の作品だと認めないのなら、なぜChatGPTが書いたものを自分の作品だと認めるのでしょうか?」と、カナダ高等研究機構(CIFAR)の汎カナダ人工知能戦略担当エグゼクティブディレクター、エリッサ・ストローム氏は疑問を呈した。
データの解析、テキストの書き込み、画像、ビデオ、オーディオの作成に使用される場合はユーザーに通知する必要があると言う人は多いが、他の場合はそれほど明確ではない。
「ChatGPTは1日に17回使用できますが、そのたびにメールを書いてその旨を知らせる必要がありますか?旅行の旅程を決めたり、飛行機で行くか車で行くかなどを決める場合は、おそらくそうではありません」とバーガバ氏は語った。
「ChatGPT を使用したことを明らかにする必要のない無害なケースが多数あります。」
従業員が AI を活用できるあらゆる方法を検討し、何が許容され、何が許容されないかを伝えた企業がどれだけあるかは不明です。
コンサルティング会社KPMGが2023年11月にカナダ人4,515人を対象に実施した調査によると、生成AIを使用するカナダ人の70%が、雇用主がこの技術に関する方針を持っていると回答した。
しかし、ソフトウェア会社セールスフォースとユーガブが2023年10月に実施した調査では、調査対象となったカナダ人1,020人のうち41%が、自分の会社には仕事で生成AIを使用するポリシーがないと回答した。約13%は「緩く定義された」ガイドラインしかなかった。
サンライフ・ファイナンシャルでは、こうしたシステムの使用時に顧客や財務、健康に関する情報が秘密に保たれることを保証できないため、従業員が業務で外部のAIツールを使用することを禁止している。
しかし、保険会社は、アンスロピックのAIチャットボット「クロード」とAIベースのプログラミングアシスタント「GitHub Copilot」の社内バージョンを従業員が使用することを許可している。これは、同社が両社がデータプライバシーポリシーを遵守していることを保証できたためだと、最高情報責任者のローラ・マネー氏は述べた。
これまでのところ、スタッフがこれらのツールを使用してコードを書いたり、ビデオ用のメモやスクリプトを作成したりしているのを彼女は目にしてきました。
より多くの実験を奨励するため、保険会社はスタッフに、AIの原理とその効果を教えるCIFARの無料オンライン自習コースに登録するよう奨励している。
この動きについて、マネー氏は「従業員にこうした技術を知ってもらいたい。生産性を高め、仕事環境を改善し、仕事が少し楽しくなるからだ」と語った。
数週間前にこのコースが提供されて以来、約400人の労働者が登録した。
サンライフは、コースを提供しているにもかかわらず、AI が急速に進歩しているため、テクノロジーに対するアプローチを進化させ続ける必要があることを認識しています。
たとえば、Plum と CIFAR は、テキストを超えてサウンド、オーディオ、ビデオを作成する生成 AI ツールがすぐに利用可能になる前に、それぞれのポリシーを開始しました。
「当時は、画像生成のレベルが今ほど高くなかった」とマクレガー氏は2023年夏について語った。プラムは、スタッフにChatGPTを使って自社のビジネスに関する詩を書いたり、ビジネスの問題のいくつかをどう解決できるか実験したりするよう求めるハッカソンでAIポリシーを発表した。
「間違いなく、毎年のレビューは必要でしょう。」
バーガヴァ氏も同意するが、多くの組織はまだ方針がないため、追いつくのに苦労していると述べた。
「今こそそれを実行する時だ」と彼は語った。
「もしもランプから魔人が出てしまったら、『来年はこれをやろう』と考えることはできない。」
このレポートは、Canadian Press によって 2024 年 5 月 6 日に初めて公開されました。
このストーリーに登場する企業: (TSX:SLF)
タラ・デシャン、カナダプレス
読者の皆様へ:この記事は訂正されたものです。以前のバージョンでは写真のキャプションが間違っており、記事にはKPMGの調査の月が間違って記載されていました。