2022年11月、OpenAIがChatGPTをリリースしたことで、テクノロジーの世界は一変しました。これは、ほとんど信じられないような機能を備えたAIチャットボットです。何年もの間、AIテクノロジーは周辺で開発されてきましたが、初期のバージョンでは意味不明なテキストやほとんど意味のない写真を生成することができました。全体的にはクールに見えましたが、本質的に有用ではありませんでした。それに比べて、ChatGPTやその後のMicrosoftのBingは、ほぼ完璧な英語で会話でき、これまでに見たことのない方法で情報を調査および検索できるようでした。これは大きな飛躍であり、世界は注目しました。わずか2か月以内に、ChatGPTのユーザーは1億人に達しました。それ以来、ChatGPTは世界を揺るがしてきました。しかし、その大きな名声の高まりとともに、この新しいAI時代が何を意味するのかという不安が高まるにつれて、同等かつ正反対の反発が起こりました。AIは私たちの仕事に取って代わるのでしょうか?AIは「マトリックス」や「ターミネーター」のように暴走するのでしょうか?そして、何かが人間によって書かれたかどうかを再び見分けることができるようになるのでしょうか?結局のところ、AI に関する最悪の懸念のいくつかはまだ現実になっていません。しかし、それは ChatGPT やその競合相手が完全に安全であることを意味するわけではありません。大規模言語モデル (LLM) と呼ばれる彼らの技術には、データのプライバシーから危険な誤情報の拡散、さらには悪意のある行為者による AI の悪用に至るまで、現実的な懸念が数多くあります。そこで、ChatGPT のような AI チャットボットの本当の危険性について説明し、使用時に何が起こるかを知っておいてください。

2022年11月、OpenAIがChatGPTをリリースしたことで、テクノロジーの世界は一変しました。これは、ほとんど信じられないほどの機能を備えたAIチャットボットです。何年もの間、AIテクノロジーは周辺で開発が進められており、初期のバージョンでは意味不明なテキストやほとんど意味のない写真を生成できました。全体的にはクールに見えましたが、本質的に有用ではありませんでした。それに比べて、ChatGPT、そして後にMicrosoftのBingは、ほぼ完璧な英語で会話でき、これまでに見たことのない方法で情報を調査および検索できるようでした。これは大きな飛躍であり、世界が注目しました。わずか2か月以内に、ChatGPTのユーザー数は1億人に達しました。それ以来、ChatGPTは世界を揺るがしてきました。
しかし、その大きな名声の高まりとともに、この新しい AI 時代が何を意味するのかという不安が高まり、それと同等かつ正反対の反発も起こりました。AI は人間の仕事に取って代わるのでしょうか? AI は「マトリックス」や「ターミネーター」のように暴走するのでしょうか? また、何かが人間によって書かれたものかどうかを再び見分けることができるようになるのでしょうか?
結局のところ、AI に関する最悪の懸念のいくつかはまだ現実になっていません。しかし、それは ChatGPT やその競合相手が完全に安全であることを意味するわけではありません。大規模言語モデル (LLM) と呼ばれる彼らの技術には、データのプライバシーから危険な誤情報の拡散、さらには悪意のある行為者による AI の悪用に至るまで、現実的な懸念が数多くあります。そこで、ChatGPT のような AI チャットボットの本当の危険性をここで紹介します。そうすれば、チャットボットを使用するときに何が起こるかがわかります。

ChatGPT やその他の類似のチャットボットがもたらす危険性や安全性の懸念を理解する前に、基本的なレベルでその仕組みを理解する必要があります。ChatGPT は LLM と呼ばれる AI の一種で、書籍から学術論文、インターネット コンテンツなど、あらゆるものにわたる膨大な量のテキストでトレーニングされています。これらのソースを分析してパターンを見つけ、プロンプトを入力すると、トレーニング データから得られた統計的確率に基づいて応答を作成します。たとえば、「2+2 とは何ですか?」と質問すると、ChatGPT はほとんどの人間と同じように数学を理解していません。代わりに、トレーニング中に見たパターンに依存しています。データで「2+2=4」などの方程式を頻繁に検出しているため、「4」と応答する可能性が高くなります。ただし、常にそうであるとは限らないため、2+2 はユタ州に等しいなど、同様に不可解な間違い (または他の不気味なこと) を言うことがあります。 ChatGPT や類似のチャットボットは、人間の推論能力とは程遠く、単に 1 単語ずつ、前の単語の統計的可能性に基づいて書き込んでいます。通常はこれで十分機能しますが、LLM も頻繁に間違えることになり、AI はおそらくその違いを認識できないでしょう。もちろん、AI の仕組みは他にもたくさんありますが、この概要が理解の一助になれば幸いです。

ChatGPT やその他類似のチャットボットがもたらす危険性や安全性の懸念を理解する前に、基本的なレベルでその仕組みを理解する必要があります。ChatGPT は LLM と呼ばれる AI の一種で、書籍から学術論文、インターネット コンテンツまで、あらゆるものにわたる膨大な量のテキストでトレーニングされています。これらのソースを分析してパターンを見つけ、プロンプトを入力すると、トレーニング データから導き出された統計的確率に基づいて応答を作成します。
たとえば、「2+2 とは何ですか?」と尋ねた場合、ChatGPT はほとんどの人間と同じように数学を理解していません。代わりに、トレーニング中に見たパターンに依存します。データ内で「2+2=4」などの方程式を頻繁に検出しているため、「4」と応答する可能性が高くなります。ただし、常にそうであるとは限らないため、2+2 はユタ州に等しいなど、不可解な間違い (またはその他の不気味なこと) を返すことがあります。
ChatGPT や類似のチャットボットは、人間の推論能力からは程遠く、単に 1 単語ずつ、前の単語の統計的可能性に基づいて書き込んでいるだけです。通常はこれで十分機能しますが、LLM も頻繁に間違えることになり、AI はおそらくその違いを認識できないでしょう。
もちろん、AI の仕組みについては他にも多くのことが分かっていますが、この概要が理解の一助になれば幸いです。

LLM 自体の社会的影響について考える前に、それらの多くがインターネット上で動作していることを覚えておくことが重要です。ChatGPT のようなサービスは、通常、デバイス上ではなく、大規模なデータセンターで実行されます。つまり、ChatGPT、Bing Chat、Google Gemini、またはその他の LLM にプロンプトを入力するたびに、その言葉はインターネット経由で各企業のコンピューター システムに転送されます。ここで、ChatGPT がデータをどのように使用するのかを尋ねるのが良いかもしれません。OpenAI のプライバシー ポリシーでは、モデルをさらにトレーニングするためにデータを使用すること、および「法律で義務付けられている場合を除き、ユーザーに通知することなく、第三者に個人情報を提供する場合がある」ことが明確にされています。同社の従業員は、応答を調整したり、不正使用を報告したりするためにユーザー データも確認します。ただし、ユーザーの情報を持っているのは OpenAI だけではありません。Microsoft やクラウド ストレージ会社 Snowflake などのパートナーもアクセスできます。もちろん、多くの競合 AI にも同じことが言えます。 Google Geminiは現在、「あなたの会話は人間のレビュー担当者によって処理されます。レビューや使用を望まない内容は入力しないでください」というメッセージを表示しています。これらのプライバシーに関する懸念は理論上のものではありません。2023年7月、ワシントンポスト紙は、米国連邦取引委員会がデータ漏洩と技術の全般的な不正確さについてOpenAIの調査を開始したと報じました。一方、EUのプライバシー研究者は、OpenAIがヨーロッパのプライバシー規則に違反していると主張する苦情を申し立てました。

LLM 自体の社会的影響を考慮する前に、それらの多くがインターネット上で運営されていることを覚えておくことが重要です。
ChatGPT のようなサービスは、通常、デバイス上ではなく、大規模なデータ センターで実行されます。つまり、ChatGPT、Bing Chat、Google Gemini、またはその他の LLM にプロンプトを入力するたびに、入力した言葉がインターネット経由で各企業のコンピューター システムに転送されます。
ChatGPT がユーザーのデータをどのように扱うのか、ここで質問してみるのもいいかもしれません。OpenAI のプライバシー ポリシーでは、同社がユーザーのデータをモデルをさらにトレーニングするために使用する意図があること、また「法律で義務付けられている場合を除き、ユーザーに通知することなく、ユーザーの個人情報を第三者に提供する場合がある」ことが明記されています。同社の従業員は、ユーザー データを調べて、応答を調整したり、不正使用を報告したりもしています。
しかし、あなたの情報を持っているのは OpenAI だけではありません。Microsoft やクラウド ストレージ会社 Snowflake などのパートナーも情報にアクセスできます。もちろん、競合する多くの AI も同様です。Google Gemini は現在、「あなたの会話は人間のレビュー担当者によって処理されます。レビューや使用を望まない内容は入力しないでください」というメッセージを表示します。
こうしたプライバシーに関する懸念は理論的なものではない。2023年7月、ワシントンポスト紙は、米連邦取引委員会がデータ漏洩と技術全般の不正確さをめぐってOpenAIの調査を開始したと報じた。一方、EUのプライバシー研究者は、OpenAIが欧州のプライバシー規則に違反しているとして苦情を申し立てた。

プライバシーの懸念とは別に、ChatGPT などの LLM のもう 1 つの危険性は、誤った情報を作成し、拡散する傾向があることです。誤った応答はしばしば「幻覚」と呼ばれますが、これは誤った呼び方です。LLM は自分が言っていることを理解していません。AssemblyAI の Marco Ramponi が言うように、「LLM の目的関数は、単語シーケンス (またはトークン シーケンス) の確率分布であり、シーケンス内の次の単語を予測できます。」つまり、これらの統計モデルが間違っているかどうかに関係なく、AI は自信を持って虚偽を述べます。つまり、たとえば「牛乳は冷蔵庫から取り出してどのくらい放置できますか?」というクエリを入力すると、カウンターに牛乳を放置するという言及は統計的に「2 時間以内」などのフレーズに近いため、牛乳を放置しておくべき最長時間を教えてくれます。しかし、あまり知られていない、または定着していないものをクエリした場合はどうでしょうか。コロラド州のレッド ロックのハイキング コースについて質問されたとき、ChatGPT はほぼ正解しましたが、存在しないコースの名前も挙げました。 OpenAI などの企業が自社製品に組み込んでいる多くの安全策は、AI がユーザーに危険なアドバイスや誤った情報を与えないようにするものです。しかし、そうした安全策を回避したり、AI がそれを忘れてしまう可能性はあります。Reddit の r/PromptEngineering フォーラムには、ボットを騙して自分のプログラミングを拒否させる新しい方法を常に見つけている人たちが集まっています。

プライバシーの懸念のほかに、ChatGPT などの LLM のもう 1 つの危険性は、誤った情報を作成し、拡散する傾向があることです。誤った応答はしばしば「幻覚」と呼ばれますが、これは誤った呼び方です。LLM は自分が何を言っているのか理解していません。AssemblyAI の Marco Ramponi 氏は、「LLM の目的関数は、単語シーケンス (またはトークン シーケンス) の確率分布であり、シーケンス内の次の単語を予測できます」と述べています。言い換えると、これらの統計モデルが間違っているかどうかに関係なく、AI は自信を持って虚偽を述べます。
つまり、「牛乳は冷蔵庫から取り出してどのくらい放置しておけますか?」などのクエリを入力すると、統計的に「2時間以内」などのフレーズに近いため、牛乳をカウンターに置いておくことに関する言及は、牛乳を冷蔵庫から取り出しておいてもよい最長時間であると教えてくれます。しかし、あまり知られていない、または定着していないものについてクエリを実行した場合はどうでしょうか?コロラド州のレッドロックにあるハイキングコースについて質問すると、ChatGPT はほぼ正解しましたが、存在しないコースの名前も挙げました。
OpenAI などの企業が自社製品に組み込んでいる多くの安全策は、AI がユーザーに危険なアドバイスや誤った情報を与えないようにするものです。しかし、そうした安全策を回避したり、AI がそれを忘れてしまう可能性はあります。Reddit の r/PromptEngineering フォーラムには、ボットを騙して自分のプログラミングを拒否させる新しい方法を常に見つけている人たちが集まっています。

悪用に関しては、ChatGPT をめぐってパニックが急増している。評判の高い SF およびファンタジー雑誌 Clarkesworld の編集長である Neil Clarke 氏は、AI が生成した投稿が殺到していると報告している。また、弁護士が ChatGPT によって捏造された存在しない判例を引用する一連の事件もあり、幻覚の可能性に気付いていないようだ。この急速な変化に反撃する人々もいる。テキサス A&M 大学の農学教授は、学生の論文が AI によって書かれたかどうかを ChatGPT に尋ねた後、クラス全体を落第させようとした。AI の検出が難しいことを知るまでは、これは妥当な対応のように聞こえるかもしれない。実際、この記事の前の人間が書いた段落を ChatGPT に提示したところ、AI はそれを書いたと主張した。ワシントンポスト紙が報じたように、これらの問題にもかかわらず、一部の職場ではライターを ChatGPT に置き換えようとする試みが続いている。当然、その結果は不正確な下手な文章になることが多い。しかし、CNET や BuzzFeed などのサイトがこの技術の実験を止めることはできなかった。

悪用に関しては、ChatGPT をめぐってパニックが広がっている。評判の高い SF およびファンタジー雑誌 Clarkesworld の編集長であるニール・クラーク氏は、AI が生成した投稿が殺到していると報告している。また、ChatGPT が作り出した存在しない判例を弁護士が引用する事件も相次いでいるが、どうやら幻覚の可能性に気付いていないようだ。
この急速な変化に抵抗する人々もいる。テキサス A&M 大学の農学教授は、ChatGPT に学生の論文が AI によって書かれたかどうかを尋ねた後、クラス全体を落第させようとした。これは、AI の検出が難しいことを知るまでは、妥当な回答のように思えるかもしれない。実際、この記事の前の段落、つまり人間が書いた段落を ChatGPT に提示したところ、AI はそれを書いたと主張した。
ワシントンポスト紙が報じたように、これらの問題にもかかわらず、一部の職場ではライターを ChatGPT に置き換えようとする試みが続いている。当然ながら、その結果は質の悪い、不正確な文章になることも多い。しかし、CNET や BuzzFeed などのサイトがこの技術を試すのを止めたわけではない。

これまで、ChatGPT があなたとあなたの仕事にもたらす危険性に焦点を当ててきました。しかし、社会の安全性に関する懸念について少し考えてみましょう。結局のところ、LLM が急速に主流になりつつある社会で、あなたはどれほど安全なのでしょうか? 誤解のないように言うと、ロボットはまだ人類に反抗する能力があるようには見えません。しかし、人間は恐ろしい方法でこの技術を悪用してきましたし、これからもそうするでしょう。また、LLM は人間のデータで訓練されているため、人間の最悪の欠陥のいくつかを拾い上げ、他の欠陥を可能にします。企業はこれらの問題のいくつかを解決しようと試みてきました。AI は、インターネット上の基本的にすべてのもの、つまり大量の人種差別、性差別、その他の有害な偏見について訓練されていることに留意してください。そのため、企業は AI が応答でこれらの問題を積極的に回避するようにプログラムしようとしてきました。理論的にはそれは良いように思えますが、2024 年 2 月、Google の Gemini LLM はナチスを有色人種として描いた画像を作成し、インターネット上で騒動を引き起こしました。 LLM は求人応募書類の読み取りにも使用されていますが、すでに研究で人間の採用担当者が名前、人種、性別、その他の要素に対して偏見を示していることが明らかになっていることを考えると、これは問題です。実際、同等の資格を持つ応募者の履歴書を受け取った場合、研究者は LLM も偏った判断を下していることを発見しました。これは、現在の世代の AI をあまりに急速に導入すると、悪夢のようなシナリオが出現し始める可能性があることを思い出させる良い例です。

これまで、ChatGPT があなたとあなたの仕事に及ぼす危険性に焦点を当ててきました。しかし、ここで少し時間を取って、社会の安全上の懸念について検討してみましょう。結局のところ、LLM が急速に主流になりつつある社会で、あなたはどれほど安全なのでしょうか?
誤解のないように言うと、ロボットはまだ人類に対抗できるほどの能力は備えていないようだ。しかし、人間はこれまでも、そしてこれからも、テクノロジーを恐ろしい方法で悪用し続けるだろう。そして、LLM は人間のデータに基づいて訓練されているため、人間の最悪の欠陥のいくつかを拾い上げ、他の欠陥を助長することになる。
企業はこれらの問題のいくつかを解決しようと試みてきました。AIは、インターネット上のあらゆるもの、つまり大量の人種差別、性差別、その他の有害な偏見についてトレーニングされていることに留意してください。そのため、企業はAIが応答時にこれらの問題を積極的に回避するようにプログラムしようとしてきました。理論的には良いように思えますが、2024年2月、GoogleのGemini LLMがナチスを有色人種として描いた画像を作成し、インターネット上で大騒動を引き起こしました。
LLM は求人応募書類の読み取りにも使用されていますが、すでに研究で人間の採用担当者が名前、人種、性別、その他の要素に対して偏見を示していることが明らかになっていることを考えると、これは問題です。実際、同等の資格を持つ応募者の履歴書を受け取った場合、研究者は LLM も偏った判断を下していることを発見しました。これは、現在の世代の AI をあまりに急速に導入すると、悪夢のようなシナリオが出現し始める可能性があることを思い出させる良い例です。

元記事: https://translate.google.com/translate?sl=auto&tl=ja&hl=ja&u=https://www.slashgear.com/1568777/is-chatgpt-safe-what-to-know-ai-chatbots/