基盤モデルのトレーニング方法については依然として透明性が欠如しており、人工知能 (AI) の導入を目指す組織が増えるにつれて、このギャップによってユーザーとの緊張が高まる可能性があります。
IDCによると、中国を除くアジア太平洋地域では、AIへの支出は2022年の255億ドルから2027年までに28.9%増加して907億ドルになると予測されている。この調査会社は、この支出の大部分、81%が予測および解釈AIアプリケーションに向けられると推定している。
また、AIを責任を持って使う5つの方法
そのため、生成型 AI をめぐる誇大宣伝は盛んであるものの、AI セグメントは、この地域の AI 支出のわずか 19% を占めるに過ぎないと、IDC アジア太平洋地域のデータ、分析、AI、持続可能性、業界調査担当副社長のクリス・マーシャル氏は指摘しています。
今週シンガポールで開催されたインテルAIサミットで講演したマーシャル氏は、この研究は生成AIを超えたAIへのより幅広いアプローチを必要とする市場を浮き彫りにしていると述べた。
しかし、IDC によると、アジア太平洋地域の企業の 84% は、生成 AI モデルを活用することで自社のビジネスに大きな競争優位性がもたらされると考えている。調査会社は、そうすることで、これらの企業は業務効率と従業員の生産性の向上、顧客満足度の向上、新しいビジネス モデルの開発を実現したいと考えていると付け加えた。
さらに: 最高の AI チャットボット: ChatGPT とその他の注目すべき代替品
IDC はまた、この地域の組織の大多数が今年エッジ IT 支出を増やすと予想しており、2025 年までに企業データの 75% が従来のデータ センターやクラウド以外のエッジで生成され、処理されると予測しています。
「AIをあらゆる場所にもたらすには、使用されるテクノロジーが個人、業界、そして社会全体にアクセス性、柔軟性、透明性を提供する必要があります」とインテルのアジア太平洋日本CTO、アレクシス・クロウェルは述べています。「AIへの投資がますます増える中、今後数年間は市場が責任を持って思慮深くAIの成熟基盤を構築することが極めて重要になります。」
業界関係者や政府は、AI に対する信頼と透明性を構築すること、そして消費者が AI システムが「公正で、説明可能で、安全」であることを知ることの重要性を頻繁に強調してきました。しかし、この透明性は、いくつかの重要な側面でまだ欠けているようです。
ZDNET が、オープンな大規模言語モデル (LLM) と基礎モデルのトレーニング方法について現在十分な透明性があるかどうかを尋ねたところ、クロウェル氏は「いいえ、十分ではありません」と答えた。
また、今日のAIブームは、今すぐ行動を起こさなければ社会問題を増幅させるだろう。
彼女は、スタンフォード大学、マサチューセッツ工科大学、プリンストン大学の研究者らが10の主要な財団モデルの透明性を評価した研究を指摘した。この研究では、最高得点を獲得したプラットフォームでも54%しか得点しなかった。「これは不合格点だ」と彼女はサミットの記者会見で述べた。
調査によると、平均スコアはわずか37%だった。この調査では、トレーニングデータに関する情報、モデルのアーキテクチャとリスク、使用を管理するポリシーなど、モデル構築に関わるプロセスを含む100の指標に基づいてモデルを評価した。最高スコアはMetaのLlama 2で54%、続いてBigScienceのBloomzが53%、OpenAIのGPT-4が48%だった。
「主要な基盤モデル開発企業で十分な透明性を提供しているところはなく、AI業界に根本的な透明性の欠如があることが露呈している」と研究者らは指摘した。
クロウェル氏は、ベンチマークやこうした動向を監視する組織が利用可能になれば、この状況は変わるかもしれないと期待を表明した。また、ニューヨーク・タイムズがOpenAIやマイクロソフトに対して起こしたような訴訟が、さらなる法的明確化につながるかもしれないとも付け加えた。
特に、欧州のGDPR(一般データ保護規則)を含むデータ管理法に類似したガバナンスの枠組みを設け、ユーザーが自分のデータがどのように使用されているかを知ることができるようにすべきだと彼女は指摘した。
企業も、データがどのように収集され、どこに送られるかに基づいて購入の決定を下す必要があると彼女は述べ、透明性の向上を求めるユーザーからの緊張の高まりが業界の行動を促す可能性があると付け加えた。
現状では、AI ユーザーの 54% が AI システムのトレーニングに使用されるデータを信頼していないことが、シンガポール、インド、オーストラリア、英国、米国、ドイツを含む 9 つの市場で約 6,000 人の知識労働者を対象に実施した最近の Salesforce の調査で明らかになりました。
また、AIと高度なアプリケーションは現在の技術インフラに負担をかけている。
クロウェル氏はボストン・コンサルティング・グループが主導した調査報告書を引用し、一般に信じられていることとは反対に、正確性は透明性を犠牲にする必要はないと述べた。
このレポートでは、価格設定、医療診断、破産予測、購買行動など、約 100 のベンチマーク分類データセットでブラックボックス AI モデルとホワイトボックス AI モデルがどのように機能するかを調べました。データセットの約 70% で、ブラックボックス モデルとホワイトボックス モデルは同様に正確な結果を生成しました。
「言い換えれば、多くの場合、正確性と説明可能性の間にトレードオフはなかった」と報告書は述べている。「正確性を犠牲にすることなく、より説明可能なモデルを使用できる可能性がある」
しかし、完全な透明性を得るのは依然として困難だとマーシャル氏は述べ、AIの説明可能性に関する議論はかつては活発だったが、対処が難しい問題であるためその後下火になったと指摘した。
また、ジェネレーティブ AI が IT 業界に与える影響に備える 5 つの方法
政府機関AIシンガポール(AISG)のAIイノベーション担当ディレクター、ローレンス・リュー氏は、主要な基盤モデルを開発した組織は、訴訟を懸念してトレーニングデータを開示したがらない可能性があると述べた。
同氏は、トレーニングデータの選択性もAIの精度に影響を与えるだろうと付け加えた。
Liew 氏は、AISG が特定のデータセットを使用しないことを選択したのは、公開されているデータセットすべてを AISG 自身の LLM イニシアチブである SEA-LION (Southeast Asian Languages in One Network) で使用すると問題が発生する可能性があるためだと説明しました。
その結果、オープンソース アーキテクチャは、現在市場にある主要な LLM ほど正確ではない、と同氏は述べた。「微妙なバランスだ」と同氏は指摘し、高い正確度を達成するには、利用可能なあらゆるデータを使用するオープンなアプローチを採用する必要がある、と付け加えた。「倫理的な」方法を選択し、特定のデータセットに触れないことは、商業プレイヤーが達成している正確度よりも低いことを意味する、と同氏は述べた。
しかし、シンガポールはSEA-LIONに高い倫理基準を課しているものの、LLMの精度を向上させるためにより多くのデータセットを活用するよう求めるユーザーから依然として異議が唱えられている、とリュー氏は述べた。
シンガポールの作家や出版社のグループは先月、自分たちの作品がシーライオンの訓練に利用される可能性について懸念を表明した。彼らの不満の中には、すべての著作物の使用に対して「正当な補償を支払う」という約束が明らかに欠如していることが挙げられる。彼らはまた、法学修士号の取得と訓練において、国の知的財産権と著作権に関する法律、および既存の契約上の取り決めが遵守されることを明確にし、明示的に認める必要があると指摘した。
レッドハットのCEO、マット・ヒックス氏によると、このような認識はAIアプリケーションを開発できるオープンソースフレームワークにも広がるはずだという。
モデルは著作権を持つ人々から提供される大量のデータからトレーニングされており、これらのAIシステムを責任を持って使用するということは、それらが構築されたライセンスに従うことを意味すると、ヒックス氏は今週のレッドハットサミット2024に続いて行われたバーチャルメディアブリーフィングで述べた。
また、AI 業界で働きたいですか? 5 つのステップでキャリアを転換する方法
これは、GPL などのコピーレフト ライセンスや Apache などの許容ライセンスなど、さまざまなライセンス バリアントを持つ可能性のあるオープン ソース モデルに当てはまります。
彼は、透明性の重要性と、データ モデルを理解し、モデルが生成する出力を処理する責任の重要性を強調しました。AI アーキテクチャの安全性とセキュリティの両方を確保するには、モデルが悪意のある攻撃から保護されていることを確認する必要があります。
Red Hat は、サミットで発表した Red Hat Enterprise Linux AI (RHEL AI) を含むさまざまなツールを通じて、こうした取り組みで顧客を支援したいと考えている。この製品は、Open Granite 言語や InstructLab コミュニティのコード モデルなど 4 つのコンポーネントで構成されており、Red Hat がサポートおよび補償している。
このアプローチは、アプリケーションとモデルのライフサイクルの管理など、組織がAI導入でしばしば直面する課題に対処するとオープンソースベンダーは述べている。
「[RHEL AI]は、オープンソースライセンスのGenAIモデルを企業に導入するための基盤モデルプラットフォームを作成します」と同社は述べている。「InstructLabアライメントツール、Graniteモデル、RHEL AIにより、Red Hatは、自由にアクセス可能で再利用でき、透明性があり、貢献に対してオープンである真のオープンソースプロジェクトの利点をGenAIに適用し、これらの障害を取り除くことを目指しています。」

元記事: https://www.zdnet.com/article/transparency-is-sorely-lacking-amid-growing-ai-interest/