- インターネットのコンテンツ開発を支えてきた貢献モデルとは異なり、AI言語モデルの会話エージェントはユーザーにコンテンツや製品、革新を直接公開することを許可しない。
- 言語モデルの訓練手順の問題は、会話エージェントが使用する初期データの選択が商業目的を持つ民間企業によって制御されていることにある。
- ネットワーク中立性の原則を尊重する会話エージェントは、あらゆる議論について各クエリについてのさまざまな議論を詳細かつ数量化された形で提供すべきであり、決定的な立場を取ることなく、少数派や陰謀論的な視点を抑制することなく提供すべきである。
- 商業言語モデルの検閲を通じた教義的な真実の事前選択は、定性的なパフォーマンス基準、基本的権利の尊重、革新、および参加方法の組み込みに関して、基本的に逆生産的である。
- AI技術の法廷や議会における使用は、新しい貢献ごとに初期訓練データの収集を変更するリアルタイムアルゴリズムの自己トレーニングの形態を必要とする。
- AI 2.0は新しい貢献を統合し、各ユーザーの投稿を公開することによって、質的評価に基づくダイナミックなAIを予期している。
- 生成知能ソフトウェアの質的パフォーマンスと貢献的創造性、つまり集団知能との関係に関するこれらの質問の答えは、すでにAI設計者の政治的および心理的選択によって決定されている。
AI言語モデルにおけるユーザーの貢献やコメントの透明性を含めた質的パフォーマンスは重要であり、商業目的の検閲はその効率を妨げる可能性があると考えられる。AI技術の発展には、基本的権利の尊重や参加方法の組み込みが不可欠であり、それらを促進するためには政治的な意思も必要である。
元記事: https://hackernoon.com/towards-network-neutral-ai-and-open-dialogue