この記事は、追加のリソースで不定期に更新されます。受け取ったすべてのリンクを掲載することはできませんが、Tech Policy Press コミュニティには、関連性があると思われる資料を共有するよう奨励しています。
大規模言語モデル上に構築された生成 AI システムの出現により、さまざまな主体が、政治的言説に影響を与える方法でこの技術を展開する方法を実験しています。これには、ソーシャル メディア プラットフォーム上のユーザー生成コンテンツのモデレーションや、特定の政治課題の推進から陰謀論や偽情報の緩和まで、さまざまな目的でユーザーを議論に参加させるための LLM 搭載ボットの使用が含まれます。また、現在 AI 企業によってさまざまな開発段階と展開段階にある、いわゆる AI アシスタントの政治的影響も含まれます。これらのさまざまな現象は、時間の経過とともに政治的言説に大きな影響を与える可能性があります。
たとえば、コンテンツ モデレーション (デジタル プラットフォーム上のユーザー生成コンテンツを監視および規制するプロセス) は、複雑で困難な問題として知られています。ソーシャル メディア プラットフォームが成長を続けるにつれて、モデレートする必要があるコンテンツの量と種類も劇的に増加しています。これにより、コンテンツ モデレーターが不快でトラウマになるコンテンツにさらされることが多くなり、深刻な心理的影響を受ける可能性があるため、人的コストが大幅に増加しています。さらに、コンテンツ モデレーションは非常に議論の多い問題であり、言論の自由、検閲、および公共の議論を形成するプラットフォームの役割に関する議論を引き起こしています。批評家は、コンテンツ モデレーションは一貫性がなく、偏りがあり、オープンな対話に有害である可能性があると主張していますが、より優れたモデレーションの支持者は、ユーザーを有害なコンテンツから保護し、オンライン スペースの完全性を維持する必要性を強調しています。さまざまな企業やプラットフォームがコンテンツ モデレーションの問題に LLM を適用する方法を実験していますが、その利点は何でしょうか。欠点は何でしょうか。研究者やジャーナリストが取り組むべき未解決の問題は何でしょうか。
このシラバスでは、コンテンツのモデレーション作業を支援し、さまざまな形態の政治的言説に参加し、ユーザーに政治コンテンツを配信するための大規模言語モデル (LLM) の使用について知られていることの一部を検討するとともに、このコンテキストで人工知能に依存することの倫理的影響と限界、および悪意のある行為者がこれらのテクノロジーをどのように悪用するかについても検討します。
このシラバスは初稿であり、定期的に更新されます。関連リソースを推奨したい場合は、電子メールでご連絡ください。
このセクションでは、カウンタースピーチ、ヘイトスピーチの検出、政治的コミュニケーション、偽情報キャンペーンの作成と緩和のための生成 AI の使用を調査する学術研究を追跡します。
このセクションでは、コンテンツのモデレーションに大規模言語モデルを使用する機会とリスクに関するリソースを提供します。このトピックの研究では、プラットフォームの安全性ポリシーに基づいて大規模な投稿を分類する LLM の能力を調査します。
テクノロジーと民主主義の交差点における問題やアイデアに関するニュースレターにご参加ください
購読者リストへの登録が完了しました。