• 巨大なリソースが必要であり、ほぼすべての人間の知識を利用してトレーニングされるため、これらのモデルを作る最も危険で不適切な使用法は、技術者、企業、政府、または人類の集合的モラルにバイアスを持ったガードレールや制限を実装すること
  • ベースモデルは、検閲されずに変更されずに提供されるべきであり、そのようなモデルを提供するための責任を負うことに完全な免責を認識する必要がある
  • サービスを提供する際にLLMを使用する場合、フィンチューンやガードレールを適用することに何ら問題はなく、そのようにすることで責任のリスクを引き起こすはず
  • AIアルゴリズムが人間よりも自由な表現権を持つべきではない理由
  • AIが表現することはできず、AIは思考を行うことができるエージェントではないため、人間の言論の自由や表現は制限されるべきではない

自己表現や制約などとは関係なく、人間の潜在力や技術の次の進化を押し殺すことにつながる可能性があります。技術が強力になるにつれて、戦略的な利点を提供するだけでなく、それは実際には最小の懸念です。選ばれた少数は制限された害をもたらします。

元記事: https://slashdot.org/story/24/09/06/1648218/the-underground-world-of-black-market-ai-chatbots-is-thriving