言論の自由は、多くの人々が大切にしている特権だ。しかし、機械がますます言葉やアイデア、議論を生成する能力を高めていく中で、この基本的権利を機械にも拡張すべきなのだろうか?
これは一見、奇妙な問いかけに思えるかもしれない。機械には実際の見解や意見があるわけではないので、それらを表明する権利が必要なのだろうか?
しかし、ここに問題の核心がある:今日の知的機械は、世論を形成し、場合によっては政治や民主主義にさえ影響を与える可能性のあるメッセージやコンテンツを作り出している。
では、機械の発言内容に影響を与える力を持つ者たち—それらを構築するAI企業や、その動作方法を法制化する政府—は、どの程度までその出力を制御し形作るべきなのか?
AIが日常生活にますます浸透するにつれ、これは社会が取り組まざるを得ない問題となっている。
これは、人間と知的機械の共存をめぐる継続的な議論の中心にある複雑な問題だ。そこで本稿では、この議論の両面を探り、なぜこれが政治、私たちの日常生活、そしてビジネスにおいて重要なのかを理解していきたい。
なぜAIの言論の自由が重要なのか?
機械は私たちと同じ権利を持っていないし、必要としていない。したがって、AIと言論の自由について語るとき、私たちは実際には機械の出力を制御する人々の権利について論じているのだ。
これにはAIを使用するすべての人が含まれるが、最も大きな力を持つのはおそらくそれを作成する技術企業と、それに規制を課す政府だろう。
Eコマースのレコメンデーションシステムからカスタマーサービスのチャットボット、自動化されたニュースフィードまで、これらのシステムが発する内容は、私たちの購買決定に影響を与えることから、私たちが接するニュースの議題を定義することまで、実際に重みを持っている。
例えば、ChatGPTスタイルのチャットボットを支える大規模言語モデルの分析によると、これらは多くの場合、左寄りの政治的バイアスを示すことがわかっている。
これはイーロン・マスク氏も気づいており、彼は自身のチャットボットであるGrokを「真実を追求する」エンジンとして設計することでこの問題に対処すると述べた。しかし、調査者によれば、これは右派のナラティブを優先するシステムを生み出す結果となった。
おそらく、客観的な真実の追求は、思われるほど単純ではないのだろう。
政府、公共政策シンクタンク、取締役会での決定がますますAIから導き出された研究に依存するようになるにつれ、政治、ビジネス、社会への影響は広範囲に及ぶ。
AIの出力を操作する影響力を持つ人々に対して、その範囲を制限すべきなのだろうか—おそらく彼らの言論の自由を侵害することになるかもしれないが、フィルタリングされていない客観的事実を私たちに提供するAIの「自由」を保護するためには?
私たちは誰の言論の自由を保護しているのか?
AIが「話す」とき、私たちは誰の声を聞いているのだろうか?
AIクリエイターが自分のモデルの出力に好きなように影響を与える権利を支持することで、私たちは単に企業や政府に彼ら自身の見解を増幅するためのメガホンを手渡しているだけかもしれない。
もう一つの例を挙げよう。ChatGPTや他の多くのLLMチャットボットは、立ち上げ以来、有害な情報の提供を防ぎ、著作権法違反を防止するために、その出力が調整されてきた。例えば、犯罪を犯すためのアドバイスを提供したり、ユーザーが同意のないディープフェイクポルノを作成したりすることはない。
これらは、多くの人々が完全に合理的だと考えるかもしれないAI出力に対するクリエイターの制御の例だ。
しかし、人権記録の悪い政府が独自のLLMチャットボットを作成し、人権侵害について議論することを禁止したり、正当な反政府民主的議論を抑圧したりする場合はどうだろうか?
Grokの右寄りへのシフトは、単に「政治的に不適切な回答を検討する」よう指示するという単純な変更から生じた可能性があるという指摘もある。これは単にメインストリームメディアから理解を得るのではなく、別のアプローチを取ったということだ。
しかし、この変更でさえ、ユーザーが受け取る回答への影響という点で大きな意味を持つ可能性がある。これは依然として、AIの出力を真に中立的な決定を下すことから逸らし、周縁的あるいは大衆的な見解、または確立された科学的・社会的コンセンサスに反する見解を表明するよう誘導するクリエイターの選択と見なすことができるだろう。
これは人間の言論の自由の未来にとって何を意味するのか?
もちろん、人間と機械の言論の自由の交差点をめぐるこれらの問いはすべて、実際にはロボットに権利を与えることについてではない。それは、機械とそれを構築する人々が、今後数年間で私たちの思考と意思決定にどのように影響を与えるかを理解することについてだ。
これを解決することは、エージェント型AIの時代に入るにつれてさらに緊急性を増すだろう。私たちはもはや単純なチャットボットだけでなく、自律的で常時稼働するエージェントと向き合っており、これらは一度に一つの決定ではなく、長期的に私たちの行動に影響を与える能力がはるかに高い。
適切なガードレールを課しつつ、AIを構築し使用する人々が自分たちが適切と考える方法でアイデアを表現する権利を尊重することは、間違いなく難しいバランス調整となるだろう。
しかし、これはAIによって生み出される可能性から恩恵を受けながら、その害を及ぼす可能性を最小限に抑えようとする社会が直面するより広範な課題の重要な要素だ。
企業にとって、これは自社の「AI音声」が何を言うか、また顧客に投影したいと考える中核的価値観とどのように一致するかという点で責任を負うことを意味する。
立法者にとっては、AIがいつ情報を事実として提示できるか、またいつその見解が開発者の見解に影響されていることを明確にすべきかという問題に取り組むことを意味するかもしれない。
そして他のすべての人にとって、これは私たちが消費し、共有し、決定の基礎とする情報が、必ずしも公開されていない指示に従うロボットによってますます形作られる可能性があることを認識することを意味する。



