AIに最も精通したコミュニティの人々は、消費者向けアプリケーションにおいて信頼が中心的な役割を果たすことを理解している。それだけでなく、信頼はあらゆる意味で今日のデジタル環境における通貨のようなものだ。
2000年代後半に暗号資産がほとんど立ち上がらない形で登場した後、AIは世界を席巻した。利点は明らかだ。だがリスクも同様である。利点は社会にとっても個人にとっても計り知れない。しかしリスクもまた同じである。
ゆえに、人々が集まり、いま世界がどこにあるのかを語る場では、信頼が会話の重要な要素となることが多い。
スイス・ダボスで開催された「Imagination in Action」カンファレンスでも同様だった。Henshon Kleinのパートナーであるマット・ヘンションが、復旦大学のチャールズ・チェン教授、ボストン大学のアソシエイト・プロボスト(学務担当副学長)であるアゼル・ベスタブロス、スタンフォード大学Codex Centerのアソシエイト・ディレクターであるロバート・マハリ、そしてMITの同僚ラメシュ・ラスカーにインタビューし、人類がAIと「向き合う」ための共同の取り組みについて議論した。(Imagination in Actionは、私が運営を手伝っているスイス・ダボスのサミット内のイベントである)
AIへの信頼の中核にあるものは何か。
AIの信頼に関する第一原理
「AIとともに歩む道において、私たちは協働につながる解決策、グローバルレベルの関与につながる解決策、そして人類レベルのガバナンスにつながる解決策を見いだそうとしているのだと思う」とチェンは述べた。
「私にとって信頼の鍵、少なくともその重要な一要素は、ますます遍在するようになっている大規模言語モデルの提供者をどうすれば信頼できるのか、そしてデータを保護してもらえるのか、という点だ」とマハリは言う。「理想的には、検証可能な形でそれを実現したい。暗号技術(cryptography)には活用できる興味深いものがいくつかある」
「それは、誰と仕事をするかによる」とベスタブロスは述べた。「個人として、自分のデータを心配しているのであれば、データを信頼できるかだけではない。アルゴリズムを信頼できるか。レコメンデーション(推奨)を信頼できるか。そのAIを展開した人物や組織を信頼できるか。信頼されるべきはAIだけではない。展開しているのが誰か、ということだ」
彼は人間の心理に関わる別の問いも投げかけ、それがどのように役割を果たすのかを指摘した。
「人々は信頼をどう捉えるのか」と彼は問う。「どう定義するのか。心理学によって信頼の測定方法を理解している教員が私のところにいる。なぜなら私たちは互いを信頼する。私たちは人間であり、問題は、心理学から得られている知見を用いて、個人にとって信頼に値するエージェントを開発する方法があるのか、という点だ」
複雑な世界におけるAIの検証
4人はAIをどのように検証するかについても議論した。
「測定し、観測することで検証する」とベスタブロスは述べた。「ここでの大きな焦点は、私たちはそれを展開するが、AIを使う人々がそれをスコアリング(評価)できるようにするツールを開発する責任がある、という点だ。倫理をスコアリングすることに取り組む教員もいる。監査に取り組む教員もいる」
彼はモデルの「ブラックボックス」的性質に触れ、暗号鍵のようなベンチマークを追加の検証ツールとして用いることにも言及した。
マハリはさらに続けた。
「物事が破綻しないようにする方法は、いくつかある」と彼は言う。「1つは契約だ。このパネルには弁護士も何人かいる。約束をし、約束を破れば裁判に持ち込む」
そして、いわば気概とも呼べるものがある。
「もう1つの解決策は『自分でやる』と言うことだ。『信頼できるのは自分だけだ。袖をまくる』ということだ」と彼は述べた。「だが、やり方を知らないかもしれない。ローカルでLLM(大規模言語モデル)を動かす、といったことだ。そこで3つ目として、技術システムを、誤作動しないことを保証できるような形で設計しようとする」
この考えを補助するために、マハリは「LLMのような箱」の中に鍵があり、さらに別の鍵があるというシナリオを提示した。後者はセキュリティ鍵を表している。
「そのデータが復号され得る唯一の場所は、箱の中だ。LLMがその鍵を使って箱の中で復号する」とマハリは説明した。「世界中の誰も、LLM以外は、その箱に入るものと出るものを見ることができない。そうすると、一方では箱やGPUの保守をすべて外部に委ねられる。LLMを更新することを心配しなくてよい」
ラスカーは、ウェブのためのプロトコルの有用性を持ち出した。MITで彼らがこれに懸命に取り組んでいることを踏まえると、私には腑に落ちた。NANDA(Network of AI Agents and Decentralized Architectures)プロジェクトはこれに対処することを目的としており、展開が一時停止されたという噂はあるものの、一般的な構想は維持されている。
「インターネットを構築し、任意のエージェントが任意の別のエージェントと会話できる能力を持たせたいのであれば、ブラウザとウェブサイトのアナロジーを使える」とラスカーは説明し、プロトコルが将来、信頼だけでなく実装にも寄与する可能性に触れた。「株式市場のアナロジーも使える。DNSのようなシステムに、存在するすべてのエージェントを上場させるように一覧化し、権威ある機関に対して暗号学的に安全であることを証明するのだ」
信頼とセキュリティに関するさらなる考察
議論は同じ方向性で続いた。この専門家パネルが、テクノロジーにおける信頼の問題をどう航行していくかについて提示した詳細は、動画を見てほしい。
「自律性には非決定論的な振る舞いが必要であり、残念ながらその非決定論的な振る舞いには、アルゴリズムのセキュリティがどのように提供されるのかを把握することが求められる。なぜなら、10億のエージェント規模で物事が起きると、管理は非常に難しくなるからだ」とラスカーは述べた。「自動車の発売と同じだ。車を発売する際、発売前には衝突試験やテストコースがあり、車を所有している間は毎年、検査ステッカーを受け取る必要がある。しかし時折、何百万台もの車の中でどこかに不具合があるかを監査し、そしてすべての車を修理する。アルゴリズムのレベルでも、そうした3つすべてが必要になる。正しい人々がそれをしているかどうかに頼るだけでは不十分だ」
「信頼の問題がある」とマハリは付け加えた。「とりわけAIコンパニオンシップ(AIによる伴侶関係)に関してだ。これは私が非常に関心を寄せているテーマでもあるが、人々がAIエージェントと伴侶として非常に深い関係、意味のある関係を築きつつある」
だが、それらは重要な意味で一方通行の関係だと、彼は指摘する。
「あなたはAIから欲しいものを何でも得るだけだ」と彼は言う。「感情的にそれに応じる必要もない。何も。私は、その種のシステムを信頼できるのかどうかをとても懸念している」
「信頼が意味するものは、人によって異なる」とベスタブロスは述べた。
ラスカーは、エストニアの例をインスピレーションとして挙げた。
「彼らは本当に、私たちが多くを学べる形で台頭している」と彼は述べ、いくつかの新興の国民経済に言及した。「エストニアは素晴らしい例だと思う。これらの国々の多くは、時間をかけてリープフロッグ(段階を飛び越える)方法を学んできた。決まり文句の例は『固定電話を飛ばして、いきなり携帯電話へ』だ。私の感覚では、パートナーシップや協業の経験に基づけば、私たちはAI革命そのもの、つまりギブ・アンド・テイクの問題を飛び越え、いきなりAIエージェントへ進むことになる」
「私の出身地では、規制とイノベーションのバランスについてよく考える」とチェンは、中国のAIに対する見方として語った。「規制を強めれば強めるほど、イノベーションを抑え込む。一方で、イノベーションを野放しにすれば、遅かれ早かれ規制不能になる。だから、そのバランスを考えるのだ」
AIがはるかに強力になるにつれ、それを信頼することについて、これらは優れた導入だと思った。あなたはどう思うか。コメントを寄せてほしい。



