スティーブン・スミス、Tools For Humanity プロトコル責任者。
2025年はAIエージェントの年になるのだろうか? そう思われる。PwCが5月に実施した300人の上級幹部を対象とした調査によると、79%がすでにAIエージェントを採用していると回答している。
自律性、目標指向の行動、積極性によって定義されるAIエージェントは、単なる受動的なデジタルアシスタントとして些細なタスクを代行するだけではない。彼らはますますデジタル金融、eコマース、企業向けソフトウェアにおいて、意思決定を行い、取引を実行し、相互作用するようになっている。
AIエージェントは私たちを支援するだけでなく、私たちの代わりに行動している。これはオンライン作業における新時代の幕開けだが、重大な問題も提起している。エージェントがより有能になり、より人間らしくなるにつれて、実際の人間との区別が難しくなっているのだ。その結果、デジタル経済全体に混乱、曖昧さ、リスクがもたらされている。
この移行を安全に進めるには、新たな保護策が必要だ。新たに登場している技術である人間証明(PoH)システムは、プライバシーや使いやすさを損なうことなく、オンライン上のアクションの背後に実際の人間がいるかどうかを検証するために設計されている。
人間証明(PoH)とは何か?
PoHシステムは、インターネットに新たな「人間レイヤー」を提供する。これらは暗号技術を使用して、個人データの過度な開示を要求することなく人間であることを確認する。目的はあらゆる状況で誰かが誰であるかを明らかにすることではなく、ボットではなく人間がアクションを承認または開始したことを証明することだ。
これはAIエージェントが増殖するにつれて不可欠になっている。独立した研究によると、ボットは現在インターネット活動の約半分を占めており、詐欺、偽情報、ユーザーの不信感の増大を引き起こしている。PoHはそのような悪用を抑制し、説明責任を確立し、オンラインでの信頼を強化するのに役立つ。
もちろん、PoHは万能薬ではない。オープンスタンダードはまだ発展途上であり、相互運用性の課題は残っており、高度なデバイスやIDを持たない人々を排除しないようにアクセシビリティを優先する必要がある。しかし、採用が加速するにつれて、PoHはAI駆動型経済の基盤インフラとして急速に確立されつつある。
金融とデジタル資産:取引の場における信頼
AIエージェントは分散型金融(DeFi)やデジタル資産にも導入されている。これらはポートフォリオを最適化し、プロトコルと対話し、機械速度で取引を実行する可能性を秘めている。その効率性はリスクをもたらす:フラッシュクラッシュ、価格操作、連鎖的なエラーによる説明のつかない損失などだ。
プライバシーを保護する暗号技術を使用してエージェントの活動を検証済みの個人にリンクすることで、プラットフォームは透明性と制御を維持できる。人間優先のアクセス制御により、エージェントが承認されたパラメータ内でのみ行動することを確保できる。問題が発生した場合、PoHシステムは最終的に実際の人間が責任を負うことを確立できる。これは高リスクの金融において重要な安全策だ。
eコマースと顧客サービス:受付にいるボット
最近オンラインで商品を返品したり、返金を依頼したりした場合、AIエージェントと対話した可能性がある。eコマース企業は注文追跡、返金、さらには価格交渉にもますますこれらを使用している(登録が必要)。一部は非常に流暢で、人間の担当者と区別がつかない。
顧客が、特に悪い経験の後にボットと話していたことに気づくと、信頼が損なわれる。失敗は法的および評判リスクを引き起こすこともある。
PoHは、サービスの流れを中断することなく、顧客が人間かボットと話しているかを示すことで役立つ。プライバシー保護ツール(登録が必要)は、従業員の機密情報を開示することなく、人間へのエスカレーションを可能にする。また、分散型アイデンティティフレームワークは、返金や紛争などの潜在的に機密性の高い取引中に両当事者を認証できる。
企業の生産性:これは誰が書いたのか?
AIエージェントはすでに職場ツールに組み込まれている。文書の作成、会議のスケジュール設定、さらには意思決定まで、すべて最小限の人間の介入で行っている。人間の関与が減少するにつれて、誤った情報や幻覚された情報が内部システム全体に広がり、説明責任を複雑にする。その(悪い)判断を下したのは人間なのか、AIなのか?
認証された著者ツールは、企業の自律型AIの同僚の活動に明確さをもたらすことができる。文書が検証された人物によってレビューまたは作成されたかどうかを示すデジタル確認を埋め込むことで、組織はトレーサビリティと説明責任を維持できる。
一方、著者チェーンプロトコル(ダウンロードが必要)は、AI生成コンテンツが人間の承認を装わないようにし、重要な知的財産が組織内を流れる際の出所を維持する。正確性と説明責任が最も重要な企業では、これらの安全策は急速に必須条件になりつつある。
なぜ重要なのか
その重要性は透明性を超えている。PoHは詐欺を減らし、規制遵守を確保し、本物の対話が最も重要なセクターでの信頼を維持する。
同時に、これらのシステムには独自の課題がある。
例えば、プライバシー擁護者は、設計の悪い検証ツールが必要以上の個人データを露出させる可能性を懸念しており、新たなサイバーセキュリティリスクを生み出す恐れがある。アクセシビリティも懸念事項だ。すべての人が最新のスマートフォン、政府発行のID、信頼性の高いインターネット接続を持っているわけではなく、PoH要件が脆弱な人々を排除するリスクが生じる。
最終的に、標準の状況は断片化したままで、複数の技術的アプローチが広範な採用を競っている。相互運用性がなければ、組織はユーザーを混乱させ、信頼を損なう断片化したシステムを抱えることになりかねない。
しかし、これらのシステムの構築は、単一の組織だけでは解決できない共同責任である。企業はAIスタックに検証を組み込み、エージェントが安全で監査可能な範囲内で運用されるようにする必要がある。政府はデジタルアイデンティティのオープンスタンダードをサポートし、高影響システムにおける人間の説明責任を義務付けるべきだ。そして個人は、ますますオンラインで自分が人間であることを主張するツールを採用し、ますます自動化される空間で個人情報を保護しながら主体性を取り戻すことができる。
私たちは、インテリジェントエージェントが受信トレイから銀行口座まであらゆるものを動かす未来を構築している。しかし、誰が人間であるかを確実に証明できなければ、デジタル世界はますます信頼しにくく、ナビゲートするのが危険になるだろう。PoHは万能薬ではないが、自律型AIの時代において完全性と説明責任を維持する上で役割を果たすことができる。



