世論調査担当者は、もはや実在の人々を調査する必要はないのだろうか。それは誰に尋ねるかによる。
一部のベンチャーキャピタリストやシリコンバレーのスタートアップ企業によれば、世論調査の未来は「合成的」なものだという。別の呼び方では「シリコンサンプリング」と呼ばれ、調査回答者はAIボットである。これらのボットは、人間をモデル化する(つまり置き換える)ために選ばれる。我々は、研究者がAIモデリングを、人間の回答者が考え、発言し、行動するかもしれないことの代理として扱う段階に到達した。
これは未知の領域であり、危険な領域だ。合成的でAIが生成した調査データには、メディアの誇大宣伝や多額の資金調達ラウンドが伴うかもしれないが、多くの世論調査担当者は間違いを犯している。人間の回答者をボットに置き換えることで、情報を得る手段として調査研究に頼る人々を誤解させ、欺くリスクがある。AIモデルは、実在の人間の洞察を置き換えることはできない。最近のニューヨーク・タイムズ紙のオピニオン記事を引用すれば、「我々は、現実の社会を理解しようとするために、人工的な社会に頼るべきではない」。
米国人は懸念している。Outward Intelligenceの調査によると、米国の成人の83%が、AIがデータの品質と完全性に悪影響を及ぼす可能性について懸念している。
しかし、AIが調査研究とそれに依存する人々を脅かす必要はない。世論調査担当者は次のことを覚えておく必要がある。AI自体はデータではない。そうであるかのように装うことは極めて問題だ。
しかし、AIをデータのフィルタリングに活用することは、非常に有益である。AIが輝きを放つのは、人間による世論調査プロセスをより速く、より良くすることだ。AIは、サンプルがより代表的であることを保証し、リアルタイムかつ比類のない詳細さで回答をレビューし、無意味な回答(これは一般的だ)にフラグを立てることができる。
私は世界初のAIネイティブな定量調査プラットフォームの1つを監督しており、新しい技術はより大きな利益のために活用でき、データの品質と完全性を高めることができる。日常的に、我々のAIは数千のプロファイリングポイントを研究し、本物の回答者と偽物を選別している。
人間の専門家がサンプリングの誤りを捉えることは可能であり、彼らの意見は依然として重要だが、人的ミスは非常に現実的だ。人々は細かい点を見逃す可能性がある。だからこそ、人間の専門知識は最新の技術によってサポートされる必要があり、AIは支援の手となる。これらのツールは相互排他的ではない。
AIの支援により、人間の研究者はかつて不可能と思われていたことを達成できる。我々は、数日や数週間ではなく、数時間以内に調査を設計し、プログラムし、収集し、分析できる。そして結果はこれまで以上に正確になり得る。有料参加者が自動化ツールを使用して大規模に信頼性の低い調査回答を生成している世界では、「良いAI」が「悪いAI」と戦い、調査全体を無効にする可能性のある危険信号をサンプルから精査できる。
賭けは高い。職業としての世論調査への信頼が天秤にかかっている。ダートマス大学の研究によると、AIは人間の調査回答を非常に正確に模倣できるため、わずかな合成回答が検出を逃れながら全国選挙の世論調査予測を覆す可能性がある。特に2026年の中間選挙を前に、我々の民主主義が世論調査担当者が正しく行うことに依存していると示唆することは誇張ではない。
我々は世論をエミュレートする必要はない。我々は世論を知る必要がある。その指針となる原則を守り、AIの欠点を認識すれば、AI支援の世論調査は社会にプラスの影響を与えるだろう。しかしそれでも、世論調査担当者は実在の人間を調査することを意味する。



