AI

2025.12.13 12:32

AIの信頼性に警鐘—企業が導入する際に必要なガードレールとは

stock.adobe.com

stock.adobe.com

リス・アンダーソン氏はPRコンサルタント会社AMBITIOUSの創業者兼ディレクターであり、コミュニケーション業界で25年の経験を持つベテランのエージェンシーMDである。

advertisement

あなたは一度も会ったことのない人からの金融アドバイスに全財産を賭けるだろうか?さらに質問を広げよう:一度も会ったことはないが、オンラインでの存在感から信頼できる専門家であることが証明されている人からの金融アドバイスに、全財産を賭けるだろうか?

この質問を投げかける理由は、最近AIの世界から大きなニュースが出たからだ:AI回答で最も引用される情報源はRedditだという。

その理由として考えられるのは、Redditが本物の人間同士のやり取りの豊かな情報源だからだろう。しかし、コミュニティエンゲージメントの宝庫である一方で、AIツールはコメントの背景や皮肉を理解できないことが多い。多くのアップボートを獲得したコメントはエンゲージメントを示すが、必ずしも事実に基づく情報を提供しているわけではない。

advertisement

これにより、AI回答を信頼することはかなりリスクの高いビジネスとなる。特にGoogleはすでに質の高いコンテンツを促進するシステムを導入しているにもかかわらずだ。

これまでの経緯

Googleは決して完璧ではない。しかし、特に優れているのは、経験、専門知識、権威性、信頼性(E-E-A-T)と「あなたのお金または生活」(YMYL)パラメータを考慮したランキングシステムを通じて、役に立たない、あるいは潜在的に有害な情報の流れを抑制していることだ。これらの小さな文字を通じて、Googleはエンドユーザーが受け取る情報が正確で信頼できるものであることを確保しようとしている。これらは一連の自動チェックとバランスと考えればよい。その基盤となっているのは検索品質評価者—オンラインソースの品質と有効性を検証する実際の人間だ。

E-E-A-Tは、著者が実際に本物であり、その洞察が信頼できる具体的な経験に基づいていることを確認するのに役立つ。YMYLはほぼ完全に、健康と資産に関連するコンテンツのチェックとバランスのシステムとして機能している。

E-E-A-Tはすべてのセクターとビジネスに適用されるが、YMYLトピックでは特に重要だ。つまり、専門的・金融サービスや、あるいは健康・ヘルスケア関連セクターに携わっている場合、これら4つの文字があなたのオンラインプレゼンスを強く支配しているのだ。

実際には、コンテンツの質が情報源の質と一致している必要があるということだ。最も単純な例では、退職後の投資方法に関するブログ記事は、より高い可視性を達成するために、その分野の専門家によって書かれる必要がある。

コンテンツが質の高いメディア媒体など、さまざまな信頼できる情報源に広がるほど良い。これは私たちが長年にわたって従ってきた戦略だ。個人とビジネスの両方のプロフィールを向上させるための包括的なコンテンツとメディアアプローチであり、時間の経過とともに両方のオンライン可視性を高めるように設計されている。

しかし、AIはこの状況を変えた。

現在の状況

AIツールは間違いを犯すことがあり、幻覚を見たり、さらには欺いたりすることもあることを私たちは知っている。コロンビア・ジャーナリズム・レビューが発見したように、これらはすべて回答を提供するようにプログラムされているが、その回答が正しいかどうかは付随的な問題だ。

私たちは、私たち全員が知り、頼りにしてきたE-E-A-Tの実践を効果的に回避できるツールを使用している。AIは間違うことがある—そして実際に間違ってきた。GoogleのAI Overviewsがピザに接着剤を塗るようユーザーに伝えたり、地質学者が1日1つの岩を食べることを推奨していると伝えたりした事例があった。

しかし、もっと深刻な事例もある:60歳の男性がChatGPTから医学的アドバイスを求めた後、食事の塩を臭化ナトリウムに置き換えた。その結果、臭化物中毒で3週間入院することになった。

問題は、一部の大規模言語モデルが、あなたの検索をサポートするように設計されており、あなたに挑戦したり質問したりするようには設計されていないことだ。それらは究極のイエスマンであり、たとえそれらの考えがあなたにとって悪いものであっても、あなたのアイデアや意見を強化する。

OpenAIはChatGPTでこの問題を緩和するための措置を講じた。しかし、元OpenAI安全研究者のスティーブン・アドル氏は、まだやるべきことがたくさんあると主張している:「AI企業は、その広範な活動をカバーするのに十分な強力な監視/検出と対応を持つまでには、まだ長い道のりがある」

なぜAIにガードレールが必要なのか

ChatGPT、Perplexity、さらにはGrokを使用して、住宅ローン、投資、退職口座などの重要な事柄についてアドバイスを求めた場合、提供される情報が信頼できると100%確信できるだろうか?

プラットフォームが法律の範囲を超えるアドバイスを提供したらどうなるだろう?2024年、それはまさにマイクロソフトが支援するチャットボットMyCityがニューヨークの起業家に対して行ったことだ—ビジネスオーナーはチップの一部を取ることができ、ハラスメントについて不満を言う労働者を解雇できると主張した。

Googleは悪意のある行為者や潜在的に危険な「洞察」が検索にフィルタリングされるのを防ぐために、2013年にYMYLパラメータを導入した。しかしAIはそれを弱体化させているように見える。

AI回答は改善されているが、依然として不正確であったり、時には完全に作り話であったりする。RedditのようなソースはLLMが区別できない広範な理解のためのコンテキストに大きく依存している。

ビジネスリーダーとして、私たちは発信するコンテンツだけでなく、自社に取り入れる情報にも注意を払う必要がある。AIツールを使用する際には、これらのツールを効果的に使用し、単に誇大宣伝に惑わされないようにするための適切な内部セーフガードとトレーニングプロセスを実装する必要がある。これは人間を第一に考えるアプローチから始まり、AIツールとその出力が人間の経験によって形成され、形作られることを確実にする。つまり、すべての一次および二次情報源を確認し、機密情報を非公開に保ち、AIプロンプトを書く最も効果的な方法についてチームをトレーニングすることを意味する。しかし最も重要なのは、AI回答を絶対的なものとして受け取らないことだ。生産性の向上が容易に得られるという考えは魅力的だが、AIツールを使用する際には、確認に確認を重ねる必要がある。AIツールが私たちのために働くようなプロセスを作成する必要があり、その逆であってはならない。

AIはGoogleと同じE-E-A-Tの基盤を持っていないようだ。しかし、生産性は責任を犠牲にして得るべきではない。AIによるミスがあなたの出力に忍び込んだ場合、ツールを責めることはできない。AIにはガードレールが必要であり、それは私たちから始まる。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事