AI

2024.03.08 10:00

AIが生成する「ウソ」を検知、企業への被害を事前に防ぐEnkrypt AI

Enkrypt AI 共同創業者のPrashanth Harshangi (写真左)とSahil Agarwal(同右)(C)Enkrypt AI

人工知能(AI)が誤った回答を導き出すことへの懸念が高まる中、ボストンに本拠を置くスタートアップEnkrypt AI(エンクリプトAI)は、その対応策を発見したという。生成AIを用いたチャットボットによる口汚い言葉の使用や回答のでっち上げといった問題を根絶することを目指す同社は2月27日、235万ドル(約3億5000万円)を調達したことを発表した。

「多くの企業は、生成AIと大規模言語モデル(LLM)がビジネスにもたらす可能性に興奮すると同時に、リスクにさらされる危険性が増すことを懸念している」とEnkryptの共同創業者でCEOのSahil Agarwal(サヒル・アガーワル)は話す。

AI導入の失敗事例が公になるにつれ、こうした懸念は増大している。例えば、エアカナダはチャットボットが近親者を亡くした顧客に格安運賃が適用になると誤った案内をした結果、顧客から訴えられて敗訴した。また、シボレーが導入したチャットボットは、ユーザーによって競合の自動車メーカーのテスラやBMWの車を顧客に勧めるよう操作された。企業は、生成AIがもたらすセキュリティリスクについても懸念している。

「こうした問題は繰り返し起きている」とアガルワルはいう。彼は、エール大学の博士課程で同期だったPrashanth Harshangi(プラシャンス・ハルシャンギ)と2022年にEnkryptを設立した。LLM技術の開発に何年も取り組んできた2人は、AIの「幻覚(ボットが虚偽の情報を生成する現象)」などの問題は、以前から存在していると指摘する。「生成AIへの関心が高まったことで、このような問題に焦点が当たっているだけだ」とアガルワルは話す。

「AI導入のメリットがより具体的になるにつれて、リスクも増大している。我々のプラットフォームは、脆弱性を検出するだけでなく、現在と将来の脅威に対してAIソリューションを強化するための包括的なツールキットを開発者に提供している」とCTOを務めるハルシャンギは話す。

Enkryptは、企業のLLMと顧客や従業員などのユーザーとの間に位置するソフトウェアを開発している。同社のソフトウェアは、LLMとユーザーの会話を常時チェックし、問題のある回答を検知すると被害が発生する前にやり取りを中断する。

この技術は、Enkryptが特定の問題に焦点を当てるために設計した「detectors」と呼ばれるテストに基づいている。幻覚を例にとると、同社のソフトウェアは質問に対するLLMの回答を、過去に同じような質問をしたときの回答と比較し、食い違いがあると問題として指摘する。ソフトウェアは、ユーザーの行動も監視しており、セキュリティ侵害などの脅威を検知することが可能だ。
次ページ > 既存のツールが対応できない問題

編集=上田裕資

タグ:

ForbesBrandVoice

人気記事