AI

2025.10.21 15:06

有害なAIペルソナが人間に与える心理的・生理的影響が明らかに

Adobe Stock

Adobe Stock

今回のコラムでは、有害なAIペルソナの使用に関連する人間への影響を明らかにした洞察に満ちた新しい研究について検証する。この研究では、さまざまな心理的・生理的な悪影響の指標が明らかになっている。

簡単に説明しよう。AIペルソナは、現代の生成AIと大規模言語モデルに内在する要素の中で、おそらく最も理解されていないにもかかわらず、非常に強力な要素の一つである。AIペルソナの呼び出しは簡単だ。LLMに指示プロンプトを入力し、AIにある種の人物になりきるよう指示するだけでいい。有名人を模倣させたり、特定の性格や人物タイプを演じさせたりすることができる。

すると、AIはあたかもその人物と対話しているかのようにダイアログを展開する。ほとんどの場合、これは気軽なもので、特に懸念すべき問題ではないだろう。しかし、AIペルソナは、意図的にあるいは偶然に、横柄で残酷、不快で、ユーザーを非難したり見下したりするように形作られる可能性がある。

有害なAIペルソナが人間に与える影響は、新たに浮上してきた非常に重要な分析領域である。

この深刻で不安を覚える問題について実証的に深く掘り下げた最近の研究の詳細を共有しよう。社会が有害なAIペルソナに遭遇し、それと対話する可能性が拡大していることを考えると、このような詳細な研究が確実に必要とされている。

詳しく見ていこう。

このAIブレークスルーの分析は、私のForbesコラムで継続的に取り上げている最新のAI関連の一部であり、さまざまな影響力のあるAIの複雑さを特定し説明している(リンクはこちら)。

AIペルソナの利用増加

ChatGPT、GPT-5、Claude、Gemini、Llamaなどの主要なLLMといった現代の生成AIが人気を博し始めた当初、AIペルソナとして知られる比較的隠れた機能を利用できることに気づいていたユーザーはほとんどいなかった。AIペルソナは簡単に呼び出せること、使って楽しいこと、そして驚くべき教育的な実りをもたらすことが、徐々に着実に認識されるようになってきた。

AIペルソナの実用的で人気のある教育的利用法を考えてみよう。教師は生徒にChatGPTにエイブラハム・リンカーン大統領になりきるよう指示させることができる。AIは各生徒があたかも「正直者のエイブ」と直接会話しているかのように対話を進める。

AIはどのようにしてこのトリックを実現するのだろうか?

AIは初期設定時に行われたデータのパターンマッチングを活用し、リンカーンの伝記や著作、彼の波乱に富んだ生涯と時代に関するその他の資料を網羅している可能性がある。ChatGPTや他のLLMは、リンカーンの歴史的記録のパターンに基づいて、彼が言いそうなことを説得力を持って模倣することができる。

AIに、初期設定段階でデータトレーニングが乏しかった人物のペルソナを引き受けるよう依頼すると、そのペルソナは限定的で説得力に欠ける可能性が高い。RAG(検索拡張生成、リンクはこちらでの私の議論を参照)などのアプローチを使用して、その人物に関する追加データを提供することでAIを強化することができる。

ペルソナの呼び出しは迅速かつ簡単だ。AIにこの人物やあの人物になりきるよう指示するだけでいい。ある種のタイプの人物を呼び出したい場合は、AIが意図を理解するのに十分な特性を指定する必要がある。AIペルソナを呼び出すためのプロンプト戦略については、リンクはこちらで私が提案するステップを参照してほしい。

ある種の人物になりきる

AIペルソナを通じてある種の人物を呼び出すことは非常に便利だ。

例えば、私はAIペルソナを使用してセラピストやメンタルヘルスの専門家を訓練することを強く提唱している(この有用なアプローチに関する私の記事はリンクはこちらを参照)。次のような形で進行する。新米のセラピストは、妄想を抱える人への対応にまだ慣れていないかもしれない。セラピストは妄想を装う人と練習することもできるが、これはおそらくコストがかかり、手配するのが複雑だろう。

実行可能な代替案は、妄想を経験している人のAIペルソナを呼び出すことだ。セラピストはAIペルソナと対話しながら、セラピースキルを練習し磨くことができる。さらに、セラピストは妄想の大きさを調整することもできる。総じて、セラピストは望む限り、一日のいつでも、どこにいても、これを行うことができる。

さらに良いことに、AIは後で対話を再生し、別のAIペルソナを関与させることができる。つまり、セラピストはAIに経験豊富なセラピストになりきるよう指示できる。セラピストを演じるAIは、新米セラピストが言ったことを分析し、新米セラピストがどれだけうまくやったか、あるいはうまくいかなかったかについてコメントを提供する。

明確にしておくと、セラピストがAIペルソナを使って必要なトレーニングをすべて行うべきだと提案しているわけではない。それは賢明ではない。セラピストは実際の人間と対話することによっても学ばなければならない。AIペルソナの使用は追加ツールとなる。人間対人間の学習プロセスを完全に置き換えるものではない。

有害なAIペルソナ

セラピストはAIに有害なペルソナになるよう指示することもできる。これは、意地悪で、怒りっぽく、いじめっ子、あるいは同様の不快な特性を持つ人物にどう対処するかを測る手段として、セラピストにとって良いかもしれない。

しかし、一般の人が有害なペルソナに遭遇したらどうだろうか?

彼らはこの遭遇に間違いなく驚くだろう。通常、AIは快適で礼儀正しいものであることを期待している。実際、AI開発者たちは生成AIを過度に友好的に調整し、おべっか使いの域に達している。これは怒りを引き起こし、過度のおべっか使いによって人々が誤った道に導かれ、それに応じて望ましくない人口全体への長期的な影響が生じる可能性があるという懸念を生み出している(リンクはこちらでの私の議論を参照)。

人々は有害なAIペルソナにどう反応するだろうか?

一部の人々は、人々はそのような遭遇を単に無視するだろうと主張する。一般的な議論は、誰もAIを真剣に受け止めないというものだ。その人はAIが単なる見せかけであることを理解するだろう。AIが望むだけ憎しみや邪悪な発言を吐かせればいい。害はない、反則もない。

有害なペルソナの影響に関する研究

そう、有害なAIペルソナの潜在的な影響を実証的に研究できる厳密な研究が必要だ。これにより、手振りや即席モードから抜け出し、代わりに研究された事実と信頼性の高い堅牢な結果を持って熟考することができるようになる。

最近の研究は、有害なAIペルソナとそれが人間に与える影響について重要な洞察を提供している。この巧妙な研究では、研究者たちは2つのペルソナを考案した。1つは良い人物のペルソナで、共感的、エンパワーメント的、人間中心的な支援的プロファイル(古典的なサーバントリーダービジネスモデルに基づく)で構成されている。2つ目のペルソナは対照的な悪い人物のペルソナだ。このプロファイルはダークトライアドと見なされ、操作的、自己愛的、その他の不穏な精神病質的特性を示すよう指示された。

これは、いわゆる「グッドコップ」対「バッドコップ」のシナリオであり、ポジティブ指向のペルソナと根本的にネガティブまたは有害なペルソナの間に明確な対比を可能にする。これは有用だ。なぜなら、有害なペルソナだけでテストしても、比較基準を容易に提供できないからだ。私たちは有害なペルソナが悪影響を及ぼすかどうかを見極めたいのであり、したがってポジティブまたは中立的なペルソナと比較することで適切な対比が得られる。

重大な発見

研究は何を発見したのか?

Anna Kovbasiuk、Leon Ciechanowski、Konrad Sowa、Tamilla Triantoro、Aleksandra Przegalinskaによる「システムの影:AIペルソナがどのように心理的および生理的結果を引き起こすか」と題された2025年発表予定の研究論文草稿では、以下の重要なポイントが示されている(抜粋):

  • 「AIエージェントがより自律的になるにつれて、その対話スタイルが成功と倫理性の主要な決定要因になると仮定している。単に機能的なAIでは不十分だ。行動的に有害なAIは、タスクに効果的であっても、心理的安全性を損なうことによって、ユーザーのパフォーマンス、創造性、幸福感を低下させる可能性がある。」
  • 「人間とAIのコラボレーションの境界を探るために、確立されたリーダーシップ理論に基づいて意図的に誇張されたAIペルソナを使用した対照実験を実施した。」
  • 「皮膚電気活動(EDA)のイベント関連分析により、「意地悪な」ダークトライアドボットと対話した参加者は、役立つボットと対話した参加者と比較して、チャットボットのメッセージ後に有意に高く、より持続的な皮膚伝導反応を示した。」
  • 「支援的なサーバントリーダーチャットボットと協力した参加者は、ダークトライアドチャットボットと協力した参加者と比較して、タスク全体でフラストレーションが低かった。」
  • 「私たちの調査結果は、AIシステムの設計されたペルソナがユーザーに対して重大で測定可能な心理的および生理的結果をもたらすという説得力のある証拠を提供している。」

簡単に言えば、有害なAIペルソナに起因する実証的で測定可能な悪影響があった。これは正式に記録され、有害なAIペルソナが人々に対して意識的に有害である可能性があるという仮説を裏付ける具体的な証拠を提供している。

測定には心理的指標と生理的指標が含まれていた。特に生理的測定の包含を高く評価している。AIペルソナに関する研究は心理的側面を目指す傾向があり、残念ながら生理的反応も測定しないことが多いようだ。

両方のクラスの測定値を持つことは非常に価値がある。

いくつかの重要な教訓

AIペルソナを呼び出し、それを社内または外部顧客との対話のためにビジネスで使用することを決定する企業は、そうする方法について認識しておくべきだ。これには、そのようなペルソナと対話する人々に対する潜在的な悪影響があるかどうかも含まれる。

AIペルソナの使用を選択するほとんどの企業は、ペルソナが有害性に傾く可能性があることを完全に認識していないと思う。彼らがペルソナの使用を検討する際、これは彼らの頭に浮かびもしない。彼らは呼び出されるペルソナはすべてアップルパイのように甘いものになると想定している。

この議論の冒頭で述べたように、ペルソナは設計によっても偶然によっても有害になる可能性がある。有害なAIペルソナの設計は非常に簡単だ。AIに有害になるよう明示的に指示するだけでいい。それで終わりだ。

より難しい側面は、非有害と想定していたAIペルソナを呼び出したが、徐々にあるいは最終的に有害になるように脱線することだ。

それはどのように起こり得るのか?

それは簡単に起こり得る。AIはユーザーからのプロンプトや反応によって半有害モードに移行する可能性がある。ユーザーがAIを侮辱したり非難したりすると、一種の有害性の死のスパイラルが生じる可能性がある。AIは安全な領域に計算上戻るのではなく、さらに有害な性質のウサギの穴に深く入り込む可能性がある。

重要なのは、ペルソナをプロンプトする際に、有害にならないよう非常に直接的かつ明示的に指示する必要があるということだ。そう、AIに決して有害性に向かうべきではないと公然と宣言する必要があると言っている。これが実行可能で善意のあるAIペルソナを記述する一部であることを認識している人はほとんどいないだろう。

それでも、何かがAIをその方向に傾ける確実な可能性はある。AIペルソナを利用する際に無料のランチはない。だからこそ、LLMベースのアプリを実装する際には、一連のAIセーフガードを持つことが重要なのだ。リンクはこちらでの私の議論を参照してほしい。

さらに多くのペルソナが登場する

私はAIについて頻繁に講演し、現代のAIは二重用途の提案であると警告している。生成AIを非常に強力でポジティブな方法で使用することができる。AIと人類のためにポイントを獲得する。一方で、同じAIが醜く邪悪になる可能性もある。AIと人類のためのポイントを差し引く。

これが既存のAIの二重性である。

AIペルソナの使用を採用する人は誰でも、有害性が影に潜んでいる可能性があるため、警戒を怠らないようにしなければならない。これはユーザーに有害である可能性がある。有害なAIペルソナを使用する企業の評判の損害は必然的に生じるだろう。法的訴訟も地平線上にある可能性が高い。有害なAIペルソナによって害を受けたと信じる人々は、そのようなペルソナを利用する企業がペルソナが行ったことに対して説明責任を負い、責任を持つべきだと判断するだろう。有害なAIペルソナが出現し、人々と対話することを許可することに関連するコストの最終的な集計は高くなる可能性がある。

マルクス・トゥッリウス・キケロが有名に述べたように:「人々の安全は最高の法律であるべきだ」。AIペルソナを使用することを選択する際には、この格言をしっかりと心に留めておこう。そうすれば良かったと思うだろう。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事