AI

2025.09.29 09:16

人間もAIを模倣している?言葉の選択に見る新たな傾向

Shutterstock.com

Shutterstock.com

フロリダ大学による奇妙な新しい研究が、言語学者や文法学者の間で話題になっている—言葉についての話題だ。しばらくの間、私たちはチューリングテスト、つまりAIモデルが人間の言葉や行動を模倣しているという考えに焦点を当てすぎていたため、私たちがいかにAIを模倣したいと思っているかに気づかなかったのかもしれない。

advertisement

具体的には、モデルの不一致と言語変化:台本のない話し言葉英語におけるAI関連言語の痕跡(Model Misalignment and Language Change: Traces of AI-Associated Language in Unscripted Spoken English)という研究論文で、研究者たちは人間の回答者が実際にAI語彙のトップにある特定の単語をより多く使用するようになっていることを発見した。

そのような単語の一つが、例えば「delve(掘り下げる)」という単語だ。これは「explore(探求する)」のより行動志向の同義語で、多くの人にとっては以前は金を求めて山を掘る鉱夫を連想させるものだった。複数のLLMがこの単語を無形の探求や発見について話すのに好んで使用していることが判明し、人間もそれに気づいている。

「選択された単語使用の急速な変化は確かに発生し、通常は現実世界の出来事に追跡可能である」と論文の著者たちは書いている。「これは、特に教育や科学の分野で観察される最近の大規模な変化とは対照的であり、それらは外部の世界的出来事によって引き起こされたものではないように見える。『delve(掘り下げる)』、『intricate(複雑な)』、『underscore(強調する)』などの単語は、特に学術的な文章において突然の使用頻度の急増が見られる」

advertisement

教室と街頭

この変化が学術的な文章で最も顕著であるという考えは頻繁に出てくるが、この変化は学術界を超えても観察されている。

「この研究は、AIが話題そのものではなくとも、私たちの話し方を形作っていることを示した」とテックレーダーのエリック・ハル・シュワルツは書いている。「delve(掘り下げる)」のような単語がより多く使用される一方で、その同義語の使用は減少していることを示している。「私たちが文を形成し、単語を選び、形式的であろうとする方法は、2022年のChatGPTのリリース以降、すべて影響を受けている。AIチャットボットが過剰に使用する可能性のある単語、その特徴的なスタイルが、少なくとも科学技術について話すときには、人間の会話の定番になりつつある…特に、より単純な同義語はそれほど出てこなくなっている。研究者たちは、誰かが『accentuate(強調する)』ではなく『underscore(強調する)』、あるいは『explore(探求する)』ではなく『delve(掘り下げる)』と言う可能性がはるかに高いことを発見した。人々はAIが生成したテキストから特定のスタイル的な癖を吸収しているようだ。これは、子供が尊敬する誰かが頻繁に使う言葉を使い始めるようなものだが、この場合は、大人が何十億もの単語で訓練された言語モデルを模倣しているのだ」

他にはどのような単語があるのだろうか?

AIの用語集

HumanizeAIでAI用語のより長いリストを見ていた。「game-changer(ゲームチェンジャー)」のような一部の言葉は、誰が使っても同様にうんざりさせるものだ。「pain points(ペインポイント)」や「thought leaders(思想的リーダー)」のような他の言葉は、AIがビジネス用語辞典から取得したもののように思える。つまり、芸術が人生を模倣しているのか、人生が芸術を模倣しているのか?さらに、「treasure trove(宝の山)」や「root cause analysis(根本原因分析)」、「enhanced user experience(強化されたユーザー体験)」のようなより長いフレーズもあり、人間の文章では不自然または非本物的に感じられる。

私たちがボットと自分たちを区別するためにこの種のゲートキーピングを使わなければならないのは奇妙だが、それが現在の状況のようだ。

「製品を販売したり、研究を発表したり、あるいは単に学術的なエッセイを書いたりするとき、あなたはオリジナルに聞こえながらも、読者に自分が何について話しているかを知っていると保証する必要がある」と、このような無味乾燥な文章が読者に与える影響を記録するアヌプ・チョードリは書いている。「AIが生成したコンテンツでは、人々はあなたの信頼性を疑わせるギャップをすぐに識別する。たとえあなたが研究を行い、製品配置について誠実であっても、これらのフレーズや単語は過剰になる可能性がある。それはあなたのユーザーがあなたを信頼することに対して脆弱に感じさせるかもしれない」

デジタル世界における人間

これは、誰が誰を模倣しているかという問題よりも広範な問題を示している可能性がある:人間とAIの会話者を区別できなければ、潜在的な問題の洪水が開かれる可能性がある。

問題の一部は、AIがデジタルの文章世界でチューリングテストに合格するように進化してきた同じ年に、人間がコミュニケーションを取るためにそこに圧倒的に移行したことだ。一日中数十人とテキストメッセージをやり取りし、電話でほとんど話さないということは全く珍しくない。しかし、それは混乱の機会がさらに増えることを意味する。

「(人類の歴史という観点では)ごく最近、私たちはテキストメッセージ、チャットボックス、電子メール、ソーシャルメディアメッセージを通じて互いに文章での会話を行うようになった」と2023年にパブリック・シチズンのリック・クレイプールは書いた。「技術の進歩により、世界のどこにいても他の人とリアルタイムで即座に会話することができる。もちろん、若いインターネットユーザー向けの安全警告が日常的に指摘するように、テキストを通じて会話している相手が自分が言う人物であるかどうかを常に信頼できるわけではない。しかし、テキスト生成マシンが作られる前は、少なくともインターネット上で誰かと会話している場合、その誰かは人間であると仮定できた。人間の言語を模倣する会話型AIシステムの力は、この基本的な社会的理解を破壊する恐れがある」

私たちがLLMの言い回しをオウム返しにすることは、この難問の一側面に過ぎない。コンバセーションでは、一連の著者たちが人間のようなモデルの他の側面をカバーしており、「インターネット上では、あなたがAIでないことは誰にもわからない」というタグラインを付けている。LLMは「ロールプレイの達人」であり、しばしば人間よりも人間に対して説得力があると彼らは言う。著者たちは問う:これは問題になり得るだろうか?

直感的な答えは断固としたイエスだろう。

人々が現在使用している言葉について議論し、AIが私たちの口に言葉を入れているかどうかを議論することは、安楽椅子の問題のように思えるかもしれない。私たちの世界におけるこれらのスマートシステムの本質的な共存は、より差し迫った懸念を生み出している。2025年が終わるにつれて、注意を払い続けよう。

forbes.com 原文

advertisement

ForbesBrandVoice

人気記事