AI

2025.05.21 09:30

AI生成の文章が増殖、最新研究が明かすコミュニケーション変容の可能性と落とし穴

Shutterstock.com

効率性と信憑性の間の綱渡り

2023年に英科学誌ネイチャーに掲載された論文では、「モデル崩壊」と呼ばれる現象について説明している。AIモデルが、人間の手で作成された多様なコンテンツよりも、AI生成コンテンツで訓練されることが増えると生じる現象だ。この研究では、AIコンテンツのみを学習データとして与えられたAIモデルは、時間の経過とともに性能が低下し、正確さ、ニュアンス、あらゆる種類の有用な出力を生成する能力が失われることが明らかになった。

advertisement

原則的にAIは、自らが出力した歪んだ移し鏡を食べ始め、ますます信頼性の低い、実際のデータから乖離したコンテンツを生成するようになる。この傾向は、学習用データソースとして扱うにあたってAI生成テキストの長期的有用性に深刻な問題があることを示唆している。

モデル崩壊を放置すれば、LLMはいよいよ役立たずになり、さらに反復的で無意味なコンテンツを生成する状態が現実化しかねない。そうなれば、ビジネスコミュニケーションからジャーナリズム、学術研究に至るまで、すでにAIの力を借りた文書作成に依存している界隈への影響は計り知れないだろう。

研究者や政策立案者は、短期的な影響について検討するのみならず、長期的な規制や倫理的な懸念にも取り組み始めている。AIが日常的なビジネスや組織の業務にどんどん組み込まれつつあるにもかかわらず、こうした問題はまだ大部分が未解決のままだ。

advertisement

AI生成文書が膨大に増え続ける中で、待ち受ける未来は?

AIを使って生成されたコンテンツが例外ではなく標準になるにつれ、企業は効率性と信憑性の間で綱渡りせざるを得なくなる。LLMによって生産性が向上するのは間違いないが、リャンらの研究は、AI依存に歯止めが利かなくなれば、重要なコミュニケーションにおける創造性と信頼性が損なわれると指摘する。

リャンの研究チームはすでに、金融コミュニケーションにおけるAIの導入と、それがより一般的な知識共有にどのような影響を与えるかについて、今後の研究計画を立てている。

「新しい研究アイデアがたくさんある。重要性の高い状況下でのコミュニケーションと意思決定に、LLMがどのような影響を与えるかを調査したい」とリャンは述べた。

AIで作成されたテキストが膨大に増え続けることによる予期せぬ結果をめぐる未来は不鮮明だが、ひとつだけはっきりしていることがある。AI生成コンテンツはもはや単なるトレンドではない。それは私たちのコミュニケーション方法を大々的に揺るがす地殻変動なのだ。

forbes.com原文

翻訳・編集=荻原藤緒

タグ:

advertisement

ForbesBrandVoice

人気記事