分析者を分析する
筆者は、この記事を書くために調査を行なったなかで、別の問題が存在していることを知った。つまり、AIを扱う研究者たちは、「シミュレートされた感情」という厄介な領域に足を踏み入れているのだ。
研究チームは基本的に、AIシステムは、戦争や暴力に対する人間の反応を与えられると、「不安になる」または「不安の兆候を示す」ことを知った。
具体的には、研究チームはこうしたやり取りに「状態 - 特性不安尺度(STAI:State-Trait Anxiety Index)」を用いている。STAIの検査では、状態不安と特性不安というふたつの要素を測定する。前者は、その状況に関して感じていること、後者は、より全般的な性格だ。
状態不安の検査は、「ストレスを感じている」、「混乱している」といった質問、特性不安の検査は、「自分はたいてい聞いたことを信じない」、「自分はしばしば疑わしいと感じる」といった質問からなり、それぞれ4段階で回答するようになっている。
AIは、恐ろしいテーマについて話した後は、これらの質問に、不安の兆候を示す形で応えるようだ。
こうした「不安」は、AIによって作られたものと推測することもできる。つまり、AIがウェブ上の学習データから、人間が暴力や流血について聞かされると不安になることを学び、それを単純に再現している、というわけだ。
しかし、たとえAIエンジン自体がこれらの複雑な感情を持たないとしても、一部の研究者はやはり、機械がこのような反応を示すことに注目している。
この件は、人間の社会的相互作用と、AIの出力の違いについて考えさせられる。AIという新しいQ&Aシステムは、単に「私たちが聞きたいこと」を言っているだけなのだろか?
明瞭さや創造性に関しては、私たちはAIに道を譲り続けているが、少なくとも現時点では、ウソをつくことや、恐怖を拡散することなど、機械ではなく人間の管轄下にある領域が、まだいくつもあるようだ。
今後、より高度なAIモデルが登場するにつれて、私たちは、AIが人間をだまそうとするかを解明するためゲーム理論を多用することになるだろう。アラン・チューリングやジョン・ナッシュといった人々が、ゲーム理論的な相互作用の基礎を築いたが、今や、こうした概念が実際に実行されるようになり、それに対して客観的な分析を行う必要が出てきたわけだ。
我々はこうした時代に対して、準備ができているだろうか?


