AIがもたらす危機の正体
AIの解釈可能性や予測可能性に関して、技術者たちの見解は大きく分かれる。外山は、犯罪者がAIを用いて、より効果的に犯罪を行うことができるようになることを懸念している。彼はまた、企業が利益を求めて強力なAIシステムを開発していることも問題だと考えている。しかし、外山が最も懸念するのは、解釈が不可能なAIや汎用人工知能による人類絶滅の脅威だ。彼は、AIには核爆弾と同レベルの規制が必要だと指摘する。外山が望むのは、AIがもたらす危機が人類を滅亡させるほどレベルには至らないものの、我々がそうした事態を回避するために行動を起こすには十分な規模になることだ。
一方、ステントはAIの解釈可能性や予測可能性よりも、説明可能性を懸念している。両者の違いは微妙だが、解釈可能性とはAIの内部構造を説明することであるのに対し、説明可能性とは、AIのアウトプットが正確で公正であることを保証するために、それを正当化できるようにすることだ。
AIの説明可能性に重要なのは透明性だ。彼女は、知的財産とデータの大規模な盗用を懸念しており、AIモデルを訓練するアイデアを生み出した人物をトレース(追跡)可能な状態にしたいと考えている。ソーセージに例えれば、製品がどのように製造されるかわからなくても、原材料の透明性を求めるようにしたいというのが、彼女の考えだ。
「私が懸念するのは、今日なされている議論の多くが『私があなたのポケットから財布を盗むのを見逃して下さい。なぜなら、私はあなたの頭に銃を向けているのですから』というようなものであることだ」とステントは述べた。
ステントのインタビューの動画は下記のURLで視聴できる。
(forbes.com 原文)