AI分野に精通している人々の中で、AIに関連するリスクがないと主張する人はほとんどいない。だが、AIシステムがいつの日か人類の生存そのものを脅かすようになるかどうかについては、見解は一致していない。「実存的リスク」と呼ばれるこうした脅威は、核戦争、小惑星の衝突、気候変動、パンデミックなどの具体的なものから、宇宙人の攻撃やナノテクノロジーの暴走といった難解なものまで広範囲に及ぶ。AIを実存的リスクに分類すべきだとする主張の理由はさまざまで、必然的に多くが推測に基づいている。そのような主張は無責任であり、推測にすぎない将来の問題を持ち出すことで目の前の現実にある問題を事実上無視していると批判する声もある。実存的リスクではないとことの根拠として、AIは能力が向上しているとはいえ、現状では単純なタスクでさえも完了できないものばかりである点を指摘する人も多い。
(forbes.com 原文)