AI

2023.05.31

AIで人類「絶滅」の恐れ、テック業界リーダーらが警告

OpenAIのサム・アルトマンCEO(Sven Hoppe/picture alliance via Getty Images)

AIがもたらすリスクをめぐっては、イーロン・マスクやスティーブ・ウォズニアックらが署名した6カ月間のAI開発停止を呼び掛ける公開書簡など、市民社会、学術界、産業界のリーダーたちから警告が相次いでいる。ChatGPTに代表される生成AIの普及を受け、各社がより優れたシステムの迅速な開発・構築・導入を競う中で、議論の緊急性が増している。

AI分野に精通している人々の中で、AIに関連するリスクがないと主張する人はほとんどいない。だが、AIシステムがいつの日か人類の生存そのものを脅かすようになるかどうかについては、見解は一致していない。「実存的リスク」と呼ばれるこうした脅威は、核戦争、小惑星の衝突、気候変動、パンデミックなどの具体的なものから、宇宙人の攻撃やナノテクノロジーの暴走といった難解なものまで広範囲に及ぶ。AIを実存的リスクに分類すべきだとする主張の理由はさまざまで、必然的に多くが推測に基づいている。そのような主張は無責任であり、推測にすぎない将来の問題を持ち出すことで目の前の現実にある問題を事実上無視していると批判する声もある。実存的リスクではないとことの根拠として、AIは能力が向上しているとはいえ、現状では単純なタスクでさえも完了できないものばかりである点を指摘する人も多い。

forbes.com 原文

編集=荻原藤緒

タグ:

ForbesBrandVoice

人気記事