AI

2023.05.31

AIで人類「絶滅」の恐れ、テック業界リーダーらが警告

OpenAIのサム・アルトマンCEO(Sven Hoppe/picture alliance via Getty Images)

「人工知能(AI)がもたらす絶滅のリスクを低減することは、パンデミックや核戦争などの社会規模のリスクと並んで、世界的な優先事項であるべきだ」──テクノロジー業界トップや専門家のグループが30日、このように警告する1行の声明文を出した。AIの潜在的な害に対する懸念が高まり、ますます高度なシステムが公開される中、AIの危険性に注意を促す声が高まっている。

米非営利団体「Center for AI Safety(AI安全センター)」を通じて発表された声明文には、ChatGPT(チャットGPT)を開発したOpenAIの(オープンAI)のサム・アルトマン最高経営責任者(CEO)、DeepMind(ディープマインド)のデミス・ハサビスCEO、Anthropic(アンソロピック)のダリオ・アモデイCEOをはじめ、AI分野で活躍する著名な経営者や専門家が多数署名している。

他にも、Google(グーグル)やMicrosoft(マイクロソフト)などの企業に所属する専門家、AI分野のパイオニアとして知られるヨシュア・ベンジオやジェフリー・ヒントンといった高名なコンピューター科学者らも名を連ねている。一方、Facebook(フェイスブック)やWhatsApp(ワッツアップ)、Instagram(インスタグラム)を傘下に持ち、AI分野にも進出しているMeta(メタ)の幹部の署名はない。

AI安全センターは、AIに関する安全性の研究や安全基準の提唱を通じて、社会レベルのリスク低減に取り組んでいる。ディレクターのダン・ヘンドリクスは「AIによる絶滅リスクを低減するには、核戦争のリスク低減と同様のグローバルな行動が必要になる」と述べ、核に対して取られているのと同等レベルの努力と調整を行わなければ、将来的なAIのリスクに適切に対処できないと強調した。

ヘンドリクスは、合わせて発表されたプレスリリースで「AIのリスクに不意を突かれないよう、ガードレールを設置し、制度を整備するのに早すぎるということはない」と主張。AIの潜在的な影響についての社会的な懸念の高まりは、原子力の黎明期に起きたことを思い出させるとし、「原子爆弾が作られる前に原子力科学者が行ったような対話をしなければならない」と述べている。また、誤情報の拡散や雇用の大量喪失など、すでにAIによって起きている差し迫った問題への対処も重要だが、「AI業界と世界中の政府が、将来AIによって人類の生存が脅かされるリスクに真剣に向き合うこと」ことが肝要だと訴えている。
次ページ > AIは「実存的リスク」をもたらすのか

編集=荻原藤緒

タグ:

ForbesBrandVoice

人気記事