AI

2025.11.18 15:00

OpenAIが警告する「AIのリスク」 あなたの仕事に影響が出る可能性がある

Shutterstock.com

Shutterstock.com

ここ数年で「超知能(superintelligence)」という言葉を耳にする機会が増えたはずだ。しかし、SF的で現実離れした響きゆえに、自分には関係のないものとして、実際に何を意味するかについて関心を払わない人も多いだろう。

だが、OpenAIがこのたび警告を発した。人工知能の開発が超知能へと向かって進む場合に何が起こりうるのか、そしてそれが社会と今日の労働者にとって何を意味するのかを鮮明に思い起こさせる内容である。同社の声明は、ChatGPTが公開されてからちょうど3年目となる米国時間11月6月付で出され、超知能による潜在的な壊滅的被害とリスクに対して防御を行うためのガードレールについても概説している。

この声明を読みながら、超知能、さらには汎用人工知能(AGI)が雇用におよぼしうる巨大な影響について考えずにはいられなかった。いま軽視している人々も、どれほど重大な関心事であり、働き方の未来にとってどれほど重要な要素かをいずれ痛感するだろう。

まず、そもそも超知能とは何なのだろうか。

超知能とは何か

超知能はASI(artificial superintelligence、人工超知能)とも呼ばれ、AGI(artificial general intelligence、汎用人工知能)とはやや異なる概念だ。IBMによれば、ASIは「機械が、最も高度で才能のある人間の認知能力すらも上回ること」に主眼があるという。

もちろん現在、私たちはその段階にはまったく到達しておらず、現時点ではあくまで仮説的な可能性にとどまっている。研究者や科学者は依然としてAGIの実現に向けて取り組んでおり、AGIとは、推論や問題解決において人間の能力に直接匹敵できるAIを指す。

OpenAIは超知能について何と言っているのか

OpenAIは米国時間11月6日に発表した声明の中で、次のように述べている。

「潜在的な利点は計り知れないが、私たちは超知能システムのリスクを潜在的に壊滅的なものとして扱っている。安全性アラインメント(AIの目標を人間の価値観に合わせること)を実証的研究することが、再帰的自己改善が可能なシステムに近づくにつれて、業界全体が開発を減速させてこれらのシステムをより慎重に研究すべきかどうかなど、グローバルな意思決定に役立つと考えている。明らかに、もし超知能システムを確実に整合させ制御できないのなら展開すべきではなく、これにはさらなる技術的な取り組みが必要である」

この声明では、OpenAIがAIをこの水準まで進めることに伴う潜在的危険を認めたうえで、想定されること、そしてこの実験を安全に成功させるために何が必要になるかを明確にしている。

次ページ > 仕事への影響はどうなるか

翻訳=酒匂寛

タグ:

advertisement

ForbesBrandVoice

人気記事