AI

2026.03.20 10:56

AIの次なるブレークスルーは、倫理と安全性を土台にしなければならない

AdobeStock

AdobeStock

AI企業Anthropic(アンソロピック)は先日、米国防総省に対して訴訟を起こした。同社が自律型兵器への使用や国内大規模監視を目的とした連邦政府によるAIへの全面的なアクセスを禁止したことを受け、国防総省が同社を「サプライチェーン上のリスク」と認定したことに対する異議申し立てである。

Anthropicの判断に対する反応は概ね好意的だ。同社のAIアプリ「Claude」は米国のApple App Storeで1位に浮上し、3月上旬にはダウンロード数が55%増となった。対照的に、競合するOpenAI(オープンAI)のアプリ「ChatGPT」は、創業者のサム・アルトマンが国防総省との取引を検討していると述べたところ、1日でアンインストールが295%増加した。

AnthropicOpenAIはいずれも、今回の判断について声明を発表している。AIとその能力をめぐるこの包括的な攻防は、次のAIのブレークスルーがより高速なモデルであるはずはなく、安全性と倫理に根差したものである必要がある理由を示している。

AIの利用は急増、一方で社会的信頼は低下

国防総省との交渉以前から、倫理的なAIをめぐる懸念は強かった。マルクラ応用倫理センターが米国人3000人を対象に実施した調査では、82%がAIが倫理的であるかを重視しており、55%はAI企業がAI開発において倫理を考慮していないと考えている。それでも、ピュー・リサーチ・センターの2025年の調査によれば、米国の成人の57%は少なくとも週に数回AIとやり取りしており、27%は1日に数回利用している。AIの利用が高水準にあるのは、使いやすいインターフェースと時間短縮という利点と一致する。MITとハーバード・ビジネス・スクールの研究者は、生成AIのコーディングツール「Copilot」を使用するソフトウェア開発者が技術関連の活動を12.4%増やす一方、プロジェクト管理の活動を24.9%減らしたことを明らかにした。

しかし、事実として誤情報を生成するAIモデルの挙動は「ハルシネーション」(幻覚)とも呼ばれ、最大で50%の頻度で起こりうる。なぜ、いつ起きるのかについての正確なデータはいまだ不明である。モデルの学習データの制約、正確性よりパターンを優先する設計、あるいは現実世界の理解の欠如などが要因になり得る。AIシステムは学習データに含まれるバイアスを受け継ぎ、増幅することもある。AIを採用して採用、金融、法務の意思決定を行う組織は、意図せず非倫理的な結論へ導かれる可能性がある。

不完全な技術が高頻度で使われる一方で不信感も強い状況は、制御を維持できるのかという疑問を突きつける。AI規制については、いくつかの州が独自の州法を制定しているものの、米国には現在、AI利用に関する包括的な連邦法は存在しない。

急速な反復開発には倫理的な限界がある

開発が指数関数的に進むなか、AIの能力はもはやボトルネックではない。ChatGPTは長いリリースの系譜と急速な反復を経ており、新機能を1週間に複数回展開することさえある。OpenAIとAnthropicはいずれも安全性に関する方針フレームワークを公表しているが、技術的なモデル改善はガバナンスを上回るスピードで進みうる。AIモデルの進歩は、人間の安全を代償にしている可能性がある。AIには意図しない害の実績があり、米国人の53%は、何かがAIによって作られたのか人間によるものなのかを見分けられる自信がない。製品が期待どおりに機能していないなら、将来的な有用性がいかに高くとも、ガードレールは設けられる必要がある。

「ハッスル」型のテック文化が安全でないAIを助長する

テック企業には、イノベーションとスピードを重んじる文化がある。それ自体は問題ない。しかし、何よりも市場投入の速さが優先されると、組織とユーザー双方にとって有害になり得る。リスク軽減戦略より新規ローンチを報いるインセンティブは、ガバナンスや安全のガードレールを脇に追いやりかねない。警戒すべきフィードバックを受け取ったり重大なバグが見つかったりすることは「普通」と見なされ、「次のバージョンに反映されるだけ」になってしまう。

こうした環境では、慎重で意図的なプロダクト開発よりも、素早い進歩への過度な集中が起きる。技術的負債の積み上がりを生み、それに対応する倫理的負債も生む。倫理と安全性は、何か緊急事態が起きるまで重要度が下がる。そしてそれは、すでに手遅れなのである。

安全と倫理を中核に据えてAIを構築するには、従来の「素早く動き、壊しながら進め」という文化とは根本的に異なる開発マインドセットが必要だ。テック企業は、自社の文化がユーザーの安全と倫理よりも迅速な提供を優先する方向に働いていないかを評価しなければならない。倫理と安全のリスクは、モデルを構築した後ではなく、構築の過程で優先して扱うべきだ。AIの普遍的な採用という観点においても、「とにかく急いで、あとは後で考える」は持続可能なイノベーションを支えない。

倫理的なAI開発とはどのようなものか

優れたAI企業は、探究心のあるシステム思考を用いて自己評価を行う。彼らは継続的に自問する。

  • AIは意思決定にどのような影響を与えており、それをどう追跡しているのか。
  • AIモデルの誤った分析をどのように追跡し、修正しているのか。
  • ユーザーのプライバシーとデータをどう守っているのか。
  • 学習データセットはどれほど正確なのか。
  • モデルが悪用され得る方法は何であり、それを最も効果的に防ぐにはどうすべきか。
  • 多様な背景とスキルセットを代表する開発者が適切に揃っているのか。
  • 脆弱性、バイアス、悪用シナリオを明らかにするために、どのようなストレステストを用意しているのか。
  • 自動化はどの時点で行き過ぎになるのか。

同様に重要なのは、社内の異論を受け入れることだ。AI研究者やエンジニアは、報復を恐れることなく開発上の判断に公然と異議を唱え、懸念を提起できるべきである。人間による監督、判断、説明責任は、自動化が社会に害を与えるのか、それとも利益をもたらすのかを見極める上で不可欠だ。

AI企業にとって、技術力はもはや課題ではない。倫理と安全性を備えたシステムを責任ある形で展開し、社会の信頼を獲得できるかどうかが成功を左右する。AIが雇用、金融、セキュリティに影響する意思決定へ組み込まれていくにつれ、論点は生産性向上をはるかに超えている。持続可能なイノベーションのために、AIの次の時代では人間による監督、倫理、安全性が最前線に置かれなければならない。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事