AI

2025.12.23 22:51

AI開発企業の安全性評価、大手テック企業でも「C評価」が最高点

stock.adobe.com

stock.adobe.com

未来生命研究所が先週発表した最新のAI安全性指標によると、AIからの安全を確保する取り組みにおいて、大手テック企業は不合格、あるいは最高でも「C」評価の学生程度の成績にとどまっています。この指標は、世界の主要な最先端AI研究所の透明性、技術的安全対策、ガバナンス慣行、そして存在リスクを軽減する準備状況を評価しています。

この指標は、成績表と公的なフィードバックツールの両方の役割を果たし、政府の規制が追いつくまでの間、独立した精査を活用することを目的としています。

「これは誰かを恥じさせるためのものではありません」と、マサチューセッツ工科大学(MIT)の物理学者で未来生命研究所の共同創設者であるマックス・テグマーク氏は述べています。同研究所は約3年前、規制体制が整うまで開発を一時停止するよう求める請願書を通じて、ますます強力になる思考機械に対する公衆の不安を明確化しました。「これは企業に改善のインセンティブを提供するためのものです」

テグマーク氏は、主要企業が汎用人工知能(AGI)に到達しようと競争する中で、規制がその競争を減速させるまでの間、この指標が大学がU.S. News & World Reportのランキングを無視できないのと同様に、企業が無視できない公的圧力を生み出すことを期待しています。

しかし、拘束力のある基準がなければ、どの企業も減速する余裕を感じないと彼は認めています。真剣な規制があれば、競争のインセンティブは逆転するだろうと彼は主張します:安全性の基準を最初にクリアした企業が最初に展開を許可されるでしょう。

重要な時期のスコアカード

2024年の指標では、Anthropic、Google DeepMind、Meta、OpenAI、xAI、そして中国のZhipu AIの6社を、リスク評価、現在の危害、安全性フレームワーク、存在リスク安全戦略、ガバナンスと説明責任、透明性とコミュニケーションの6つのカテゴリーで評価しました。採点システムは米国のGPA尺度を反映しています。

昨年の指標では、Anthropicが最高の総合評価である「C」を獲得しました。他はその下に広がり、Google DeepMind、OpenAI、xAI、Zhipu AIはD評価帯に集中しました。Metaはストレートの「F」評価でした。

最新の2025年冬版では、いくつかの改善が見られ、AnthropicはCからC+に上昇しました。OpenAIとGoogle DeepMindも大幅な向上を示し、D評価帯からそれぞれC+とCの評価に上昇しました。これは主に文書化の拡充によるものです。

しかし、xAI、Meta、Zhipu AIを含む残りの企業は、限定的な進歩しか示さず、D評価帯に留まっています。

この指標は現在、AlibabaやDeepSeekなどの主要な中国の研究所も含め、米国中心の最先端を超えた評価を広げています。追加された中国企業も、安全性開示の限定性と弱い存在リスク戦略のため、D評価帯の評価を受けました。

最も厳しい結論は「存在安全性」カテゴリーに集中しています。これは、特に人間の知性を超えた場合に、無制限のAIが文明に壊滅的なリスクをもたらす可能性があるという懸念の高まりを反映したカテゴリーです。

存在安全性において合格点を獲得した企業は一社もありませんでした。

「最高評価の企業でもC+評価にとどまっており、それは改善の余地がたくさんあることを意味しています」と、未来生命研究所のAI安全調査員であるサビナ・ノング氏は述べています。

この調査では、各研究所に超知性システムを制御下に置くための検証済みの計画があるかどうかを尋ねました。信頼できる提案を明確に示せた研究所はありませんでした。

独立評価者の一人であるカリフォルニア大学バークレー校のスチュアート・ラッセル氏は、理解不能なほど大規模なデータセットで巨大な「ブラックボックス」モデルを訓練する現在のパラダイムは、そのような保証を提供することが構造的に不可能かもしれないと主張しています。この指標は厳しい現実を浮き彫りにしています:私たちは完全には理解していないシステムを構築しており、それが誤作動した場合の安全ブレーキがありません。

2025年の指標は最終的に、AIの能力が安全性よりもはるかに速く向上していることを強調しています。

規制の必要性

テグマーク氏は、臨床試験や原子力安全性との類似性を指摘しました。これらの分野では、規制当局が展開前に定量的な証拠、厳格な管理、透明性のあるテストを要求します。AIはおそらくより強力でより汎用的ですが、同等のものがありません。

一方、米国の政策立案者は、有意義な監視がどのようなものになるかについて苦心しています。ロイターNEXTカンファレンスで、米国AI安全研究所のエリザベス・ケリー氏は、AIの安全装置の基礎となる科学がまだ変化していると述べました。開発者自身も、悪用を防ぐための標準的なプレイブックを持っていません。

最先端研究所を超えた問題

この指標は最も目立つ企業を考慮していますが、実世界での多くの害は他の場所から発生しています。

たとえトップ研究所がいつか「A」評価を獲得したとしても、同等の害をもたらす可能性のある小規模なモデルやオープンソースの派生物の長いテールが残っています。

一部の研究者は、安全性評価は最終的にモデル開発者だけでなく、AI生成コンテンツを増幅し収益化するプラットフォームも含むべきだと主張しています。それらの下流の影響を追跡、監査、または制約するメカニズムがなければ、「安全な」トップティアモデルでもより大きな問題を解決することはできません。

現時点では、この指標はAIの約束とそのガバナンスの間のギャップを明らかにしています。指標の次の反復が実際の改善を記録するかどうかは、研究所が約束することよりも、政府、標準化団体、およびより広いエコシステムがそのガバナンスの空白を埋めることを決定する速さにかかっているかもしれません。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事