人工知能(AI)は、経済参加に影響を与える多くのシステムにおいて、重要かつ拡大する役割を果たしている。AIは、誰が採用され、誰が昇進し、誰が医療を受け、誰が給付金を受け取る資格があり、そしてますます、誰が信じられるかに影響を与えている。しかし、これらのシステムが拡大する中で、根本的な真実が会話からほぼ欠落したままである。今日のAI経済を支える多くの技術は、もともとアクセスを求める障がい者によって、障がい者のために構築されたものだったのだ。
AIが取締役会レベルの優先事項となるずっと前から、音声テキスト変換技術は主に、運動障がい、ディスレクシア、書字障がい、その他の学習障がいを持つ人々のための支援ツールとして開発され、コミュニケーションへのアクセスを改善してきた。スクリーンリーダーと代替テキストは、視覚障がい者や弱視のユーザーがインターネットをナビゲートできるように作られた。支援技術は、標準的なインターフェースから排除された際に、可動性に制限のある人々が機械にアクセスし、対話できるようにするために登場した。これらのツールは現代技術の基盤となった。今日でさえ、生成画像モデルは、スクリーンリーダーユーザーに視覚的意味を伝えるために作られたアクセシビリティの実践である代替テキスト説明の膨大なデータセットに大きく依存しており、それを画像と組み合わせて視覚言語がどのように機能するかを学習している。
アクセシビリティは基盤となるインフラストラクチャーである。しかし、AIシステムが仕事と市民生活の未来をますます形作る中で、障がい者は、自分たちの貢献の上に構築された技術の設計、ガバナンス、監視から大きく排除されたままである。
障がいはしばしばマイノリティの問題として議論されるが、実際には世界最大のマイノリティであり、誰もがいつでも参加できる唯一のマイノリティである。成人の4人に1人は、病気、怪我、加齢、または慢性疾患を通じて、生涯のうちに障がいを経験する。この現実にもかかわらず、ほとんどのAIシステムは依然として、中断のない生産が可能な身体と精神を前提とした、生産性、一貫性、パフォーマンスの狭い定義で訓練されている。これらの前提がアルゴリズムにエンコードされると、排除は目に見えず自動的になる。
他の人口統計データとは異なり、障がいは動的で文脈的である。それは診断と同じくらい環境によって形作られる。そして多くの障がい者にとって、そのデータを共有することは歴史的に、差別、機会の喪失、または不可欠な支援の削除という真のリスクを伴ってきた。その結果、障がいデータはしばしば欠落し、断片化され、または意図的に保留される。これはパラドックスを生み出す。データがなければ、システムは障がい者に適切にサービスを提供できないが、信頼がなければ、障がい者は安全にデータを共有できない。
これを解決するには、プライバシーを尊重し、同意を中心に据え、人々に情報の使用方法に対する制御を与えるシステムを構築する一方で、障がい者の生活の真の複雑さを反映する技術、政策、AIを設計するために必要な洞察を収集する必要がある。そのバランスがなければ、AIは少数のために最適化し続け、静かに多数を失敗させるだろう。
AIと新興技術は、障がい者のために扉を開いている。強力な方法で、日常生活における選択、自律性、参加を拡大している。音声ツールやスクリーンリーダーから、コミュニケーション、創造性、エネルギー管理を支援する生成AIまで、技術は多くの障がい者が以前は手の届かなかった方法で世界と関わることを可能にしている。一部の人々にとって、それは喜び、尊厳、可能性の感覚をもたらした。
そして同時に、深く正当化された不信感が存在する。
その不信感は、すでに大規模に経験された真の害に根ざしている。採用アルゴリズムは、化学療法、手術、入院、または慢性疾患の再発を反映することが多い履歴書のギャップを理解せずに、日常的にペナルティを課す。生産性監視ソフトウェアは、キーストローク、マウスの動き、またはオンライン時間を追跡し、休憩、柔軟なペース配分、または非線形のワークフローを必要とする従業員を罰する。オンライン評価は、能力ではなく速度と持久力をますます測定し、スタミナが才能と同義であるという誤った考えを強化している。
顔認識システムは、障がいのある顔の筋緊張、麻痺、または不随意運動を解釈できないことが多く、エラー率の上昇と誤認識をもたらす。音声認識ツールは、言語の違い、吃音、聴覚処理障がい、または支援音声デバイスに苦労することが多く、絶え間ない修正またはシステム障害につながる。それぞれのケースで、技術は壊れているのではなく、デフォルトで数百万人を排除する「理想的なユーザー」のモデルに従って機能しているだけである。障がい者コミュニティにとって、AIへの懐疑論はパターン認識である。
メーガン・ベントリー氏は、エンパワーメント、経済参加、公共政策の交差点で活動するグローバルAI政策リーダーであり未来学者であり、リーダーたちにこの瞬間を真剣に受け止め、注意を払うよう促している。ベントリー氏は以前、Visaの初の正式なグローバルAIガバナンスチームのリーダーであり、国連グローバルデジタルコンパクトの執筆に貢献し、現在はセーブ・ザ・チルドレン・インターナショナル、バークレー自立生活センター、UN Womenなどの世界的組織にアドバイスしている。同氏は次のように述べる。「AIは単独で不平等を導入するわけではない。それはすでに存在する階層を形式化する。障がい者や他のマイノリティグループが設計とガバナンスから欠落している場合、排除は対人的ではなく体系化される」
この変化の結果は重大である。人間の採用担当者が偏見を持っている場合、それは異議を唱えることができる。アルゴリズムが履歴書が審査される前に静かに誰かをスクリーニングする場合、透明性、説明、または異議申し立てはない。決定は単に、中立に見えるが決してそうではないシステムに消えていく。障がいのある労働者にとって、これは機会が人々によってではなく、インフラストラクチャーによって拒否されているという感覚の高まりを生み出す。
「多くの場合、応募者追跡システム(ATS)を販売する企業は、偏見と公平性のテストを完了したと公言しているため、採用および人材管理チーム、そしてATS購入を交渉する弁護士は、その自動化機能について安心できる。しかし、テスト結果の内部を調べる人は誰でも、これらのシステムのほとんどすべてが、これらの問題に対処したこと、あるいは対処しようとしたことさえ証明する適切な信頼と安全性の文書を持っていないことをすぐに発見するだろう」とベントリー氏は述べる。
ベントリー氏は続ける。「採用担当者が公平であろうとする際、彼らは同時にAIボットからの自動化された履歴書提出の津波と戦っており、これがしばしばこれらのAI対応ATSシステムの購入を促進している。時には、彼らは単に実際の人間の候補者を見つけようとしているだけであり、『適切な』候補者を見つけることはさらに困難である。しかし、これらのシステムが偏見と排除から自由であると言う前に、より厳格で包括的なテストが必要である。特に雇用が停滞している経済においては。今これに対処しなければ、そしてそれに対処するプロセスにコミュニティを関与させなければ、既存の体系的な問題は、障がい者だけでなく他の人々にとっても拡大するだけである。仕事に復帰する親、労働力に参入する退役軍人、非線形のキャリアパスを持つ個人、最近の卒業生など、彼らはすでに取り残されている」
同時に、障がい者コミュニティ内のAIへの不信感は、深遠な可能性と並存している。責任を持って設計された場合、AIは独立性、雇用、尊厳へのアクセスを劇的に拡大できる。AI搭載のコミュニケーションツールは、発話を失った人々が仕事を続け、日常生活に参加することを可能にした。予測テキストと言語モデルは、神経多様性のあるユーザーの認知負荷を軽減する。コンピュータービジョンツールは、視覚障がい者が見慣れない環境をナビゲートするのを支援する。AIは、複雑な医療ケア、物流、スケジューリングの管理などの生活経験を、従来の採用システムが認識できない転用可能な職務スキルに変換する可能性を持っている。
「未来について考えるとき、私たちはその未来において人間であることが何を意味するかを考えなければならない。問題は、人間と技術がどのように協力するかではない。真の問題は、私たちがどのように繁栄するか、そしてその絵の中で人間の具現化がどのように見えるかである。未来は人間の身体と精神を通じて経験される。どのツールとサポートがその経験の一部であるかを決めるのは私たちである。選択肢を持つことが鍵である」とベントリー氏は述べる。
違いは、何を価値として最適化するかにある。AIシステムが画一的な生産性を最大化するように設計されている場合、それらは排除する。人間の多様性を考慮するように設計されている場合、それらは歴史的に見過ごされてきた才能を解き放つ。
この緊張がこれ以上に目に見える場所はない。新興の信頼と安全性のシステムである。音声合成技術により、ALS、脳性麻痺、または変性疾患を持つ人々は、AI支援音声を使用して明確にコミュニケーションを取ることができるようになった。しかし、詐欺を防ぐために設計されたディープフェイク検出ツールは、これらの音声を疑わしいものとしてフラグを立てることが増えている。一部の自治体では、AI支援音声を使用して発信された緊急通報が、自動化システムがアクセシビリティと偽装を区別できないため、遅延またはブロックされている。安全性を高めることを意図したツールが、生存への障壁となる。
これはガバナンスの失敗であり、システムテスト中の包摂の失敗である。システムは、人間による上書き経路なしに、障がいに配慮したテストなしに、そして実際の人々が高リスク環境でそれらをどのように使用するかを考慮せずに展開された。
立法者にとって、この瞬間は極めて重要な変曲点を表している。AI政策の議論は、しばしば競争力、イノベーションの速度、国家安全保障を中心に展開される。これらは重要な優先事項であるが、AIがすでに基本的な参加へのゲートキーパーとして機能している方法を見落としている。雇用、給付金へのアクセス、緊急対応、医療資格は、ますます自動化システムによって仲介されている。これらのシステムに透明性、異議申し立てメカニズム、人間参加型のセーフガードが欠けている場合、それらは説明責任なしにアクセスを拒否できる。
障がいの包摂はストレステストである。AIシステムが障がい者に対して公平に機能できない場合、それは最終的に他の人々、高齢労働者、介護者、退役軍人、そして時間とともに身体や能力が変化する人々にも失敗するだろう。
ベントリー氏が指摘するように、「障がい者は、設計の端で動作するため、システム障害に最初に遭遇することが多い。コミュニティ内の個人に対して機能せず、フィードバックループの経路も作成されていない場合、それは大規模に確実に機能しない」



