AI

2025.10.07 09:30

AIに潜む西洋中心の見えない差別を取り除く、「Justice AI GPT」が描く倫理革命

Shutterstock.com

Shutterstock.com

多くの企業が、採用活動や面接評価雇用の判断人事評価といった重要な意思決定にAI(人工知能)を導入している。しかし、AIの普及が進む一方で、これらのツールには有効性を損なうバイアス(偏見)が潜んでいる。人間と同様に、AIも監視を欠けばバイアスに陥る。「テクノロジーは数値を処理し、データを生成することはできる。しかし、それを解釈し、最終判断を下すのは人間であるべきだ」と、バージニア州リンチバーグ市の広報マネジャー、ジョシュ・キンテロは指摘する。「地方自治体には市民に奉仕する義務があり、私たちには公平かつ透明性をもって業務を遂行する責任がある」と彼は語った。

advertisement

職場の意思決定に導入されるAIシステムには、人間のバイアスを再現するリスクが潜んでいる。「AIを十分なインプットや調整なしに採用や人事評価に用いれば、バイアスを反映するだけでなく、価値判断そのものを歪めかねない」と、消費者心理や消費環境を示すコンシューマー・クライメート・レポートのグローバル調査コンサルタント、アヴァ・トロは警鐘を鳴らす。「人間の評価者であれば、中小企業での成長をフォーチュン500企業での成長と同等に評価できる。しかし、調整されていないシステムは前者を劣ったものと見なしやすい。これは単なるバイアスではなく、構造的に人材を誤評価し、有色人種や特定の階層的背景を持つ従業員に不均衡な影響を及ぼしかねない」と彼女は指摘する。

こうした課題に対し、テクノロジー専門家であり、脱植民地主義的アプローチを取る社会科学者のクリスチャン・オルティスは、AIの利用を抑制するのではなく、バイアスを正面から解決する革新的なツールを開発した。「2022年後半、GPT-3.5のベータテストを行っていた際に、他人が見落としていた点に気付いた。それは、バイアスがAIの不具合ではなく、設計そのものに組み込まれているという事実だ」とオルティスは語る。「私は脱植民地主義の社会科学者として、また正義の擁護者として、『このバイアスはどこから生まれるのか。そして、それを完全に解消するには何が必要か』と自問した。

その答えとして生まれたのが、Justice AI GPTだ。私はDecolonial Intelligence Algorithmic Framework™(脱植民地化知能アルゴリズムフレームワーク)と、DIAL(Decolonial Intelligence for Access and Liberation:アクセスと解放のための脱植民地化知能)を開発し、世界初の脱植民地化データセットを構築した。これらのイノベーションは、私の知的財産であり、Justice AI GPTの基盤となっている」と彼は言う。

advertisement

オルティスによれば、Justice AI GPTは大規模言語モデルに依存せず、AIのバイアス問題を根本から解決する世界初のフレームワークだという。では、具体的にどのようにしてバイアスを取り除くのか。「Justice AI GPTは、欧州中心の価値観や植民地支配の影響が残る偏った情報を特定し、排除することで機能する」とオルティスは説明する。「他のツールが問題発生後に修復を試みるのに対し、Justice AI GPTはソース段階でバイアスを防ぐ。OpenAIの膨大なデータセットに、独自開発した脱植民地化データセットを組み合わせることで、植民地主義的なパターンの再現を防ぎ、是正できるよう設計された世界初の仕組みを実現した。この独自データセットの構築には、世界各地から560名以上の専門家が参加し、それぞれが30年以上にわたり培ってきたコミュニティや専門分野での知見を提供している」。

次ページ > Justice AI GPT導入企業が着実に拡大

編集=朝香実

タグ:

advertisement

ForbesBrandVoice

人気記事