AI

2025.10.26 16:41

効率より倫理を重視する非営利団体向けAIフレームワークの構築

Adobe Stock

Adobe Stock

ホセ・ルイス・カストロ氏はWHO(世界保健機関)の事務局長特使(慢性呼吸器疾患担当)であり、バイタル・ストラテジーズの創設者兼元CEOである。

advertisement

ドメスティック・バイオレンス(DV)のホットラインが、発信者の優先順位付けを効率化するためにAI(人工知能)の活用を検討しているとしよう。一見、良いアイデアに思える。しかし、チームが問うべき重要な問いがある:「スピードは安全性を損なうだろうか?」例えば、過去の通話データで学習させると、解決に時間がかかる非英語話者の優先度を下げてしまう可能性がある。あるいは、リスクが高まっているにもかかわらず、複数回発信する人を低優先度に分類してしまうかもしれない。

非営利セクターでのAI活用において、効率性に見えるものが体系的な偏見につながる可能性がある。市民社会におけるAIの新たな倫理的フロンティアが生まれている。公平性、信頼、人間の尊厳を基盤とするセクターにおいて、問いはもはや非営利団体がAIを採用すべきかではなく、いかに誠実に採用するかである。

なぜAIは中立ではないのか

AIは白紙の状態ではない。そのアルゴリズムは、チェックされなければ、多くの非営利団体が解消しようとしている不平等を強化してしまう可能性のある過去のデータで訓練されている。

advertisement

より高い効率性の達成がAI採用の理由であることが多い。非営利セクターでは、受付の自動化やドナー行動の予測など、様々な形で効率性が向上する。しかし、効率性だけでは危険な指標となりうる。非営利団体は、影響力、包括性、倫理的管理に対して責任を負っており、AIが不適切に使用されればこれらを妨げる可能性がある。

AIが誰が最初に支援を受けるか、誰が除外されるか、誰がルールを設計するかを形作るとき、これらはバックエンドのエンジニアリングの選択ではない。それらは倫理的な結果を伴うリーダーシップの決断である。

3つの基本的な安全策

AIの使用がミッションと信頼に沿ったものであることを確実にするために、非営利団体のリーダーは採用前に倫理的パラメータを設定しなければならない。被害が生じた後では遅い。

具体的には、3つの基本的な安全策を優先すべきである:

• 透明性:ステークホルダーはAIがいつどのように使用されるかを知る権利がある。これは、非営利団体のリーダーが平易な言葉での開示を提供し、ツールを公に文書化し、データ収集の実践について明確にすることを意味する。透明性は信頼を構築し、情報に基づいた参加を可能にする。

• バイアス軽減:非営利団体のリーダーはデータセットとモデル出力を定期的に監査すべきである。人口統計やシナリオ全体でシステムをテストし、格差が現れた場合は展開を一時停止することが重要である。ホットラインの例が示すように、バイアスはしばしば微妙で深く埋め込まれている。

• 説明責任:AIツールには人間の監視が必要である。非営利団体のリーダーは結果のレビュー、懸念への対応、必要な場合の介入に責任を割り当てるべきである。AIは支援すべきであり、倫理的判断を置き換えるべきではない。

リーダーシップの責任としてのガバナンス

AIガバナンスは単なる技術的な懸念ではない。それは戦略的かつ受託者としての懸念である。理事会は、財務監視や法令遵守と同じ厳格さでAI採用を扱わなければならない。

具体的に、理事会は以下を行うべきである:

• AIの決定が組織のミッションと価値観に沿っていることを確認する。

• 意図された使用事例、リスク、リスク軽減計画に関する文書を要求する。

• パイロットが始まる前に倫理的使用ポリシーを承認する。

• 定期的な報告を通じて継続的な実装を監視する。

AI倫理声明は強力なアプローチの重要な部分である。それは責任ある使用、避けるべき技術、影響を受けるコミュニティがどのように関与するかを定義できる。一部の組織は、スタッフ、リーダーシップ、技術者、コミュニティ代表者を含む機能横断的な倫理委員会を形成することを選ぶかもしれない。彼らは一緒に、展開前と展開後にAIツールをレビューできる。

設計に生きた経験を組み込む

データは客観的ではない。トレーニングデータが機関の視点のみを反映する場合—あるいは問題に最も近い人々を除外する場合—それは盲点を複製することになる。

コミュニティの関与は同意書以上のものでなければならない。非営利団体のリーダーとそのチームは、影響を受ける人々とツールを共同設計すべきである:

• サービス利用者をAI機能と優先事項の形成に関与させる。

• 拡大する前にコミュニティ代表者と出力をレビューする。

• 害やバイアスを報告するためのフィードバックチャネルを作成する。

方針から実践へ:倫理的AI採用の例

非営利セクターにおける倫理的AI採用について、3つの例が思い浮かぶ。

まず、米国を拠点とする教育非営利団体のBenetechがある。Benetechは「教材、特にSTEM(科学・技術・工学・数学)を対話型でアクセス可能なコンテンツに変換するAIを活用したプラットフォームを作成している。ディスレクシアや視覚障害のある学生が、方程式や画像などの難しい概念について読み、聞き、質問することができるようになる」。

また、DataKindという、他の非営利団体にデータサイエンスとAIの専門知識を提供するグローバルな非営利団体もある。この組織はウェブサイトでデータとAIに対する倫理的アプローチを強調している。

最後に、Thornがある。ロサンゼルス・ビジネス・ジャーナルの2024年の記事によると、Thornは「Safer Predictと呼ばれるAIベースのプラットフォームを立ち上げた。このプラットフォームは、(ソーシャルメディアやビデオストリーミングウェブサイトなどの)コンテンツホスティングプラットフォームが、そのコンテンツに児童性的虐待が含まれているか、または搾取やグルーミングにつながる可能性があるかを検出するのを支援することを目的としている」。

誠実なAIのためのチェックリスト

AIの実装をパイロットから拡大段階に移行する前に、非営利団体のリーダーは自分自身にいくつかの質問をすべきである:

• 問題を明確に定義し、AIが適切なツールであることを確認したか?

• データセットは包括的で代表的であり、バイアスについてレビューされているか?

• 影響を受けるコミュニティがツールの設計と目標を形作ったか?

• モデルは非技術的な聴衆に説明可能か?

• 明確な人間の監視があるか?

• ユーザーとパートナーのための平易な言葉でのコミュニケーションがあるか?

• 発売後のバイアス監査とレビューが予定されているか?

• ツールは私たちの公平性の目標を強化するか?

非営利団体のリーダーは、AI実装をコミュニティの意見、規制、組織の学習とともに進化する継続的なプロセスとして考えるべきである。

AI時代における目的を持ったリーダーシップ

AI採用は価値観の試金石である。非営利団体にとって、その決断は業務効率を遥かに超える影響をもたらす。それは信頼、包括性、倫理的サービス―このセクターが存在する理由そのもの―の核心に触れる。

非営利団体は、ステークホルダーやドナーだけでなく、尊厳と権利が守られなければならないコミュニティに対しても責任を負っている。AIシステムが住宅、健康、安全、法的保護などに影響を与える決定を下す場合、それらの選択は倫理的コミットメント―またはその欠如―を反映している。

AIガバナンスは積極的で原則に基づいたものでなければならない。経営幹部と理事会は、AI監視を戦略的リスク管理とコミュニティ信頼の管理として扱う必要がある。そして最も重要なことに、最も影響を受ける人々は害から保護されるだけでなく、技術自体の形成を支援する力を与えられなければならない。

知的システムの時代において、非営利セクターが知的倫理がどのようなものかを示す時が来ている:スピードや規模ではなく、思いやり、説明責任、共有された人間性に根ざしたものとして。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事