責任あるAIは単なる気分の良い取り組みでも、訴訟回避戦略でもない。それは成長戦略であり、具体的な成果をもたらすものだ。
これはPwCによる最近の調査で、310人のビジネスリーダーがAI活動における責任あるAIに賛同していることからも明らかだ。過半数の58%がAI投資収益率の向上を挙げ、同じく58%が顧客体験の強化を責任あるAIの成果として評価している。少なくとも55%がイノベーション促進に役立つとし、同様の割合がサイバーセキュリティとデータ保護の強化を実感している。
責任あるAIの拡大が課題となっている。経営幹部の半数(50%)が原則を拡張可能な運用プロセスに変換することの難しさを挙げ、同様の割合が変化に対する文化的抵抗に直面している。38%は予算や資源の制約に対処している。
PwCの最近の調査によると、回答者の約6割(61%)が責任あるAIを中核業務や意思決定に積極的に統合していると回答している。
責任あるAIがすべてのAIイニシアチブの一部であるべきだという点で業界全体の合意がある。「AIはビジネス上の課題であり、単なる経営幹部の話題ではない」とThoughtSpotのチーフデータ・AI戦略責任者であるシンディ・ハウソン氏は述べた。「私たち全員がこの革命的な技術に関わり、AIが単に優れた技術であるだけでなく、人類を向上させる技術であることを保証する道徳的・倫理的責任を共有している」。責任あるAIは「村全体の取り組みが必要であり、従来の政策主導型アプローチの限界を超えた深い協力が必要だ」と彼女は付け加えた。
責任あるAIはあらゆるレベルの従業員から始まる。「従業員がAI使用に関する明確な期待とガードレールを持ち、関連するリスクを管理することが不可欠だ」とWileyのチーフピープルオフィサーであるダニエル・マクマハン氏は述べた。「社内の専門家グループを集め、倫理的で責任あるAI使用の戦略と基準を策定することが重要だ」と彼女は付け加えた。
まず従業員にAIの実際の使用方法を訓練することから始めるべきだとマクマハン氏は述べた。「従業員は多くの場合、直属の上司に助けを求めるため、まずマネージャーの訓練と参加を優先すべきだ」
「会話は単に能力についてだけではなく、信頼についてでなければならない。これがAIエージェント実装の主な障壁だ」とBlackLineのチーフテクノロジーオフィサーであるジェレミー・ウン氏は述べた。
例えば、「監査証跡と正確性が絶対条件である金融のような重要な環境では、エージェント型AIは検証可能で安全かつ説明可能なシステムの基盤の上に構築される必要がある」とウン氏は指摘した。「責任あるAIを可能にするのは、見落とされがちだが不可欠なインフラストラクチャーだ:それはクリーンなデータパイプライン、堅牢なAPI、不変のログに関するものだ」
責任あるAI成熟度の次の段階は「継続的イノベーションのマインドセットを取り入れ、監視を強化しながら進歩とパフォーマンスを推進するためにテクノロジーを活用することだ」とPwCの著者らは予測している。
「ガバナンスを後回しにしないでください」とZoho Corporationの一部門であるManageEngineのAIリサーチディレクター、ランプラカシュ・ラママーシー氏は述べた。「それは高品質で偏りのないデータ、説明可能なモデル、監査可能なワークフローから始まります。同様に重要なのは、影響の大きい決定に対する人間介在型レビューを確立し、モデルが展開された後も継続的なドリフトモニタリングを行うことです」
このようなAI倫理委員会は「象徴的なものではなく、運用的なものであるべきで、モデルの決定が期待される動作から逸脱した場合の明確なエスカレーションパスを持つべきです。責任あるAIは一つのチームに委任できるものではなく、知性と相互作用するすべての製品とプロセスに組み込まれるべき文化です」



