公平なアルゴリズムは存在しないのか。日本企業にAI倫理が必須になるワケ

Shutterstock.com


公平なデータやアルゴリズムは存在しない


このように、AIを開発し社会で利用していくにあたっては、単に高精度のAIモデルを作成する技術だけでなく、セキュリティ・プライバシーについての配慮や倫理的な公平性の担保など様々な観点での考慮が必要になります。

アクセンチュアは社会でAIの利活用が進むにつれて問題となるような課題について、その解決策を見出すべく産学連携を進めています。

2020年10月から、筑波大学人工知能研究センターとアクセンチュアは、提携活動を開始しており、筑波大学の有するAIに関する学術的な知識と、アクセンチュアのビジネス現場での実践的なAI応用力に関する知見を互いに共有し、先進的なAI技術を実社会における課題解決に結び付けるフレームワークの構築を目指しています。

公平に判断する機械学習モデルに関し共同研究を進めている同大学システム情報系所属の佐久間淳教授は次のように述べています。

「AI関連の学会においてもAIによる判断の公平性の定義、判断の不公平性の評価法、判断を公平にするための学習アルゴリズムなどは主要なトピックとなりました。人間にとって重要な局面における意思決定をAIが担うためには、AIが下した判断が倫理的なものであるか、継続的にウォッチする必要があります。AIを活用するサービス開発に携わる技術者は、AI開発技術だけでなく、技術者としての倫理感が求められているのではないでしょうか。倫理的に優れた判断を行えるAIを開発することが結果的に多くの人に受け入れられるサービスを生み出す時代なのではないかとも思います」

無策の状態では「公平なデータ」や「公平なアルゴリズム」などは存在しないと肝に銘じなければなりません。そしてそれをどのように軽減するか、リスクにどう対処していくのかというのも、「人間+機械」の概念が重要になるのです。

統計的なツール(機械)を使いこなしてAIのリスクを認識できる人材、データのバイアスに依拠するリスクを軽減するスキルを身に着けた人材、AIの社会的リスクをビジネス観点で精査できる人材、それらを全社戦略として育成・活用できる組織。今後のAI戦略においてはこれらがますます重要になっていきます。

AIを責任あるAIにしていくため今、より積極的な戦略が求められています。


●【連載】「責任あるAI」
#1:日本企業の経営幹部の77%が焦るAI導入
#2:AI活用は日常になるか? 起きる変化と「3つの壁」
#3:AIを「育てる」なら6つの新リスクに対処せよ
#4:公平なアルゴリズムは存在しないのか。日本企業にAI倫理が必須になるワケ

保科 学世◎アクセンチュア ビジネス コンサルティング本部 AIグループ日本統括 兼 アクセンチュア・イノベーション・ハブ東京共同統括 マネジング・ディレクター 理学博士。アナリティクス、AI部門の日本統括として、AI HubプラットフォームやAI Poweredサービスなどの各種開発を手掛けると共に、アナリティクスやAI技術を活用した業務改革を数多く実現。『責任あるAI』(東洋経済新報社) はじめ著書多数。

鈴木 博和◎アクセンチュア ビジネス コンサルティング本部 AIグループ シニア・マネジャー。東京工業大学大学院情報理工学研究科計算工学修士課程、東京理科大学大学院イノベーション研究科技術経営修士課程修了。十数年におよびAIの研究開発・マネジメントなど多領域での研究企画に従事。その後、IT系コンサル会社にて自然言語処理を中心としたソリューションのPoC~導入・運用支援を多数経験。現在はアクセンチュアにてAI POWEREDバックオフィスの開発などAI技術を活用した業務改革実現に従事。

文=保科学世(アクセンチュア)、鈴木 博和(アクセンチュア)

タグ:

ForbesBrandVoice

人気記事