実はAIモデルを搭載した製品は製品化直後が最も高精度であり、それ以降時間の経過とともに性能が劣化していくこともあると言われています。製品化にあたってAIの学習に使われたデータと、製品化後に実際にAIに入力されるデータが時間の経過とともに乖離していき、その結果性能が落ちてしまう状況が発生してしまうのです。このような現象は「概念ドリフト」と呼ばれています。購買行動のように予測の対象が変動していくものであれば、概念ドリフトは常にAI開発者やサービス提供者が頭を悩ませる問題です。このような状況が起こりえるということに留意してAIの品質をモニタリングし、人間中心で改善のサイクルを回すことが重要になります。
実情にそぐわないモデルを使い続けることにより特定の属性の消費者が不利益を被るのであれば、これもAI倫理の問題になります。モニタリングを通してそのAIを使い続けられるのかどうかを判断するのは最終的に人間である必要があります。
AIの利活用において人間を中心とした「人間+機械(AI)」の協働が責任あるAIにつながっていくのです。
この人間中心の考え方のベースとして、アクセンチュアでは責任あるAIを実践するにあたって5つの行動原則(TRUST)を定義しています:
●T:信用できる(Trustworthy)
AIの設計・構築時、安全性を重視し、物事に誠実に向き合い、多様で広い視点を持つ、という実績を1つひとつ積み上げることがAIに対する信用につながります。
●R:信頼できる(Reliable)
積み上げられた信用から、AIを活用した将来に関するより高度な判断とより良い意思決定への支持を集めることができます。またAIが誤った判断をすることがあるというリスクを認識し、適切な対応策を講じるよう努めなければなりません。
●U:理解できる(Understandable)
AIが人からの信頼を得るためには、透明性をもち、その判断理由に関して人間が解釈可能でなければなりません。AIの説明可能性と同様に、AIを開発する者もAIを利用する者も説明責任を有していることを忘れてはなりません。
●S:安全が保たれている(Secure)
信用・信頼を得るためには、企業や顧客の情報・データのプライバシーに配慮し、安全性を確保しなければならなりません。
●T:共に学びあう(Teachable)
このような信用・信頼を勝ち得たAIと人間とが情報交換し、互いに学びあい、新しい価値や働き方を共創し、よりよい世界の実現に向けて努力する必要があります。
このTRUSTの原則のなかで、ここではSecureに関する事例を紹介します。