セナンは、リスクの低いAI運用型のタスクには、「動画をおすすめしたりチャットのやりとりをパーソナライズする美容アプリなど、無人運用できるものがあります」という。「同様に、モバイルブランドはAIと機械学習を利用して返品を予測し、保証提供を最適化しています。しかし、生成AIのようなクリエイティブなコンテンツ生成など、リスクが高い、あるいは規制が進展しているタスクでは、人間の監視が依然として重要なのです」
高リスクのAIシステムでは、「レビューと書き換えの容易さが提供される必要があります」とセナンは続けた。「実際、多くのAIシステムでは、出力は最初のドラフトとして扱われ、金融報告書の作成や、テキストと画像を含む広告の作成では、人間がそのドラフトを完成させることが期待されています」と彼はいう。
一方、ウェブサイト上のチャットボットや製品レビューの要約など、低リスクのAIシステムでは、「人間の継続的なレビューは、必要性が低いだけでなく、実現不可能でもあるのです」と彼は付け加えた。
人間とAIが協力することで、「人間はドメインの専門知識と批判的思考を提供し、AIはデータ分析とパターン認識を処理するのです」とセナンは述べた。「どのようなヒューマン・イン・ザ・ループ・システム(システムの中に人間との相互作用が組み込まれているシステム)でも、初期段階では人間がAIの判断を覆すことが非常に多いのです。時間が経つにつれて、AIは学習して改善し、人間はシステムに慣れていきます。AIに組み込まれた説明可能性が向上することで、人間によるAIの決定への介入頻度も減少します」と彼は述べる。
ハーフィールドはさらに、最終的には説明可能性が鍵であり、「プロセスにAIを導入する際には、決定がどのように導かれたかについての透明性を伴う推奨の形を取るべきです」という。「このようにして、意思決定が加速され、それが適切なアプローチであれば、完全な自動化に先立って、システムに対する信頼が構築されるのです」。
肝心なのは、高度な意思決定のための無人のAIに対する信頼は、現時点では狭い範囲のシナリオにしか適用されず、しばらくはそれが続くということだ。「AIシステムが自律的にタスクを処理できる分野はあるかもしれませんが、これらは一般的に小さなニッチ分野(2つの事前定義された点の間をドローンで飛行するなど)で、現代のAIについて話す際に多くの人が考えるようなタスクではありません」とレンセラー工科大学のヘンドラーはいう。総合的にみて、ヘンドラーは「無人プロセスに対するAIの能力、したがって信頼性は十分ではないと考えていますし、それがすぐに変わるとは思いません」と述べた。
(forbes.com 原文)