誤検知の問題
さらに多くの複雑な問題が絡んでいる。
たとえばAIがユーザーの言動を問題だと指摘した場合、実はその人は誤って非難されたのかもしれない。AIが、ユーザーがプロンプトで示した意図とは一致しない論理の飛躍を計算上で行ってしまった可能性もあるからだ。ユーザーは当然それを快く思わないだろう。彼らは間違いなくそのAIを使うのをやめ、他の競合AIへと乗り換える。
AI開発者にとって重要なのは、問題として指摘すべきことと、そうでないこととの間でバランスを取らなければならないという点である。各AI開発者は、このバランスをどの程度に設定するかを決定しなければならない。
問題指摘に積極的になることを選ぶのか、それともユーザー離れを避けるために、AIがユーザーを問題視する基準を非常に高いレベルに設定するのか。
これは極めて重要な問いなのだ。
AI開発者は、AIの安全保護機能を技術的に実装する方法に苦慮している。さらに、そこには社会的な、そしてビジネス上の重要なトレードオフが複雑に絡み合っている。簡単な答えがすぐに見つかるわけではないのだ。
私たち全員がこの冷静に向き合うべき問題に参加して、適切な解決策を見出す必要がある。ヴォルテールが「持続的な思考の猛攻に耐えられる問題はない」という名言を残した(と言われている)ように、これらの重大な問題について必要な行動を起こすとともに、私たちは集中的に考え続けなければならない。


