専門家がAIの出力結果に対して正確性を検証せず、盲目的に信頼してしまえば、事実を損ない、評判を傷つけ、専門知識に対する信頼を失いかねないミスを招くおそれがある。判断力と専門知識を必要とするあらゆる職業が、最近の研究でも示されているように、認知的オフロードの落とし穴に陥るリスクと隣り合わせだ。
人間による適切な監督を伴わないAI使用は、ワークフローを向上させるだけにとどまらず、専門家がよりどころとして守ってきた卓越性の基準そのものを損なってしまう可能性があるのだ。
もちろん、これは司法に限った問題ではないが、筆者は裁判、保険、法科学の分野でのAI利用について執筆や講演を行ってきた。専門家の知識に大きく依存するこれらの業界は、AIのもつメリットや課題、未知の問題をめぐって苦慮し、試行錯誤している。いずれも何かあれば甚大な影響が出てしまう業界であり、AIに絡んだ将来のリスクや課題に対する「炭鉱のカナリア」の役割を果たし得る。
司法・法科学分野に共通するAIリスク
AIはデータ分析や訴訟準備の支援に使えるが、専門家や
弁護士がツールの精度を十分に検証しないまま過度に依存しているのではないかとの懸念が高まっている。法律や法科学の専門家がAIツールに依存しすぎた場合、以下のようなリスクが生じる。
・未検証のデータ
AIツールは、一見もっともらしいが不正確な結果を生成することがある。偽造された証拠や計算間違いが司法手続きに持ち込まれた場合がこれに該当する。
・専門性の低下
複雑なタスクをAIにアウトソーシングする習慣を長期にわたって続けると、証拠を批判的に評価したり、疑義をただしたりするのに必要なスキルが損なわれるおそれがある。
・説明責任の低下
AIを盲信すると、個人が負うべき責任が転嫁され、ミスが見過ごされたり無視されたりする危険な前例を生む。