現在GoDocs社のCEOを務めるアダム・クレイグ氏は、テクノロジー主導のB2B組織を20年以上にわたって率いてきた。
AI(人工知能)に関しては、2つの主流な見解が存在する。AIがすべての人に取って代わると考える人々と、AIはリスクが高く、専門的な場面では大部分避けるべきだと考える人々である。
融資業界のリーダーたちも、AIに対してこの2つの見解を反映している。しかし、他の業界と同様に、融資業務におけるAIの潜在的影響に関する真実は、これら2つの極端な見解の間のどこかにある。
AIは、特に基盤となるデータ、システム、プロセスが最適化されていない場合、後付けで導入すると失敗する傾向がある。しかし、人間による説明責任を伴うワークフローに組み込まれた場合には成功する可能性がある。
私の経験では、融資担当者がツールセットにAIを追加する目新しさではなく、達成したい成果に焦点を当てる限り、AIは人間的要素を排除することなく業務を改善できる。融資業務でAIツールを最大限に活用するには、慎重な計画、リスクを最小限に抑えるためのガードレールの構築、そして継続的な人間の関与が必要となる。
統合されたワークフローの構築
多くの金融機関は、AIを組織にどのように統合するかという課題に取り組んでいる。彼らは、AIの採用を拒否すれば遅れをとることを理解しているが、問題はAIをどのように機能させるかである。
ある調査によると、金融機関の40%以上がAI導入に関して慎重に、最小限に、あるいは全く動いておらず、積極的に動いているのはわずか17%である。
しかし、これと同時に、これらの金融機関の57%が2026年にAI審査を追加する計画を立てている。これらの対照的な統計は、リーダーたちが慎重である理由を示唆している。組織がシステムへのAI統合を急ぐ結果は、多くのパイロットプログラムと不十分な業務成果になる可能性が高いことを彼らは知っているのだ。しかし、数字はまた、彼らがAI自動化の恩恵を享受することに熱心であることも示している。
慎重な計画なしにツール優先の考え方をとると、組織が常に新しいツールやユースケースを試験的に導入する状況が生まれる。これは多くの場合、AIが業務を改善できる場所について明確な指針や考えがないまま、組織にAIを導入するよう命じる形で現れる。
AIは、すべての欠点や失敗に対する潜在的な万能薬として後付けされるのではなく、すでに成功している、または機能している既存のワークフローに追加された場合に最も効果的である。これは、AIの真の価値が自動化できる領域での効率向上にあるためだ。
したがって、融資業務でAIを使用する場合は、リスクが低く価値が高い場所から始めるべきである。例えば、借り手データの収集、借り手の信用スコアの評価、書類の不備の指摘、書類の不整合の特定などである。これらのタスクはすでに融資ワークフローの一部であり、反復的で、完了するために批判的分析を必要としないため、ワークフローの速度を上げ、手順の見落としやエラーの可能性を減らすための優れた出発点となる。
人間主導、AI支援
AIでタスクを自動化することで効率を高め、エラーを減らすことができるが、融資プロセスは依然として人間主導である必要がある。上記の例では、問題の指摘とデータ収集に焦点を当てたことに注目してほしい。融資決定には複雑性、リスク、判断、規制が伴うため、人間はこの情報を確認し、最終的な融資決定を下す必要がある。融資担当者が意思決定権限をモデルに移さないことが重要であり、そうすることで説明責任は常に人間にある。それが、融資担当者がAIで価値を得ながら管理を維持する方法である。
ガバナンスこそが、責任ある採用者と無謀な実験者を分けるものである。人間を意思決定ループに留めるために、リーダーはAIが使用される際にすべてを記録することをチームに要求すべきである。これにより、どのようなデータが入力され、何が出力され、誰が最終承認を行ったかを把握できる。
リーダーはまた、チームがAIの利点と欠点を完全に理解し、組織が承認する方法でそれを使用できるよう、AIトレーニングを提供すべきである。自組織でAIがどのように機能しているか、または機能していないかを理解するために、リーダーは節約された時間、削減されたやり直し、発見されたエラーなどのAI成果を継続的に測定できる。このようにして、チームは最も利益をもたらす領域に焦点を当てるようAI使用を進化させることができる。
リスクを最小限に抑えるガードレールの構築
AIの普及は、融資チームがすでにそれを使用する方法を見つけている可能性が高いことを意味する。ここでのリスクは、チームが組織がまだ承認していない方法でAIを使用している可能性がある、または人間の監督を必要とすべきタスクを自動化している可能性があることだ。リーダーシップは、サイドチャネルでの使用や、一貫性のない出力、不明確なデータ処理、監査可能性の欠如などのリスク露出を避けるために、AIを実装する安全で管理された方法を提供しなければならない。
まず、AIが自動化することを許可されるものと、人間が引き続き行わなければならないもの、または人間によるレビューが必須である場所について、ユースケースの境界を作成できる。例えば、あなたの金融機関は、AIがデータを抽出し、申請書の要約分析を提供することには問題がないかもしれないが、融資決定を下すことには問題があるかもしれない。リーダーシップが何が許容され、何が許容されないかを明確にすれば、チームがAIを誤用する可能性は低くなる。
AIに関しては、特に社会保障番号、銀行口座、財務情報などの個人を特定できる情報が関与する場合、セキュリティが大きな懸念事項である。企業ツールへの認可されたアクセスを提供することで、チームメンバーが公開AIツールを使用したいという欲求を減らすことができる。それでも、リーダーは、チームが顧客データのセキュリティを危険にさらさないよう、公開ツールへの機密情報の入力を禁止するプロトコルを作成すべきである。
顧客データをさらに保護するために、組織がライセンスするツールが独自のAIトレーニングに情報を使用したり、ツールで使用されたデータを保存したりすることを許可しないよう、AIソリューション契約を確認すること。
AIは人間主導の融資業務に取って代わることはないが、ワークフローの摩擦を解消することは可能だ。摩擦を取り除く融資担当者が勝つ。一般的なルールとして、AIをジュニアアナリストと同じように扱うこと。これらの従業員は役に立ち、速く、時には間違っている。彼らをうまく監督し、エラーを早期に発見するようワークフローを設計すれば、最大の価値が得られる。



