生成AIの飛躍は今後の医療をどのように変えるのか?
さて、AI医療として注目されるアイリスにとって生成AIが発達した2023年というのは追い風だったのか?沖山:「AIと医療の可能性を追求することにコミットし続けています。2014年にディープラーニングの最初の論文が出ており、2017年創業までの間、私はAI問診チャットボットの開発に関わっていました。ただ、創業当時はまだマルチモーダル(テキスト・画像・音声・動画など複数種類のデータを一度に処理できるAIの技術)という概念がなく。画像は画像のCNN(Convolutional Neural Network / 畳み込みニューラルネットワーク)、問診は問診のAI と分かれているのが主流でした。そのような中、我々のAIは画像と問診、体温など症状のコンビネーションを両方使ってきたのが我々の強みとなりました。
画像だけで診断する情報と、症状だけで診断する情報を最後に足して2で割ることは容易に行えるのですが、我々は連結させた上で画像と症状を同時に取り扱うことができるアルゴリズムを実装しています。
現在、生成AI / LLMの時代に突入し、マルチモーダルは当たり前の大規模基盤モデルになってきています。アイリスでは国の科学研究費をいただいてLLMの研究自体にも取り組んでいますし、基盤となる世界最大規模の喉の画像ライブラリをデータベースとして有していることはAI医療分野において非常に優位性があります。また、このデータベースを豊かにするためのセンサーを開発していることも強みとなります。
4000年の歴史を持つ今までの医学は人間のお医者さんが作ってきたものです。つまり、人間の目で見えるサインしか診断学の中には取り入れられてこなかった。これからは人間が感知できないセンシングデータを混ぜて診断が可能になります。コウモリやイルカは超音波が聞こえる。人間の目では白にしか見えないお花もモンシロチョウの網膜を通すと白の中で4段階を見分けていると言われます。アイリスが開発している「nodoca」のセンサーが紫外線領域、近赤外光領域を撮影しておけば今までの医療には無い新しい希少な独自のデータが貯まり、独自のAIが作り上げられ、より医者と患者にとって有益な情報が提供できるようになると信じています。」