――投資家の方々は、今後のGoodnotesの動きを注視しておく必要がありますね。シュウ・ティンさん、今やAIはあらゆる企業において重要な役割を担っています。あなたがこのチームにいるのは、まさにGoodnotesが製品にAIをシームレスに統合したいからですよね?
シュウ・ティン:私はその点について、少し違う視点で考えています。「AIを統合しないといけない」という技術的な観点からアプローチしたわけではありません。まずはユーザー層に目を向け、皆さんの行動を理解したうえで、AIを活用するのが理にかなっているかを判断しました。
私たちのプロダクトチームは頻繁にユーザーインタビューを行っているのですが、そこで得られたエピソードを一つご紹介しましょう。私がチームに加わって最初に行ったインタビューの相手は、原子力技術者のかたでした。原子力技術者と聞いて私も「(仕事の内容が)難しそうだな」と身構えてしまいました。原子力発電所の建設は、社会や地域に大きな影響を与える仕事ですからね。
彼女がGoodnotesでAIを使っていた理由は、私たちのAIが「ドキュメント内のコンテンツ」を引用元として参照してくれるからでした。AIが引用元を明示することで、情報の正確性や論理性を彼女自身で検証できるのです。彼女は、他のプラットフォームにはこの機能がなかったと話していました。その言葉は、私に深く響きましたね。
技術的な立場からAIを考えているのではありません。ユーザーがアプリの中ですでに行っていることを理解しようと努めています。それを加速させ、効率を高め、単なる生産性を超えた喜びをユーザーに届けること。それが私たちのAIへのアプローチです。
――視覚や音声といった「マルチモーダル」もAIの重要な要素ですが、これらの機能はどのようにGoodnotesに搭載されるのでしょうか。
シュウ・ティン:Goodnotesはマルチモーダル、あるいは最近私たちが呼んでいる「オムニモーダル」との相性がすごく良いんです。Goodnotesは多様なドキュメント形式に対応しており、アプリの本質が「ビジュアルシンキング(視覚的な思考)」にあるからです。
新機能の「テキストドキュメント」のような構造化された考えをまとめるオプションも提供していますが、多くのユーザーはフリーフォーム(自由な形式)を使って好きなように考えをまとめています。だから、私たちは汎用的な大規模言語モデル(LLM)を利用するだけでなく、社内開発をしなくてはいけません。というのも、既存のモデルは、Goodnotesのユーザーが行うようなタスクをそのままこなすのが得意ではないからです。
例えば、人間がマインドマップを見れば、どこが中心で、何がどうつながっていて、情報がどうグループ化されているかをすぐに理解できます。しかし、現在のLLMは、そうした構造をすぐには理解できません。それらをユーザーにとって意味があり、便利なデータへと変換するためには、膨大な開発作業が必要なのです。


