そこで2つのサービス「Glasp」と「Perplexity」を紹介したい。双方とも、ただ使うだけであなたのAI活用を一新させるだろう。
日本人2人が立ち上げた「Glasp」
サンフランシスコ拠点の企業Glasp。そのサービスである「Glasp」は、ソーシャルウェブハイライターを名乗っており、ウェブページなどに蛍光ペンで引いた様なハイライトを入れ、メモを残せるソーシャルサービスだ。YouTube動画をの内容を書き起こしたものをChatGPTに投げ、要約するだけのシンプルな機能を備えている。Chromeの機能拡張を使って手軽に5つのポイントを要約してくれる。今回は、Glaspの「ハイライト共有」動画を要約してみた。「Glasp」をインストールすると、画面の右上にChatGPTのアイコンが表示されているので、それをクリックすると自動的にChatGPTに書き起こしを受け渡し、要約を完了する。
吐き出される要約は英語なので、「日本語にして」と依頼をすれば、30秒ほどで動画の要点を入手出来る。あとは「この機能はどの様な用途に活用できますか?」などをChatGPTで追加の依頼をすれば、任意の動画を元にしたアイデア出しまで1分もかからず完了する。
今回の例でいうと、「Glasp」の「ハイライト共有」の活用方法として、「論文等での学生と研究者のグループワークでの活用」や「企業でのチームでの情報収集と共有等」の具体的なアイデアを生成することが出来た。なお、この「Glasp」にはYouTube全体の書き起こしを行った上でコピーする機能もあり、こちらも大変便利である。
組み合わせの生成は、類推を得意とする対話型AIの最も得意とすることだ。この動画をみて「なにか良いアイデアを出しておいて!」といった曖昧な指示をするだけで、1時間後には読み切れない量の返信を得られる。
正確な回答をする対話型AI
「Perplexity」は、私が最も注目しているAIサービスのひとつだ。OpenAI と DeepMind での勤務経験がある人物によって開発されたPerplexityは自らを「回答エンジン」と称している。Perplexityは驚くほど正確な回答を行う「検索エンジンの代わりに使える」対話型AIだ。現在リリースされている対話型AIには多かれ少なかれ「ハルシネーション(AIの幻覚)」と呼ばれる不正確なアウトプットが存在する。
AIは学習データに基づいて推論を行い、アウトプットを生成する。そのため、学習データが量的に十分でなかったり、誤りや偏りがあると、AIは誤った情報をアウトプットする。
例えば「東京のおすすめの美術館を5つ教えてください。」と言った質問をした場合に、多くの対話型AIでは、しばしば実際には存在しない美術館を生成し提案してくる。これが飲食店だったりすると、その傾向は更に顕著だ。なので、検索すればわかるような質問の回答で、対話型AIに正確性を求めるのはあまり賢い使い方とはいえない。
ChatGPTを例にすると、2021年9月までの情報を元に推論の元になるモデルを作成しており、それらのソースは主にインターネット上から集められている。よって、「推論モデル」を作成する際に、インターネット上で定義が一般的に確立していることも正確なアウトプットをする為の条件として必要になる。
新しいムーブメントや概念はインターネット上の情報量が少ないため、生成AIは「推論」から補ったアウトプットを行い、これがハルシネーションを生むというわけだ。
これらのハルシーネーションは、リアルタイム検索でのネット情報を加味した回答を行うBardやBingといったサービスであっても発生する。
例えば、Bingでは「詳細情報」として参考にしたURLを提示してくるのだが、URLのリンク先にかかれている内容が、必ずしも回答に正確に反映されているとはいえないし、全く関係のない情報や、信頼性に欠ける参照先を提示してくることもある。参照URLが明記されていても、必ずしもそれを信用してはいけないというのは中々にやっかいである。
だが、独自のページランクデータベースを元にウェブ参照を行うPerplexityは、これらの精度が極めて高いことを体感させてくれる。