AI

2025.01.26 15:00

グーグルの新技術「タイタン」はAIに人間並みの記憶を与える

グーグルとアルファベットのCEOスンダー・ピチャイ(Christoph Soeder/picture alliance via Getty Images)

このアーキテクチャがもたらす広範な文脈保持能力は、研究の現場を革新する可能性がある。AIアシスタントが何年にもわたる学術論文を追跡し続けるようになり、膨大なデータセット──たとえば医療スキャンや金融取引──における異常値を検知しやすくなるかもしれない。なぜなら、「正常」とされるパターンを長期的に記憶し、予想外の事象を強調できるようになるからだ。

さらに広範な視点では、AIがより人間的な処理へと近づくことで、人間の思考を超えるほど深く考えるAIが現れる可能性があり、人間の独自性やAIと共存する世界における我々の役割を問い直す展開にもなり得る。

パフォーマンスを支える技術的革新

タイタンの設計の核心には、人間の脳の働きにさらに近づくという明確な狙いがある。従来のモデル(トランスフォーマー)はアテンション機構を導入し、特定の関連情報に焦点を当てられるようになったが、タイタンはこの仕組みをさらに踏み込んで拡張している。具体的には短期記憶、長期記憶、さらには関連性が低い情報を「忘れる」機能に相当する要素までを取り込んでいる。特に興味深いのは、驚きや予想外の情報を優先するという、人間に近い概念を導入している点だ。期待を裏切るような出来事を鮮明に記憶する人間の性質を再現することで、より文脈に即したAIシステムを実現できる可能性がある。

タイタン最大の技術的イノベーションは「ニューラル長期記憶モジュール」の導入だ。このモジュールは過去の文脈を記憶するように学習し、すでに標準化されたアテンション機構と連携する。これにより、入力データや応答を生成する際に、直近のコンテキスト(短期記憶に相当)と長期的な履歴情報(長期記憶に相当)を同時に活用できるようになる。

この二重記憶アプローチにより、現行のトランスフォーマーモデルが抱えていた主要な限界を克服できる。つまり、一度に処理できるテキストや情報量を決める「コンテキストウィンドウ」の固定長という問題だ。現行の最先端のモデルでは200万トークン(単語や数字、句読点などの最小意味単位)もの長大なコンテキストウィンドウを扱えるとはいえ、タイタンはさらにスケールアップしても高い精度を維持できる。これにより、非常に大規模な文書やデータセットを扱うタスクにおいて大きな影響を及ぼす可能性がある。
次ページ > タイタンの初期成果は有望だが、この技術はまだ黎明期にある

翻訳=酒匂寛

タグ:

続きを読むには、会員登録(無料)が必要です

無料会員に登録すると、すべての記事が読み放題。
著者フォローなど便利な機能、限定プレゼントのご案内も!

会員の方はログイン

ForbesBrandVoice

人気記事