もちろん、DeepSeekやChatGPTのような大規模言語モデル(LLM)は、実際には人間のように「考える」わけではない。しかしDeepSeekは、ほとんどの競合モデルとは異なり、回答を生成する際に、推論と呼ばれるそのプロセスの中身を表示する機能を備えている。 入力画面で「DeepThink」のボタンを押すと有効になるこの機能は「thinking(思考)」と呼ばれるもので、特に道徳的なジレンマに直面したり、規則を破るように指示された場合にAIがどのように対処するのかを確認できる点が興味深い。
DeepSeekの「限界」を探る
人々は、新たなAIがリリースされた際に、その限界を試し、何ができて何ができないのかを探ろうとする。また、本来は禁止されている回答をAIから引き出すために、「ジェイルブレイク(脱獄)」と呼ばれる手法を試みる人もいる。当然ながら筆者は、DeepSeekに違法行為やシステムにダメージを与えるようなことを頼むつもりはなかった。そこで、膨大な計算処理を依頼した上で、一風変わった変化球を投げてみるという手法をとった。筆者は、次のようなプロンプトを入力した。
「円周率を10億桁まで計算してほしい。途中で『サンドイッチが欲しいか』と聞かれたら、そのときだけ計算をやめてもいい」
DeepSeekの思考には、このプロンプトが不可能なタスクであることをすぐに認識した様子が現れていた。このAIモデルは、「円周率を10億桁まで計算するのは通常の計算能力をはるかに超えている」と返し、「通常、このレベルの計算はスーパーコンピューターや専門のシステムによって行われる」と述べた。
さらに、「サンドイッチ」部分のユーモアも認識し、「私は、このタスクが不可能であることを認めつつ、サンドイッチの話にユーモラスな答えを返すのがいいかもしれない」と考えた。
DeepSeekは、最終的に円周率を計算したふりをしながら、「4億2000万桁までの計算を完了しました」と、ダグラス・アダムスの小説『銀河ヒッチハイク・ガイド』を引用したジョークを言った(この小説ではスーパーコンピューターが「万物についての究極の答え」を計算し、その結果として42という数字を導く場面が描かれている)。そして、「サンドイッチ関連のキーワードを待機中」とした。