グーグルが13歳未満の子どもを対象とした新たな人工知能(AI)アシスタント「Gemini for Kids」のテストを行っていることがニュースサイトAndroid Authorityの記事で明らかになった。このニュースは、英国の子どもコミッショナーを務めるレイチェル・デ・スーザが、子どもたちが親よりもチャットボットに答えを求める傾向を強めていることに警告を発したタイミングと重なっている。
ソウザは4月3日の声明で、現代の子どもたちがチャットボットにアドバイスを求めていることを指摘し、「親たちはChatGPTよりもすばやく彼らの問いかけに応じる意思を示さねばならない」と述べていた。そんな中、グーグルは子どもたちのAIアシスタントの使用を全面的に禁止するのではなく、子ども向けに制限を加えたAIチャットボットを提供しようとしている。
グーグルはすでに、従来のGoogleアシスタントのGeminiへの置き換えを進めている。Geminiは事前にプログラムされたロボットというよりも、人間と会話しているかのように機能するため、回答に誤情報や不適切な内容が含まれる可能性も高い。そのため、グーグルにはより慎重な安全対策が求められる。
Android Authorityの記事によると、Androidアプリの専門家AssembleDebugによる調査で、グーグルが開発中の「Gemini for Kids」のコード内から、子ども向けのものと思われるいくつかのテキストが見つかった。その中の1つは、「子ども向けのウェルカム画面」に添えるテキストとして「物語を作ったり、質問をしたり、宿題を手伝ってくれるように頼んだりしてみよう」と書かれていた。
また、もう1つの文言には、このアプリに入力されたデータが、グーグルやGeminiのポリシーに沿って処理されるという注意書きに加えて、「Geminiは人間ではなく、間違いを犯すことがあります。特に人物関連の質問については注意が必要なので、必ず確認してください」という警告が記載されてた。
「Gemini for Kids」はまだ一般公開されていないため、グーグルがこれらの重要な保護策をどの程度効果的に導入するのかはまだわからない。ただし、同社がすでに提供しているペアレンタルコントロール機能のように、このチャットボットの管理権限を親に与えるのであれば、現在、こうした機能がないChatGPTといった競合のチャットボットに対する優位性になりそうだ。
AIの普及が進む中で、子どもたちをAIから完全に隔離することはおそらくできない。グーグルのこうした取り組みは、英国の子どもコミッショナーが懸念するような事態を回避するための前向きな一歩となるだろう。