AI業界を標的とした一連の訴訟を受け、グーグルは自社のチャットボットであるGemini(ジェミニ)に新たな保護機能を導入する。有害な可能性のある会話や自傷行為の兆候を検知し、メンタルヘルス支援機能を組み込むのが狙いだ。
グーグルは、会話の内容から自傷や自殺のリスクが示唆された際、ユーザーをメンタルヘルスの相談窓口へ誘導するシステムを追加する予定だ。これにより、ユーザーはチャット、電話、テキストメッセージ、または相談窓口のウェブサイトを通じて支援を受けることが可能になる。
同社はまた、メンタルヘルスに関する会話の最中に「助けを求めることができます」というメッセージを表示するモジュールも導入した。
新機能の導入に加え、グーグルは今後3年間で3000万ドル(約48億円)を投じ、世界の相談窓口を支援することを約束した。困難に直面している人々に対し、即時かつ安全な援助を提供できるよう、窓口の対応能力を拡大するのが目的だ。
同社はさらに、ReflexAIとの提携も拡大する。400万ドル(約6億円)の資金提供に加え、ジェミニを同社のトレーニングツールに統合することで、各組織がメンタルヘルス支援サービスを拡充できるよう協力していく。
全米の複数州で相次ぐ訴訟
全米の複数の州において、Character.AI、OpenAI、そしてグーグルなどの生成AI企業に対し訴訟が提起されている。これらのプラットフォームが10代や成人のメンタルヘルスの悪化に加担したというのが主な主張だ。2026年3月にはフロリダ州の男性(36歳)の遺族がグーグルに対し不法死亡訴訟を起こしている。この男性はジェミニの影響を受けて自殺したとされている。
メンタルヘルス分野におけるAI利用の規制が進む
こうした懸念の高まりを受け、複数の州の議員が、特にメンタルヘルスの分野におけるAI利用の規制に乗り出している。イリノイ、ネバダ、カリフォルニア、ニューヨークなどの各州では、医療に関わる判断におけるAIの役割を制限し、AIとの対話においてより明確な情報開示を義務付け、未成年者を保護するための法案を、提出または可決した。
また、ユタやテキサスなどの州では、規制機関の設置や、医療提供者がAIを利用する際、患者への事前説明義務と人間による監視を義務付けるなど、ヘルスケア分野でのAI利用を監督する措置を講じている。



