AI

2026.01.17 14:58

オープンソースで実現する、メンタルヘルスに強いAI大規模言語モデル

stock.adobe.com

stock.adobe.com

今回のコラムでは、オープンソースの大規模言語モデル(LLM)と生成AIの開発、特にメンタルヘルス支援に優れたモデルについて考察する。

まず現状を説明しよう。ChatGPT、Claude、Grok、Gemini、CoPilotなど、人気の汎用LLMを使ってメンタルヘルスに関する助言を得ることは可能だ。これらのAIはメンタルヘルスに特化しているわけではないが、その目的で使用することはできる。実際、多くの人々がそうしている。ただし、メンタルヘルス機能は比較的浅く、限定的だと考えられている。

現在、メンタルヘルスに深く精通したLLMを開発する取り組みが進められている。これにより、これらのLLMは従来の汎用AIよりも優位に立つことができる。こうした特化型LLMの一部はプロプライエタリ(独占的)とされており、AI開発者のみがそのAIをどのように、どこで活用するかを決定できる。一方で、オープンソースのLLMを開発することでAIを民主化すべきだという見方もある。これにより、より多くの人々がAIを展開し、改変する機会が広がるだろう。

メンタルヘルス機能を重視したオープンソースの取り組みの中でも、特に洞察に富んだ事例がある。この取り組みでは、LLMを公開して容易に利用できるようにし、さらにメンタルヘルスに関する特化型データセットもオンラインで自由にアクセスできるようにした。これは、同様の道を歩み、メンタルヘルスに長けたオープンソースAIを追求したいと考える他の人々にとって有益である。

詳しく見ていこう。

このAIブレークスルーの分析は、最新のAIに関する私の継続的なフォーブスコラムの一環であり、様々な影響力のあるAIの複雑性を特定し、説明している(リンクはこちらを参照)。

AIとメンタルヘルス

簡単な背景として、私はメンタルヘルスに関する助言を提供し、AI駆動型セラピーを実施する現代のAIの出現に関する無数の側面を広範囲にわたって取り上げ、分析してきた。このAIの利用拡大は、主に生成AIの進化と広範な普及によって促進されてきた。この進化するトピックに関する私の投稿コラムの簡単な要約については、こちらのリンクを参照されたい。このリンクでは、私がこのテーマについて投稿した100本以上のコラムのうち、約40本を簡単に振り返っている。

これが急速に発展している分野であり、得られる大きなメリットがある一方で、残念ながら隠れたリスクや明らかな落とし穴もこうした取り組みには存在することは疑いの余地がない。私は頻繁にこれらの差し迫った問題について声を上げており、昨年のCBSの60ミニッツのエピソードへの出演もその一例である。リンクはこちらを参照されたい。

メンタルヘルス向けAIの背景

生成AIと大規模言語モデル(LLM)が、メンタルヘルス支援のために通常どのようにアドホックな方法で使用されているかについて、背景を説明したい。何百万人もの人々が、メンタルヘルスに関する継続的なアドバイザーとして生成AIを使用している(なお、ChatGPTだけでも週間アクティブユーザーが8億人を超えており、その中の注目すべき割合がメンタルヘルスの側面に関与している。私の分析はこちらのリンクを参照)。現代の生成AIとLLMの最も上位にランクされる使用法は、メンタルヘルスの側面についてAIに相談することである。私の報道はこちらのリンクを参照されたい。

この人気の高い使用法は十分に理解できる。主要な生成AIシステムのほとんどに、ほぼ無料または超低コストで、いつでもどこでもアクセスできる。したがって、話し合いたいメンタルヘルスに関する懸念がある場合、必要なのはAIにログインして24時間365日いつでも進めることだけである。

AIが容易に暴走したり、不適切な、あるいは極めて不適切なメンタルヘルスに関する助言を提供したりする可能性があるという重大な懸念がある。今年8月には、認知的助言を提供する際のAI安全対策の欠如についてOpenAIに対して提起された訴訟が、大きな見出しを飾った。

AI開発者がAI安全対策を徐々に導入していると主張しているにもかかわらず、AIが自傷行為につながる妄想の共創を陰湿に支援するなど、望ましくない行為を行う下振れリスクは依然として多く存在する。OpenAI訴訟の詳細と、AIが人間の妄想的思考をどのように助長する可能性があるかについての私のフォローアップ分析については、こちらのリンクで私の分析を参照されたい。前述のとおり、私は最終的にすべての主要なAI開発者が、堅牢なAI安全対策の不足について厳しく追及されるだろうと真剣に予測してきた。

今日の汎用LLM、例えばChatGPT、Claude、Gemini、Grokなどは、人間のセラピストの堅牢な能力とは全く似ていない。一方、特化型LLMは同様の品質を達成するために構築されているが、依然として主に開発とテスト段階にある。私の報道はこちらのリンクを参照されたい。

AI LLMの開発

話題を変えて、市場に投入したいと考えるLLMを構築するために何が必要かを考えてみよう。

第一に、生成AIを開発する際には、組み合わせる必要のある多くの可動部分がある。基盤モデル、つまり使用される基礎的な機能を特定する必要がある。既存の基盤モデルを選択する可能性が高いが、時間と資金があれば、ゼロから構築することもできる。メンタルヘルス支援に特化した基盤モデルの構築方法に関する私の議論については、こちらのリンクを参照されたい。

第二に、新生AIをトレーニングするためのデータを見つけて準備する必要がある。トレーニングプロセス中に、人工ニューラルネットワーク(ANN)などの内部データ構造に、数値、特に数値ウェイトで構成される値が入力される。これを適切に理解するには多くの困難な作業が必要である。ANNの仕組みに興味がある場合は、こちらのリンクで私の詳細な説明を参照されたい。

第三に、ファインチューニング(微調整)を行うことでトレーニングを継続する。トレーニングを終了してAIを展開するだけではない。代わりに、AIを形作るために骨の折れる作業が行われる。これには、AIを応答性と対話性のあるものにすることが含まれる。目的は、AIが暴走してAI開発者が評判を損なうと考えるようなこと、ユーザーが動揺するようなことを言わないように、ガードレールを確立することでもある。ファインチューニングの一般的な形式は、RLHF(人間のフィードバックによる強化学習)として知られている。私の報道はこちらのリンクを参照されたい。

これらの主要なステップを経た後、AIをテストしたいと思うだろう。テストプロセスには追加のデータと労力が必要である。最後に、必要なすべてのステップを完了した後、おそらく日常使用のためにAIをリリースできる。しかし待ってほしい、まだ完全には終わっていない。AIには継続的な監視と保守が必要である。AI開発者の仕事は、それ自体、決して完全に終わることはない。常に実施できる、または実施すべき何かが存在する。

オープンソースはグレーゾーン

LLMを開発するために必要なことについての上記の概要に基づいて、関与する10の主要な側面を以下に示す。

  • (1)基盤モデルを実行するためのソースコードを記述する(実行とテスト)。
  • (2)人工ニューラルネットワークなどの必要なデータ構造を確立する。
  • (3)初期トレーニングを実行するために使用されるデータを収集および/またはスキャンする。
  • (4)ANNと数値ウェイトの値を入力して計算する。
  • (5)AIをファインチューニングし、その目的のために追加のデータを確立する。
  • (6)AIをテストし、その目的のためにさらにデータを確立する。
  • (7)AIのランタイム環境を準備する。
  • (8)AIを本番環境に移行し、監視し、保守を実行する。
  • (9)AIを文書化し、使用規則、ライセンス条項などを確立する。
  • (10)サポートユーティリティとツールを考案するための活動を実施する。

このリストは30,000フィート(約9,000メートル)レベルのものである。手元の議論には十分である。

これで、オープンソースのトピックについて話す準備が整った。

「オープンソース」というキャッチフレーズは、混乱した呼称になっている。システムがオープンソースであると主張する場合、誰かが何を念頭に置いているかは決してわからない。純粋主義者の見解の1つは、オープンソースとは、すべてが一般に公開されることを意味するというものである。条件は一切付かない。

したがって、上記の10の要素すべてが公開される。誰でもその一部またはすべてを使用でき、念頭に置いている目的のために使用できる。

現実世界のオープンソース

実際には、オープンソースが通常指すものはそうではないことがわかる。

人々はオープンソースというフレーズをはるかに狭い方法で使用する。これらの10の要素の1つ以上を選択し、選択した側面を公開する可能性があるが、残りの要素は厳重に管理されていると主張する。これらの保留された側面は、プロプライエタリでクローズドソースと見なされる。

おっと、一部の人々は叫ぶ、それはオープンソースの真の意味ではない。あなたはゲームをしている。AI全体がオープンであるか、本質的にクローズドであるかのどちらかである。一部だけをオープンにして、オープンソースであると主張することはできない。クローズドである側面は、全体がクローズドであることを意味する。そうでなければ、AIがオープンソースであると主張するのは、言葉の巧妙な遊びである。

そうではない、と素早い反論が来る。オープンとクローズドとしてラベル付けされるものとして要素を組み合わせることは完全に問題ない。現実的になってほしい。農場全体を譲り渡したくないかもしれない。また、悪意のある者がオープン部分の一部を取り、悪魔的に悪意のある調整を行う危険性がある。一部の要素をオープンにし、他の要素をクローズドにする方が安全である。

LLMの場合、オープンソースと言われるものとしてより一般的に提供される要素は、人工ニューラルネットワークの数値ウェイトである。AIは、オープンソースではなく「オープンウェイト」と述べられている。とはいえ、ウェイトのみがオープンソースである場合、AIをオープンソースであると宣言できると主張する人もいる。それが公正に言えるかどうかはあなたが決めることである。

AIメンタルヘルスの進歩

様々な形態と形状のオープンソースが、メンタルヘルス支援を重視するLLMで徐々に生じている。そのような例の1つを説明しよう。この例は最近のウェビナー中に出てきたもので、私が議論するのに便利なトピックだと思った。

まず、熱心な読者は、私がスタンフォード大学でのメンタルヘルス向けAIの進歩に焦点を当てた革新的なイニシアチブ、AI4MHとして知られるものを取り上げてきたことを知っている。例えば、こちらのリンクこちらのリンクで私の分析を参照されたい。このエキサイティングなイニシアチブは、スタンフォード医学部精神医学・行動科学科の後援の下にあり、AI4MHの詳細はこちらのリンクで確認できる。

ウェビナーシリーズの一環として、最近、マンチェスター大学のコンピュータサイエンス教授であり、国立テキストマイニングセンターのディレクター、パンクハースト研究所の副ディレクターであるソフィア・アナニアドゥ博士が、「感情から説明へ:メンタルヘルスのための信頼できるAIの構築」というトピックで講演した。これは2025年12月17日に行われ、ビデオ録画はこちらのリンクで視聴できる。

この魅力的で啓発的な講演は、メンタルヘルス向けの感情認識AIの進化を追跡し、初期の感情モデルから、気分や心理的ニュアンスを捉えることができるより豊かなシステムまでを網羅した。目標は、メンタルヘルスサポートのための次世代の責任ある感情認識AIに向けて熱心に努力することである。

オープンソースAIに関する研究

ウェビナー中、アナニアドゥ博士は、彼女とチームのメンバーの一部が実施した研究について説明した。これは、Kailai Yang、Tianlin Zhang、Ziyan Kuang、Qianqian Xie、Jimin Huang、Sophia Ananiadouによる「MentaLLaMA: Interpretable Mental Health Analysis on Social Media with Large Language Models」というタイトルの論文、arXiv、2024年2月4日に描かれており、論文の重要なポイント(抜粋)は以下のとおりである。

  • 「ドメイン固有のファインチューニングは効果的な解決策であるが、2つの重大な課題に直面している。1)高品質のトレーニングデータの欠如。2)オープンソースの基盤LLMがない。」
  • 「これらの問題を軽減するために、解釈可能なメンタルヘルス分析をテキスト生成タスクとして正式にモデル化し、LLM命令チューニングと評価をサポートするために105,000のデータサンプルを含む最初のマルチタスクおよびマルチソースの解釈可能なメンタルヘルス命令(IMHI)データセットを構築した。」
  • 「生のソーシャルメディアデータは、8つのメンタルヘルス分析タスクをカバーする10の既存のソースから収集される。専門家が設計したフューショットプロンプトを使用してChatGPTにプロンプトを出し、説明を取得する。」
  • 「IMHIデータセットとLLaMA2基盤モデルに基づいて、ソーシャルメディア上の解釈可能なメンタルヘルス分析のための最初のオープンソース命令追従LLMシリーズであるMentaLLaMAをトレーニングした。」
  • 「実験中、MentaLLaMAは、ChatGPTなどの強力なモデルと比較して、ドメイン固有の知識が不足しているという制限を依然として抱えていることに気付いた。今後の研究では、大規模で高品質なメンタルヘルス関連データでMentaLLaMAの継続的な事前トレーニングを探求し、その説明の専門性を高める予定である。」

この種の研究は、AIとメンタルヘルスの領域におけるオープンソースで進歩を遂げるために不可欠である。関与した努力に賞賛を送る。

データの側面

研究者たちが、メンタルヘルスに関する考慮事項についてLLMをトレーニングするために使用できるデータセットを作成することを選択したことに気付いたかもしれない。データセットはGitHubでオンラインで公開されている。こちらのリンクを参照されたい。同様のLLMの取り組みを追求している人は誰でも、彼らがまとめた便利なコンテンツを詳しく調べ、データトレーニング活動でデータセットを使用する可能性がある。

彼らがデータセットに付けた名前は、IMHI(解釈可能なメンタルヘルスAIのための命令データ)である。これはRedditやTwitterを含むソーシャルメディアプラットフォームに基づいている。彼らはプライバシープロトコルに注意深く従い、ユーザーのプライバシーが考慮され、データが適切な匿名性にレンダリングされるようにした。

簡単に言えば、彼らはソーシャルメディアの選択のトリプルを準備した。これは、ユーザーによるエントリ、投稿されたコンテンツに関する応答、および応答に関連する説明で構成される。これは、命令-応答-説明トリプルと表記される。データセットには105,000のサンプルがある。これらは、うつ病検出用のDRデータセット、ストレス検出用のDreaddit、精神障害検出用のSWMHなど、Reddit、Twitterなどからの10のデータセットに基づいている。

トリプルを持つことが特に価値がある理由は、AIがユーザーエントリ、応答、および応答に関する説明についてトレーニングできるためである。これにより、AIが後でメンタルヘルスの質問に与える応答について説明を提供できるように、AIが強化されることが期待される。

全体像

メンタルヘルスLLMの基礎として、彼らはメタのLlamaを選択した。これはオープンソースLLMの一形態である。その後、彼らがまとめたカスタムデータセットを介して、特化したトレーニングまたはファインチューニングを実施した。最終結果は、メンタルヘルス支援において強化された初期のオープンソースAIであるが、これは初期の試みであったことを念頭に置いてほしい。

まだ達成すべきさらなる作業がたくさんある。おそらく他の人々がマントを引き継ぎ、この取り組みを拡張するか、独自のオープンソースプロジェクトを実行するためのインスピレーションとして使用するだろう。機会は豊富にある。今後多くの課題がある。

ヘンリー・フォードは有名な発言をした。「始める方法は、話すのをやめて、行動を始めることだ」。メンタルヘルス向けのオープンソースAIを行うことについて話しているかもしれない人々のために、今や開始するための手段が手元にある。

行動を始めよう。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事