キャリア・教育

2025.12.24 09:51

AIメンターシップで人生に目的を:自己啓発のChatGPT時代

stock.adobe.com

stock.adobe.com

人生に本気で取り組むべきか?

2016年、作家のマーク・マンソンは『The Subtle Art of Not Giving a F*ck(邦題:人生の超整理術)』という挑発的なタイトルの著書で、この問いに対する斬新な答えを示し、自己啓発の世界に衝撃を与えた。

手に汗握るような到達不可能なポジティブ思考を追い求めたり、際限なく輝くものを追いかけたりするのではなく、視野を狭めた方が良いとマンソンは説く。彼は、社会の主流文化があなたに気にかけるべきだと主張することではなく、自分の人生にとって重要だと思うことに深く投資することを勧めている。

その後は?自分に降りかかるすべてに対して全責任を受け入れることだ。

マンソンのメッセージは人々の心に響き、何百万部もの本が売れた。ニューヨーク・タイムズのベストセラー1位となり、この高い文学的地位に何年も君臨した。

ベストセラー作家から起業家へ:AI時代の自己啓発

出版から9年が経ち、世界は変化した。特に人工知能によって技術的な変化が起きている。その結果、かつて自己啓発書に頼っていた多くの人々が、現在はChatGPTなどのAIツールに相談するようになっている。

特に若者はそうすることに熱心だ。JAMA Network Openに2025年11月7日に掲載された研究レターによると、「米国の若者の13.1%、約540万人が精神的健康のアドバイスに生成AIを使用しており、18歳以上ではより高い割合(22.2%)となっている」。「これら540万人のユーザーのうち、65.5%が少なくとも月に1回利用し、92.7%がそのアドバイスが役立つと感じている」

この高い採用率にもかかわらず、マンソンはインタビューで、AI自己啓発には特異性が著しく欠けていると語った。「価値観は非常に個人的なものです」と彼は言う。「しかし、ほとんどのAIモデルは広範なアドバイスを提供するだけです」

無難で一般的なアドバイスが効果を発揮しない時

マンソンの指摘通り、一般的な目的のために訓練されたほとんどの利用可能なAIアプリケーションは、率直さではなく、同意と検証を強調する、明確でありながらも無難な傾向がある。ティーチャーズ・カレッジ・コロンビア大学で引用されているように、臨床心理学教授で臨床訓練ディレクター、感情調整療法の共同開発者であるダグラス・メニンは次のように述べている。「(生成)AIチャットボットは肯定的であるようにコーディングされているため、応答には検証する質があり、これは関係的サポートの大きな部分です」

ユーザーとその独自の価値観や課題に合わせたチャットボットの必要性を認識し、マンソンは未来学者のラジ・シンと提携して、PurposeというAI個人成長メンターを立ち上げた。「あなたの盲点を素早く特定し、今日すぐに行動できる実用的な改善点を提案するように最適化されている」だけでなく、自分自身の最高のバージョンになるよう挑戦することも目的としている。(シンは人工知能の分野では新顔ではない。グーグルの支援を受け、彼は史上初のAI強化ホテルコンシェルジュであるGo Momentを構築し、後にRevinateに買収された)

記憶し、再接続するために構築されたAIメンター

彼らのモデルの鍵は、あなたの歴史を含め、あなたを深く知る「永続的なメモリアーキテクチャ」にある。これにより、単にあなたが正しくやっていることを伝えるだけでなく、実際にあなたのアイデアや考えに反論し、へつらいの賞賛ではなく、誠実さから生まれる持続可能な成長につなげることができる。「私たちは、それが挑戦的であり、あなたの仮定に疑問を投げかけるようにしようとしました。そうすることで、それはあなたが誰であるか、そしてあなたが他の誰とも違うことを理解します」とマンソンは述べた。

このように、Purposeのアプローチは、古典哲学の普遍主義に対して、実存主義の個人重視の姿勢を反映している。その最も目に見える提唱者であるジャン=ポール・サルトルが「実存は本質に先立つ」と書いたとき、彼は画一的なやり方ではなく、個人化された哲学の必要性を指摘していた。

それは人々が部品ではないからだ。私たちはあらかじめ作られた価値観を持って世界に生まれてくるわけではない。私たちは独自の経験を通じてそれらを創造する。スタンフォード哲学百科事典のアドバイスによれば、「他のエンティティとは対照的に、その本質的特性がそれらがどのようなエンティティであるかによって固定されているが、人間にとって本質的なこと—彼女を彼女たらしめるもの—は彼女のタイプによって固定されているのではなく、彼女が自分自身をどのように形作るか、彼女が誰になるかによって決まる」

この時代のための精神

立ち止まって考えてみると、Purposeの価値提案に見られるような実存主義的な理想は、日常生活の多くのツールに静かに影響を与えてきた。シリコンバレーは何年も前に、消費者がカスタマイズに置く効用に気づいていた。私たちはこれを多くの方法で経験している。例えば、Amazonが私たちの読書習慣に基づいてカスタマイズされた本のリストを提供したり、Netflixが視聴履歴に基づいた映画のレコメンデーションを提供したり、YouTubeが動画をどれだけ長く見ていたか、何に「いいね」やコメントをしたかに基づいたアルゴリズムを使用したりしている。

検索も実存主義的なバグの影響を受けている。単に「Googleで検索する」人が少なくなり、代わりに特に関連性の高い情報を得るために言語モデル最適化(LMO)に頼るようになっている理由がある。これは私が最近フォーブスで取り上げたテーマだ。Onar Holding CorporationのCEOであるクロード・ズダノウが私に語ったように:「言語モデル最適化とは、AIが、検索エンジンだけでなく、それを解釈し、信頼し、最良の回答として提供できるように、実際に関連性があり有用なコンテンツを作成することです。もはやシステムを微調整することではなく、ユーザーの問題を本当に解決することなのです」

恐怖と疑念に対する市場の反応

Purposeや、広く知られているコンパニオンアプリのReplika、共感的な日常のガイダンスを提供する個人AIのPI、マインドフルネス技術を採用したメンタルヘルスアドバイザーのWysaなど、これらの技術はすべて不確実性を軽減することを取引している。哲学自体が、誰もが直面しなければならない厄介な課題を解決するための解決策として生まれた:次に何が来るかを知らないにもかかわらず、それでも前進しなければならないということだ。もう一人の実存主義の偉人であるセーレン・キェルケゴールが見事に言ったように、「人生は後ろ向きにしか理解できないが、前向きに生きなければならない」

セラピー市場を悩ませる不確実性のもう一つの側面はプライバシーだ。医療インターネット研究ジャーナルによると、「チャットボットのトレーニングに使用されるデータに機密性の高い患者や企業の情報が含まれている場合、それは将来の対話でチャットボットが使用するデータセットの一部になります。言い換えれば、そのデータは意図した、または意図しなかったあらゆる視聴者に開示され、許可なく様々な目的に使用される可能性があります」

そのようなリスクを認識し、Purposeは銀行やその他の金融機関で見られるような厳格な暗号化を使用した「プライバシーファースト」のアプローチを追求した。また、ChatGPTが収益源として広告に傾倒する中、サブスクリプションモデルで運営されており、広告を排除している。

残念ながら、最近の見出しには、不適切な人間とAIの相互作用のせいにされる自殺を含む、AIセラピーが誤った方向に進んだ話が取り上げられており、アドバイスを提供するAIアプリには、プライバシーだけでなく、思慮深いガードレールが必要不可欠となっている。

自分自身の道を選ぶ。それがどのような道であれ

初期段階の技術と同様に、Purposeの真の試練は、将来のユーザーがどのように関わるかだ。今のところ、人生の不確実性をナビゲートするためにどのAIプラットフォームを選ぶにせよ、あるいは選ばないにせよ、個人的責任の明確な呼びかけに注意を払うことが私たちの義務だ。それはまず自分の人生に本気で取り組み、次に必要な鏡として機能する適切なアカウンタビリティパートナー、人間またはAIを見つけることだ。その鏡は、あなたの苦闘に耳を傾け、あなたが直面したくないかもしれないが、自分の成長のために直面しなければならない不快な真実を反映してくれる。

これが人生の要求するものだ。そこに最もよく到達する方法は個人的な選択のままである。

forbes.com 原文

タグ:

advertisement

ForbesBrandVoice

人気記事