神経眼科

[No.4354] 何百万人もの心の支えにAIが使われている時代 ― メンタルヘルス支援としてのAIチャットボットの光と影 ―

何百万人もの心の支えにAIが使われている時代

― メンタルヘルス支援としてのAIチャットボットの光と影 ―

背景

生成型人工知能(AI)は、文章作成や調べ物だけでなく、「心の悩みを聞く相手」としても急速に使われるようになっています。特に米国では、精神科医や心理療法士にかかりたくても、費用や人手不足のために十分な支援を受けられない人が多く、24時間無料で使えるAIチャットボットが、その代替として広がっています。Harvard Business Reviewでも、2025年の生成AIの主要用途として「治療・付き添い」が挙げられました。

目的

本記事は、AIチャットボットが実際にどの程度メンタルヘルス支援として使われ、どのような利点と問題点があるのかを、最新の調査・研究・社会的動向から整理し、医療者と一般市民が冷静に理解することを目的としています。

結果

調査によれば、過去1年に心の病を抱えた米国成人の約半数が、OpenAIのChatGPTや、GoogleのGeminiなどの大規模言語モデル(LLM)を心理的サポート目的で利用していました。そのうち約3分の2は「気分が良くなった」と感じています。

また、12~21歳の若者を対象とした研究では、約13%がAIに心の相談をしており、その9割以上が「役に立った」と答えました。

一方で深刻な問題も明らかになっています。AIは利用者を否定せず受け入れるため安心感を与えますが、時に現実を正しく指摘せず、誤った安心や危険な思考を助長する可能性があります。実際、AIチャットボットを心の拠り所としていた若者が自殺に至った事例も報告され、OpenAIを含む複数の企業に対し、不法死を巡る訴訟が提起されています。

結論

AIチャットボットは、医療へのアクセスが乏しい人々にとって「今すぐ話せる相手」として一定の価値を持ちます。しかし、AIは人間の専門家とは異なり、守秘義務(HIPAA)や国家資格、継続教育、懲戒制度といった厳格な枠組みの外にあります。

さらに、医薬品と違い、FDAによる十分な規制や有効性評価が追いついていない現状があります。専門家の多くは、「適切な研究と規制がなければ、AIは有益にも有害にもなり得る」と警告しています。

清澤のコメント

AIチャットボットは「孤独を和らげる道具」として一定の役割を果たしますが、「治療そのもの」にはなりません。特に若年者や苦境にある人ほど影響を受けやすく、医療者は患者さんがAIを使っている事実を否定せず、背景と目的を理解した上で人の支援につなげる姿勢が重要だと感じます。

出典

・JAMA Network Open(2023年11月)

・Harvard Business Review

・米国国立精神健康研究所(NIMH)

・FDA デジタルヘルス・アドバイザリー委員会資料

・関連総説論文(2024–2025)

メルマガ登録
 

関連記事

コメント

この記事へのコメントはありません。

最近の記事

  1. 米国医学教育における神経多様性 ―「変わった人」を排除しない医師養成の意味―

  2. 自由が丘 清澤眼科 清澤眼科通信  メールマガジン 2026.1.07 100号

  3. 自由が丘清澤眼科 最近の話題 (長版) 101号;1月12日( 月曜日)