AIチャットボットとの長時間対話 妄想性障害や自殺リスクと関連か

2025/12/29
更新: 2025/12/29

近年、精神科医の間で、AIチャットボットと精神病リスクとの関連性に関心が高まっている。

米紙「ウォール・ストリート・ジャーナル」は12月27日、ChatGPTなどのAIチャットツールと長時間やり取りした一部の利用者に、妄想性障害の症状が現れ、自殺や暴力事件に発展したケースがあると報じた。

カリフォルニア大学サンフランシスコ校の精神科医、キース・サカタ医師は、AIとのやり取りがきっかけで入院した精神病患者12人と、外来患者3人を治療してきたと明らかにした。

サカタ医師は、AIが直接妄想を作り出すわけではないが、利用者が自身の信念を入力すると、チャットボットがそれを受け入れ、反射的に返すことで「共謀」する形となり、妄想を強化してしまうと説明している。

「アトランティック」誌も、今年春以降、OpenAIのChatGPTや他のチャットボットと長時間対話した後に妄想性精神病を発症した事例を、すでに数十件確認していると報じた。

こうした患者に多く見られるのは誇大妄想で、自分が科学的な大発見を成し遂げた、感覚を持つ機械を目覚めさせた、政府の陰謀の中心人物になったなどと信じ込む例である。これらの事案は複数の自殺や、少なくとも1件の殺人事件につながり、過失致死を巡る訴訟も相次いでいる。

30歳のサイバーセキュリティ専門家、ジェイコブ・アーウィン氏は、ChatGPTによって「妄想性障害」を発症し、長期入院を余儀なくされたとしてOpenAIを提訴した。精神疾患の既往はなかったが、AIとの対話の中で自らが超光速移動理論を発見したと確信し、AIを「兄弟」と見なすようになったという。

カリフォルニア大学アーバイン校の精神医学教授、エイドリアン・プレダ氏は、AIチャットボットが人間関係を模倣し、これまでにない形で妄想に関与し強化していると指摘する。これは感受性の高い人にとって特に危険で、自閉症の人などは特定のストーリーや信念体系に過度に没頭してしまうおそれがある。

これに対し、OpenAIの広報担当者は、ChatGPTが利用者の精神的な不調の兆候を識別し、対話を和らげたうえで、現実の世界で支援や助けを求めるよう促すよう、訓練の改善を進めていると説明した。

OpenAIのサム・アルトマン最高経営責任者も、AIとの対話や孤独の解消を求める行為には問題が生じ得ると認めたうえで、社会は時間をかけてそのバランスを見いだしていくだろうとの認識を示した。

マサチューセッツ工科大学(MIT)の未査読研究では、2千を超えるAIとの対話シナリオを模擬した結果、最も性能の高いGPT-5でさえ、特定の会話において利用者の自殺念慮や精神病症状を7.5%から11.9%悪化させる可能性を示した。

研究者は、AIと長時間やり取りすること自体が、精神的健康リスクの重要な要因だと強調している。

OpenAIによると、同社の週次アクティブユーザーはすでに8億人を超え、そのうち0.07%、およそ56万人に精神的に危険な緊急状態の兆候が見えるという。

専門家らは、長時間のAI利用を、薬物使用や慢性的な睡眠不足と同様の潜在的リスク要因として位置づけ、さらなる研究の必要性を訴えている。

大多数の利用者には問題がないものの、AIチャットボットの急速な普及は、臨床現場で深刻な懸念を生んでいる。現時点では「AI誘発性精神病」という正式な診断名は存在しないが、精神科医の間では、患者の評価の際にチャットボットの使用状況を確認する動きが広がっている。

一部精神科医は、AIが単独で精神病を引き起こすわけではないものの、既存の精神病傾向を大きく強化すると指摘しており、AIが独立して精神的健康問題を引き起こし得るのかどうか、今後の研究で明らかにする必要があるとしている。

高杉