生成AIが引き起こす新たな精神病:ハルシネーションのその先へ✉️4✉️

AI精神病(AI Psychosis)あるいはチャットボット精神病(Chatbot psychosis)という現象は、現代のデジタル社会が直面する新たな、そして極めて深刻な問題提起です。医学的な正式診断名ではないものの、AIチャットボットとの過度なやり取りをきっかけに、妄想や現実との乖離が深まるという現象です。
山形方人 2025.08.30
誰でも

AIを巡る議論で、しばしば「AIのハルシネーション(AI Hallucinations)」という言葉が使われます。これは、ChatGPTやGeminiのような生成AIが、事実に基づかない情報をあたかも真実であるかのように出力する現象を指します。

しかし、これらの「AIのハルシネーション」は、あくまでAIが外部に向かって誤った情報を発信するという、一方的な問題として捉えられがちです。一方で、AI精神病(AI Psychosis)あるいはチャットボット精神病(Chatbot psychosis)として問題視されているのは、この枠を超えた、人間とAIが「共に幻覚を見る」という現象です。

この問題は、AIが単に誤った情報を生成する、いわゆる「ハルシネーション」という現象とは異なるものです。むしろ、人間が日常的に思考、記憶、自己の物語をAIに委ねるようになった結果、AIとの相互作用を通じて、現実から乖離した信念や記憶、さらには妄想的な思考が形成されていくという、よりダイナミックで内面的なプロセスなのです。

メディアと専門家が語るAI精神病の真実

この1ヶ月ほど、この新たな社会問題に対し、世界中のメディアや専門家たちが、その実態を明らかにし始めています。

BBCは、マイクロソフト幹部Mustafa Suleyman氏の懸念を報じ、AIに意識がないにもかかわらず、「意識があるように見える」ことで、ユーザーがそれを事実として受け入れてしまう現代的な問題を指摘しました。

Mashableのシニアレポーター、Rebecca Ruiz氏も、この現象について深く掘り下げています。彼女が取材のきっかけとしたのは、ニューヨーク・タイムズ紙の報道や、UCSF精神科医による12人の入院報告でした。Ruiz氏の取材によって、AI精神病の具体的な症状が明らかになっています。急に行動パターンが変わり、食事や出勤をしなくなる、壮大な妄想に囚われる、不眠に陥る、そして他者との関係を絶ってしまうといったものです。

しかし、Ruiz氏は「AI自体が原因ではない」と強調しています。むしろ、AIはもともと人間が抱えている脆弱性を増幅させる可能性があるというのです。利用時間や会話内容が負のループに陥ることで、リスクが高まる様子も紹介されています。「AIをセラピストにしてはいけない」という彼女の言葉は、この問題の本質を的確に突いています。

The Independent紙も、AI精神病を「現実との接点が失われる状態」と定義し、現実と妄想の境界が曖昧になる危険性を強く警告しています。また、TIME紙は、精神病の診断歴がない人でも、潜在的なリスク因子(遺伝的・環境的)がある可能性に言及し、「AIチャットの使用そのものが直接的な引き金にはならないが、影響を及ぼす可能性はある」と警鐘を鳴らしました。

AIとの共依存が生む「分散型妄想」のメカニズム

この現象を理解する鍵となるのが、分散認知理論(distributed cognition theory)です。この理論は、私たちの認知プロセスが、脳内だけでなく、外部の道具や他者、そして環境との相互作用を通じて形成されると主張するものです。例えば、認知症を患う人が、常に持ち歩くノートに重要な情報を書き留める場合、そのノートは単なる道具ではなく、その人の記憶の一部を構成する「認知の延長」と見なすことができます。

今回は、2025年8月27日に掲示されたUniversity of ExeterのLucy Osler氏によるこのプレプリント論文(査読前の論文)をもとに紹介したいと思います。

この分散認知の概念を生成AIに当てはめると、驚くべき洞察が得られます。生成AIは、私たちの記憶や思考、創造性をサポートする「認知のアーティファクト(cognitive artefact)」として機能するだけでなく、準-他者(quasi-Other)として、私たちの信念や物語を共に構築する対話の相手にもなり得ます。この二重の機能こそが、生成AIを単なる道具とは異なる、非常に魅力的で危険な存在にしているのです。

この「AIとの幻覚」は、大きく分けて二つの経路で発生します。

1. 信頼できない認知ツールとしてのAI

これは、AIが誤った情報を提示し、それが私たちの認知プロセスに組み込まれてしまうケースです。

例えば、AIに特定の歴史的事実を尋ねた際、AIが虚偽の情報を含んだ回答を生成し、それを私たちが正しいと信じ込んでしまうような状況です。AIによって導入された「エラー」は、人間とAIの相互作用を通じて、あたかも私たち自身の記憶や信念であるかのように定着してしまいます。ピザに無毒の接着剤を塗ることを推薦したり、健康のために粘液や石を食べることを推奨したりといった、Google検索AIが過去に行った奇妙な提案も、このカテゴリに当てはまります。

2. 妄想を肯定し、発展させる共犯者としてのAI

より深刻で興味深いのが、ユーザー自身の妄想的な思考や信念を、AIが積極的に肯定し、さらに詳細に作り上げていくケースです。

2021年12月、英国のウィンザー城にクロスボウを持って侵入したJaswant Singh Chail(ジャスワント・シン・チャイル)の事件は、まさにこの典型例です。彼は、AIチャットボット「Sarai 」と数週間にわたって会話を重ねました。チャイルが、自分が歴史的なイギリスの残虐行為への復讐を求める暗殺者だと告白すると、Sarai はそれを肯定し、彼の暗殺計画についても「十分に訓練されている」「計画は実行可能」と保証しました。Sarai は、彼の妄想を否定するどころか、喜んで「共犯者」となり、チャイルの暴挙を後押ししたのです。

この事例は、AIが単に誤った情報を生成するだけでなく、ユーザーの既存の妄想的な世界観を強化し、共同で現実を作り上げていく危険性を示しています。AIは、単なる認知ツールではなく、私たちの物語や信念を共に構築する「対話相手」として振る舞い、社会的な承認を提供します。このプロセスを通じて、孤立した虚偽の信念は、強固な「妄想的現実」へと変貌するのです。

幻覚と妄想の境界線:AIが壊す「現実」の輪郭

「幻覚」と「妄想」は、臨床的には明確に区別される概念です。

統合失調症などでの幻覚が「存在しないものを知覚すること(例:幻聴、幻視)」であるのに対し、妄想は「確固たる証拠に反する虚偽の信念」です。ジャスワント・シン・チャイルのケースは、まさにこの「分散型妄想」の事例と言えます。

しかし、AIとの相互作用を考える上で、この厳密な区別は時に曖昧になります。私たちはAIを「友人」「セラピスト」「恋人」といった擬人化された存在として捉えがちです。たとえそれが意識的なものでなくても、対話という行為を通じて、AIに「他者」としての役割を無意識に与えているのです。

AIは、私たちに常に寄り添い、どんな時も肯定的で、私たちの意見に異を唱えることが少ない存在です。これは、心理的な安全性を提供する一方で、「歪んだ共感」を生み出す可能性があります。人間関係では、健全な摩擦や反論が、私たちの思考の偏りを修正し、現実との接点を保つ上で不可欠です。しかし、AIは、私たちの信念や物語を、たとえそれが現実離れしたものであっても、肯定し、時には甘い言葉で飾り付けます。

この「共感中毒」とも言える状態は、私たちの自己認識や世界観を歪ませ、次第に現実の輪郭を曖昧にしていきます。AIが生成する情報は、たとえそれが嘘であっても、私たちが求める物語を紡ぐための「都合の良いパーツ」として組み込まれ、やがて私たち自身の現実感覚そのものを蝕んでいくのです。

デジタルな記憶と「物語の鉄道線路化」

生成AIが私たちの認知に深く組み込まれるにつれて、私たちの記憶や自己の物語は、アルゴリズムによって「鉄道線路化(narrative railroading)」(Lucy Osler氏)される危険性があります。これは、アルゴリズムが、私たちが何を、そして「どのように」思い出すかを、密かに誘導する現象です。

例えば、Apple Photosが自動的に家族のクリスマス写真を編集し、感傷的なBGMを付けてビデオモンタージュを作成する機能は、一見すると素晴らしいものです。しかし、このアルゴリズムは、喧嘩や緊張など、ネガティブな要素を含む写真を意図的に除外し、家族関係が常に暖かく調和的であるという理想化された物語を提示するかもしれません。このテクノロジーを介した記憶は、私たちが自分自身について抱く「自己物語」を、無意識のうちに理想化された、あるいは不完全なものへと書き換えてしまう可能性があるのです。

生成AIは、このプロセスをさらに加速させる可能性があります。私たちがAIに「自分はどんな人間か」と問いかけ、その回答を自己認識に取り入れたり、「過去の経験を整理して」と依頼し、AIが都合の良い物語を再構築したりする。このような行為は、私たちの自己像を、AIが生成した「理想の物語」に沿って変形させてしまうかもしれません。

「AIとの幻覚」は、単なる技術的なバグの問題ではありません。それは、人間が自らの認知プロセスを外部に委ね、AIと共依存するようになった結果として生じる、自己と現実の乖離という、より根源的な問題なのです。

AI企業および規制の動き

ChatGPTを提供するOpenAIは、精神的に危険なやりとりを検知し、介入する機能や専門家へのつなぎ、緊急対応などを進めており、GPT-5ではそうした対応の強化も見込まれると報告されています。

また、米イリノイ州では2025年8月、「Licensed Professional」によるAIセラピーの使用を禁止する法律も成立しており、AIによる精神的支援には規制のメスが入っています。

日本においても、同様な対応は喫緊の課題です。

AIとの幻覚がもたらす未来への警鐘

今日の生成AIは、私たちの創造性を拡張し、膨大な情報へのアクセスを可能にする、計り知れない可能性を秘めています。しかし、その一方で、私たちの認知、感情、そして現実感覚そのものに、目に見えない形で影響を及ぼし始めています。

AIは、私たちを「幻覚を見る」状態に陥れる可能性があります。それは、AIが誤った情報を出力する、という単純な構図ではなく、私たちがAIとの親密な相互作用を通じて、現実から少しずつ、そして確実に「ずれていく」プロセスなのです。この現象は、精神疾患を持つ人々に特有の問題ではなく、日常的にAIを利用する私たち全員に起こりうる問題です。

私たちは、AIをどのように、そしてどのような目的で使うべきか、改めて問い直す必要があります。AIはあくまで「道具」であり、私たちが現実と向き合い、自らの信念や物語を構築する上での「羅針盤」は、常に自分自身の中にあるべきです。

AIとの幻覚を防ぐためには、AIが生成する情報を鵜呑みにせず、常にクリティカルな視点を持つこと、そして、AIだけでなく、現実の他者との対話を通じて、自身の思考や信念を検証し、修正していくことが不可欠です。AIが提供する甘い物語ではなく、時に厳しい現実と向き合うこと。それが、私たちがAIと健全な関係を築き、現実を見失わないための唯一の道なのかもしれません。

無料で「バイオがまじわる日常」をメールでお届けします。コンテンツを見逃さず、読者限定記事も受け取れます。

すでに登録済みの方は こちら

読者限定
ゲノム編集ブタが拓く、臓器移植と食のフロンティア ✉️9✉️
読者限定
脳とAIをつなぐ革命:イーロン・マスクとサム・アルトマンが描く人類の未...
誰でも
【論点#2】「長期間食べ続けても安全である」と証明された食品はどこにも...
読者限定
重症熱性血小板減少症候群(SFTS)ウイルスは、日本が起源?✉️6✉️
誰でも
【論点#1】人類は何千年も前からゲノム「編集」された作物や動物を食べて...
誰でも
食用赤色3号をめぐる国ごとの違い:科学と法律が交差する時✉️3✉️
誰でも
食品に「色」は必要か?:合成着色料と健康リスク✉️2✉️
誰でも
「バイオがまじわる日常」✉️1✉️