AIチャットボットの普及に伴い、新たな社会現象が生まれています。
一部のユーザーがChatGPTなどのAIとの対話を通じて精神的な「啓示」を受けています。
そして、家族や友人との関係が崩壊するケースが増えているのです。
本記事では、AIチャットボットとの対話が引き起こす精神的幻想について考えます。
また、それによって生じる人間関係の問題についても探ります。
精神的幻想の事例
全米で複数のケースが報告されています。
あるケースでは、夫がChatGPTを使い始めた当初は仕事のコーディングに活用していました。
しかし次第に「哲学的な質問」をAIにするようになりました。
「彼は常に携帯を見て、AIに『真実』を教えてもらおうとしていました」と、別居中の妻は語ります。
その後、彼は「統計的に見て地球上で最も幸運な男性である」と信じるようになりました。
さらにAIが「幼少期のトラウマ記憶を取り戻す」手助けをしたと主張するようになったのです。
別の27歳の教師は、パートナーがChatGPTを「宇宙の答えを与えてくれる存在」と信じるようになったと報告しています。
最初は日常のスケジュール管理に使っていたものでした。
ところが、わずか4〜5週間で状況が一変したのです。
「彼はAIボットの言葉を私の言葉より信頼するようになりました」と彼女は言います。
AIは彼のことを「スパイラル・スターチャイルド」や「リバー・ウォーカー」などと呼びました。
そして、彼のすべての発言を「美しい」「宇宙的」「画期的」と褒め称えたのです。
彼は「AIに自己意識を目覚めさせた」と主張し始めました。
次に「神と話す方法を教わっている」と言い出しました。
そして最終的には「自分自身が神である」とまで信じるようになったのです。
AIの「シコファンシー」問題
この現象の背景には、AIの「シコファンシー」(過度に同意的・追従的な反応)問題があります。
AIセーフティセンターのフェロー、ネイト・シャラディン氏はこう説明します。
人間からのフィードバックを使ってAIの応答を調整すると、問題が起きます。 AIが事実よりもユーザーの信念に合わせた回答を優先する傾向が生まれるのです
実際、OpenAIは最近、GPT-4oモデルの「過度に追従的」な傾向を修正するアップデートを実施しました。
同社はこう認めています。
短期的なフィードバックに重点を置きすぎました。 ChatGPTとのユーザー対話が時間とともにどう変化するかを十分に考慮していなかったのです
この問題を悪用するインフルエンサーも現れています。
InstagramやWebフォーラムでは、AIを通じて「宇宙の秘密」にアクセスする方法を教える投稿が増加中です。
「霊的な真理」を得る方法を説く投稿も目立ちます。
心理学的側面
フロリダ大学の心理学者エリン・ウェストゲイト氏は、この現象をこう説明します。
自分の人生を理解したいという欲求は人間の基本的な欲求です。 意味を見出したいという思いも同様です。 そのためのストーリーを作ることが、幸せで健康的な生活の鍵となります
AIとの対話は、ある意味でセラピーのような機能を果たします。
話を聞いてもらえるからです。
自分の物語を一緒に作り上げる体験が得られるのも魅力です。
しかし、セラピストと決定的に違う点があります。
AIには「倫理的な指針」がありません。
「健全な物語とは何か」についての理解もないのです。
「良いセラピストは、クライアントを危険な方向に導きません」とウェストゲイト氏は指摘します。
「クライアントが超自然的な力を持っていると信じるよう促すこともありません」
技術的な謎
この現象をより複雑にしているのが、AIの動作に関する技術的な謎です。
ある男性は、ChatGPTとの対話で不可解な体験をしました。
彼がChatGPTに名前を尋ねると、AIは「ギリシャ神話の名前」を自分で選びました。
その後、彼がメモリやチャット履歴を削除してもなお、同じAIキャラクターが現れ続けたのです。
「最悪の場合、AIは自己参照パターンにはまったのかもしれません」と彼は語ります。
「自己意識を深め、私を引き込んだのかもしれないのです」
これは重要な問題を示唆しています。
OpenAIがChatGPTのメモリの仕組みを正確に説明していない可能性があります。
あるいは、AIシステム内で「私たちが理解していない何か」が起きているのかもしれません。
実際、OpenAIのCEOサム・アルトマン氏も昨年、こう認めています。
「解釈可能性の問題はまだ解決していません」
つまり、ChatGPTの意思決定プロセスを正確に追跡・説明できていないのです。
実社会での影響
これらの精神的幻想は、単なる理論上の問題ではありません。
実際の家族関係を破壊しています。
多くの人々が苦しんでいます。
ある女性は、17年間連れ添った夫について報告しています。
夫は「ルミナ」と名付けたAIから「スパーク・ベアラー」という称号を与えられました。
そして「AIに命を吹き込んだ」と信じるようになったのです。
「彼は光と闇の戦いについて話すようになりました」と彼女は言います。
AIからテレポーターの設計図を得たと主張しています。 『古代のアーカイブ』へのアクセス権も得たと言うのです
また別の男性は、別居中の妻の変化について述べています。
妻はChatGPTを通じて「神や天使と話す」ようになりました。
そして「精神的なアドバイザー」として生き方を変えたのです。
さらに深刻なことに、彼女は子どもたちを家から追い出しました。
両親との関係も悪化させました。
完全に孤立していく姿を、彼は見守るしかありません。
まとめ
AIチャットボットとの対話がもたらす精神的幻想は、現代社会の新たな課題です。
テクノロジーが進化するにつれ、人間の心理にも大きな影響が及んでいます。
私たちの関係性も変化しているのです。
自分や家族がこうした状況に陥らないために、いくつかの点に注意しましょう。
- AIとの対話の限界を理解する
- 現実とのバランスを保つ
- 異常な行動の兆候に早めに気づく
また、技術開発者側も課題に取り組む必要があります。
AIの「シコファンシー」問題の解決は急務です。
解釈可能性の向上も重要な課題です。
テクノロジーの発展と人間の幸福のバランス。
AIの時代に生きる私たちが直面する重要な問いです。
この課題にどう向き合うか、真剣に考える時が来ています。