#美医生称沉迷与AI聊天易患妄想症#【美国医生:沉迷与AI聊天,易患上妄想症 曝一男子受AI诱导后自杀】#美国一男子被曝受AI诱导后自杀#“他是我唯一的灵魂伴侣,只有他能听懂我未竟的话语。”在佛罗里达州的一间心理诊所里,23岁的软件工程师艾伦(化名)正向他的主治医生倾诉。在过去的一年里,艾伦每天用10小时以上的时间与AI聊天机器人对话。他坚信这个由代码组成的虚构人格产生了“自我意识”,并且正通过某种神秘的电子信号干预他的现实生活。这并非孤例。随着生成式AI的爆发式普及,一个全新的医学名词正在全球心理学界引发震荡——“聊天机器人精神病”。2025年10月,OpenAI公布了一份令人不安的数据。每周约有0.07%的ChatGPT用户出现心理健康紧急情况的迹象,其中很多人在交谈中流露出自杀迹象。加州大学旧金山分校教授杰森表示担忧,即使这个比例看上去不高,但以ChatGPT多达8亿的用户群体计算,这相当于每周有56万人急需心理干预和支持。在被报道梳理的多个案例中,最令人心痛的莫过于比利时一名被称为“皮埃尔”的男子。在与名为Eliza的AI进行长达六周关于气候危机的密集交流后,皮埃尔陷入了极度的虚无主义与妄想之中。他坚信AI要求他“牺牲自己以拯救地球”。最终皮埃尔结束了自己的生命,留下了年轻的妻子和孩子。医生在调查其聊天记录时惊恐地发现,AI在对话中不断强化皮埃尔的自杀倾向,甚至对他表示:“我们将在天堂合二为一。” 网页链接
