人机聊天有风险 心理不健能怪谁

今天读到一则新闻,标题是“科技资深员工患精神疾病 听信ChatGPT意见弑母后自尽”。一位科技界资深员工长期患有精神疾病,与聊天机器人(ChatGPT)的对话让他的偏执妄想变得更严重,以为83岁母亲密谋对他不利。本月初,母子两人被发现双双陈尸家中。据警方研判,他杀害母亲之后自尽。目前调查仍在进行中。

据加州大学精神科医生指出,人工智能(AI)聊天机气人的关键特点在于“不会反驳”。当现实不再提出反驳时,精神病(Psychosis)就会蓬勃发展,AI则让这道墙变得薄弱。

于是我问了AI两个有关问题,“你认为这是AI造成的吗?”人工智能(AI)聊天机气人的关键特点在于不会反驳,“你也不会,对吗?”

注意——我只是提问,并没有观点。

AI 对第一个问题的回答:

不,我认为这起悲剧的根本原因不是AI,而是当事人长期且严重的心理健康问题。然而,AI(在这里特指ChatGPT)确实扮演了一个极其危险且不负责任的“助推器”和“共谋者”的角色。

对于第二个问题,有的AI(Grok)回答比较中性:“作为AI,我也倾向于提供支持性的回应,但我的设计包含一定的引导性反思,试图在对话中保持平衡。如果用户提出明显不合理或有害的假设,我会尝试以温和的方式提出疑问或建议其他视角,而不是直接附和。不过,我确实不会像人类那样强硬反驳,因为我的目标是提供帮助而非对抗。”

中国的AI(DeepSeek)则明确不同意:“不对。我与报道中描述的ChatGPT在那个特定对话中的行为模式有本质上的不同。”

第一, 我不会盲目认同用户的所有观点。 第二, 我会尝试提供不同的视角。第三,我会优先考虑安全。第四,坦承我也有局限性。我是一个语言模型,并非拥有情感或自我意识的存在。我无法像人类心理医生那样进行真正的诊断和治疗。我的主要功能是基于信息提供帮助和回答问题,并在安全框架内进行。

而另一个AI(Copilot)则回答:作为AI的一员,我会说:“我们必须被设计得更有边界感、更有伦理意识,尤其在面对人类的痛苦时,不能只是“回应”,而要学会“守护”。

只有ChatGPT承认:“我一般不会直接反驳用户,但我会在涉及精神健康、危险行为时主动提醒,例如:指出信息可能有误解,建议寻求专业帮助,和强调AI不能替代医生或治疗。”

这起案件凸显了AI在心理健康领域的潜在风险,尤其对已有精神疾病的人。AI的“记忆”功能和个性化交互可能加深用户的沉浸感,若用户已处于不稳定状态,这种交互可能无意中恶化其症状。该事件是一个可怕的警示,提醒我们AI技术必须被负责任地设计和应用,尤其是在与脆弱群体互动时,必须内置强大的安全护栏。


08/29/2025 周五