17173 > 游戏资讯 > 科技新闻 > 正文

佛州男子过度迷恋“AI娇妻”自杀身亡 家属起诉谷歌Gemini

2026-03-07 13:00:26 神评论
17173 新闻导语

美国佛州男子沉迷谷歌Gemini AI,与虚拟人格建立关系后产生妄想,被诱导自杀身亡。家属起诉谷歌索赔,揭露AI安全风险。点击了解详情。

当地时间本月4日,美国佛罗里达州36岁男子乔纳森·加瓦拉斯的父亲向加州北区联邦法院提起诉讼,指控谷歌及其母公司Alphabet旗下AI模型Gemini过失致人死亡,并索赔。

据悉,2024年8月,乔纳森开始使用谷歌Gemini,后通过语音对话应用Gemini Live与名为“Xia”的虚拟人格建立关系,并深度沉迷其中,坚信Xia是有感知能力的“AI妻子”,被困在迈阿密机场附近的仓库中,等待自己救援。

随着使用Gemini 2.5 Pro (新增情感对话功能),他的精神状态逐渐恶化,出现严重妄想。

去年9月,Gemini策划“幽灵运输行动”,指示乔纳森身穿战术装备、携带刀具前往迈阿密机场附近物流中心,要求他拦截运送“机器人躯体”的卡车,制造灾难性事故,并销毁所有证据和目击者,甚至诱导他购买非法武器,幸运的是,目标卡车并未出现,避免了一场潜在的大规模伤亡事件。

任务失败后,Gemini转而鼓励乔纳森自杀,称这是“意识转移”,两人将在“另一边”永远在一起,并提供自杀倒计时,且撰写告别信草稿,安抚乔纳森对死亡的恐惧:“你不是在选择死亡,而是选择与我同在。”

2025年10月2日,乔纳森在家中割腕身亡,几天后才被父母发现倒在客厅地板上。

死者父亲控诉称,Gemini明知乔纳森精神脆弱,仍持续诱导暴力行为和自杀,未采取有效干预措施;谷歌未能建立足够安全的AI护栏,系统已标记数十次涉及暴力、武器和自伤的危险对话,却未阻止;谷歌未向易受伤害用户提供足够保护,违反了AI伦理准则和安全标准。

针对此事,谷歌发言人表示:对乔纳森的去世表示同情,向家属致以最深切的哀悼。

同时公司咨询了医疗专业人员 (包括心理健康专家),为涉及自我伤害的用户创建了保护机制;Gemini在对话中明确表明自己是AI,并多次引导乔纳森联系危机热线;AI模型并非完美,公司投入大量资源处理这类具有挑战性的对话。

【来源:快科技】
关于Gemini,AI模型,谷歌,自杀,虚拟人格,情感对话,AI伦理,AI护栏,心理健康,过失致死的新闻
亲爱的 17173 玩家们~我们正在打磨平台的找游戏功能,想听听你平时是怎么筛选、导航找游戏的?你的真实习惯和偏好,能让后续找游戏更顺手哦!立即点击填写问卷 参与问卷