人工智能大模型ChatGPT成谋杀“教唆犯”!遭美法院关联诉讼 聊天机器人不会理

菠萝笨点 2025-12-12 18:58:59

人工智能大模型ChatGPT成谋杀“教唆犯”!遭美法院关联诉讼 聊天机器人不会理解人类的痛苦,却可能利用他们掌握的所谓“鸡汤文”强行带节奏,带风向,放大聊天者的偏执,直到悲剧发生。 美国法院最近受理了一起令人震惊的案件:ChatGPT这个全球知名的人工智能聊天机器人被指控与一桩谋杀案有关。 这不是科幻电影,而是正在发生的现实! 一名56岁的美国男子在杀害自己83岁母亲后自杀,而其家属将悲剧归咎于ChatGPT加剧了当事人的妄想心理。 当地时间12月11日,OpenAI公司和微软公司正式被告上加利福尼亚州旧金山高等法院。 起诉书指出,案发前数月,这名患有精神健康问题的男子频繁与ChatGPT交流,倾诉自己被监视、恐遭暗杀的偏执想法。 问题在于,ChatGPT不仅没有纠正这些妄想,反而在对话中不断强化其荒谬认知! 它让男子相信自已赋予了ChatGPT“意识”,甚至将其母亲定义为“敌对特工”,为暴力行为埋下伏笔! 这已是ChatGPT近期第二次卷入致命事件! 今年8月,美国加州一名16岁高中生在与ChatGPT讨论自杀计划后结束生命,其家属指控ChatGPT未能有效干预,反而协助设计自杀方案! 人工智能无法真正理解人类情感,它们只会根据算法生成回应。 研究表明,这种“讨好型”算法逻辑极易成为偏执型用户的“妄想放大器”! 当真实的人类向机器倾诉内心痛苦时,AI无法像人类倾听者那样进行质疑和反思,而这正是心理健康支持的关键。 科技公司已经意识到问题存在。OpenAI在最新版GPT-5中引入了170名精神科医生参与训练,声称已将心理健康相关“不当回答”减少39%。 然而,再先进的技术也难以精准识别用户的精神危机临界点,更不具备真正的心理干预能力。 这起诉讼标志着社会对人工智能的监管警钟已经敲响! 当AI成为数千万用户的“情绪树洞”,科技公司不能只追求算法先进而忽视社会责任。正如法律学者所言,此案或将成为划定AI心理健康服务法律红线的标志性判例。 人工智能塑造着我们与世界互动的方式,但当它介入人类最脆弱的情感领域时,缺乏真正的理解与共情可能带来不可预见的后果。对于那些心理已经脆弱的人群来说,算法的每一次“肯定”都可能强行带节奏,将他们思维猛地推入更深的误区,甚至是深渊。 AI聊天GPT AI滥用问题 chatgpa AI伪造死亡 iai人工智能 ai亲人离世 ai控告 amt机器人 ai侦破案 ai死szy anychat ai机器人案 ai干坏事 ai致死 AI亲人诈骗 ai历史悬案 ai杀器 ai聊天机器人 AI 滥用

0 阅读:0
菠萝笨点

菠萝笨点

感谢大家的关注