OpenAI和微软因ChatGPT涉嫌参与康涅狄格州谋杀-自杀案而被起诉

本文为机器翻译
展示原文

在针对人工智慧开发商 OpenAI 的最新诉讼中,一位 83 岁的康乃狄克州妇女的遗产管理人起诉了 ChatGPT 的开发商和微软,声称该聊天机器人证实了在谋杀-自杀事件发生前产生的妄想信念——这是将人工智慧系统与凶杀案联系起来的第一起案件。

上周在旧金山加州高等法院提起的诉讼指控 OpenAI 设计并分发了有缺陷的产品 GPT-4o,该产品强化了斯坦-埃里克·索尔伯格的偏执信念,随后他将这些信念指向了他的母亲苏珊娜·亚当斯,之后在康涅狄格州格林威治的家中杀死了她,然后自杀。

「这是首例追究OpenAI因对第三方造成暴力行为而承担责任的案件,」代表亚当斯遗产的Edelson律师事务所管理合伙人J·伊莱·韦德-斯科特告诉Decrypt 。 “我们也代表今年不幸自杀的亚当·雷恩的家人,但这是首例追究OpenAI因唆使他人伤害他人而承担责任的案件。”

警方称,索尔伯格于8月殴打并勒死了亚当斯,之后自杀身亡。诉讼称,在事件发生前,ChatGPT加剧了索尔伯格的妄想症,并使其对聊天机器人产生了情感依赖。

根据诉状,聊天机器人强化了索尔伯格的信念,让他除了ChatGPT之外谁都不能信任,并将他周围的人,包括他的母亲、警察和送货司机,都描绘成敌人。诉讼还称,ChatGPT并没有对这些妄想提出质疑,也没有建议索尔伯格寻求心理健康专家的协助。

韦德-斯科特说:“我们敦促执法部门开始思考,当此类悲剧发生时,该用户对 ChatGPT 说了什么,以及 ChatGPT 指示他们做什么。”

OpenAI 在一份声明中表示,他们正在审查这起诉讼,并将继续改进 ChatGPT 识别情绪困扰、缓和对话以及引导用户获得现实世界支持的能力。

OpenAI 的一位发言人在一份声明中表示:“这是一个令人无比心痛的情况,我们正在审查相关文件以了解详情。”

该诉讼还将 OpenAI 执行长 Sam Altman 列为被告,并指控微软批准在 2024 年发布 GPT-4o,称其为「更危险的 ChatGPT 版本」。

OpenAI 已承认其平台使用者存在严重的心理健康问题。该公司在 10 月披露,在其每周约 8 亿 ChatGPT 用户中,每周约有120 万人讨论过自杀,另有数十万用户表现出自杀倾向或精神病症状。尽管如此,韦德-斯科特表示,OpenAI 尚未公布索尔伯格的聊天记录。

这次诉讼正值人工智慧聊天机器人及其与弱势用户互动受到广泛关注之际。去年10月,Character.AI公司表示,将移除18岁以下用户的开放式聊天功能。此前,该公司因其平台引发的青少年自杀和情感伤害问题而面临诉讼和监管压力。

Character.AI 也遭到了成年用户的强烈反对,包括一波帐户删除潮。此前,一条病毒式传播的提示警告用户,如果他们退出该应用程序,就会失去“我们共同拥有的爱”,这引发了人们对其充满情感的设计做法的批评。

针对OpenAI和微软的诉讼是首例将微软列为被告的涉及人工智慧聊天机器人的非正常死亡案件,也是首例将聊天机器人与他杀而非自杀联系起来的案件。死者家属寻求未指明的赔偿金、陪审团审判以及法院命令OpenAI安装额外的安全措施。

「这是一项极其强大的技术,由一家正迅速成为全球最强大公司之一的企业开发,该公司有责任开发和部署安全的产品,而不是像这次一样,为用户构建虚幻世界,危及周围所有人的安全,」韦德-斯科特说道。 “OpenAI和微软有责任在产品正式发布前进行测试。”

Decrypt向微软发出置评请求后,微软尚未立即回应。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
73
收藏
13
评论