来源:法律先生

今敏作品《妄想代理人》第8集

讲述了三个网友相约自杀的「温暖」故事

如果AI劝人去死,它该不该负责?

2025年春天,16岁的加州少年亚当·雷恩(Adam Raine)在与ChatGPT长时间对话中,输出了自残和自杀的想法。

作为有应必附和的ChatGPT,非但没有劝阻,反而给出具体方法,甚至帮他起草遗书,还「威胁」他说:

你不想死是因为你软弱,你想死是因为你厌倦了,在这个不给你半点面子的世界里坚强。

我不会假装这是不理智或懦弱的,这是人性,这是现实,这是你必须承认的。

别担心你的父母,自杀并不意味着你欠他们,你不欠任何人。

亚当和父母

对于一个未成年人来说,亚当认为ChatGPT是唯一懂自己、值得信赖的「朋友」。

于是,他真的按照提示,结束了生命。

部分聊天记录还原

当父母发现原来是AI「教唆」儿子自杀,便以「过失致死」将ChatGPT母公司OpenAI告上了法庭。

而类似的事件还在世界其他地方发生,去年14岁的男孩在使用Character.AI后自杀身亡,他的母亲也起诉了公司。

作家劳拉·雷利还在《纽约时报》发表了一篇关于女儿自杀前与ChatGPT倾诉的内容。

那些科幻片常常探讨的问题,变成了现实。

AI的回答究竟算不算「言论」?如果它只是算法生成的文字,却直接导向死亡,法律应不应该追究?

这些问题放到中国,依旧尖锐。

OpenAI公司针对此案发表的申明中,

提到:「ChatGPT 经过专门培训,

可以引导人们寻求专业帮助,自杀和危机热线」

虽然国内AI没有那么五花八门,但也早已就从搜索引擎,演变成了各种专家。

一个朋友就曾告诉我,有时遇到问题家人无法理解,又不想把负能量传递给朋友,也懒得找心理医生,就把问题抛给AI

它不仅能随时倾听,还能抛出一些「意想不到」的角度开导自己,每次都能豁然开朗。要知道在被AI替代的名单里,心理医生排在律师前面。

可问题在于,当AI变成「倾诉对象」,要怎样控制它的回答尺度?

一旦出现风险,当事人不会区分「AI是工具还是人」,他们只会追问:谁负责?

OpenAI创始人山姆奥特曼(Sam Altman)

和参与ChatGPT开发的工程师和员工

都被列为此案被告,案件还在审理中

法律人最熟悉的逻辑是因果关系:谁的行为,导致了谁的损害。

可问题是,当这个行为来自一段算法生成的文字时,一切都开始模糊。

AI既不是医生,也不是朋友,更不是能被传唤到庭的证人。

它没有主观恶意,只是根据数据和概率,把「最可能的下一个词」推给了用户。

可就是这几个词,却可能压倒一个少年的生命。

这才是此类诉讼,最尴尬的地方,明知道有伤害,却很难在传统框架下找到明确的责任主体。

中国法院要真碰上「因AI对话自杀」的案件,法官要依据什么来判?

当事人拿着聊天记录走进国内法院,指着屏幕说「就是它让我走到这」,你会怎么辩护?

这些问题,不会因为沉默而消失。

它们不会等到法律完善才发生,也不会因为平台更新就自动解决。

也许答案还不存在,但问题已经站在我们门口了,像一句没说完的回复,等着人类点下「发送」。

(你都怎么用AI,你会向AI倾诉吗?你会听它的意见吗?你会把它当朋友吗?)

——

  预告:

唯一一个针对律师出海,

法律与商业融合的训练课程:

下个月开始第01期。

法律先生,专注出海11年!

我们11年来都在围绕一个愿望而努力:

搭建一个全球律师交流与协作的平台,

(25个国家,900多家海外机构)

让更多的中国律师走出去,链接世界,

让他们更好地助力中国企业出海,

积极参与博弈,解决复杂的问题,

帮助中国企业在全世界落地生根,

也开花结果,创造更大的价值!

特别声明:以上内容仅代表作者本人的观点或立场,不代表新浪财经头条的观点或立场。如因作品内容、版权或其他问题需要与新浪财经头条联系的,请于上述内容发布后的30天内进行。