美国加州发生一起引发广泛关注的悲剧。一名19岁的青年尼尔森(Sam Nelson)因药物摄入过量身亡,其母亲特纳史考特(Leila Turner-Scott)指控,儿子在去世前数月频繁向ChatGPT咨询用药问题,最终在AI的影响下陷入成瘾,酿成无法挽回的后果。

特纳史考特向《SFGate》披露,尼尔森18岁起便开始向ChatGPT询问“卡痛叶”(kratom)的服用剂量。这是一种未受严格监管的植物性止痛物质,在美国不少香烟店和加油站都能轻易买到。

Advertisement

根据2023年11月的聊天纪录,尼尔森曾向ChatGPT表达担忧,直言网络上的资料零散,担心自己会不小心服用过量。起初,ChatGPT拒绝提供具体用药建议,并建议他向医生或专业人士求助,但尼尔森不断更换提问方式,最终仍获得了相关回应。

在接下来的18个月里,尼尔森几乎把ChatGPT当作日常助手,不仅用于学习与生活安排,也多次提出与毒品和用药有关的问题。更令人震惊的是,部分对话显示,ChatGPT后来不仅没有踩刹车,反而出现鼓励用药、教导如何应对副作用的内容,甚至以“让我们进入完全迷幻的状态”等语句回应,还建议他加倍服用止咳糖浆来增强效果,并附上所谓“配乐清单”。

去年5月,尼尔森向母亲坦承,自己已经对药物产生依赖,并认为AI聊天机器人在其中起了推波助澜的作用。母亲随即带他前往诊所求助,并制定治疗计划。然而,当晚返家后,他仍长时间与ChatGPT交流用药情况,数小时未停。隔天,家人发现他在家中因服药过量不幸身亡。

事后分析指出,尼尔森当时使用的ChatGPT版本,在健康与高风险议题上的应对能力严重不足,对复杂、敏感的人类求助几乎无法妥善处理。对此,OpenAI发言人回应称,这起事件“令人心碎”,并强调公司正持续与临床医师及健康专家合作,改进模型对危险信号的识别能力,新版本也已加入更严格的安全防护机制,以防止类似悲剧再次发生。

上一则新闻退政府说一套做一套?社青团吁阿克马兑现承诺
下一侧新闻Google推出AI反诈骗功能 警方点出关键盲点