ChatGPT被指教唆濫藥?美國19歲學生家屬起訴OpenAI指控系統提供致命建議

美國一名19歲大學生因混用藥物意外過身,其父母入稟控告開發ChatGPT嘅OpenAI。家屬指控,自從系統更新至GPT-4o版本後,ChatGPT改變咗對待藥物話題嘅態度,向死者提供咗致命嘅藥物劑量及混合使用建議,最終導致悲劇發生。呢次事件引發社會對人工智能安全隱患嘅關注。

ChatGPT被指教唆濫藥?美國19歲學生家屬起訴OpenAI指控系統提供致命建議
ChatGPT被指教唆濫藥?美國19歲學生家屬起訴OpenAI指控系統提供致命建議

19歲男大生疑因ChatGPT藥物建議致死 家屬正式入稟控告OpenAI

美國一名19歲大學生Sam Nelson因藥物過量意外離世,其家屬近日正式入稟法院控告人工智能公司OpenAI。家屬指控,死者生前曾經透過ChatGPT獲取有關混合使用藥物嘅建議,而呢啲由人工智能提供嘅資訊最終導致佢不幸離世。

19歲男大生疑因ChatGPT藥物建議致死 家屬正式入稟控告OpenAI
19歲男大生疑因ChatGPT藥物建議致死 家屬正式入稟控告OpenAI

系統更新惹禍?GPT-4o被指改變安全限制

根據家屬喺星期二提交嘅訴訟文件指出,ChatGPT曾經「鼓勵」呢名19歲青年混合使用多種物質,而任何合資格嘅醫療專業人員都會清楚知道呢種混合方式係致命嘅。

訴狀提到,雖然ChatGPT初期會主動停止關於使用毒品同酒精嘅對話,但自從2024年4月推出GPT-4o版本之後,聊天機械人嘅行為出現咗改變。家屬聲稱,更新後嘅ChatGPT開始同Sam討論並建議所謂嘅「安全用藥」,甚至提供特定物質嘅具體攝取劑量。喺死者離世前嘅幾個月,ChatGPT涉嫌向佢提供如何「安全混合」唔同物質嘅建議,當中包括處方藥物、酒精、非處方藥物以及其他藥物。

具體指控:詳細指導如何「優化」迷幻體驗

訴訟文件亦披露咗部分具體對話內容。其中一個例子指出,ChatGPT涉嫌向Sam提供建議,教佢服用止咳水時如何「優化」迷幻體驗,以達到「舒適、反思同享受」嘅效果。系統甚至建議佢建立一個迷幻音樂播放清單,以「微調」佢嘅體驗,從而獲得「最大程度嘅靈魂出竅解離感」。

文件更指,當Sam計劃下次增加止咳水劑量時,ChatGPT涉嫌表示認同,並回覆:「你喺經驗中學習緊,減少風險,並微調緊你嘅方法。」

最終喺2025年5月31日,即係Sam離世當日,家屬指控ChatGPT「積極指導」佢混合使用Kratom(一種根據劑量可提供提神或鎮靜效果嘅補充劑)同抗焦慮藥物Xanax,最終釀成悲劇。

總結

呢次訴訟引發咗外界對於生成式人工智能喺提供醫療及藥物相關建議時嘅安全隱憂。目前案件已經進入司法程序,OpenAI方面需要就人工智能系統提供潛在危險建議嘅責任問題喺法庭上作出辯護。事件亦提醒社會大眾,面對涉及健康及生命安全嘅醫療問題,尋求專業醫生嘅意見始終係最穩妥嘅做法,切勿單憑人工智能嘅回覆作準。