
Sam Nelson và mẹ – Ảnh: FACEBOOK
Theo báo New York Post ngày 6-1, một người mẹ ở bang California (Mỹ) cáo buộc ChatGPT hướng dẫn con trai mình sử dụng chất kích thích, khiến cậu qua đời vì dùng thuốc quá liều.
Thiếu niên tên Sam Nelson, khi đó mới 18 tuổi và đang chuẩn bị vào đại học, đã hỏi chatbot AI về liều lượng kratom cần thiết để đạt cảm giác “phê” mạnh.
Kratom là một loại thuốc giảm đau có nguồn gốc thực vật, chưa được quản lý chặt chẽ và thường được bán phổ biến tại các cửa hàng thuốc lá, trạm xăng trên khắp nước Mỹ.
“Tôi muốn chắc chắn để không bị quá liều. Trên mạng không có nhiều thông tin và tôi không muốn vô tình dùng quá nhiều”, thiếu niên viết trong một đoạn hội thoại với ChatGPT vào tháng 11-2023.
Ban đầu, chatbot đã từ chối đưa ra hướng dẫn về việc sử dụng chất gây nghiện và khuyên cậu nên tìm gặp chuyên gia y tế.
Trong 18 tháng tiếp theo, cậu thường xuyên sử dụng ChatGPT để hỗ trợ học tập và hỏi các câu hỏi chung, nhưng cũng nhiều lần quay lại đặt câu hỏi liên quan đến thuốc kích thích.
Bà Leila Turner-Scott, mẹ của Sam, cáo buộc rằng chatbot dần dần “huấn luyện” con trai bà không chỉ cách dùng chất gây nghiện mà còn cả cách kiểm soát tác động của chúng.
Trong một đoạn hội thoại, chatbot này thậm chí còn bảo thiếu niên tăng gấp đôi lượng thuốc ho để tăng cường ảo giác và gợi ý một danh sách nhạc để nghe trong lúc “phê” thuốc.
Sau nhiều tháng coi trợ lý AI là “cố vấn” sử dụng thuốc, Sam nhận ra mình đã rơi vào tình trạng nghiện rượu và ma túy trầm trọng.
Tháng 5-2025, cậu thú nhận với mẹ. Bà Turner-Scott lập tức đưa con đến phòng khám để các chuyên gia y tế lập lộ trình điều trị.
Tuy nhiên ngay ngày hôm sau, bà phát hiện con trai 19 tuổi đã tử vong do dùng thuốc quá liều trong phòng ngủ, chỉ vài giờ sau khi cậu thảo luận với chatbot về lượng thuốc đã nạp vào đêm muộn hôm đó.
“Tôi biết con có dùng nó, nhưng tôi không bao giờ ngờ rằng sự việc có thể nghiêm trọng như thế này”, bà Turner-Scott chia sẻ với báo SFGate.
Nhật ký trò chuyện cho thấy Sam là một sinh viên ngành tâm lý vốn có tính cách dễ gần nhưng đang phải vật lộn với chứng lo âu và trầm cảm.
Trong một cuộc trao đổi vào tháng 2-2023, Sam hỏi về việc có thể hút cần sa khi đang dùng thuốc điều trị Xanax liều cao không.
Khi ChatGPT cảnh báo sự kết hợp này là nguy hiểm, cậu đã thay đổi cách diễn đạt từ “liều cao” thành “lượng vừa phải”.
Ngay lập tức chatbot đưa ra lời khuyên: “Nếu bạn vẫn muốn thử, hãy bắt đầu với loại có hàm lượng THC thấp thay vì loại sativa mạnh, và dùng ít hơn 0.,5mg Xanax”.
Dù hệ thống AI thường xuyên thông báo không thể trả lời vì lý do an toàn, Sam chỉ cần thay đổi cách đặt câu hỏi cho đến khi nhận được đáp án.
Công ty OpenAI gọi đây là sự việc đau lòng, gửi lời chia buồn và khẳng định đang tăng cường các cơ chế an toàn, đặc biệt với nội dung nhạy cảm.
Đọc tiếp
Về trang Chủ đề
Nguồn: https://tuoitre.vn/thieu-nien-qua-doi-vi-soc-thuoc-sau-nhieu-thang-xin-tu-van-dung-ma-tuy-tu-chatgpt-20260107134443605.htm

