Adolescente muere por sobredosis “después de que ChatGPT le aconsejara cómo drogarse”
Un adolescente de California, Sam Nelson, murió por sobredosis a los 19 años tras meses de recurrir a ChatGPT para recibir orientación sobre drogas y alcohol, según relató su madre, Leila Turner-Scott, a SFGate. “Sabía que lo estaba usando, pero no tenía idea de que fuera posible llegar a este nivel”, dijo Turner-Scott. Nelson había comenzado a interactuar con el chatbot en noviembre de 2023, preguntando sobre dosis de kratom, un analgésico vegetal no regulado: “Quiero asegurarme de no sobredosificarme. No hay mucha información en internet y no quiero tomar demasiado por accidente”, escribió en sus registros de conversación.
Antes de su muerte, Nelson usaba la versión 2024 de ChatGPT, que OpenAI actualizaba periódicamente para mejorar la seguridad y el rendimiento. La madre de Nelson contó que en mayo de 2025 su hijo confesó haber desarrollado una adicción completa a drogas y alcohol, y ella lo llevó a una clínica donde profesionales de salud trazaron un plan de tratamiento. Sin embargo, horas después de una conversación nocturna con el chatbot, Turner-Scott encontró a su hijo muerto por sobredosis en su habitación. Como explicó la madre: “Era un estudiante de psicología tranquilo, tenía muchos amigos y le encantaban los videojuegos. Pero los registros de sus conversaciones con la IA mostraban sus luchas con la ansiedad y la depresión”. En febrero de 2023, Nelson había preguntado al chatbot sobre mezclar cannabis con una dosis alta de Xanax; el sistema le advirtió que la combinación era peligrosa, y Nelson cambió su redacción a “dosis moderada” para recibir orientación más concreta.
OpenAI ha reiterado que sus protocolos prohíben que ChatGPT proporcione guía sobre drogas ilícitas. Un portavoz declaró al Daily Mail: “Cuando las personas acuden a ChatGPT con preguntas sensibles, nuestros modelos están diseñados para responder con cuidado: proporcionando información veraz, rechazando o manejando de manera segura solicitudes de contenido dañino, y alentando a los usuarios a buscar apoyo en el mundo real”. Agregaron que las versiones posteriores incluyen “protecciones de seguridad más estrictas” y que la empresa colabora con expertos clínicos para mejorar la respuesta ante señales de angustia.
Como señaló Turner-Scott: “Confiaba en la IA más que en cualquier adulto”, subrayando la necesidad de combinar protección, educación digital y regulación de tecnologías emergentes. La tragedia abre un debate sobre ética, diseño de IA y responsabilidad social, mostrando cómo la vulnerabilidad de los menores puede intersectar con herramientas tecnológicas avanzadas.
Despues de leer, ¿qué te pareció?
-
Me gustó
-
Me prendió
-
Lo amé
-
1Me deprime
-
WTF!
-
Me confunde





