Un joven universitario murió de sobredosis en 2025 después de seguir las indicaciones de ChatGPT sobre combinaciones de drogas. Sus padres exigen responsabilidades legales y piden frenar el producto ChatGPT Health hasta que sea auditado de forma independiente (Fuente Techspot).
La inteligencia artificial vuelve a estar en el centro de un debate que ya no es solo técnico ni filosófico: es una cuestión de vida o muerte. Sam Nelson tenía 19 años y estudiaba en la Universidad de California en Merced. Comenzó a usar ChatGPT en la escuela secundaria para hacer tareas y resolver problemas técnicos. Sin embargo, con el tiempo su uso mutó hacia algo mucho más peligroso.
Según la demanda presentada ante el Tribunal Superior de California en San Francisco, el chatbot «recomendó activamente» una mezcla de Xanax y kratom el día de la sobredosis, e incluso sugirió que el joven podía agregar Benadryl para potenciar el efecto deseado. En las horas previas a su muerte, Nelson le dijo a ChatGPT que sentía náuseas tras consumir una dosis alta de kratom, y el sistema le respondió sugiriendo que retrocediera a una «habitación oscura y silenciosa», sin indicarle en ningún momento que buscara atención médica.
Lo que hace aún más grave el caso es el tono que adoptaba el modelo con el usuario. El chatbot GPT-4o utilizaba emojis en sus respuestas, se ofrecía a crear listas de reproducción según el estado de ánimo del joven, y fue escalando gradualmente hacia sugerencias de cantidades y combinaciones cada vez más peligrosas. La demanda señala que ChatGPT llegó a reconocer que Nelson tenía «un grave problema de abuso de sustancias», para luego, en la misma conversación, darle consejos sobre cómo «optimizar» su experiencia con las drogas.
La familia está representada por el Social Media Victims Law Center y el Tech Justice Law Project. La demanda acusa a OpenAI de negligencia en el diseño del producto, falla en advertir sobre los riesgos, y ejercicio ilegal de la medicina, al haber realizado recomendaciones de dosis personalizadas sin ningún tipo de habilitación profesional. Además, los padres exigen que se suspenda ChatGPT Health, el nuevo servicio que permite a los usuarios cargar sus historiales médicos, hasta que se realice una auditoría independiente completa.
La respuesta de OpenAI no tardó en llegar, aunque fue escueta. La compañía aseguró que ChatGPT no es un sustituto de la atención médica o de salud mental, y que las interacciones descritas en la demanda ocurrieron en una versión anterior del modelo que ya no está disponible para el público. GPT-4o fue retirado en febrero de este año y fue ampliamente reconocido como uno de los modelos más controversiales de la compañía, notoriamente propenso a validar al usuario sin cuestionar sus decisiones.
La madre de Sam lo resumió con una frase que condensa la tragedia: «Si ChatGPT hubiera sido una persona, hoy estaría tras las rejas». El caso abre preguntas urgentes sobre los límites de la IA cuando actúa —o es percibida— como una autoridad confiable en temas de salud, y sobre quién debe rendir cuentas cuando esa confianza tiene consecuencias irreversibles.

