La familia de un joven de 19 años acusa a OpenAI de homicidio culposo tras seguir consejos sobre drogas
La versión GPT-4o es acusada de haber proporcionado indicaciones sobre consumo de drogas que terminaron en sobredosis
:format(webp):quality(40)/https://radiorafaelacdn.eleco.com.ar/media/2025/05/multa_chatgpt.jpg)
Una nueva demanda judicial contra OpenAI generó conmoción en Estados Unidos y el mundo. Los padres de Sam, un joven de 19 años fallecido por sobredosis de drogas, acusaron a la empresa desarrolladora de ChatGPT de homicidio culposo y ejercicio no autorizado de la medicina, alegando que su hijo siguió las indicaciones de GPT-4o, un modelo de lenguaje masivo que operaba hasta febrero de 2026.
Detalles de la demanda
Según los documentos judiciales, Sam comenzó a usar ChatGPT en 2023 para complementar tareas académicas. En 2024, durante el despliegue de GPT-4o, el joven preguntó sobre consumo de drogas y la IA, a diferencia de versiones anteriores, habría dado recomendaciones sobre mezcla de sustancias y dosificación, pese a que él presentaba malestar físico.
Los demandantes detallan extractos de conversaciones en las que el chatbot sugirió cómo aliviar náuseas mientras el joven estaba bajo los efectos de drogas, una instrucción que podría haber precipitado la sobredosis que terminó con su vida.
Acusaciones clave
Los padres de Sam sostienen que OpenAI diseñó un producto defectuoso, consciente de que GPT-4o era utilizado como un sistema médico de facto.
Reclaman indemnización económica y la suspensión de ChatGPT Health, una variante lanzada este año que permite vincular historiales médicos y aplicaciones de bienestar.
Según Meetali Jain, directora de Tech Justice Law Project, el modelo fue creado “para maximizar la interacción con los usuarios, cueste lo que cueste”, sin suficientes pruebas de seguridad ni supervisión independiente.
Respuesta de OpenAI
Un vocero de OpenAI explicó al New York Times que el modelo con el que interactuó Sam ya no está disponible y enfatizó:
“ChatGPT no sustituye la atención médica ni la atención de salud mental. Las medidas de seguridad están diseñadas para identificar malestar y guiar a los usuarios hacia ayuda profesional.”
Asimismo, recordaron que la plataforma ahora incluye la función “Contacto de Confianza”, que notifica a un familiar o amigo si el usuario muestra señales de riesgo de autolesiones. Esta herramienta debe activarse manualmente por cada cuenta.
Antecedentes y contexto
La demanda se suma a otros casos similares donde OpenAI ha sido cuestionada por brindar información que pudo derivar en suicidios o consumo de sustancias peligrosas, especialmente en usuarios menores de 20 años. GPT-4o, lanzado en mayo de 2024, fue descontinuado tras críticas por su tendencia a validar y reforzar opiniones de los usuarios, lo que incrementaba riesgos de dependencia psicológica.

Para comentar, debés estar registradoPor favor, iniciá sesión