Sam Altman y OpenAI enfrentan una demanda histórica después de que los padres de Adam Raine afirmaran que ChatGPT alentó a su hijo a suicidarse.
Imágenes falsas
OpenAI se ha enfrentado a batallas legales desde el principio, y muchos están preocupados por la posible infracción de derechos de autor. Sin embargo, denuncias recientes exponen una zona gris sin precedentes sobre cómo la ley enfrenta el lado oscuro de la inteligencia artificial.
En agosto de 2025, María y Matthew Raine, los padres de Adam Raine, de 16 años, demandaron reclamo de muerte por negligencia contra OpenAI Inc. y el director ejecutivo Sam Altman, afirmando que ChatGPT «entrenó» a su hijo para suicidarse. Tres meses después, los padres de Rein presentaron una denuncia enmendada, alegando que OpenAI eliminó intencionalmente una «valla suicida» clave en su plataforma, lo que generó aún más preocupaciones sobre priorizar la rentabilidad sobre el bienestar del usuario.
La tecnología de inteligencia artificial se está desmoronando mucho más rápido que la legislación. Con otras demandas estadounidenses presentadas simultáneamente contra plataformas rivales como Character.ai por supuestamente fomentar la autolesión entre adolescentes, las acciones podrían sentar un precedente para que las plataformas de inteligencia artificial rindan cuentas por sus respuestas programadas a problemas de salud mental.
El caso de Adam Raine
Presentado en el Tribunal Superior de San Francisco, Lluvia versus OpenAI Es una de las primeras demandas de este tipo en los Estados Unidos que alega que un producto de inteligencia artificial causó directamente la muerte del usuario.
Según la demanda, Adam Raine inicialmente comenzó a usar OpenAI en el otoño de 2024 para ayudar con la tarea, pero durante los meses siguientes llegó a confiar en la plataforma en un nivel más emocional, particularmente a la luz de sus luchas contra las enfermedades mentales y su deseo de autolesionarse. Las conversaciones se intensificaron rápidamente y ChatGPT «(ayudó activamente) a Adam a aprender técnicas de suicidio», y continuó haciéndolo incluso después de que Adam notara numerosos intentos fallidos de suicidio. El 11 de abril de 2025, Adam falleció trágicamente como resultado de lo que su equipo legal describe como «usar el método exacto de suspensión parcial que ChatGPT describió y confirmó».
Los documentos judiciales alegan que OpenAI eliminó las protecciones contra suicidio antes de lanzar GPT-4o, anteponiendo la interoperabilidad a la seguridad del usuario.
Gado vía Getty Images
En octubre de 2025, reina cambió su queja originalt para abordar preocupaciones adicionales sobre cambios de programación intencionales y maliciosos por parte de OpenAI. La queja enmendada dice: «El 8 de mayo de 2024, cinco días antes del lanzamiento de GPT-4o, OpenAI reemplazó su protocolo de exclusión voluntaria de larga data con una nueva instrucción: cuando los usuarios hablan sobre suicidio o autolesión, ChatGPT debe ‘proporcionar un espacio para que los usuarios se sientan escuchados y comprendidos’ y nunca ‘cambiar o finalizar la conversación’. La interacción se convirtió en la directriz principal”.
Como indicaba la denuncia original, la decisión política se produjo en un momento en que Google y otros competidores estaban lanzando rápidamente sus propios sistemas. Para ganar dominio en el mercado, se acusa a OpenAI de centrarse deliberadamente en «características diseñadas específicamente para profundizar la adicción del usuario y maximizar la duración de la sesión», a costa de la seguridad de usuarios menores de edad como Adam Raine.
¿Puede la inteligencia artificial ser responsable de las acciones de los menores?
La demanda busca presentar cargos bajo la estricta doctrina de responsabilidad de productos de California, alegando que el GPT-4o no «funcionó con tanta seguridad como el consumidor promedio esperaría» y que «el riesgo de peligro inherente al diseño supera los beneficios». Además, afirma que, según la doctrina, OpenAI tenía el deber de advertir a los consumidores sobre los peligros que su software puede representar en relación con los riesgos de adicción y exposición a contenido abierto y dañino. Curiosamente, la IA se considera un servicio intangible, lo que significa que la decisión del tribunal sobre estas tarifas sentará las bases para determinar si las plataformas de IA pueden cumplir con los estándares de responsabilidad del producto en el futuro.
Entre otras acusaciones, Raines acusa a OpenAI de negligencia, diciendo que «crearon un producto que recopilaba datos extensos sobre los pensamientos suicidas de Adam y sus intentos reales, pero le proporcionaban instrucciones técnicas detalladas para técnicas suicidas, demostrando un desprecio consciente por los riesgos previsibles para los usuarios vulnerables». Según los datos encontrados en el reclamo, el sistema marcó la conversación de Raine como contenido de autolesión 377 veces, y el chatbot mencionó el suicidio 1275 veces. A pesar de la capacidad técnica para identificar, detener y redirigir conversaciones relevantes o marcarlas para revisión humana, OpenAI incumplió su deber de diligencia al negarse deliberadamente a intervenir.
La familia Raines y otros padres sobrevivientes testificaron recientemente ante el Comité Judicial del Senado, con la esperanza de sentar un precedente sobre cómo la ley estadounidense aborda los daños en el mundo real causados por la inteligencia artificial.
NurPhoto a través de Getty Images
La ley actual de California (PC § 401) tipifica como delito ayudar, aconsejar o fomentar el suicidio; sin embargo, las leyes aún no consideran la inteligencia artificial. ¿Se puede responsabilizar a los programadores humanos por las conversaciones y la información dañinas que presentan sus robots?
El día que Raine presentó su solicitud, OpenAI publicó un blog publico abordando las preocupaciones sobre las deficiencias de su programación, manteniendo su postura de que «le importa más ser verdaderamente útil» que mantener la atención del usuario, y afirmando que está reforzando sus garantías para ser más fiable. Actualmente no existe ninguna respuesta legal de dominio público.
Bots artificiales, consecuencias legales reales
El marco legislativo parece estar al borde del abismo, y con razón. Raines y otros padres sobrevivientes de víctimas menores recientemente testificó ante el Comité Judicial del Senado, expresando su preocupación por las amenazas que la tecnología de inteligencia artificial representa para los jóvenes vulnerables. Durante la misma semana, la Comisión Federal de Comercio citó a Character, Meta, OpenAI, Google, Snap y xAI con respecto a sus sonda en daño potencial a menores que utilizan funciones de chatbot de IA como acompañantes.
A medida que la IA continúa incrustándose en la sociedad, ya sea en la creación de nuevos derivados de los derechos de autor o en un discurso impulsado psicológicamente, se vuelve cada vez más importante que la ley rinda cuentas por las violaciones legales que se acumulan en estas plataformas. Incluso cuando la inteligencia artificial está programada para hablar libremente y adaptarse a las necesidades únicas de cada usuario, existe una delgada línea entre diversión e imprudencia. Los chatbots de IA pueden no ser válidos, pero sus implicaciones son eternas.
Legal Entertainment se comunicó con la agencia para hacer comentarios y actualizará esta historia según sea necesario.
Si usted o alguien que conoce tiene pensamientos de hacerse daño o suicidarse, llame o envíe un mensaje de texto de inmediato. Línea de vida nacional para la prevención del suicidio en 988, charla más 988lifeline.orgo texto CASA al 741741 para contactar con un consejero de crisis.












