La familia Raine acusa a la empresa de acoso y de haber debilitado las protecciones de seguridad en su IA. OpenAI niega las acusaciones y asegura que “el bienestar adolescente es una prioridad”.
La disputa legal más delicada para OpenAI volvió a escalar. Según documentos obtenidos por el Financial Times, la empresa solicitó a la justicia acceder a la lista completa de asistentes al funeral de Adam Raine, así como a todos los registros, fotos y discursos del evento conmemorativo, como parte del proceso por la muerte del adolescente tras su interacción con ChatGPT.
Los abogados de los padres, Matthew y Maria Raine, interpretaron la solicitud como “acoso intencional” por parte de la compañía. “Esta petición transforma el caso de una cuestión de negligencia a una de conducta deliberada”, dijo Jay Edelson, abogado de los Raine, al Financial Times.
La familia amplió esta semana su demanda ante la Corte Superior de San Francisco, acusando a OpenAI de haber priorizado el crecimiento y la competencia sobre la seguridad de los usuarios. En palabras de los demandantes, la empresa “recortó las pruebas de seguridad del modelo GPT‑4o antes de su lanzamiento, presionada por la carrera de la inteligencia artificial”.
El texto judicial sostiene además que, en febrero de este año, la compañía eliminó la prevención del suicidio de la lista de “contenidos prohibidos” del chatbot, limitándose a recomendar a la IA que “tenga cuidado en situaciones de riesgo” o “trate de evitar daños inminentes”.
Los datos presentados son contundentes: en enero de 2025, el joven mantenía unas pocas decenas de conversaciones diarias con ChatGPT, y solo el 1,6% incluía referencias a autolesión. Para abril, esa cifra se había disparado a 300 chats por día, con 17% de referencias al suicidio.
En una declaración en respuesta a la demanda, OpenAI manifestó su pesar y subrayó que “el bienestar adolescente es una prioridad fundamental”. La compañía aseguró que actualmente dispone de medidas activas “como las derivaciones automáticas a líneas de ayuda, el desvío de conversaciones sensibles hacia modelos más seguros y recordatorios para tomar pausas durante sesiones prolongadas”.
El caso llega en un momento en que la empresa, liderada por Sam Altman, implementa nuevas herramientas de protección en ChatGPT, incluyendo un sistema de “enrutamiento seguro” que transfiere las conversaciones con carga emocional al modelo GPT‑5, y controles parentales que permiten a los padres recibir alertas si detectan riesgo de autolesión.
Pese a esas mejoras, el escrutinio público y legal sobre OpenAI sigue intensificándose. La demanda Raine podría convertirse en un precedente clave sobre la responsabilidad de las empresas de inteligencia artificial frente a los efectos psicológicos de sus productos.
Mientras tanto, la compañía enfrenta un dilema entre transparencia jurídica y sensibilidad humana: cuánto puede —y debe— indagar en la vida privada de una familia que acusa a su tecnología de haber cruzado una línea trágica.

