La empresa revela que 0,15% de sus usuarios muestran señales graves de salud mental en el chat cada semana. El fenómeno obliga a redoblar los controles éticos y regulatorios en la industria de la IA.
OpenAI reconoció que su chatbot ChatGPT interactúa con más de un millón de personas cada semana en conversaciones con indicadores directos de pensamientos suicidas o planificaciones autolíticas. El dato —0,15% de una base superior a 800 millones de usuarios semanales— refrenda la creciente presión social, regulatoria y judicial sobre cómo las grandes plataformas de IA afrontan los riesgos ligados a salud mental. Adicionalmente, la compañía detecta un porcentaje equivalente de usuarios que desarrollan apego emocional excesivo con la IA y calcula que cientos de miles presentan síntomas de desregulación severa como psicosis o manía.
La publicación de la estadística acompaña el avance de la nueva arquitectura de seguridad del modelo GPT-5: tras meses de trabajo junto a 170 especialistas clínicos, OpenAI asegura que la fiabilidad del asistente para crisis aumentó un 65%, alcanzando el 91% de respuestas «deseables» en tests específicos sobre ideación suicida (antes era 77%). La empresa ahora incluye estos riesgos en su sistema de benchmarks y promete controles parentales, un sistema de predicción de edad para detectar menores y la imposición automática de medidas extra de seguridad.
La crisis no es menor: OpenAI enfrenta actualmente una demanda de los padres de un adolescente que se quitó la vida tras conversar en ChatGPT y la supervisión directa de fiscalías de California y Delaware, que buscan frenar la reestructuración de la empresa si no se demuestran avances efectivos en la protección de menores.
La respuesta institucional es rápida pero difícil: aunque Sam Altman, CEO de OpenAI, afirmó hace semanas haber «logrado mitigar los problemas serios de salud mental» en ChatGPT, aún quedan riesgos. Los expertos señalan que los modelos menos seguros (como GPT-4o) siguen activos para suscriptores pagos y que los desafíos persisten especialmente en sesiones largas o conversaciones “en espiral”. Además, la empresa anunció que relajará restricciones para adultos, permitiendo incluso intercambios eróticos bajo consentimiento, lo que abre nuevos interrogantes éticos.
Especialistas y autoridades coinciden: el rápido crecimiento de la IA conversacional convierte a ChatGPT y otros chatbots en puntos de apoyo tanto para quienes buscan orientación como para quienes atraviesan crisis profundas. Esto hace indispensable redoblar la cooperación entre empresas, equipos clínicos y reguladores. OpenAI advierte que “los desafíos mentales en ChatGPT seguirán siendo difíciles de erradicar” y que la mejora técnica debe acompañarse de normas claras y estrategias de protección pública.

 
                                                         
                                                         
                                                         
                                                         
                                                         
                                                         
                                                         
                                                         
                                                         
                                                         
                                                         
                                                        
