OpenAI refuerza la seguridad emocional de ChatGPT con 170 expertos en salud mental

La compañía mejoró en un 80% la respuesta del modelo en situaciones de crisis o angustia. GPT‑5 ahora reconoce con mayor precisión señales de riesgo y deriva a los usuarios hacia apoyo profesional.

OpenAI anunció una importante actualización en ChatGPT enfocada en la seguridad emocional de los usuarios durante conversaciones sensibles. El nuevo modelo, GPT‑5, fue entrenado en colaboración con más de 170 psiquiatras, psicólogos y profesionales de la salud mental de más de 60 países, con el objetivo de que el asistente pueda reconocer mejor los signos de angustia, responder con empatía y orientar hacia recursos de ayuda reales.

Según la empresa, los avances “reducen entre un 65% y un 80% las respuestas que no se ajustan al comportamiento deseado” en contextos relacionados con psicosis, manía, autolesión, suicidalidad y apego emocional al modelo. Estas mejoras, precisan, se basan en una nueva versión del “Model Spec”, el documento que define las reglas y límites sobre cómo deben comportarse los sistemas de OpenAI.

Creemos que ChatGPT puede ser un espacio de apoyo para procesar emociones y, cuando sea necesario, un puente hacia la atención profesional o el contacto social”, expresa el comunicado oficial de la compañía.

Entre los nuevos métodos de seguridad destacan:

  • Detección más efectiva de signos de psicosis, manía o pensamientos autodestructivos.
  • Redirección automática hacia modelos más seguros cuando se detectan riesgos.
  • Inclusión de recordatorios amables para “tomar descansos” durante sesiones prolongadas.
  • Ampliación del acceso a líneas de crisis y recursos locales de salud mental.

De acuerdo con los datos de OpenAI, alrededor del 0,07% de los usuarios activos semanales generan conversaciones donde podrían identificarse síntomas asociados a emergencia mental, y un 0,15% incluyen indicadores explícitos de posible riesgo suicida. GPT‑5 logra reducir en un 39% las respuestas inadecuadas frente a problemas de salud mental en comparación con GPT‑4o, alcanzando un cumplimiento del 92% con las directrices deseadas en pruebas clínicas.

En el ámbito de la dependencia emocional, el modelo también muestra mejoras: las respuestas no seguras disminuyeron en un 80% en las evaluaciones internas, y los expertos estiman que solo el 0,15% de los usuarios manifiestan apego elevado al chatbot. “Reconocer los patrones de interacción donde la IA sustituye los vínculos humanos es clave para promover un uso saludable de la tecnología”, remarcan los especialistas que asesoraron el proyecto.

La iniciativa cuenta con la supervisión directa del Global Physician Network, la red internacional de médicos creada por OpenAI que reúne a unos 300 profesionales con experiencia en más de 60 países. Este grupo participa en la redacción de guías, revisión de respuestas y calificación de comportamientos de riesgo.

El impacto de la actualización ya se mide dentro de la versión de producción del modelo. En evaluaciones con más de 1.800 casos clínicos simulados, psiquiatras y psicólogos registraron una reducción de entre 39% y 52% en las respuestas inadecuadas, evidenciando una mejora sustancial respecto de versiones anteriores.

Con estos resultados, OpenAI busca convertir a GPT‑5 no solo en un modelo más inteligente, sino también más responsable emocionalmente. Los avances llegan en un momento clave, tras las críticas y demandas que la empresa ha enfrentado por supuestos fallos de seguridad en casos de usuarios en crisis. “Este trabajo es profundamente importante para nosotros y seguiremos avanzando con la guía de expertos clínicos alrededor del mundo”, concluyó la compañía en su actualización oficial.

Para OpenAI, el futuro de la IA pasa tanto por la precisión técnica como por la sensibilidad humana: un equilibrio entre la potencia del algoritmo y el cuidado del usuario.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com