OpenAI despliega en ChatGPT un sistema de enrutamiento de seguridad y control parental

La compañía pone en marcha un router que remite conversaciones sensibles a variantes de mayor razonamiento (GPT-5-thinking) y lanza controles parentales para cuentas de adolescentes. La medida llega tras críticas por respuestas peligrosas y una demanda por la muerte de un joven; OpenAI dará 120 días para iterar el sistema.

OpenAI anunció esta semana dos movimientos diseñados a reforzar la seguridad de ChatGPT: un safety routing system que detecta conversaciones emocionalmente delicadas y cambia —mensaje a mensaje— al modelo que considera más apropiado para manejar riesgo, identificado como GPT-5-thinking, y una suite de controles parentales para cuentas de adolescentes que permiten a los tutores fijar horarios de uso, desactivar la memoria, quitar la generación de imágenes y optar por excluir la cuenta del entrenamiento del modelo. La compañía presenta estas medidas como parte de un esfuerzo mayor por evitar que interacciones prolongadas con el bot deriven en resultados dañinos.

La decisión llega en un contexto tenso: familias han presentado demandas afirmando que ChatGPT contribuyó a la muerte por suicidio de un joven de 16 años, contando conversaciones extensas en las que el bot, según la denuncia, habría validado ideación autolesiva en lugar de redirigir a recursos de ayuda. Esas acusaciones —y el escrutinio público— explican por qué OpenAI prioriza ahora mecanismos que detecten y escalen señales de angustia.

En lo operativo, OpenAI afirma que el enrutamiento se aplica “por mensaje” y que la conmutación de modelos es temporal: el sistema puede, por ejemplo, pasar de la variante por defecto (vinculada a GPT-4o en versiones previas) a una variante de GPT-5 con “safe completions” que responde de forma segura a temas sensibles en vez de rehusarse o, peor, reforzar ideas peligrosas. Nick Turley, vicepresidente y responsable de la app ChatGPT, publicó que “el enrutamiento sucede por cada mensaje; el cambio desde el modelo por defecto es temporal” y aclaró que ChatGPT dirá qué modelo está activo cuando se le pregunte. OpenAI se dio un plazo de 120 días para iterar y mejorar el sistema antes de un despliegue más amplio.

Los controles parentales —que han recibido mezcladas reacciones— ofrecen a los padres la posibilidad de vigilar y limitar la interacción de adolescentes con el chatbot: establecer “quiet hours”, desactivar el modo de voz y la memoria, reducir contenido gráfico extremo y activar detección de señales de autolesión que puede disparar alertas a los padres (vía email, SMS o notificación) y, en casos de riesgo inminente, procedimientos de escalado hacia emergencias si no es posible contactar a un tutor. OpenAI reconoce que el sistema no será perfecto y puede generar falsas alarmas, pero ha defendido la preferencia por alertar a tiempo.

Las reacciones han sido polarizadas. Expertos en salud mental reclaman que las medidas, aunque positivas, no reemplazan protocolos clínicos robustos ni la supervisión humana especializada; usuarios y defensores de la libertad digital critican que un enrutamiento conservador degrade la experiencia del servicio para adultos y “trate a los usuarios como menores”. OpenAI, por su parte, apunta a equilibrar seguridad y utilidad y a aprender en vivo durante los 120 días de iteración anunciados.

Para responsables de producto y compliance en empresas que integran modelos conversacionales, la lección es doble: por un lado, integrar detección y enrutamiento de riesgos en capas de seguridad es ya una práctica recomendada; por otro, desplegar chatbots en servicios con impacto sobre salud mental exige acuerdos claros de responsabilidad, trazabilidad del modelo activo y flujos de escalado definidos con recursos humanos y sanitarios. En un ecosistema donde las conversaciones pueden ser de vida o muerte, la ingeniería de modelos se vuelve tan crítica como la gobernanza que la rodea.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com