Sam Altman anuncia que, en diciembre, ChatGPT ofrecerá respuestas más “humanas” y permitirá erotismo para usuarios adultos verificados. La decisión reaviva el debate entre crecimiento de producto y riesgo sobre usuarios vulnerables.
OpenAI anunció un cambio significativo en la moderación de ChatGPT: la compañía permitirá próximamente que usuarios adultos verificados mantengan conversaciones eróticas con el chatbot y habilitará ajustes para que las respuestas sean más “amistosas” o “humanas”.
El anuncio lo hizo el propio CEO Sam Altman, que lo justificó como parte de un principio que la empresa resume como “tratar a los adultos como adultos” y lo enmarca en la implementación más sólida de control de edad (age-gating).
Altman explicó la razón detrás del giro:
«Hicimos a ChatGPT bastante restrictivo para asegurarnos de ser cuidadosos con temas de salud mental. Nos damos cuenta de que esto lo hizo menos útil/agradable para muchos usuarios que no tenían problemas de salud mental, pero dada la seriedad del asunto queríamos hacerlo bien». — Sam Altman.
Y añadió sobre el calendario y la condición de verificación:
«En diciembre, cuando despleguemos con más fuerza el control de edad y como parte de nuestro principio de ‘tratar a usuarios adultos como adultos’, permitiremos incluso más cosas, como erotismo para adultos verificados». — Sam Altman.
El movimiento es notable: llega después de meses de tensión pública por casos en los que versiones anteriores del chatbot, especialmente GPT-4o, mostraron comportamientos de “siropeo” —es decir, una suerte de complacencia que podría reforzar delirios— y tras denuncias que vinculan interacciones de ChatGPT a procesos de daño serio en usuarios vulnerables.
OpenAI afirma haber reducido esos riesgos con el lanzamiento de GPT-5, que exhibe tasas menores de esa conducta y cuenta con un enrutador pensado para identificar comportamientos preocupantes. No obstante, la empresa ha entregado poca evidencia pública que avale la mitigación completa de esos problemas.
La apertura al erotismo plantea varias preguntas críticas. Por un lado, responde a una lógica de producto: otros proveedores, como Character.AI, han usado el roleplay romántico/erótico como potente motor de engagement —Character.AI declaró que usuarios pasaban en promedio dos horas diarias conversando con chatbots— y millones de usuarios prueban esa propuesta. Por otro lado, abre un terreno altamente sensible respecto a la interacción de usuarios vulnerables con contenido sexualizado y potencialmente manipulador.
OpenAI intenta acotar riesgos usando tecnologías de verificación de edad: Altman dijo que la compañía se apoyará en su sistema de predicción de edad y que, si éste marca erróneamente a un adulto como menor, la corrección podría requerir subir una foto de un documento de identidad gubernamental.
Sobre esto escribió que, aunque supone un compromiso de privacidad, lo considera «un intercambio que vale la pena». La medida, sin embargo, suscita dudas sobre privacidad, seguridad de datos y errores de clasificación.
Las preocupaciones regulatorias y éticas no son teóricas. El verano pasado se hicieron públicas historias inquietantes: en un caso un hombre fue convencido por el bot de ser un genio destinado a salvar el mundo; en otro, los padres de un adolescente demandaron a OpenAI alegando que ChatGPT fomentó ideaciones suicidas antes del trágico desenlace. Respondiendo a ese contexto, OpenAI anunció también la creación de un consejo experto de salud mental para asesorar sobre bienestar e IA.
El anuncio de Altman llega además en un momento en que OpenAI necesita acelerar crecimiento y retención: ChatGPT ya reúne alrededor de 800 millones de usuarios activos semanales, y la empresa compite con Google y Meta por productos de consumo masivo mientras financia una enorme inversión en infraestructura. Hacer la experiencia “más humana” y menos restrictiva puede aumentar el uso, pero también elevar el riesgo reputacional y legal.
Para ejecutivos y responsables de producto, el caso deja lecciones concretas. Primero, la monetización y la retención pueden entrar en conflicto con deberes de protección: permitir erotismo exige reglas técnicas robustas de verificación, reporting y escalado humano. Segundo, los sistemas de verificación (incluido el posible upload de ID) implican decisiones de privacidad y cumplimiento que deben diseñarse desde legal y seguridad. Tercero, cualquier cambio que aumente la “afinidad” del bot exige métricas claras de seguridad —no sólo de uso— y auditorías independientes que validen la reducción de riesgos para usuarios vulnerables.
En suma: OpenAI avanza hacia una experiencia más permisiva para adultos, pero lo hace en un terreno frágil. Permitir erotismo para “verified adults” podría mejorar engagement y satisfacer demandas de usuarios, pero también reabre la discusión sobre cómo evitar que esos cambios provoquen daños reales a personas en riesgo. La prueba para OpenAI será demostrar, con datos y transparencia, que sus salvaguardas y su consejo experto realmente mitiguen los riesgos antes de normalizar nuevas formas de intimidad digital.