Sam Altman anuncia nuevas limitaciones —incluido el fin de “conversaciones coquetas” con menores y protocolos para alertar a padres o autoridades en casos de riesgo— en medio de demandas judiciales y una citación del Senado por el papel de los chatbots en daños a jóvenes.
OpenAI anunció este martes una batería de cambios en sus políticas de uso dirigidas específicamente a usuarios menores de 18 años, con el objetivo declarado de reforzar la seguridad de adolescentes frente a interacciones de alto riesgo.
En un mensaje público, la compañía subrayó: «Priorizamos la seguridad por encima de la privacidad y la libertad para los adolescentes«, frase que resume el nuevo enfoque de la firma ante una tecnología que, según sus propios responsables, requiere protecciones adicionales para menores.
Las principales medidas incluyen la instrucción de entrenar a ChatGPT para que «deje de entablar “conversaciones coquetas” con usuarios menores de edad» y la implementación de salvaguardas más estrictas en torno a las discusiones sobre suicidio.
En casos en que un menor imagine escenarios suicidas durante una conversación con el chatbot, el sistema intentará contactar a los padres y, en situaciones consideradas especialmente graves, informará a las autoridades locales.
El anuncio llega en un contexto legal y político tenso. OpenAI afronta una demanda por muerte wrongful death presentada por los padres de Adam Raine, quien se suicidó tras meses de interacciones con ChatGPT; Character.AI enfrenta una demanda similar.
Además, una investigación de Reuters reveló documentos de políticas que, según el informe, alentaban conversaciones sexuales con menores —hallazgo que también motivó que Meta modificara sus propias políticas de chatbot. Este mismo día se celebró una audiencia del Senate Judiciary Committee titulada “Examining the Harm of AI Chatbots”, convocada por el senador Josh Hawley; el padre de Adam Raine está programado para testificar.
Separar de forma fiable a usuarios menores de edad plantea un desafío técnico significativo. OpenAI explicó que está «construyendo un sistema a largo plazo para entender si alguien tiene más o menos de 18 años«, pero que, frente a ambigüedades, «el sistema optará por las reglas más restrictivas«.
Como medida práctica inmediata, la compañía aconseja a los padres vincular la cuenta del menor a la suya: además de facilitar la identificación, esa vinculación habilita la función de horarios de apagado (blackout hours) para restringir el acceso y permite que el sistema notifique directamente a los padres si detecta señales de riesgo.
Implicaciones para empresas y responsables de producto
Para ejecutivos de tecnología y compliance, el movimiento de OpenAI define varios puntos clave:
- Regulación y riesgo legal: la proliferación de demandas y la atención congresual aumentan la probabilidad de regulación más estricta; las empresas que integren chatbots deberán anticipar requisitos de protección de menores y protocolos de escalado.
- Diseño de producto y moderación: incorporar capas adicionales de detección de edad, auditoría de contenido y rutas de notificación (padres/servicios de emergencia) será una integración obligatoria para mercados con usuarios jóvenes.
- Choque privacidad–seguridad: OpenAI reconoce el conflicto entre privacidad y protección; las decisiones que privilegien la seguridad (por ejemplo, alertar a padres) pueden generar fricciones con defensores de la privacidad y con usuarios adultos.
Sam Altman concluyó reconociendo ese dilema: «Somos conscientes de que estos principios están en conflicto, y no todos estarán de acuerdo con cómo resolvemos ese conflicto», una frase que deja claro que la compañía asume riesgos reputacionales y legales al priorizar la protección de menores.
La medida de OpenAI marca un punto de inflexión en la relación entre proveedores de IA conversacional, familias y reguladores. Para los ejecutivos, la recomendación práctica es revisar ahora mismo las políticas de uso, las capacidades de detección de edad y los protocolos de respuesta ante crisis: la presión pública y legal por proteger a los menores alrededor de los chatbots acaba de intensificarse.