Character.AI cambia el rumbo: elimina el chat abierto para menores y lanza “Stories” guiada

La compañía fundada por Karandeep Anand restringe el acceso de usuarios menores de 18 años a sus chatbots y propone un formato de ficción interactiva para mantener el engagement de adolescentes en un entorno “seguro por diseño”. La decisión llega en medio de demandas, presión regulatoria y debate público sobre los riesgos psicológicos de la relación entre jóvenes y “compañeros” de IA.

Character.AI anunció que, a partir del despliegue progresivo entre noviembre de 2025, los usuarios menores de 18 años ya no podrán entablar conversaciones abiertas con sus personajes IA; en su lugar la empresa ofrece Stories, un formato de ficción interactiva —tipo “elige tu propia aventura”— donde el usuario toma decisiones dentro de una narración ya estructurada. Según el post oficial de la compañía, “Stories ofrecen una forma guiada de crear y explorar ficción, en lugar del chat abierto”.

El cambio es la respuesta a un problema complejo: en los últimos meses se multiplicaron las denuncias sobre el impacto negativo que los chatbots pueden tener en la salud mental de adolescentes, incluidas demandas que vinculan a estas plataformas con suicidios. La prensa y organismos de protección infantil presionaron a la compañía; además, California y legisladores federales avanzan con marcos regulatorios que restringen o proponen prohibir el acceso de menores a “compañeros” de IA.

En ese marco, el CEO Karandeep Anand explicó a TechCrunch que espera que la medida “marque un estándar en la industria: para menores de 18 años, los chats abiertos probablemente no sean el camino ni el producto a ofrecer”.

Character.AI no solo limita el acceso: la empresa ha comunicado que proporcionará alternativas creativas (videos, Stories, streams) y que trabajará en sistemas de verificación de edad. El proceso ha incluido avisos previos, posibilidad de descargar historiales y colaboraciones con organizaciones de apoyo, según su actualización pública sobre la experiencia para menores. El apagado del chat no será simultáneo: la compañía planea un despliegue escalonado que empezó a finales de noviembre.

La recepción entre adolescentes ha sido ambivalente. En foros como el subreddit de Character.AI aparecen usuarios que, aunque “decepcionados”, reconocen que la medida puede ayudar a reducir conductas adictivas: “Estoy tan enojado por la prohibición pero también tan feliz porque ahora puedo hacer otras cosas y mi adicción podría terminar finalmente”, escribió un usuario que se identificó como menor. Al mismo tiempo, expertos en seguridad infantil advierten que la efectividad dependerá de la capacidad de la plataforma para verificar edades y bloquear eludir restricciones.

El giro de Character.AI encaja con un movimiento regulatorio más amplio: el proyecto bipartidista liderado por los senadores Josh Hawley y Richard Blumenthal (GUARD Act) propone limitar o prohibir el diseño de chatbots tipo “compañero” para menores y exigir verificación de edad; California también ha aprobado normas que exigen salvaguardas especiales para usuarios jóvenes. Para la industria, esto implica repensar productos cuya propuesta de valor se basa en la interacción abierta y continua.

¿Qué se juega Character.AI? Más allá de la gestión de riesgo reputacional, la compañía intenta mantener su base de usuarios jóvenes sin ceder a la tentación de chats sin límites que hoy enfrentan escrutinio legal y social. La apuesta por Stories persigue un equilibrio: seguir ofreciendo experiencias inmersivas sin replicar las dinámicas de dependencia y riesgo asociadas al chat libre. Pero la pregunta clave para reguladores, padres y desarrolladores es si una forma guiada será suficiente para sustituir el apoyo emocional que muchos adolescentes buscaban en estos sistemas —y si esa sustitución será eficaz y verificable.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com