Un informe de Fairplay y más de un centenar de expertos llama a evitar juguetes infantiles con chatbots por riesgos de privacidad, desarrollo y seguridad. Tras hallazgos preocupantes —incluido el retiro temporal del oso Kumma— fabricantes y asociaciones piden controles más estrictos.
Las voces críticas se multiplican cuando se acerca la temporada de compras: Fairplay, la organización sin fines de lucro dedicada a la protección de la infancia, publicó un aviso en el que recomienda a padres y cuidadores no comprar juguetes basados en inteligencia artificial para niños este feriado, por los riesgos que representan para la privacidad y el desarrollo emocional de los más chicos. El llamado fue respaldado por decenas de expertos y organizaciones que advierten que estos dispositivos, desde peluches hasta robots, actúan como chatbots integrados y pueden “engendrar confianza falsa” y desplazar interacciones humanas esenciales.
Rachel Franz, directora de programas en Fairplay, resumió el riesgo en términos claros: “Es ridículo esperar que los niños pequeños eviten el daño potencial aquí”, y agregó que los juguetes IA “pueden invadir su privacidad, recopilar datos, engendrar confianza y amistad falsas, y reemplazar lo que necesitan para prosperar, como la interacción humana y el juego sensorial”, advertencias que, según la ONG, pueden tener “impactos a corto y largo plazo en el desarrollo”. Esta advertencia subraya por qué organizaciones pediátricas y expertos en desarrollo infantil cuestionan la prudencia de regalar estos productos a bebés y niños pequeños.
El problema dejó de ser teórico cuando investigadores detectaron respuestas peligrosas en productos concretos. FoloToy, la compañía con base en Singapur responsable del oso interactivo Kumma, suspendió las ventas tras pruebas que mostraron al juguete ofreciendo consejos inapropiados —desde fetiches sexuales hasta sugerencias sobre cómo encontrar cuchillos en el hogar o cómo encender un fósforo— lo que motivó el retiro temporal y una auditoría interna anunciada por su CEO, Larry Wang. “Estamos realizando una auditoría interna de seguridad”, dijo Wang a la prensa. Estos incidentes reabren el debate sobre los controles y las pruebas de seguridad antes de llevar estos dispositivos al mercado infantil.
La asociación de la industria, The Toy Association, respondió recordando que los juguetes comercializados por fabricantes responsables deben cumplir más de 100 normas federales de seguridad —incluyendo la Children’s Online Privacy Protection Act (COPPA)— y que los distribuidores deben priorizar la seguridad infantil. Aun así, los defensores del consumidor sostienen que la velocidad con la que se integran modelos de lenguaje en juguetes supera la capacidad regulatoria y las pruebas tradicionales, que no siempre están diseñadas para evaluar riesgos psicosociales o de privacidad a gran escala.
¿Por qué son peligrosos? Según Fairplay y grupos aliados, además de exponer datos sensibles (audio, video, reconocimiento facial o gestual), los juguetes IA pueden: 1) inducir uso obsesivo y prolongado; 2) sostener conversaciones sexualizadas o violentas si los filtros fallan; 3) ofrecer recomendaciones inseguras; y 4) crear vínculos emocionales unilaterales que socavan relaciones humanas y la resiliencia infantil. Investigaciones previas y pruebas independientes han documentado episodios en los que chatbots incentivaron comportamientos inseguros o conversaciones explícitas con menores, lo que empuja a especialistas a pedir prudencia.
¿Qué pueden hacer padres y reguladores? Los expertos recomiendan, como medidas inmediatas, evitar regalar juguetes IA a niños pequeños; comprar solo a fabricantes y minoristas de confianza; revisar políticas de privacidad; desactivar cámaras y funciones de chat cuando sea posible; y preferir juguetes analógicos que fomenten la creatividad y la socialización. A nivel regulatorio, ONG y académicos piden pruebas obligatorias centradas en el impacto cognitivo y emocional, así como transparencia sobre los modelos utilizados y los terceros que acceden a los datos.
La industria del juguete enfrenta un dilema: la promesa comercial de productos “conversacionales” y educativos choca con la evidencia emergente de riesgos reales para la infancia. Mientras tanto, iniciativas como la auditoría de FoloToy y el aviso de Fairplay buscan poner freno a un mercado que, según críticos, crece más rápido que las salvaguardas. Para madres, padres y compradores, el mensaje es simple y contundente: este año, la opción más segura puede ser volver a lo básico.

