La compañía de Mark Zuckerberg comenzará a usar inteligencia artificial para identificar usuarios menores de 13 años a partir de señales visuales y de comportamiento, en medio de una creciente presión judicial y política por la seguridad infantil en redes sociales.
Meta redobla su estrategia de control sobre usuarios menores de edad y anunció que comenzará a utilizar inteligencia artificial para analizar fotos y videos en busca de señales visuales que permitan detectar si una persona tiene menos de 13 años y, por lo tanto, no debería utilizar Facebook ni Instagram.
La iniciativa representa uno de los movimientos más agresivos de una gran tecnológica en materia de verificación etaria automatizada y llega en un contexto de fuerte presión regulatoria y judicial sobre las plataformas digitales por la protección de menores.
Según explicó Meta en una publicación oficial, el nuevo sistema de IA buscará “temas generales y señales visuales”, entre ellas la altura o la estructura ósea de las personas, para estimar una edad aproximada. La empresa aclaró que no se trata de reconocimiento facial.
“Queremos ser claros: esto no es reconocimiento facial”, señaló Meta. “Nuestra IA analiza temas generales y señales visuales, por ejemplo la altura o la estructura ósea, para estimar la edad general de alguien; no identifica a la persona específica en la imagen”.
La compañía indicó además que el sistema combinará estos análisis visuales con el estudio de textos, publicaciones e interacciones dentro de las plataformas. Entre los indicios que la IA tendrá en cuenta aparecen celebraciones de cumpleaños, menciones a grados escolares, biografías, comentarios y captions.
“Al combinar estas señales visuales con nuestro análisis de texto e interacciones, podemos incrementar significativamente la cantidad de cuentas de menores de edad que identificamos y eliminamos”, agregó la empresa.
IA, moderación y presión judicial
El despliegue de esta tecnología ya comenzó en algunos países seleccionados, aunque Meta aseguró que trabaja para extenderla de manera global.
La decisión no llega en un vacío. Hace pocas semanas, un jurado de Nuevo México ordenó a Meta pagar U$S 375 millones en sanciones civiles por engañar a consumidores sobre la seguridad de sus plataformas y exponer a niños a riesgos digitales. Además de la multa, la compañía fue obligada a implementar cambios estructurales en sus servicios.
Tras el fallo, Meta incluso amenazó con cerrar sus redes sociales en ese estado norteamericano.
El caso forma parte de una ola de demandas que enfrentan Meta y otras grandes tecnológicas por cuestiones vinculadas a la seguridad infantil, adicción digital y exposición de menores a contenidos dañinos.
En este contexto, la inteligencia artificial aparece como una herramienta clave para automatizar controles a escala masiva. Sin embargo, también abre nuevos debates sobre privacidad, vigilancia y posibles errores en los sistemas de estimación de edad.
Cómo funcionarán las verificaciones
Si Meta determina que un usuario podría ser menor de edad, la cuenta será desactivada automáticamente. Para recuperarla, la persona deberá atravesar un proceso formal de verificación de edad definido por la compañía.
El sistema busca reforzar la política histórica de Meta, que prohíbe el uso de Facebook e Instagram a menores de 13 años, aunque en la práctica millones de chicos logran registrarse falseando sus fechas de nacimiento.
Además del nuevo análisis visual, Meta anunció que ampliará sus llamados “Teen Accounts”, cuentas con restricciones especiales para adolescentes.
Estas cuentas limitan mensajes directos únicamente a personas seguidas o conectadas previamente, ocultan comentarios dañinos y configuran los perfiles como privados por defecto.
La expansión de estas funciones llegará a 27 países de la Unión Europea y a Brasil. En paralelo, Meta comenzará a implementar esta tecnología también en Facebook dentro de Estados Unidos, para luego extenderla al Reino Unido y Europa durante junio.
El futuro de la moderación automatizada
La estrategia de Meta refleja un cambio profundo en la manera en que las plataformas digitales abordan la moderación de usuarios y contenidos. La inteligencia artificial ya no solo se utiliza para recomendar publicaciones o vender publicidad, sino también para supervisar comportamientos, verificar identidades y aplicar reglas de seguridad.
El desafío será encontrar equilibrio entre protección infantil y privacidad individual. Especialistas en derechos digitales vienen advirtiendo que sistemas de análisis biométrico o estimación etaria podrían derivar en falsos positivos, discriminación algorítmica o nuevas formas de vigilancia masiva.
Para Meta, sin embargo, el objetivo parece claro: demostrar ante reguladores y gobiernos que está tomando medidas concretas para evitar que menores accedan sin control a sus plataformas, en un momento donde la presión política sobre las Big Tech alcanza uno de sus puntos más altos de los últimos años.

