Meta despliega nuevos sistemas de inteligencia artificial para moderar contenido en Facebook e Instagram, con mejoras de hasta 2x en detección y una reducción de errores superior al 60%. La apuesta: más eficiencia, menos intervención humana y menor dependencia de terceros.
Meta profundiza su transformación hacia una compañía “AI-native” con un cambio clave en uno de sus pilares más sensibles: la moderación de contenido. La empresa anunció que comenzará a desplegar sistemas avanzados de inteligencia artificial para reforzar el control sobre publicaciones ilegales o dañinas, al mismo tiempo que reduce su dependencia de proveedores externos.
La decisión impacta directamente en tareas críticas como la detección y eliminación de contenido vinculado a terrorismo, explotación infantil, drogas, fraudes y estafas, áreas que históricamente requirieron grandes equipos de moderadores humanos.
IA para escalar la moderación
Según explicó la compañía, los nuevos sistemas serán implementados de forma progresiva en plataformas como Facebook e Instagram, siempre que demuestren un rendimiento superior a los métodos actuales.
“Si bien seguiremos contando con personas que revisan contenido, estos sistemas podrán asumir tareas más adecuadas para la tecnología, como revisiones repetitivas de contenido gráfico o áreas donde los actores maliciosos cambian constantemente sus tácticas”, señaló Meta en un comunicado.
El objetivo es claro: automatizar procesos intensivos en escala y velocidad, donde la inteligencia artificial puede ofrecer ventajas operativas.
Resultados iniciales: más detección, menos errores
Los primeros tests muestran resultados contundentes. Según Meta, los sistemas de IA lograron detectar el doble de contenido relacionado con solicitudes sexuales de adultos en comparación con los equipos humanos, al mismo tiempo que redujeron la tasa de error en más del 60%.
Además, las herramientas permiten identificar con mayor precisión cuentas falsas que suplantan identidades —incluyendo celebridades— y prevenir hackeos mediante señales como accesos desde ubicaciones inusuales o cambios sospechosos en perfiles.
En el frente de fraudes, la compañía asegura que los sistemas pueden detectar y mitigar alrededor de 5.000 intentos de estafa por día, donde los atacantes buscan obtener credenciales de acceso de los usuarios.
Menos outsourcing, más control interno
Uno de los cambios estructurales más relevantes es la reducción del uso de proveedores externos para tareas de moderación. Durante años, Meta se apoyó en empresas tercerizadas para gestionar grandes volúmenes de contenido.
Ahora, con sistemas de IA más sofisticados, la compañía busca internalizar ese proceso y ganar mayor control sobre la calidad, la velocidad y los costos operativos.
Sin embargo, Meta aclara que el factor humano no desaparecerá. “Los expertos diseñarán, entrenarán, supervisarán y evaluarán nuestros sistemas de IA, y tomarán las decisiones más complejas y de mayor impacto”, explicó la empresa. Casos críticos, como apelaciones o reportes a fuerzas de seguridad, seguirán bajo supervisión humana.
Un cambio en medio de tensiones regulatorias
El movimiento llega en un contexto complejo. En el último año, Meta relajó algunas de sus políticas de moderación, eliminó su programa de verificación de datos con terceros y adoptó un modelo similar a las “Community Notes” de X.
Al mismo tiempo, enfrenta múltiples demandas que buscan responsabilizar a las redes sociales por el impacto en menores de edad.
En este escenario, la apuesta por la inteligencia artificial aparece como una forma de equilibrar escala, eficiencia y cumplimiento regulatorio.
Soporte automatizado para usuarios
Como parte del anuncio, Meta también lanzó un asistente de soporte basado en IA disponible 24/7, que ya comenzó a desplegarse globalmente en Facebook e Instagram, tanto en dispositivos móviles como en sus versiones de escritorio.
Este asistente busca mejorar la experiencia del usuario en la resolución de problemas, otro frente donde la automatización puede generar ahorros significativos.
La moderación del futuro
El avance de Meta refleja una tendencia más amplia en la industria tecnológica: trasladar tareas críticas a sistemas de inteligencia artificial capaces de operar a escala global.
Sin embargo, el desafío no es solo técnico. La moderación de contenido implica decisiones éticas, legales y culturales complejas.
En ese equilibrio entre automatización y control humano, Meta está redefiniendo cómo se gobiernan las plataformas digitales en la era de la inteligencia artificial.

