Un estudio sobre 65.000 URLs muestra que, en noviembre de 2024, la producción automática superó a la humana. Pero la oleada se “estabilizó” desde mayo de 2024 y su impacto real en búsquedas y audiencias queda en debate. Sin monitoreo no habrá contenidos de calidad y fiables. Claro, los de ahora, de humanos, ¿son fiables?
Desde la aparición masiva de herramientas como ChatGPT en noviembre de 2022, la creación de contenido en la web cambió de ritmo. Un estudio reciente de Graphite, con muestra aleatoria de 65.000 URLs extraídas de CommonCrawl, concluye que en noviembre de 2024 la cantidad de artículos generados por inteligencia artificial superó a la de artículos escritos por humanos. Pese a ese hito, el crecimiento se frenó: la proporción de contenidos automáticos se mantiene relativamente estable desde mayo de 2024.
El trabajo usó un criterio práctico: clasificó cada artículo como “IA” si más del 50% de su texto —evaluado por bloques de 500 palabras— fue marcado por el detector de SurferSEO como generado por IA. Para calibrar la herramienta, el estudio analizó 15.894 artículos publicados entre enero de 2020 y noviembre de 2022 (periodo previo a la difusión masiva de ChatGPT) y detectó un 4,2% de falsos positivos, es decir, humanos etiquetados por error como IA.
Para medir falsos negativos, generaron 6.009 artículos con GPT-4o y comprobaron que Surfer clasificó correctamente el 99,4%, lo que sugiere una tasa de falso negativo alrededor de 0,6% para ese modelo en particular.
La radiografía completa arroja dos mensajes contrapuestos. Por un lado, la adopción de la generación automática es masiva y rápida: tras 12 meses del lanzamiento de ChatGPT, los artículos IA ya representaban casi la mitad del volumen nuevo (el estudio cita 39% en ese punto de su medición).
Por otro lado, la presencia de ese contenido en canales clave parece limitada: en un análisis paralelo, Graphite reporta que esos artículos aparecen poco en los resultados de Google y en respuestas de ChatGPT, lo que sugiere que la proliferación no se traduce de forma automática en visibilidad o consumo proporcional por usuarios reales.
Claramente, para las empresas y para los particulares, la alternativa de producir con IA es atractiva desde el punto de vista de costos y los tiempos: en muchos casos sale más barato que pagar “cientos de dólares” por artículo escrito por un profesional. El resultado es un mercado donde la oferta se infló rápidamente, pero sin garantía de que ese contenido cumpla sus objetivos (SEO, conversión, reputación).
El estudio también destaca limitaciones importantes que deben leer los ejecutivos:
- No se midió el contenido “IA + edición humana”, es decir, borradores generados por modelos y pulidos por personas; esa categoría podría ser aún más prevalente.
- La evaluación de detección se centró en GPT-4o; otros modelos pueden escapar más fácilmente a los detectores usados.
- Clasificar por patches de 500 palabras y un umbral del 50% es un método práctico, pero no infalible; las métricas muestran señales relativas más que verdades absolutas.
Como enfrentar el fenómeno
Primero, exigir transparencia a proveedores y agencias sobre procesos de creación: ¿es 100% IA, es borrador + humano, o es humano asistido? Segundo, priorizar calidad y métricas de negocio (tiempo en página, leads, conversiones) por encima de simples volúmenes de publicación. Tercero, incorporar controles de calidad y ética: verificación de fuentes, evitar plagio y definir políticas claras sobre uso de IA en contenidos de marca.
La era del contenido barato y masivo ya llegó; la discusión ahora es si esa abundancia mejora la experiencia de usuario o la hace peor.
Para las empresas, la estrategia inteligente no es elegir entre humano o IA, sino integrar ambas capacidades con criterios de negocio y calidad. ¿Publicar más a menor costo o publicar mejor para ser encontrado y retenido? Esa debería ser la pregunta central.
El problema real no es que los humanos utilicen IA para producir contenidos, el verdadero problema es que ese contenido sea correctamente monitoreado, auditado y editado para no perder no solo calidad sino para asegurarse contenidos que no generen problemas de desinformación o mala interpretación.