Un grupo de expertos propone un sistema de auditoría independiente para evaluar la seguridad y confiabilidad de los modelos de inteligencia artificial más avanzados, en un contexto donde OpenAI, Google, Anthropic y otros desarrolladores concentran un poder tecnológico cada vez más crítico para la economía y la sociedad.
La inteligencia artificial de frontera —los modelos más avanzados y capaces del mercado— se está convirtiendo rápidamente en infraestructura crítica para la economía global. Sin embargo, a diferencia de otros sistemas de alto impacto como los productos de consumo, los estados financieros corporativos o la industria alimentaria, la IA aún carece de mecanismos sólidos y estandarizados de auditoría externa que permitan verificar si las promesas de seguridad y control que realizan las empresas líderes son reales.
Ese es el punto de partida del informe “Frontier AI Auditing: Toward Rigorous Third-Party Assessment of Safety and Security Practices at Leading AI Companies”, encabezado por Miles Brundage, uno de los investigadores más influyentes en gobernanza de IA. El documento advierte que la falta de verificación independiente genera un doble riesgo: desalienta el uso de la IA en contextos donde podría ser beneficiosa y, al mismo tiempo, facilita su adopción en escenarios donde podría resultar peligrosa.
“La transparencia pública por sí sola no alcanza”, sostienen los autores. Muchos de los aspectos clave vinculados a la seguridad, la arquitectura de los modelos o la gestión del riesgo son confidenciales y requieren acceso experto a información no pública. Frente a ese vacío, el informe propone institucionalizar lo que denomina auditorías de IA de frontera: evaluaciones rigurosas realizadas por terceros independientes con acceso profundo y seguro a los sistemas, procesos y prácticas de las compañías desarrolladoras.
Un modelo inspirado en otras industrias críticas
El enfoque no es improvisado. Los autores comparan el estado actual de la IA con industrias que ya atravesaron crisis de confianza similares, como la financiera o la farmacéutica. En esos sectores, la auditoría independiente —basada en acceso a información sensible— es una condición básica para que inversores, reguladores y usuarios puedan operar con certidumbre.
En el caso de la IA, el desafío es mayor: los sistemas evolucionan con rapidez, son altamente complejos y, en muchos casos, se entrenan y operan bajo esquemas propietarios. Aun así, el informe sostiene que la auditoría rigurosa no solo es posible, sino necesaria para sostener el crecimiento del sector.
Entre los beneficios identificados se destacan mejores resultados en seguridad, mayor confianza para la inversión, despliegues más responsables y un marco común para evaluar riesgos en sectores de alto impacto como salud, finanzas, defensa o infraestructura crítica.
Niveles de Aseguramiento en IA: del diagnóstico puntual al monitoreo continuo
Uno de los aportes centrales del trabajo es la creación de los AI Assurance Levels (AAL), un sistema de cuatro niveles que permite estandarizar qué tan profunda y confiable es una auditoría:
- AAL-1: auditorías acotadas en el tiempo, centradas en sistemas específicos, basadas en información proporcionada en gran parte por la empresa auditada.
- AAL-2: evaluaciones más amplias, con mayor acceso a información no pública y foco en riesgos a nivel organizacional.
- AAL-3 y AAL-4: niveles aún no factibles técnicamente, pensados para auditorías continuas capaces de detectar engaños deliberados o fallas sistémicas profundas.
El informe recomienda AAL-1 como piso mínimo para toda IA de frontera, y AAL-2 como objetivo de corto plazo para las compañías más avanzadas, como OpenAI, Google DeepMind, Anthropic o Meta.
Más allá del modelo: auditar a la organización
Otro punto clave es que las auditorías no deberían limitarse a evaluar un modelo aislado. “El riesgo no surge solo del modelo, sino de la interacción entre sistemas digitales, hardware y prácticas de gobernanza”, advierten los autores.
Por eso, proponen una mirada integral que incluya:
- Procesos internos de toma de decisiones en seguridad.
- Políticas de despliegue y uso interno de los modelos.
- Prácticas de ciberseguridad y protección de datos.
- Riesgos emergentes como adicción, manipulación o facilitación de autolesiones.
Independencia, acceso y monitoreo continuo
Para que el sistema funcione, el informe subraya cinco condiciones críticas: independencia real de los auditores, acceso profundo pero seguro a información sensible, crecimiento acelerado de capacidades técnicas, incentivos claros para que las empresas adopten auditorías y reglas de responsabilidad legal bien definidas.
Además, plantea que las auditorías deben dejar de ser “PDFs estáticos” y transformarse en evaluaciones vivas, con monitoreo continuo, revisiones ante eventos críticos y caducidad automática cuando cambian las condiciones del sistema auditado.
Una carrera contrarreloj
El mensaje final es claro: la IA avanza más rápido que las instituciones diseñadas para controlarla. Si no se construye ahora un ecosistema de auditoría creíble, el riesgo no es solo técnico, sino económico y político.
“Confiar en que las empresas se auditen a sí mismas es una estrategia con antecedentes problemáticos en muchas industrias”, advierte el documento. La alternativa no es frenar la innovación, sino acompañarla con mecanismos de control acordes a su impacto.
En un escenario donde la inteligencia artificial se perfila como uno de los pilares de la economía global, la auditoría de IA de frontera aparece como el próximo gran campo de batalla entre innovación, confianza y poder tecnológico.

