A contracorriente de Meta, Google firmará el código de buenas prácticas para IA de la Unión Europea, comprometiéndose a no entrenar modelos con contenido pirateado, mejorar la transparencia y ajustarse a las exigentes reglas que entró en vigor este 2 de agosto.
Google ha confirmado que firmará el código de buenas prácticas impulsado por la Unión Europea para la inteligencia artificial de propósito general. Este marco voluntario, pensado como complemento a la nueva AI Act europea, busca facilitar a los desarrolladores la adaptación a las severas exigencias regulatorias que debutaron el 2 de agosto para los proveedores de modelos de IA considerados de “riesgo sistémico” —una categoría que incluye a gigantes como Anthropic, Google, Meta y OpenAI.
La adhesión de Google resulta significativa, especialmente después de que Meta anunciara públicamente su rechazo al acuerdo, acusando a la Unión Europea de “extralimitarse” y advirtiendo que el continente “avanza en la dirección equivocada en materia de IA”. Google, sin embargo, optó por el diálogo y el compromiso, aunque no sin reservas.
Kent Walker, presidente de Asuntos Globales de Google, lo expresó así en una entrada de blog oficial: «Seguimos preocupados porque la AI Act y el Código pueden frenar el desarrollo y la adopción de la IA en Europa. En particular, las desviaciones respecto a la ley de copyright de la UE, los procesos de aprobación lentos o los requisitos que exponen secretos comerciales podrían enfriar la innovación y dañar la competitividad europea».
Al firmar el código, las empresas tecnológicas se comprometen a una serie de buenas prácticas:
- Documentar y mantener actualizada la información sobre sus sistemas y herramientas de IA.
- Abstenerse de modelos de entrenamiento con contenido pirateado.
- Respetar las solicitudes de propietarios de contenido que no deseen que sus obras se empleen en datasets de entrenamiento.
La nueva AI Act es pionera a nivel global: prohibe casos de “riesgo inaceptable” —como la manipulación cognitiva o el scoring social al estilo chino— y marca estándares estrictos para usos “de alto riesgo”, incluyendo biometría, reconocimiento facial, educación y recursos humanos. Además, instale a los desarrolladores a registrar sus sistemas de IA ya cumplir con estrictas obligaciones de gestión de riesgos y calidad.
El calendario es claro: las reglas para modelos de “riesgo sistémico” comienzan a regir en agosto de 2025, y las empresas tendrán dos años para una adaptación total. El desafío es enorme:
- Se busca asegurar la transparencia y la seguridad en sistemas que ya impactan en millones de ciudadanos y sectores estratégicos.
- Por otro lado, gigantes como Google y Meta advierten sobre el posible efecto enfriador en la innovación, alertando que los requisitos podrían ralentizar la adopción y el desarrollo tecnológico en el continente.
Con su decisión, Google intenta equilibrar la presión regulatoria europea y su propia apuesta por la innovación “responsable”, sentando un precedente en la batalla global por la gobernanza de la inteligencia artificial. Como resume Kent Walker: «La clave será encontrar el justo equilibrio entre protección de derechos, seguridad e impulso a la competitividad. Europa puede y debe ser líder en el desarrollo ético de la IA».