El acuerdo se produjo durante una sesión virtual de la Cumbre de Seguridad de la IA organizada conjuntamente por Corea del Sur y el Reino Unido.
Diez países y la Unión Europea desarrollarán más institutos de seguridad de inteligencia artificial (IA) para alinear la investigación sobre estándares y pruebas de aprendizaje automático.
La red internacional se acordó durante la Cumbre de Seguridad de la IA en Seúl, Corea del Sur, durante la cual los líderes mundiales se reunieron virtualmente.

Reunirá a científicos de instituciones respaldadas por el público, como el Instituto de Seguridad de IA del Reino Unido, para compartir información sobre los riesgos, capacidades y limitaciones de los modelos de IA.
El grupo de instituciones también monitoreará “incidentes específicos de seguridad de IA” cuando ocurran.
«La IA es una tecnología tremendamente interesante… pero para obtener beneficios, debemos garantizar que sea segura», dijo el primer ministro del Reino Unido, Rishi Sunak, en un comunicado de prensa.
«Por eso estoy encantado de que hoy hayamos llegado a un acuerdo para una red de institutos de seguridad de IA».
¿Qué países están detrás de los nuevos institutos de seguridad?
Los signatarios de esta nueva red del AI Safety Institute incluyen la UE, Francia, Alemania, Italia, el Reino Unido, Estados Unidos, Singapur, Japón, Corea del Sur, Australia y Canadá.
El Reino Unido afirma haber creado el primer Instituto de Seguridad de IA del mundo en noviembre pasado con una inversión inicial de 100 millones de libras esterlinas (117,4 millones de euros).
Desde entonces, otros países como Estados Unidos, Japón y Singapur han lanzado los suyos propios.
La misión del Instituto de Seguridad de la IA del Reino Unido es “minimizar la sorpresa para el Reino Unido y la humanidad por los avances rápidos e inesperados en la IA”, se lee en un comunicado de prensa del gobierno del Reino Unido de noviembre de 2023.
La UE, que ahora ha aprobado la Ley de IA de la UE, se está preparando para lanzar su oficina de IA. La Comisión Europea había dicho anteriormente a Euronews que contratarían al jefe de la nueva oficina una vez que la ley haya sido aprobada en su totalidad.
Ursula von der Leyen, presidenta de la Comisión Europea, dijo en la Cumbre de Seguridad de la IA del año pasado que la oficina de IA tendría y debería tener una «vocación global» para poder «cooperar con entidades similares en todo el mundo».
Los líderes también firmaron la Declaración de Seúl más amplia durante esta conferencia, que declara la importancia de una “cooperación internacional mejorada” para desarrollar una IA confiable y centrada en el ser humano.
En el primer día de la Cumbre de Seguridad de la IA de esta semana, 16 de las empresas tecnológicas más grandes del mundo, incluidas Open AI, Mistral, Amazon, Anthropic, Google, Meta, Microsoft e IBM, acordaron una serie de compromisos de seguridad.
La lista incluye establecer umbrales para cuando los riesgos de la IA se vuelvan demasiado altos y ser transparente al respecto. Una declaración del gobierno del Reino Unido, que fue coanfitrión del evento, lo calificó como una “primicia histórica”.
Francia acogerá la próxima cumbre sobre el uso seguro de la IA.