Inicio » Ciencias » Un experto en IA advierte a EE.UU. contra la creación de un «Proyecto Manhattan 2»

Un experto en IA advierte a EE.UU. contra la creación de un «Proyecto Manhattan 2»

Las condiciones en las que se produjo la bomba atómica no pueden reproducirse en la carrera por la superinteligencia, escribe el experto en seguridad de la IA. Por Dan Hendrycks* para The Economist.

La reciente oleada de sistemas de IA procedentes de China ha desatado el temor a que Estados Unidos se esté quedando rezagado en inteligencia artificial. Este mes, OpenAI, uno de los laboratorios de IA más avanzados, advirtió a la Casa Blanca de que el liderazgo estadounidense «no es amplio y se está reduciendo», y algunos responsables políticos están considerando la idea de un Proyecto Manhattan de IA, inspirado en la investigación de alto secreto dirigida por Estados Unidos durante la Segunda Guerra Mundial que dio lugar a la bomba atómica. El nuevo Secretario de Energía de Estados Unidos, Chris Wright, parecía respaldar esta idea al declarar que el país se encuentra «al comienzo del Proyecto Manhattan 2».

El liderazgo occidental en IA es un imperativo económico y militar. Para algunos, sin embargo, este objetivo se interpreta como una carrera precipitada hacia una IA superinteligente. Debemos resistirnos a ello. Un nuevo Proyecto Manhattan en esta forma sería poco práctico, desestabilizador y contraproducente.

En primer lugar, el Proyecto Manhattan original tuvo éxito en condiciones que no pueden reproducirse hoy en día. El secreto total de la infraestructura física, los descubrimientos científicos y el personal fue crucial para su éxito, pero esto sería inalcanzable ahora. Los centros de datos no pueden ocultarse a la vigilancia por satélite; los modelos de IA y las ideas de investigación pueden filtrarse fácilmente a través de vulnerabilidades cibernéticas; y los investigadores de IA conocidos no pueden marcharse a un proyecto gubernamental sin llamar la atención. Debemos aceptar que los rivales puedan vigilar rápidamente nuestros planes.

Los requisitos de seguridad necesarios para un Proyecto Manhattan también limitarían el uso de los mejores investigadores. Muchos de los que son cruciales para el desarrollo de la IA en Silicon Valley son ciudadanos chinos, lo que los hace inelegibles para un proyecto gubernamental clasificado. Su exclusión forzosa llevaría a estos talentos al extranjero, socavando la misma ventaja que Estados Unidos pretende mantener.

Supongamos que estas barreras son superables, que tenemos un Proyecto Manhattan y que con él logramos una IA superinteligente. Estaríamos en posesión de una tecnología de consecuencias peligrosamente desestabilizadoras y con profundas implicaciones militares.

No se trata de construir mejores misiles o aviones más rápidos, sino de desarrollar un multiplicador de fuerzas sin precedentes. La IA superinteligente podría crear superarmas que abrieran un agujero en las estrategias de disuasión existentes. Podrían anular la disuasión nuclear mediante sistemas antibalísticos de nueva generación o revelar la ubicación de submarinos nucleares, reduciendo así la capacidad de represalia de un Estado.

También existe el riesgo de que perdamos el control de la IA. La vía más directa para alcanzar la superinteligencia sería a través de lo que yo describo como «recursividad de la inteligencia», por la que un equipo de sistemas de IA automatiza su propio desarrollo, diseñando la siguiente generación. Imaginemos una única IA capaz de realizar investigaciones de primer orden. Podría funcionar varias veces más rápido que los humanos y podría copiarse y pegarse para crear miles de investigadores automatizados que trabajasen las 24 horas del día. De este modo se podría reducir, por ejemplo, una década de desarrollo de la inteligencia artificial a un año. Es poco probable que un proceso así pueda controlarse de forma fiable. Como Geoffrey Hinton, pionero de la IA, advirtió con su característica modestia: «No hay un buen historial de cosas menos inteligentes que controlen cosas de mayor inteligencia».

No obstante, es fácil comprender por qué un Estado puede aspirar a ese poder, y Estados Unidos no es el único que piensa en lo que podría conseguir con él. Pero se presta menos atención a cómo responderían las naciones rivales. Tanto si Estados Unidos pierde el control de la superinteligencia como si no, China vería el Proyecto Manhattan como una amenaza para su supervivencia y tomaría contramedidas, intensificando el espionaje, el cibersabotaje y otros ataques preventivos contra la infraestructura de IA. Del mismo modo, Rusia, que no puede esperar competir en IA, podría llegar a la conclusión de que interrumpir el Proyecto Manhattan es su única opción. Una escalada de este tipo no debería sorprender; ¿quién esperaría que Estados Unidos se quedara de brazos cruzados ante la misma amenaza?

La competencia en IA no tiene por qué implicar una carrera hacia la superinteligencia. Estados Unidos puede aumentar su competitividad haciendo que su acceso a los chips de IA y a los componentes de los drones sea más resistente a las perturbaciones de la cadena de suministro. En la actualidad, los chips de IA de gama alta se producen principalmente en Taiwán, y las piezas para drones proceden en gran medida de China. Al centrarse en el desarrollo nacional, Estados Unidos puede reducir en gran medida las vulnerabilidades en sus cadenas de suministro para la infraestructura crítica de IA.

También debe disuadir los proyectos de superinteligencia en otros lugares. Este mes he publicado un documento con Eric Schmidt, ex director ejecutivo de Google, y Alexandr Wang, jefe de Scale AI, que expone cómo Estados Unidos puede impedir que sus rivales alcancen una superioridad incontrolada. Argumentamos que debería desarrollar medidas cibernéticas para desactivar los proyectos de IA desestabilizadores de sus rivales, operaciones de inteligencia que rastreen los avances extranjeros en IA y operaciones de espionaje que penetren en los laboratorios de investigación y los canales de comunicación. Demostrando de forma creíble que puede desactivar proyectos a punto de crear superinteligencia, Estados Unidos puede disuadir tales esfuerzos en primer lugar y evitar una escalada.

En última instancia, un Proyecto Manhattan para la superinteligencia fracasaría porque fortificar tal esfuerzo sería extremadamente difícil; la propia tecnología es desestabilizadora y entraña el riesgo de una pérdida de control humano; y los adversarios geopolíticos sabotearían preventivamente los proyectos para proteger su supervivencia. Estados Unidos debe ser ambicioso en las aplicaciones de la IA, ya sea en la tecnología militar o en la revolución de la atención sanitaria. Pero debe resistir la tentación de aspirar a la superinteligencia y evitar que sus rivales hagan lo mismo.

*Dan Hendrycks es el director ejecutivo del Centro para la Seguridad de la IA y asesor de xAI, la empresa fundada por Elon Musk, y Scale AI, fundada por Alexandr Wang.

Fuente: The Economist

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com