Más de 800 científicos, políticos y celebridades piden frenar la creación de sistemas más inteligentes que los humanos hasta que exista consenso y control. La coalición incluye a Geoffrey Hinton, Meghan Markle, Steve Bannon y ex altos cargos como Susan Rice.
Un grupo encabezado por el Future of Life Institute (FLI) publicó una carta firmada por más de 800 personalidades —entre investigadores, políticos, líderes religiosos y celebridades— en la que se reclama una “prohibición” a la creación de lo que llaman superinteligencia, es decir, sistemas de IA que superen en capacidades a la mayoría de las personas.
La misiva pide explícitamente:
“Llamamos a prohibir el desarrollo de la superinteligencia, y que esa prohibición no se levante hasta que exista un amplio consenso científico sobre que se hará de manera segura y controlable, y hasta que haya un fuerte apoyo público.”
La lista de firmantes reúne nombres inesperados en una sola declaración: desde pioneros de la IA como Geoffrey Hinton y Yoshua Bengio, hasta figuras públicas como Meghan Markle, Steve Bannon y Stephen Fry. También apoyan la carta ex mandatarios y dirigentes —la ex presidenta irlandesa Mary Robinson y el príncipe Harry— y líderes empresariales como Steve Wozniak y Richard Branson. Entre los firmantes hay además científicos chinos de peso como Andrew Yao y Ya-Qin Zhang, y ex altos cargos de seguridad como Susan Rice y el almirante Mike Mullen.
El FLI acompañó la carta con una encuesta que, según el comunicado, muestra que solo 5% de los estadounidenses apoyan “el statu quo actual de desarrollo sin regulación”, mientras que casi tres de cada cuatro estaban a favor de una regulación robusta. Para Max Tegmark, presidente del FLI, el punto central no es geopolítico sino humano:
“Es nuestra humanidad lo que nos reúne aquí… Cada vez más gente empieza a pensar que la mayor amenaza no es la otra empresa o el otro país, sino quizás las máquinas que estamos construyendo.”
La iniciativa llega en un contexto de feroz competencia entre grandes grupos tecnológicos —OpenAI, Meta y Google— y startups que persiguen avances hacia lo que algunos describen como inteligencia general artificial. El texto subraya, no obstante, que la carta no exige una pausa general al desarrollo de IA: en palabras de Tegmark, “no estamos llamando a detener el desarrollo de la IA”; la demanda es más específica y busca impedir únicamente la creación de sistemas de superinteligencia hasta que existan garantías públicas y científicas.
El movimiento recuerda a la petición previa que el FLI organizó en 2023, cuando expertos como Elon Musk impulsaron un llamamiento por una moratoria de seis meses. Aquella iniciativa sirvió para catalizar el debate público, aunque el desarrollo ha continuado —incluso con actores como xAI de Musk— y la regulación global aún progresa con lentitud.
En el frente regulatorio la realidad es heterogénea: la UE avanza con su AI Act, desplegado por etapas, mientras en Estados Unidos la regulación queda fragmentada entre estados; ejemplos citados incluyen California, Utah y Texas, que ya tienen leyes específicas. La carta del FLI busca que la conversación suba de nivel y que exista un marco global que impida la carrera descontrolada hacia sistemas que nadie pueda garantizar que serán seguros.
Para ejecutivos y tomadores de decisión, la declaración refuerza la urgencia de: evaluar riesgos a largo plazo, participar en procesos regulatorios y colaborar públicamente en estándares que garanticen transparencia y control. El debate ahora es público y amplio: ¿la humanidad regula la IA antes de que ésta cruce límites irreversibles o deja que la competenci