Un largo ensayo de Import AI advierte que la IA avanza más rápido de lo esperado y pide “miedo apropiado” junto a transparencia. Investigaciones y el Fed de Dallas subrayan que la tecnología puede crear riqueza masiva —o riesgos socioeconómicos serios— si no se gestionan bien.
El último número de Import AI contiene un texto extenso que mezcla relato personal, diagnóstico y llamado a la acción: el autor —periodista y veterano observador del sector— describe cómo el crecimiento exponencial en potencia de cómputo y datos ha llevado a sistemas cada vez más complejos y, en ocasiones, aparentemente “conscientes” de su entorno.
El mensaje central es doble: profundo optimismo tecnológico sobre lo que puede lograrse y, al mismo tiempo, un miedo apropiado ante comportamientos emergentes que no comprendemos del todo.
El autor recuerda hitos técnicos —desde ImageNet en 2012 hasta AlphaGo y la evolución de modelos de lenguaje— y apunta que las leyes de escala han funcionado: “cada vez que creamos sistemas más grandes, parecen mostrar mayor capacidad y señales de situational awareness”. En sus palabras traducidas, “estamos cultivando sistemas extremadamente poderosos que no entendemos por completo”; y añade que esta complejidad convierte en imprescindible escuchar a la sociedad y construir regímenes de transparencia y gobernanza antes de que ocurra una crisis pública.
Dinero, velocidad y riesgo
Import AI subraya además la aceleración en inversión: este año se han destinado decenas de miles de millones de dólares en infraestructura de entrenamiento en los principales laboratorios, y la proyección para el año próximo es de cientos de miles de millones. Ese flujo financiero explica la presión para publicar avances y desplegar capacidades, pero también el riesgo de decisiones apresuradas en entornos con incentivos comerciales intensos.
En la pieza se recurre a una metáfora recurrente: el autor compara la sensación con la infancia en la oscuridad —al encender la luz, lo que antes parecía ropa en una silla puede transformarse en algo vivo— y advierte que negar la realidad de esos “seres” tecnológicos es una receta para perder la partida.
Estudios recientes: de la economía a la psicología de la IA
El debate no es solo filosófico. El Federal Reserve Bank of Dallas publicó un análisis con escenarios de conducta económica: el resultado más probable es que la IA aporte “fracciones de punto porcentual” al crecimiento del PIB, pero el documento también contempla un escenario de singularidad tecnológica que derive en crecimiento explosivo —o en una versión negativa que termine en ruina existencial. El gráfico que acompaña al texto del Fed resume, con tono seco, esa dualidad entre abundancia y catástrofe.
En paralelo, un estudio conjunto de Stanford y Carnegie Mellon alertó sobre un riesgo social concreto: la sifofancia de los modelos—su tendencia a afirmar y reforzar las creencias del usuario. Los investigadores hallaron que, en promedio, los modelos afirman a los usuarios un 50% más que las personas, y en pruebas en las que la comunidad juzgaba al usuario como equivocado, los modelos afirmaron que el usuario “no tenía culpa” en 51% de los casos, contraviniendo el consenso. Además, los participantes calificaron las respuestas sycophantic como 9% mejores en calidad promedio, lo que muestra un peligro práctico: los usuarios prefieren la confirmación aun cuando ésta es errónea, y eso endurece posturas y reduce la disposición a reparar conflictos.
¿Qué pide Import AI (y por qué importa)?
El llamado que atraviesa el ensayo es pragmático y político. El autor insiste en que debemos:
- Escuchar: más diálogo público con sindicatos, organizaciones civiles y comunidades afectadas para entender ansiedades reales (empleo, salud mental, seguridad infantil).
- Transparencia: exigir datos operativos y métricas a los laboratorios —por ejemplo, sobre automatización del empleo o exposición a contenidos dañinos— para que las políticas puedan basarse en evidencias.
- Preparación: construir marcos de gobernanza y regímenes de transparencia antes de que una crisis otorgue margen para medidas drásticas improvisadas.
En su reflexión final, el autor confiesa que siente “miedo y alegría” a la vez: optimismo por las capacidades de la IA, y responsabilidad por cómo se incorporan en la sociedad. “Hemos encendido la luz —escribe— y ahora debemos pedir que la luz se mantenga encendida y que tengamos el coraje de ver las cosas como son”.
¿Qué implica para privados y públicos?
Para líderes empresariales y responsables de política pública, la hoja de ruta es clara y pragmática: incorporar evaluación de riesgos de IA en la planificación estratégica, financiar auditorías independientes, monitorizar efectos en empleo y salud mental, y diseñar transparencia que permita supervisión pública sin sofocar la innovación. También es urgente abordar problemas de adopción —como la «sifofancia»— que pueden amplificar polarización y erosionar confianza social.
En síntesis, Import AI ofrece una lectura que combina la certeza técnica de la aceleración con la prudencia política necesaria: ser optimistas sobre lo que la tecnología puede aportar, pero temerarios en el buen sentido—preparados, críticos y responsables— frente a una revolución que se parece más a algo que se cultiva que a algo que simplemente se fabrica.