El CEO defendió el rol de la compañía en la cooperación con el gobierno de Donald Trump y subrayó que Anthropic prioriza la seguridad y neutralidad en el desarrollo de sus modelos. La empresa registró un crecimiento récord, de U$S 1.000 millones a U$S 7.000 millones de ingresos en solo nueve meses.
“La inteligencia artificial debe ser una fuerza para el progreso humano, no para el peligro”, comienza el extenso comunicado publicado por Dario Amodei, máximo ejecutivo de Anthropic, una de las principales desarrolladoras de modelos de IA del mundo. El directivo respondió a críticas recientes sobre la orientación política y regulatoria de la empresa, reafirmando su apoyo a políticas federales que garanticen que “la tecnología más poderosa del siglo beneficie al pueblo estadounidense”.
Amodei coincidió con las declaraciones recientes del vicepresidente JD Vance, quien sostuvo que el objetivo nacional debe ser “maximizar los usos beneficiosos de la IA, como los avances médicos, y minimizar los dañinos”. Para Amodei, esa visión refleja no solo el consenso político en torno a la IA, sino también “lo que la opinión pública desea abrumadoramente”.
Anthropic, fundada en 2021 por ex ejecutivos de OpenAI, se convirtió —según datos internos— en la empresa de software de más rápido crecimiento en la historia, al pasar de un ritmo de ingresos anual de U$S 1.000 millones a U$S 7.000 millones en apenas nueve meses. Su modelo insignia, Claude, ya está disponible a través de contratos gubernamentales, y la compañía firmó un acuerdo de U$S 200 millones con el Departamento de Guerra para desarrollar aplicaciones seguras de frontera en defensa. También ofrece su tecnología por U$S 1 a dependencias públicas, como parte de un programa de cooperación con la Administración de Servicios Generales.
Amodei recalcó que la gestión del impacto social de la IA “debe ser una cuestión de política, no de política partidaria”. Afirmó que Anthropic colabora activamente con el gobierno federal, incluidos eventos en la Casa Blanca, donde la empresa suscribió compromisos para acelerar la interoperabilidad en salud digital y promover la enseñanza de IA en escuelas.
Sobre el debate regulatorio, explicó que Anthropic se opuso únicamente a una cláusula del proyecto One Big Beautiful Bill, que pretendía imponer una moratoria de diez años a las leyes estatales sobre IA. “Preferimos un estándar federal uniforme”, aclaró. Mencionó además su apoyo al proyecto SB 53 en California —que obliga a las grandes compañías de IA a publicar protocolos de seguridad, pero exime a las que facturen menos de U$S 500 millones— como muestra de su compromiso con la transparencia y la protección del ecosistema emprendedor.
Amodei también abordó las críticas sobre sesgo político en los modelos de la compañía. Citó estudios de Stanford University y del Manhattan Institute que colocan a Claude Sonnet 3.5 y sus sucesores (Sonnet 4.5 y Haiku 4.5) entre los modelos “menos tendenciosos” del mercado. “Ningún modelo de IA es perfectamente neutral”, reconoció, “pero estamos avanzando rápido hacia ese objetivo”.
El ejecutivo defendió además la decisión de no vender servicios a empresas controladas por la República Popular China, renunciando a ingresos significativos para evitar que sus tecnologías sean utilizadas con fines militares o de inteligencia. Coincidió con senadores republicanos como Tom Cotton y Josh Hawley en que “llenar los centros de datos chinos con chips estadounidenses sería el verdadero riesgo para el liderazgo de EE.UU. en IA”.
“Hemos demostrado que se puede crecer de manera responsable sin cruzar líneas éticas”, resumió Amodei. “Seguiremos trabajando con todas las fuerzas políticas para asegurar que América mantenga su liderazgo en el desarrollo de la inteligencia artificial”.