Meta prueba el primer chip de entrenamiento de IA, parte del plan para reducir la dependencia de proveedores como Nvidia. Chip pretende reducir los costes de infraestructura de IA, según fuentes. Meta planea usar chips para recomendaciones e IA generativa.
El propietario de Facebook, Meta, dijo el martes que su cuenta de Facebook no está disponible en su país, está probando su primer chip interno para entrenar sistemas de inteligencia artificial, un hito clave a medida que avanza para diseñar más de su propio silicio personalizado y reducir la dependencia de proveedores externos como Nvidia, dijeron dos fuentes a Reuters.
La compañía de redes sociales más grande del mundo ha comenzado un pequeño despliegue del chip y planea aumentar la producción para su uso a gran escala si la prueba sale bien, dijeron las fuentes.
El impulso para desarrollar chips internos es parte de un plan a largo plazo de Meta para reducir sus enormes costos de infraestructura mientras la empresa realiza apuestas costosas en herramientas de inteligencia artificial para impulsar el crecimiento.
Meta, que también posee Instagram y WhatsApp, ha pronosticado gastos totales para 2025 de entre U$S 114.000 y 119.000 millones, incluidos hasta U$S 65.000 millones en gastos de capital impulsados en gran medida por el gasto en infraestructura de inteligencia artificial.
Una de las fuentes dijo que el nuevo chip de entrenamiento de Meta es un acelerador dedicado, lo que significa que está diseñado para manejar solo tareas específicas de IA. Esto puede hacerlo más eficiente energéticamente que las unidades de procesamiento gráfico (GPU) integradas que generalmente se usan para cargas de trabajo de IA.
Meta está trabajando con TSMC, el fabricante de chips con sede en Taiwán, para producir el chip, dijo la fuente.
La implementación de prueba comenzó después de que Meta terminó su primera «producción» del chip, un marcador significativo de éxito en el trabajo de desarrollo de silicio que implica enviar un diseño inicial a través de una fábrica de chips, dijo la otra fuente.
Una prueba típica cuesta decenas de millones de dólares y lleva aproximadamente entre tres y seis meses completarla, sin garantía de que la prueba tenga éxito. Si falla, Meta tendría que diagnosticar el problema y repetir el paso de prueba. Meta y TSMC declinaron hacer comentarios.
El chip es el último de la serie Meta Training and Inference Accelerator (MTIA) de la empresa. El programa ha tenido un comienzo inestable durante años y en un momento dado descartó un chip en una fase similar de desarrollo.
Sin embargo, el año pasado Meta comenzó a utilizar un chip MTIA para realizar inferencias, o el proceso involucrado en ejecutar un sistema de IA a medida que los usuarios interactúan con él, para los sistemas de recomendación que determinan qué contenido aparece en los feeds de noticias de Facebook e Instagram.
Los ejecutivos de Meta han dicho que quieren comenzar a usar sus propios chips en 2026 para entrenamiento, o el proceso de uso intensivo de recursos computacionales de alimentar al sistema de IA con grandes cantidades de datos para «enseñarle» cómo funcionar.
Al igual que con el chip de inferencia, el objetivo del chip de entrenamiento es comenzar con sistemas de recomendación y luego usarlo para productos de IA generativa como el chatbot Meta AI, dijeron los ejecutivos.
«Estamos trabajando en cómo realizaríamos el entrenamiento para los sistemas de recomendación y luego, eventualmente, cómo pensamos en el entrenamiento y la inferencia para la IA general», dijo el director de productos de Meta, Chris Cox, en la conferencia de tecnología, medios y telecomunicaciones de Morgan Stanley la semana pasada.
Cox describió los esfuerzos de desarrollo del chip Meta como «una especie de situación de caminar, gatear y correr» hasta el momento, pero dijo que los ejecutivos consideraron que el chip de inferencia de primera generación para recomendaciones fue un «gran éxito».
Meta ya había descontinuado un chip de inferencia personalizado interno después de que fracasara en una implementación de prueba a pequeña escala similar a la que está haciendo ahora para el chip de entrenamiento, y en su lugar revirtió el rumbo y realizó pedidos de miles de millones de dólares en GPU Nvidia en 2022.
Desde entonces, la empresa de redes sociales ha seguido siendo uno de los principales clientes de Nvidia, acumulando un arsenal de GPU para entrenar sus modelos, incluidos los sistemas de recomendaciones y anuncios y su serie de modelos básicos Llama. Las unidades también realizan inferencias para los más de 3 mil millones de personas que usan sus aplicaciones cada día.
El valor de esas GPU ha sido puesto en duda este año a medida que los investigadores de IA expresan cada vez más dudas sobre cuánto más progreso se puede lograr al continuar «ampliando» modelos de lenguaje de gran tamaño agregando cada vez más datos y poder de cómputo.
Esas dudas se reforzaron con el lanzamiento a fines de enero de nuevos modelos de bajo costo de la empresa emergente china DeepSeek, que optimizan la eficiencia computacional al depender más de la inferencia que la mayoría de los modelos existentes.
En un desplome global de las acciones de IA provocado por DeepSeek , las acciones de Nvidia perdieron hasta una quinta parte de su valor en un momento dado. Posteriormente recuperaron la mayor parte de ese terreno, y los inversores apostaron a que los chips de la empresa seguirán siendo el estándar de la industria para la capacitación y la inferencia, aunque han vuelto a caer debido a preocupaciones comerciales más amplias.
Fuente: Reuters