Elon Musk reconoció en un tribunal que su startup utilizó técnicas de “distillation” con tecnología de OpenAI. La práctica, extendida pero polémica, expone tensiones crecientes entre los gigantes de la inteligencia artificial.
La competencia en inteligencia artificial acaba de sumar un nuevo capítulo judicial y tecnológico. Elon Musk confirmó bajo juramento que su empresa xAI utilizó modelos de OpenAI para entrenar Grok, su chatbot, mediante una técnica conocida como “distillation”.
La declaración se produjo en el marco del juicio que Musk inició contra OpenAI y sus directivos, entre ellos Sam Altman y Greg Brockman, a quienes acusa de haber abandonado la misión original sin fines de lucro de la organización.
Consultado directamente en la corte federal de California sobre si xAI había utilizado distillation, Musk respondió: “En parte”, y agregó que se trata de una práctica común en la industria.
Qué es la “distillation” y por qué genera conflicto
La distillation es un proceso mediante el cual una empresa utiliza modelos existentes —a través de consultas sistemáticas a APIs o chatbots— para entrenar nuevos sistemas que replican comportamientos similares, muchas veces a menor costo.
Este enfoque pone en jaque una de las principales ventajas competitivas de los gigantes de IA: las inversiones multimillonarias en infraestructura de cómputo. Si un competidor puede lograr resultados comparables “aprendiendo” de modelos existentes, el diferencial tecnológico se reduce drásticamente.
El debate se intensificó en los últimos meses, especialmente por el uso de estas técnicas por parte de empresas chinas para desarrollar modelos open-weight más económicos. Sin embargo, lo revelado por Musk confirma lo que muchos en Silicon Valley sospechaban: también es una práctica extendida entre compañías estadounidenses.
Una industria que se vigila a sí misma
Ante este escenario, actores clave como Anthropic, OpenAI y Google comenzaron a coordinar esfuerzos para frenar estas prácticas, especialmente a través del Frontier Model Forum.
El objetivo es compartir información sobre intentos de distillation, que suelen implicar grandes volúmenes de consultas diseñadas para inferir el funcionamiento interno de los modelos. Como respuesta, las empresas están reforzando controles para detectar patrones sospechosos de uso.
El problema, sin embargo, no es solo técnico sino también legal. Aunque la distillation no está claramente tipificada como ilegal, podría violar los términos de servicio de las plataformas.
xAI, un jugador chico en una liga de gigantes
Durante su testimonio, Musk también ofreció su visión del mapa competitivo global. Ubicó a Anthropic en el primer lugar, seguida por OpenAI y Google, y luego por modelos open source de origen chino. En ese ranking, definió a xAI como un actor mucho más pequeño, con apenas “unos pocos cientos de empleados”.
La admisión refuerza la idea de que startups más jóvenes están utilizando estrategias alternativas —como la distillation— para cerrar la brecha con los líderes del sector.
Un conflicto con múltiples capas
El caso judicial entre Musk y OpenAI no solo expone diferencias estratégicas, sino también tensiones estructurales en la industria: propiedad intelectual, acceso a datos, costos de desarrollo y regulación.
Paradójicamente, las grandes compañías que hoy buscan frenar la distillation también han sido cuestionadas por el uso intensivo de datos —muchas veces protegidos por copyright— para entrenar sus propios modelos.
En este contexto, la declaración de Musk no hace más que acelerar un debate que ya está en marcha: hasta qué punto la innovación en inteligencia artificial puede —o debe— construirse sobre los avances de otros.
La respuesta, por ahora, sigue abierta. Pero lo que queda claro es que la carrera por liderar la IA no solo se libra en laboratorios y centros de datos, sino también en tribunales.

