El Tiny Recursion Model (TRM) de Alexia Jolicoeur-Martineau promete resolver puzzles y razonamiento estructurado con una huella computacional mínima. El código es abierto (MIT) y el resultado desafía la idea de que “más parámetros” siempre gana —aunque su dominio sigue siendo estrecho.
TRM irrumpe como un recordatorio: no siempre hay que multiplicar parámetros para mejorar desempeño en tareas concretas. El Tiny Recursion Model, presentado por Alexia Jolicoeur-Martineau desde el Samsung Advanced Institute of Technology (SAIT), contiene 7 millones de parámetros y obtiene rendimientos en pruebas de razonamiento combinatorio que rivalizan con modelos que tienen 10.000 veces más parámetros. El paper, publicado en arXiv, y el repositorio en GitHub (licencia MIT) permiten a investigadores y empresas reproducir y adaptar el trabajo sin barreras legales.
Alexia Jolicoeur-Martineau explica la filosofía detrás del enfoque:
«La idea de que uno deba depender de modelos fundacionales masivos entrenados por millones de dólares por una gran corporación para resolver tareas difíciles es una trampa». — Alexia Jolicoeur-Martineau.
New paper 📜: Tiny Recursion Model (TRM) is a recursive reasoning approach with a tiny 7M parameters neural network that obtains 45% on ARC-AGI-1 and 8% on ARC-AGI-2, beating most LLMs.
«Con el razonamiento recursivo, resulta que ‘menos es más’. Un modelo diminuto preentrenado desde cero, que recurre sobre sí mismo y actualiza sus respuestas con el tiempo, puede lograr mucho sin arruinar el presupuesto». — Alexia Jolicoeur-Martineau.
Técnicamente, TRM sustituye profundidad y tamaño por recursión: partiendo de una respuesta inicial, el modelo refina su representación interna a través de iteraciones (hasta 16 pasos de supervisión), corrigiendo errores previos hasta converger. El resultado: alta precisión en tareas de rejilla y lógica donde existe una manera clara y repetible de verificar la corrección.
Los números son contundentes: 87,4% de acierto en Sudoku-Extreme (vs 55% del antecedente HRM), 85% en Maze-Hard, 45% en ARC-AGI-1 y 8% en ARC-AGI-2. Todo ello utilizando menos del 0,01% de los parámetros de los grandes modelos comparados. Sin embargo, el ahorro en parámetros no elimina la necesidad de aumentación intensiva y cómputo: entrenar variantes de ARC puede exigir setups multi-GPU H100, mientras que tareas como Sudoku caben en una sola NVIDIA L40S.
La comunidad técnica respondió con debates relevantes: algunos celebran la demostración de que la arquitectura y la supervisión importan tanto como el tamaño; otros recuerdan que TRM es un solucionador de dominios acotados, no un modelo conversacional o generador de texto general. Como dijo Sebastian Raschka sobre el mecanismo:
«Un bucle de dos pasos que actualiza un estado de razonamiento interno y luego refina la respuesta». — Sebastian Raschka.
¿Qué lectura deberían hacer los ejecutivos? Primero, abrir los ojos a oportunidades prácticas: TRM sugiere que tareas estructuradas —automatización de pruebas, análisis visual en grids, ciertos problemas de optimización— pueden resolverse con modelos pequeños y reproducibles, lo que reduce costos operativos y de despliegue en edge o dispositivos integrados. Segundo, no caer en la trampa de extrapolar: el éxito en Sudoku o ARC no garantiza rendimiento en tareas humanas, subjetivas o de lenguaje abierto. Tercero, la licencia MIT y la transparencia del repositorio facilitan pruebas piloto y partnership industrial sin trabas legales.
En suma: Samsung/SAIT entrega un argumento poderoso a favor de la eficiencia algorítmica. Para empresas que buscan ventajas tácticas (reducir coste, llevar IA al borde, proteger privacidad por procesamiento local), TRM es una invitación a experimentar. Pero la recomendación final es práctica: probar rápido en dominios acotados, medir coste-beneficio real y no sustituir la evaluación empírica por entusiasmo teórico. A veces, como demuestra TRM, pensar dos veces en el mismo problema con un modelo pequeñoeces, como demuestra TRM, pensar dos veces en el mismo problema con un modelo pequeño produce mejores respuestas que pensar una sola vez con un gigante.