UCLA: desarrollan una interfaz cerebro-computadora no invasiva para control robótico

Un equipo de ingenieros de la UCLA publicó en Nature Machine Intelligence un sistema wearable que combina electroencefalografía (EEG) y visión por computadora para que una IA interprete la intención del usuario. En pruebas con 4 participantes —incluido uno con parálisis— todos completaron tareas sensiblemente más rápido; el participante paralizado logró mover un brazo robótico con éxito solo cuando contó con la asistencia de la IA.

El trabajo, liderado por el profesor Jonathan Kao del UCLA Samueli School of Engineering, describe una interfaz cerebro-computadora (BCI) no invasiva que funciona como un sistema de autonomía compartida: los usuarios generan señales cerebrales mediante un gorro de EEG, un decodificador personalizado traduce esas señales en intenciones de movimiento, y un módulo de IA con cámara interpreta, en tiempo real, la dirección e intención del usuario para guiar un cursor o un brazo robótico.

El estudio probó el sistema con 4 participantes (tres sin discapacidades motoras y uno “paralizado de la cintura para abajo”). Se plantearon dos tareas: 1) mover un cursor en pantalla para alcanzar ocho objetivos, manteniéndolo sobre cada blanco al menos 0,5 segundos; y 2) activar un brazo robótico para trasladar cuatro bloques desde su posición inicial hasta posiciones designadas sobre una mesa.

Según los autores, todos los participantes completaron ambas tareas significativamente más rápido con ayuda de la IA. De manera destacada, el participante con parálisis completó la tarea con el brazo robótico en aproximadamente 6,5 minutos con asistencia de la IA; sin ella, no pudo completar la prueba. El sistema no se basó en movimientos oculares, sino en señales EEG descifradas y en la interpretación contextual de la cámara para inferir la intención real del usuario.

Como sintetizó Kao: «Al usar la inteligencia artificial para complementar los sistemas BCI, apuntamos a vías mucho menos riesgosas e invasivas». Y añadió: «En última instancia, queremos desarrollar sistemas IA-BCI que ofrezcan autonomía compartida, permitiendo a personas con trastornos del movimiento, como la parálisis o la ELA, recuperar cierta independencia para tareas cotidianas».

Por qué importa (y cuáles son los límites)

Los dispositivos BCI implantables —con electrodos insertados mediante neurocirugía— han mostrado capacidades notables para traducir pensamientos en acciones, pero su adopción queda limitada por riesgos quirúrgicos, costes y ensayos todavía reducidos. Las alternativas externas (no invasivas) son más seguras pero, hasta ahora, han logrado un rendimiento inferior en fiabilidad y velocidad. La contribución de UCLA apunta a cerrar esa brecha combinando decodificación EEG con IA contextual que actúa como copiloto para completar tareas prácticas.

Johannes Lee, coautor y doctorando, describe los avances futuros con honestidad técnica: «Los próximos pasos podrían incluir el desarrollo de copilotos más avanzados que muevan brazos robóticos con mayor velocidad y precisión, y ofrezcan un tacto delicado que se adapte al objeto que el usuario quiere agarrar. Añadir datos de entrenamiento a mayor escala también ayudaría a que la IA colabore en tareas más complejas y a mejorar la propia decodificación EEG».

El estudio, no obstante, es preliminar: la muestra es pequeña (n=4) y las mejoras observadas requieren replicación en cohorts mayores y en entornos reales de uso cotidiano. Además, la capacidad de la IA para interpretar intención depende de cámaras y modelos entrenados con datos que deben protegerse y validarse.

Financiamiento, propiedad intelectual y equipo

La investigación fue financiada por los National Institutes of Health (NIH) y por el Science Hub for Humanity and Artificial Intelligence, una colaboración entre UCLA y Amazon. El artículo está firmado por miembros del Neural Engineering and Computation Lab de Kao (incluyendo a Sangjoon Lee, Abhishek Mishra, Xu Yan, Brandon McMahan, Brent Gaisford, Charles Kobashigawa, Mike Qu y Chang Xie). Además, la UCLA Technology Development Group ha solicitado una patente vinculada a la tecnología IA-BCI.

Impacto potencial

Si los resultados se confirman a escala, la combinación de IA contextual y BCI no invasiva podría acelerar el desarrollo de ayudas robóticas y de asistencia para personas con movilidad reducida, ofreciendo soluciones menos riesgosas que los implantes quirúrgicos. También abre preguntas regulatorias y éticas sobre seguridad, privacidad de datos biométricos y acceso equitativo a la tecnología.

En suma, el trabajo de UCLA traza un camino prometedor hacia sistemas que no sustituyan por completo la intención humana sino que la complementen: una IA copiloto que traduzca deseos en acciones y extienda la autonomía de quienes hoy la han perdido.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com