Crean interfaces neuronales que permiten controlar dispositivos e implantes con el pensamiento
Aplicando la teoría de juegos, un nuevo estudio ha logrado un importante avance en el desarrollo de interfaces neuronales que permiten controlar dispositivos electrónicos de uso cotidiano e implantes médicos utilizando el pensamiento.
[–>[–>[–>Investigadores de la Universidad de Washington, en Estados Unidos, han desarrollado un enfoque innovador para interfaces neuronales que aprenden junto al usuario. La propuesta podría mejorar el control de dispositivos, prótesis e implantes a través del pensamiento y marcar un avance decisivo en neurotecnología aplicada a la rehabilitación y la asistencia.
[–> [–>[–>Según una nota de prensa, en lugar de «obligar» al usuario a adaptarse al dispositivo, el nuevo esquema propone que ambos aprendan juntos. La investigación, publicada en la revista Nature Machine Intelligence, combina teoría de control y teoría de juegos para describir, predecir y orientar la interacción entre persona y máquina en estos sistemas.
[–>[–>[–>
Aprendizaje constante a partir de las interacciones
[–>[–>[–>
En teoría de juegos, el estudio matemático de las interacciones estratégicas entre tomadores de decisiones, se supone que cada parte va «aprendiendo» con la interacción permanente. En este caso, tanto el usuario humano como la interfaz neuronal ajustan continuamente sus estrategias, aprendiendo uno del otro para mejorar el rendimiento con el tiempo.
[–>[–>[–>La idea es que si una interfaz neuronal traduce señales biológicas en órdenes para un cursor, una prótesis o un implante, tanto el usuario como el algoritmo de decodificación cambien con el tiempo, adaptándose mutuamente. Para poner a prueba el modelo, los investigadores construyeron una plataforma especializada con 14 participantes.
[–>[–>[–>
En el experimento, los voluntarios controlaban un cursor en una pantalla mediante la actividad muscular del antebrazo, mientras un decodificador adaptativo ajustaba su comportamiento en tiempo real. El sistema permitió medir cómo cambian el usuario y el algoritmo cuando ambos reciben retroalimentación continua.
[–>[–>
[–>Interfaces centradas en el ser humano
[–>[–>[–>
Según el nuevo estudio, esa interacción mostró que las modificaciones del decodificador pueden influir en la forma en que aprende la persona, y que esas trayectorias pueden predecirse con herramientas de teoría de juegos. El aporte clave está en la posibilidad de diseñar interfaces centradas en el ser humano y no solo en la eficiencia del dispositivo.
[–>[–>[–>
Referencia
Marco computacional para predecir y dar forma a las interacciones hombre-máquina en interfaces neuronales coadaptativas de circuito cerrado. Maneeshika M. Madduri et al. Inteligencia de las máquinas de la naturaleza (2026). DOI: https://doi.org/10.1038/s42256-026-01194-z
[–>[–>[–>
A partir de esta concepción, tecnologías como bandas y pulseras basadas en electroencefalografía (EEG) o electromiografía (EMG) e incluso interfaces implantables pueden usarse con mayor eficacia para controlar ordenadores, dispositivos digitales y brazos robóticos, incluidos casos dirigidos a pacientes con parálisis.
[–>[–>[–>Pero como no existen dos cuerpos ni dos cerebros idénticos, una misma interfaz no rinde igual en todos los usuarios: el nuevo marco brinda mejores herramientas para ajustar esos sistemas sin depender de prueba y error. Los resultados abren una vía hasta hoy inexplorada para optimizar interfaces neuronales destinadas a rehabilitación, asistencia motora o control de implantes, con mayor estabilidad y personalización.
[–>[–>[–>
Puedes consultar la fuente de este artículo aquí