Eduardo Fernández
Director del Instituto de Bioingeniería de la Universidad Miguel Hernández de Elche y director del grupo de Neuroingeniería Biomédica del Centro de Investigación Biomédica en Red de Bioingeniería, Biomateriales y Nanomedicina (CIBER-BBN)
Los pacientes con parálisis severa causada por patologías como la esclerosis lateral amiotrófica (ELA) o por otro tipo de alteraciones, como las lesiones medulares, suelen presentar problemas importantes de comunicación y movilidad. Estos problemas varían según el nivel y la severidad de la lesión o enfermedad y hacen que cualquier tarea represente un gran desafío para ellos. Sin embargo, y a pesar de sus limitaciones físicas, la actividad cerebral de la mayoría de estos pacientes se suele conservar intacta. Esto quiere decir que son capaces de seguir pensando, sintiendo y tomando decisiones. Para mejorar su calidad de vida se están desarrollando interfaces cerebro-ordenador (BCI), que registran la actividad eléctrica del cerebro de estos pacientes y transforman estas señales en comandos u órdenes que se pueden utilizar para para controlar, en tiempo real, dispositivos externos como brazos robóticos, cursores de ordenador o sillas de ruedas.
Tradicionalmente, estas interfaces cerebro-ordenador (BCI) se basan solo en el registro de la actividad cerebral para controlar los dispositivos externos. Sin embargo, muchas de las actividades que se realizan con ayuda de estos dispositivos están orientadas a objetivos concretos. Pensemos, por ejemplo, en la búsqueda de un vaso con agua o un icono concreto en la pantalla del ordenador. Una vez que se conoce el objetivo, las acciones humanas siguientes suelen ser bastante estereotipadas y pueden ser asistidas con técnicas de inteligencia artificial. El problema es identificar el objetivo concreto que persigue el usuario. En este contexto, el grupo liderado por el Dr. Jonathan Kao de la Universidad de California en Los Ángeles (UCLA) ha investigado la posibilidad de utilizar otras fuentes de información, como los movimientos previos y el contexto, junto a técnicas avanzadas de inteligencia artificial para deducir el objetivo del usuario y ayudarle en sus movimientos. De esta forma, la IA ayuda a decodificar las intenciones del usuario a partir de sus señales cerebrales, incluso cuando estas son ruidosas o incompletas. Esto reduce la carga cognitiva y mejora la experiencia, sin quitarle el control al usuario.
Se trata de un estudio preliminar de prueba de concepto. Los resultados de sus experimentos en 3 controles sanos y 1 paciente con lesión medular sugieren que esta aproximación puede ayudar a mejorar, de manera significativa, el control del movimiento de un cursor de ordenador y las acciones de un brazo robótico. Por ejemplo, el participante con parálisis que participó en estos estudios consiguió un rendimiento casi 4 veces superior en el control del cursor, gracias a la ayuda del asistente de IA. Además, este participante pudo controlar un brazo robótico para mover una serie de bloques a ubicaciones aleatorias, una tarea que no podía realizar sin la ayuda del asistente de IA.
Esta tecnología ofrece un marco más intuitivo y funcional para el desarrollo de nuevas interfaces cerebro-ordenador. Sin embargo, es preciso destacar que esta investigación se ha realizado en un solo paciente, por lo que no hay un grupo control ni se trata de un ensayo aleatorizado. Además, las tareas que se han utilizado en el estudio no estaban diseñadas para simular actividades de la vida diaria. Por lo tanto, tenemos que ser conscientes de que todavía hay que realizar más estudios clínicos con un número suficiente de pacientes y en contextos más amplios.
El futuro es esperanzador y debemos estar preparados para poder utilizar los resultados de estas investigaciones para mejorar la calidad de vida de los pacientes con problemas de comunicación y movilidad. Sin embargo, todavía hay que resolver muchos problemas que afectan al rendimiento y uso generalizado de estos sistemas.