en vivo

29 enero, 2023 6:55 am

Los avances recientes en la ciencia neuronal, la robótica y el software han permitido a los científicos desarrollar un sistema robótico que responde a las señales de movimiento muscular de una persona parcialmente paralizada transmitidas a través de una interfaz cerebro-máquina. El humano y el robot actúan como un equipo para hacer que realizar algunas tareas sea pan comido.

Dos brazos robóticos, un tenedor en una mano y un cuchillo en la otra, flanquean a un hombre sentado frente a una mesa con un trozo de pastel en un plato. Una voz computarizada anuncia cada acción: “mover el tenedor a la comida” y “retraer el cuchillo”. Parcialmente paralizado, el hombre hace movimientos sutiles con los puños derecho e izquierdo en ciertas indicaciones, como “seleccione la ubicación del corte”, para que la máquina corte un trozo del tamaño de un bocado. Ahora: “llevar la comida a la boca” y otro gesto sutil para alinear el tenedor con la boca.

En menos de 90 segundos, una persona con una movilidad muy limitada en la parte superior del cuerpo que no ha podido usar sus dedos en unos 30 años, simplemente se alimentó con postre usando su mente y algunas manos robóticas inteligentes.

Un equipo dirigido por investigadores del Laboratorio de Física Aplicada (APL) de Johns Hopkins, en Laurel, Maryland, y el Departamento de Medicina Física y Rehabilitación (PMR) de la Facultad de Medicina de Johns Hopkins, publicó un artículo en la revista Frontiers in Neurorobotics que describió esta última hazaña utilizando una interfaz cerebro-máquina (BMI) y un par de prótesis modulares.

También denominados a veces interfaz cerebro-computadora, los sistemas BMI proporcionan un vínculo de comunicación directo entre el cerebro y una computadora, que decodifica señales neuronales y las “traduce” para realizar diversas funciones externas, desde mover un cursor en una pantalla hasta disfrutar ahora un bocado de pastel. En este experimento en particular, las señales de movimiento muscular del cerebro ayudaron a controlar las prótesis robóticas.

Un nuevo enfoque

El estudio se basó en más de 15 años de investigación en ciencia neural, robótica y software, dirigido por APL en colaboración con el Departamento de PMR, como parte del programa Revolutionizing Prosthetics , patrocinado originalmente por la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU. (DARPA). El nuevo documento describe un modelo innovador para el control compartido que permite a un ser humano maniobrar un par de prótesis robóticas con un aporte mental mínimo.

“Este enfoque de control compartido pretende aprovechar las capacidades intrínsecas de la interfaz cerebro-máquina y el sistema robótico, creando un entorno de ‘lo mejor de ambos mundos’ donde el usuario puede personalizar el comportamiento de una prótesis inteligente”, dijo el Dr. Francesco Tenore, un gerente senior de proyectos en el Departamento de Investigación y Desarrollo Exploratorio de APL. El autor principal del artículo, Tenore, se centra en la interfaz neuronal y la investigación en neurociencia aplicada.

“Aunque nuestros resultados son preliminares, estamos entusiasmados de brindarles a los usuarios con capacidad limitada una verdadera sensación de control sobre máquinas de asistencia cada vez más inteligentes”, agregó.

Ayudar a las personas con discapacidad

Uno de los avances más importantes en robótica demostrados en el artículo es combinar la autonomía del robot con una participación humana limitada, con la máquina haciendo la mayor parte del trabajo y permitiendo al usuario personalizar el comportamiento del robot a su gusto, según el Dr. David Handelman, el primero del artículo. autor y robótica sénior en la Rama de Sistemas Inteligentes del Departamento de Investigación y Desarrollo Exploratorio de APL.

“Para que los robots realicen tareas similares a las de los humanos para personas con funcionalidad reducida, requerirán una destreza similar a la de los humanos. La destreza similar a la humana requiere un control complejo de un esqueleto de robot complejo”, explicó. “Nuestro objetivo es facilitar que el usuario controle las pocas cosas que más importan para tareas específicas”.

El Dr. Pablo Celnik, investigador principal del proyecto en el departamento de PMR, dijo: “La interacción hombre-máquina demostrada en este proyecto denota las capacidades potenciales que se pueden desarrollar para ayudar a las personas con discapacidad”.

Cerrando el ciclo

Si bien el programa DARPA finalizó oficialmente en agosto de 2020, el equipo de APL y de la Facultad de Medicina de Johns Hopkins continúa colaborando con colegas de otras instituciones para demostrar y explorar el potencial de la tecnología.

La próxima iteración del sistema puede integrar investigaciones anteriores que encontraron que proporcionar estimulación sensorial a los amputados les permitió no solo percibir su miembro fantasma, sino también usar señales de movimiento muscular del cerebro para controlar una prótesis. La teoría es que la adición de retroalimentación sensorial, entregada directamente al cerebro de una persona, puede ayudarla a realizar algunas tareas sin requerir la retroalimentación visual constante en el experimento actual.

“Esta investigación es un gran ejemplo de esta filosofía en la que sabíamos que teníamos todas las herramientas para demostrar esta compleja actividad bimanual de la vida diaria que las personas sin discapacidad dan por sentado”, dijo Tenore. “Todavía quedan muchos desafíos por delante, incluida la ejecución mejorada de tareas, en términos de precisión y tiempo, y control de circuito cerrado sin la necesidad constante de retroalimentación visual”.

Related Articles

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *