Desarrollar una herramienta que permita la sonificación de ondas eléctricas cerebrales para que las personas con parálisis cerebral puedan expresar emociones mediante sonidos. Éste es el objetivo del proyecto Brain Polyphony, en el que trabajan científicos del Centro de Regulación Genómica (CRG), la empresa de investigación Starlab, el grupo Barcelona Research Art & Creation de la Universidad de Barcelona y el Instituto Hospital del Mar de Investigaciones Médicas (IMIM).
Hoy en día, hay sistemas de transducción de señales (interfaces cerebro-ordenador) para que las personas que tienen discapacidad puedan comunicarse. Una de las limitaciones es que es necesario un mínimo control motor por parte de los usuarios. De este modo, quedan descartadas las personas con parálisis cerebral que sufren complicaciones como la espasticidad o no tienen ningún tipo de control sobre sus movimientos.
El proyecto Brain Polyphony pretende superar esta barrera. Por el momento, los científicos han desarrollado un casco con electrodos que ha sido testado en voluntarios sanos y en dos pacientes con parálisis cerebral. Este casco, que recibe el nombre de Enobio, cuenta con unos electrodos que permiten leer la actividad cerebral y cardíaca. Como señala David Ibáñez, de Starlab, “el primer reto ha sido diseñar un casco que se pueda adaptar a la morfología de las personas con parálisis cerebral”.
Emociones positivas o negativas
Las emociones que puede traducir Enobio mediante la lectura de las ondas cerebrales sólo se pueden clasificar en dos grupos: positivas o negativas. “Estudios previos indican que, cuando se produce una emoción negativa, la actividad cerebral se centra en la parte frontal izquierda, mientras que cuando es negativa se centra en la parte frontal derecha”, comenta Ibáñez.
Con las pruebas realizadas, los investigadores han medido la valencia de las emociones (si son positivas o negativas) y su arousal o intensidad (gracias también a la lectura del ritmo cardiaco). “Una de las ventajas de esta herramienta es que toda la información que recoge el sistema se envía mediante bluetooth para que el software la procese en tiempo real”, comenta este investigador. Y para que también en tiempo real la transforme en sonidos que expresen emociones. En esta fase del proyecto, la principal tarea ha sido entrenar al software para que aprenda a asociar las lecturas recibidas con emociones positivas o negativas y su intensidad.
Como explica Marcos Quevedo, del CRG, el casco también se ha probado en dos pacientes, un hombre con parálisis cerebral y espasticidad severa y una mujer con parálisis cerebral. “Vimos que la lectura de las emociones es comparable a la de los voluntarios sanos”, señala Quevedo. Este experto añade que, a pesar de las lesiones cerebrales, “el sistema emocional es muy primitivo, así que suele estar bien conservado”.
La idea es que este casco ayude a que los pacientes puedan expresar sus emociones para que los cuidadores las entiendan. “Y no se descarta que más adelante se puedan discriminar emociones como ira o tristeza, no sólo si son positivas o negativas”, añade Quevedo.
Mara Dierssen, jefa del grupo de Neurobiología Celular y de Sistemas del CRG, comenta que “ahora se está mejorando el algoritmo que traduce las ondas en emociones”. El siguiente paso será que lo prueben 10-15 pacientes. El objetivo es tener un prototipo en un año. “Y quizás en un futuro esos sonidos puedan ser palabras para que los pacientes expresen emociones”, dice Dierssen.