josé a. rodríguez Barcelona | viernes, 10 de julio de 2015 h |

L’objectiu del projecte Brain Polyphony és desenvolupar un sistema que tradueixi en temps real les ones cerebrals en emocions i aquestes en sons. De moment, l’eina desenvolupada permet discriminar entre emocions negatives i positives.

Desenvolupar una eina que permeti la sonificació d’ones elèctriques cerebrals perquè les persones amb paràlisi cerebral puguin expressar emocions mitjançant sons. Aquest és l’objectiu del projecte Brain Polyphony, en el qual treballen científics del Centre de Regulació Genòmica (CRG), l’empresa de recerca Starlab, el grup Barcelona Research Art & Creation de la Universitat de Barcelona i l’Institut Hospital del Mar d’Investigacions Mèdiques (IMIM).

Avui dia, hi ha sistemes de transducció de senyals (interfícies cervell-ordinador) perquè les persones que tenen discapacitat puguin comunicar-se. Una de les limitacions és que és necessari un mínim control motor per part dels usuaris. D’aquesta manera, queden descartades les persones amb paràlisi cerebral que sofreixen complicacions com l’espasticitat o no tenen cap tipus de control sobre els seus moviments.

El projecte Brain Polyphony pretén superar aquesta barrera. De moment, els científics han desenvolupat un casc amb elèctrodes que ha estat testat en voluntaris sans i en dos pacients amb paràlisi cerebral. Aquest casc, que rep el nom d’Enobio, compta amb uns elèctrodes que permeten llegir l’activitat cerebral i cardíaca. Com assenyala David Ibáñez, d’Starlab, “el primer repte ha estat dissenyar un casc que es pugui adaptar a la morfologia de les persones amb paràlisi cerebral”.

Emocions positives o negatives

Les emocions que pot traduir Enobio mitjançant la lectura de les ones cerebrals només es poden classificar en dos grups: positives o negatives. “Estudis previs indiquen que, quan es produeix una emoció negativa, l’activitat cerebral se centra en la part frontal esquerra, mentre que quan és negativa se centra en la part frontal dreta”, comenta Ibáñez.

Gràcies a les proves realitzades, els investigadors han mesurat la valència de les emocions (si són positives o negatives) i el seu arousal o intensitat (mitjançant també la lectura del ritme cardíac). “Un dels avantatges d’aquesta eina és que tota la informació que recull el sistema s’envia per bluetooth perquè el programa la processi en temps real”, comenta aquest investigador. I perquè també en temps real la transformi en sons que expressin emocions. En aquesta fase del projecte, la principal tasca ha estat entrenar el programa perquè aprengui a associar les lectures rebudes amb emocions positives o negatives i la seva intensitat.

Com explica Marcos Quevedo, del CRG, el casc també s’ha provat en dos pacients, un home amb paràlisi cerebral i espasticitat severa i una dona amb paràlisi cerebral. “Vam veure que la lectura de les emocions és comparable a la dels voluntaris sans”, assenyala Quevedo. Aquest expert afegeix que, malgrat les lesions cerebrals, “el sistema emocional és molt primitiu, així que sol estar ben conservat”.

La idea és que aquest casc ajudi al fet que els pacients puguin expressar les seves emocions perquè els cuidadors les entenguin. “I no es descarta que més endavant es puguin discriminar emocions com la ira o la tristesa, no només si són positives o negatives”, afegeix Quevedo.

Mara Dierssen, cap del grup de Neurobiologia Cel·lular i de Sistemes del CRG, comenta que “ara s’està millorant l’algorisme que tradueix les ones en emocions”. El següent pas serà que provar l’eina amb entre 10 i 15 pacients. L’objectiu és tenir un prototip en un any. “I potser en un futur aquests sons puguin ser paraules perquè els pacients expressin les seves emocions”, diu Dierssen.