Algoritmi per la lettura del pensiero ricostruiscono quanto state vedendo facendo uso di dati ottenuti da tac cerebrali

Le immagini percepite sono difficili da decodificare a partire da una risonanza magnetica funzionale. Un nuovo genere di approccio alla rete neuronale potrebbe rendere tutto più semplice ed accurato.

di Emerging Technology for the arXiv

Uno degli obbiettivi più interessanti delle neuroscienze è la ricostruzione delle immagini percepite da un soggetto a partire dall’analisi di scansioni cerebrali. Si tratta di ricostruire cosa le persone stiano osservando monitorando l’attività della loro corteccia visiva. La difficoltà sta nel trovare il modo di analizzare in maniera efficace i dati ottenuti da una risonanza magnetica funzionale (fMRI), ovvero tradurre in una mappa di pixel bidimensionali l’attività dei voxel tridimensionali interni al cervello. Una prima difficoltà nasce dai livelli di rumore dell’esame e dal fatto che ciascun voxel sia influenzato dall’attività degli altri. Questo genere di correlazione complica tanto l’analisi da venire spesso semplicemente ignorato, al costo di una significativa riduzione della qualità dell’immagine prodotta.

Secondo Changde Du del Research Center for Brain-Inspired Intelligence di Beijing, in Cina, lui ed alcuni colleghi avrebbero sviluppato una nuova tecnica per ovviare a queste difficoltà. Il trucco starebbe nell’analizzare i dati grazie a tecniche di deep-learning capaci di maggiore precisione nel seguire correlazioni non lineari tra voxel.

Changde e colleghi sono partiti da una raccolta di dati di fMRI della corteccia visiva di un soggetto umano in osservazione di un’immagine semplice, come un singolo numero o una lettera. Muniti di 1800 fMRI e relative immagini, si è trattato di trovare come ricostruire l’immagine percepita. Il 90 percento dei dati è stato utilizzato per addestrare il sistema a comprendere le correlazioni tra scansione e immagine originale, mentre con il rimanente 10 percento si è messo alla prova il risultato. Il vantaggio di questo approccio sta nel fatto che il sistema impara a riconoscere quali voxel utilizzare per il compito, e quali non prendere in considerazione.

Impara anche a riconoscere come i dati ottenuti da questi voxel siano correlati e quindi a non ignorarli. Il nuovo approccio—chiamato deep generative multiview model— fa uso di queste correlazioni riuscendo a distinguerle dal rumore di fondo.
Per valutare il nuovo modello, Changde e colleghi hanno confrontato i risultati ottenuti con i risultati di altre tecniche. In molti casi si nota una maggiore accuratezza.

La possibilità di ricostruire immagini cerebrali rappresenta un passo importante sulla strada della creazione di interfacce cervello-macchina. Il passo successivo includerà come analizzare scenari più complessi ed immagini in movimento. Secondo Changde e colleghi, il loro approccio potrebbe essere applicato anche ad altri problemi di decodifica cerebrale, come compiti audio o fisici. Da qui, ci vuole poco ad immginare tecniche di scansione cerebrale capaci di rivelare pensieri e sogni delle persone.

(LO)

Related Posts
Total
0
Share