I risultati dello studio, pubblicati su Nature, offrono nuove intuizioni sui processi di comprensione del linguaggio, aprendo la strada a tecnologie che potrebbero aiutare chi ha difficoltà comunicative dovute a paralisi o ictus.
“Gli esseri umani possiedono un’eccezionale capacità di estrarre significati sfumati attraverso il linguaggio: quando ascoltiamo un discorso, possiamo comprendere il significato di decine di migliaia di parole e farlo senza soluzione di continuità attraverso concetti e temi straordinariamente diversi”, afferma il coordinatore dello studio Ziv Williams, neurologo del Massachusetts General Hospital e professore associato di neurochirurgia presso la Harvard Medical School. Tuttavia, spiega Williams, comprendere come il cervello elabora il linguaggio a livello computazionale dei singoli neuroni resta una sfida complessa.
Per affrontare questa sfida, i ricercatori hanno creato una mappa dettagliata di come i neuroni del cervello umano rappresentano i significati delle parole. Utilizzando una tecnica che permette di registrare simultaneamente l’attività di un centinaio di neuroni durante l’ascolto di frasi e racconti, hanno scoperto come i neuroni associano le parole a significati specifici e come distinguono tra concetti differenti. Ad esempio, hanno osservato che alcuni neuroni si attivano preferenzialmente quando le persone ascoltano parole come “correva” o “saltava”, che riflettono azioni, mentre altri neuroni rispondono a parole con connotazioni emotive, come “felice” o “triste”. Analizzando l’attività complessiva di questi neuroni, i ricercatori sono riusciti a costruire un quadro dettagliato della rappresentazione dei significati delle parole nel cervello.
Dallo studio è emerso che alcuni neuroni sono in grado di distinguere parole diverse con suoni simili e cercano continuamente di anticipare il loro significato più probabile in base al contesto della frase. Infine, i ricercatori hanno dimostrato che analizzando l’attività di un piccolo numero di neuroni, è possibile capire cosa la persona stia ascoltando o pensando in quel momento.
Questa scoperta potrebbe portare allo sviluppo di interfacce cervello-macchina che consentano a individui con condizioni come paralisi motoria o ictus di comunicare in modo più efficace, conclude Williams.
© 2023 Near Future - Testata Giornalistica registrata al Tribunale di Napoli (Registrazione n. 31 del 21/07/2022)
Gruppo Editoriale: Lumos - Animalsland - Findyourtravel - Foodando - Worldculture
© 2023 Near Future - Testata Giornalistica registrata al Tribunale di Napoli (Registrazione n. 31 del 21/07/2022)
Gruppo Editoriale: Lumos - Animalsland - Findyourtravel - Foodando - Worldculture