martedì 2 giugno 2015

NEUROSCIENZE E LINGUISTICA. A. MORO, Il pensiero parla e si può ascoltare, LA LETTURA, 31 maggio 2015

Se ci chiediamo di che cosa sia fatto il linguaggio umano, le prime risposte immediate fanno affiorare ricordi scolastici: il linguaggio è fatto di suoni, parole, significati, frasi. È fatto, cioè, di elementi semplici astratti ricombinabili all’infinito con regole di composizione che seguono un’architettura molto complessa. Ma c’è un’interpretazione ben più radicale di questa domanda: di che cosa è fatto fisicamente il linguaggio umano?


Per rispondere a questa domanda «fisica» occorre ovviamente avere almeno un’idea di dove si trova il linguaggio. Il linguaggio si trova in due ambienti naturali: fuori e dentro il nostro cervello. Quando sta fuori è fatto di onde meccaniche di compressione e rarefazione dell’aria. Di suono, cioè. Quando sta dentro, invece, è fatto di scambi di informazioni tra i neuroni: poiché i neuroni, per quel che riguarda il fenomeno in questione, comunicano tra di loro in ultima analisi con onde di tipo elettrico, anche quando sta dentro il cervello il linguaggio è fatto di onde. Onde, dunque: di questo è fatto fisicamente il linguaggio umano.
La domanda naturale e immediata che sorge è quale sia il rapporto tra i due tipi di onde. A dire il vero — ma apro e chiudo immediatamente la parentesi, non per poco interesse ma perché ci porterebbe troppo lontano — esiste un terzo tipo di onde delle quali è fatto il linguaggio: sono le onde elettromagnetiche delle quali è costituita la luce e che ora, modulate sulla carta (o su uno schermo), vi stanno permettendo di accedere al contenuto linguistico che sto via via esprimendo. È la scrittura, insomma: un fenomeno importantissimo ma che per fortuna può essere trascurato in prima battuta perché, mentre le prime due famiglie di onde sono connaturate al linguaggio in modo essenziale, le onde di luce della scrittura arrivano solo in un secondo momento, sia nell’individuo sia nella specie.
Torniamo quindi alle due famiglie di onde, quelle acustiche e quelle elettriche, e chiediamoci se e quanto si assomiglino quando manifestano il linguaggio. Alcuni esperimenti recenti — tra i tanti studiosi, protagonisti in questo settore si possono citare almeno Anne-Lise Giraud, Friedmann Pulvermüller, Angela Friederici, Edward Chang e David Poeppel — hanno mostrato nuovi dati sulla correlazione tra i due tipi di onde. Innanzitutto, sappiamo che, quando ascoltiamo un’espressione linguistica, siano esse parole o frasi, nel cervello si ha una rappresentazione in forma di onda elettrica delle onde acustiche, nelle «aree acustiche» del lobo temporale appunto.
Si tratta di un fenomeno in qualche modo non inaspettato ma nient’affatto scontato: poteva benissimo darsi che le onde acustiche, una volta passate attraverso il vaglio dell’orecchio per essere tradotte in onde elettriche, venissero trasformate a tal punto da diventare irriconoscibili. Decisamente meno prevedibile è stato invece comprendere che anche nelle aree frontali non acustiche — come ad esempio la famosa «area di Broca» dove viene vagliata l’architettura delle  espressioni linguistiche in base alle regole di combinazione — si trovano onde elettriche che correlano ampiamente alle onde acustiche. Questi dati ovviamente costituiscono solo una risposta parziale alla domanda sulla parentela tra le due famiglie di onde delle quali è fatto il linguaggio. Dice che dentro il cervello entrano onde che conservano la forma.
Il passo avanti del quale vi voglio parlare è nato dalla collaborazione di Lorenzo Magrassi, neurochirurgo dell’Università di Pavia, di Valerio Annovazzi, ingegnere presso lo stesso ateneo e il suo gruppo, e il sottoscritto, sintatticista di formazione. Si è trattato di un lavoro di squadra, come si capisce bene dalla descrizione dell’esperimento.
Per ridurre al minimo i rischi connessi con la resezione della corteccia di pazienti sottoposti a intervento neurochirurgico di solito per tumori o per epilessia, la chirurgia moderna ha sviluppato una tecnica, resa famosa da George Ojemann, medico di Seattle, denominata awake surgery (chirurgia a paziente in stato di veglia) nella quale si interviene sulla corteccia dopo aver asportato sotto anestesia al paziente parte della calotta cranica per preparare il campo operatorio. Il chirurgo esperto, volendo evitare di danneggiare vie di informazioni, presenti sulla corteccia ma ovviamente non visibili a occhio nudo, può provare a interferire somministrando una leggera attività elettrica sulla superficie della corteccia e vedere se il paziente ne risente all’atto di eseguire compiti semplici. Dove si manifesta interferenza sarà sua cura, se possibile, non operare tagli sul tessuto. Nello stesso tempo,  può misurare l’attività elettrica della corteccia direttamente ottenendo così dati elettrofisiologici accurati e importantissimi sulle funzioni cognitive, dati utili innanzitutto per capire meglio come funziona il cervello e in futuro, ovviamente, per curarlo. Questi dati vengono poi analizzati secondo tecniche matematiche sofisticate per ricostruire il tipo di informazione che proviene dalle onde del tracciato elettrico corticale.
Ci sono tutti gli ingredienti per spiegare l’esperimento che abbiamo effettuato (e poi pubblicato sugli «Annali dell’Accademia Nazionale delle Scienze» degli Stati Uniti, «Pnas», a gennaio). Ricordiamo i due punti fondamentali. Primo: il linguaggio consiste fisicamente di onde (acustiche fuori dal cervello, elettriche dentro). Secondo: sappiamo che in fase di ascolto le onde elettriche dentro il cervello conservano parzialmente la forma delle onde acustiche che arrivano dall’esterno associate alle corrispondenti strutture linguistiche. L’esperimento è facile da descrivere a questo punto, sia pure in modo semplificato: dopo aver costruito stimoli linguistici bilanciati, abbiamo confrontato l’attività delle onde elettriche di aree non acustiche del cervello durante la lettura di parole o frasi a voce alta con quella dell’attività di onde elettriche delle stesse aree durante la fase di lettura delle stesse parole nella mente, ovviamente sincerandoci che non ci fosse nemmeno un’impercettibile produzione acustica.
La sorpresa è stata grande: anche quando leggiamo nella mente, le onde elettriche delle aree non acustiche correlano in modo significativo con le onde acustiche! In altri termini, la struttura del suono non si limita a «travestire» strutture linguistiche non ben definite in modo periferico ma è già presente in aree dove il suono non c’entrerebbe affatto e, come nel caso esaminato, può non essere per niente coinvolto. In qualche modo, con questo esperimento si toglie il sospetto di illusorietà a quella sensazione che abbiamo, sia quando leggiamo (come ora) sia quando pensiamo con parole, di coinvolgere in qualche modo il suono; anzi, è come se avessimo avuto accesso al «suono del pensiero», direttamente dal cervello senza passare attraverso l’emissione acustica dell’apparato fonatorio e dunque dalla bocca.
Come spesso capita, una scoperta lascia più domande nuove che risposte a quesiti vecchi; certamente ne ha lasciate a noi che dopo 4 anni di lavoro e l’esame di un numero decisamente anomalo di soggetti (16, contro i pochissimi normalmente coinvolti) ci siamo convinti della coerenza dei risultati e siamo riusciti a passare il rigido vaglio della selezione. Tra le nuove domande, sorgono impellenti quelle sui soggetti sordi congeniti, sugli afasici con disturbi solo articolatori, sulla differenza tra il cervello umano e quello dei primati, sul ruolo del suono nell’evoluzione del linguaggio; insomma su tutti quegli aspetti dove la somiglianza tra onde acustiche e onde elettriche ha rilevanza. È tra l’altro evidente come siano possibili ricadute pratiche non banali: da quelle socialmente utili, come l’elaborazione di dispositivi che permettano ad alcuni tipi di pazienti afasici di «far sentire» la propria voce senza ricorrere alla dettatura lettera per lettera, a quelle eticamente inaccettabili, come l’impiego di questo sistema da parte di persone intenzionate ad accedere a contenuti linguistici che una persona vorrebbe limitare al proprio pensiero, senza cioè rivelarli.
È infine importante sottolineare che questo esperimento non suggerisce di ridurre il linguaggio al puro suono, negando il ruolo di entità come le parole e le frasi. Uno dei risultati clamorosi è stato infatti che le aree non acustiche reagiscono in modo diverso quando il suono si associa a parole (anche lunghe) rispetto a quando si associa a frasi (anche corte). In particolare, la somiglianza tra le onde acustiche e quelle elettriche è meno forte quando il suono proviene dalle frasi.
Non è banale trovare una spiegazione per questa differenza ma, qualunque essa sia, rimane innegabile il fatto che gli elementi della grammatica e della sintassi sono comunque presenti nella codifica che usa rappresentazioni acustiche, anche se sono, per così dire, «impastati» con esse. Noi sappiamo da alcuni esperimenti di neuroimmagini — che progettai con gruppi diversi in Svizzera, Germania e in Italia ormai una quindicina di anni fa mentre lavoravo all’Istituto San Raffaele di Milano, in particolare con Stefano Cappa, Marco Tettamanti e Cristina Musso — che l’«area di Broca» è in grado di reagire in modo diverso a lingue «possibili» rispetto a quelle «impossibili», dove per «impossibili» si intendono lingue che non obbediscono ai principi dell’architettura matematica comune a tutte le lingue umane (e solo ad esse), scoperti sulla base di riflessioni puramente formali da Noam Chomsky negli anni Cinquanta: la scoperta che le onde elettriche e le onde acustiche correlino significativamente anche in assenza di suono e che sono sensibili alla natura grammaticale degli elementi cui sono associati suggerisce che all’orizzonte sia possibile un’unificazione delle teorie linguistiche di portata straordinaria e che si sia aperta una prima breccia nel codice «linguistico» dei neuroni.
Se e quando sarà possibile decifrarlo completamente è una scommessa che ci coinvolge tutti.

Nessun commento:

Posta un commento