Neuropsicologia della comunicazione
Michela Balconi
Neuropsicologia della comunicazione
123
Michela Balconi Dipartimento di Psicologia, Università Cattolica del Sacro Cuore, Milano
[email protected]
ISBN
978-88-470-0705-5
e-ISBN
978-88-470-0706-2
Springer-Verlag fa parte di Springer Science+Business Media springer.com © Springer Italia 2008 Quest’opera è protetta dalla legge sul diritto d’autore. Tutti i diritti, in particolare quelli relativi alla traduzione, alla ristampa, all’utilizzo di illustrazioni e tabelle, alla citazione orale, alla trasmissione radiofonica o televisiva, alla registrazione su microfilm o in database, o alla riproduzione in qualsiasi altra forma (stampata o elettronica) rimangono riservati anche nel caso di utilizzo parziale. La riproduzione di quest’opera, anche se parziale, è ammessa solo ed esclusivamente nei limiti stabiliti dalla legge sul diritto d’autore ed è soggetta all’autorizzazione dell’editore. La violazione delle norme comporta le sanzioni previste dalla legge. L’utilizzo in questa pubblicazione di denominazioni generiche, nomi commerciali, marchi registrati ecc., anche se non specificatamente identificati, non implica che tali denominazioni o marchi non siano protetti dalle relative leggi e regolamenti. Responsabilità legale per i prodotti: l’editore non può garantire l’esattezza delle indicazioni sui dosaggi e l’impiego dei prodotti menzionati nella presente opera. Il lettore dovrà di volta in volta verificarne l’esattezza consultando la bibliografia di pertinenza. Layout copertina: Simona Colombo, Milano Coordinamento editoriale e impaginazione: Ferrari – studio editoriale, Cologno Monzese (Milano) Stampa: Arti Grafiche Nidasio, Assago (Milano) Stampato in Italia Springer-Verlag Italia S.r.l., Via Decembrio, 28 – 20137 Milano
Prefazione
Che la comunicazione sia divenuta oggetto di analisi autonomo, seppure non indipendente, dal linguaggio costituisce un elemento di importante riflessione e di novità rispetto al panorama configuratosi negli scorsi decenni. La comunicazione è stata analizzata dapprima come facoltà e in tempi più recenti come processo, individuando lo stretto rapporto che essa intrattiene con le funzioni cognitive. In secondo luogo, filosofia del linguaggio, psicolinguistica e scienze cognitive hanno consentito di arricchire il panorama esistente, contribuendo a evidenziare la necessità di integrare il tradizionale dominio di studio del linguaggio e successivamente l’esigenza di riconoscere la comunicazione come campo autonomo, che abbraccia aspetti tra loro differenti, come le scienze sociali (social cognition), i domini di rappresentazione concettuale, così come le funzioni di più alto livello (metacognizione). Più in generale, parlare oggi di significato e di significazione richiede la confluenza di sistemi multipli, accomunati dall’attenzione posta sull’individuo come agente che si pone in interazione con altri individui per modificare reciprocamente sistemi di rappresentazione e di relazioni. Ancora più recente è l’accostamento tra psicologia della comunicazione e disciplina neuropsicologica. Per come quest’ultima si è sviluppata, in stretta relazione allo studio del linguaggio, essa oggi appare occuparsi solo embrionalmente dei processi comunicativi in senso stretto. Si pensi, a titolo esemplificativo, all’insieme dei cosiddetti fenomeni pragmatici, la cui indagine richiede un’adeguata rispondenza, sia teorica sia metodologica, alla complessità dei processi implicati (ad esempio, il concetto di contesto, di modelli inferenziali, di componenti extralinguistiche ecc.). Inoltre, l’accostamento richiede metodologie di analisi sufficientemente sofisticate da consentire un’adeguata rappresentazione dei contesti interpersonali entro cui la comunicazione ha luogo: ad esempio, comprendere un enunciato ironico richiede una specifica operazionalizzazione del concetto di rappresentazione delle intenzioni dei parlanti o di script interpretativo. La neuropsicologia, in altri termini, deve essere in grado di operare su processi non più “chiusi nella mente” del singolo individuo, ma piuttosto “agiti” in specifici contesti interazionali. D’altro canto, appare un segnale positivo il riconoscimento della necessità di articolare il campo di indagine in direzioni multiple, dando vita a settori emergenti come quello della neuropragmatica. Un tributo va alle sempre più copiose ricerche empiriche che consentono di spiegare alcuni meccanismi salienti, come i processi di mentalizzazione, di riconoscimento delle inferenze o, ancora, di interpretazione di un’intenzione.
VI
Prefazione
Nel complesso, la ricerca neuropsicologica applicata alla comunicazione appare come una sfida piuttosto che come un traguardo raggiunto, soprattutto in relazione ad alcuni fenomeni peculiari. Ci riferiamo, in particolare, all’ambito della comunicazione non strettamente confinata al verbale, ma rivolta piuttosto al complesso insieme di sistemi non-verbali. Per alcuni di questi, come il sistema vocale, le conoscenze appaiono ancora ridotte. Parallelamente, ancora poco è stato indagato circa il rapporto tra componenti neuropsicologiche e comunicazione gestuale. Più avanzato risulta, invece, lo studio della comunicazione delle emozioni, con particolare riferimento alla mimica facciale. Un’ulteriore sfida accomuna i differenti approcci neuropsicologici che hanno posto come proprio oggetto di analisi la comunicazione. Essa riguarda la possibilità di integrare metodologie e strumenti a disposizione, con l’intento di conferire maggiore solidità e consonanza ai risultati di ricerca. Tra gli altri, l’integrazione auspicata tra indici psicofisiologici e neuropsicologici in senso stretto ha consentito in alcuni casi di meglio precisare il contributo di modelli teorici o, al contario, di mettere in discussione prospettive consolidate. Per fare più stretto riferimento al piano organizzativo dell’opera, nella prima parte del volume (Neuropsicologia “per” il linguaggio e la comunicazione) le più recenti acquisizioni della neuropsicologia hanno consentito di focalizzare la natura dei processi linguistici e comunicativi, individuando i correlati anatomici sottostanti alla produzione (encoding) e alla comprensione (decoding) dello scambio comunicativo (Capitolo 1). Il secondo capitolo esplora i paradigmi, i metodi e gli strumenti della neuropsicologia “per” la comunicazione. In particolare viene fornita una sintesi dei più recenti approcci di ricerca e degli strumenti empirici applicati allo studio del processo comunicativo, tra i quali la rilevazione dei correlati psicofisiologici (indici periferici), cognitivi (indici centrali, tra cui i potenziali eventocorrelati), nonché le più recenti rilevazioni mediante neuroimaging (come la risonanza magnetica funzionale). La seconda sezione prende in considerazione i contributi dell’elettrofisiologia con riferimento ai processi sottostanti alla produzione e alla comprensione del linguaggio, di maggiore pertinenza della psicolinguistica (Capitolo 3). Gli strumenti neuropsicologici consentono, infatti, di distinguere i meccanismi sottostanti all’elaborazione del linguaggio, tra cui i piani di analisi lessicale, morfologica, sintattica e semantica, dal più complesso processo di costruzione del significato pragmaticamente definito. Nella seconda parte del volume (Aspetti pragmatici della comunicazione. Indici psicofisiologici, neuropsicologici e cognitivi) sono state prese in considerazione le componenti pragmatiche della comunicazione. Il Capitolo 4 affronta il complesso tema della comunicazione idiomatica, prendendo in esame le più recenti evidenze empiriche sull’argomento. L’applicazione di indici psicofisiologici, come i potenziali evento-correlati (ERP), alle stringhe non composizionali, costituisce il tema centrale del capitolo successivo (Capitolo 5). Oggetto del sesto capitolo è la presentazione di un’ampia panoramica relativa ai recenti modelli che hanno focalizzato la propria attenzione sul ruolo prioritario del “voler dire” nella comunicazione ordinaria, in riferimento ad alcuni fenomeni peculiari dello scambio comunicativo. Specificamente facciamo riferimento ai fenomeni dell’ironia e, più in generale, del linguaggio figurato. Particolare attenzione è stata riservata alle recenti acquisizio-
Prefazione
VII
ni empiriche che hanno sottolineato l’indipendenza delle componenti pragmatiche rispetto al piano prettamente “linguistico”. Il complesso rapporto tra intenzione, sistemi di coscienza e azione comunicativa è stato analizzato nel Capitolo 7. Un argomento ampiamente dibattuto nell’ambito della psicologia del linguaggio e della comunicazione è relativo infatti al ruolo dei processi volontari (consci) rispetto ai processi automatici (non consci) nella produzione e nella comprensione dello scambio comunicativo. La terza parte del volume (Comunicazione non-verbale delle emozioni) analizza il piano comunicativo non-verbale, con particolare attenzione alla comunicazione delle emozioni. Recenti ricerche con neuroimaging hanno evidenziato, infatti, la complessità del sistema di comunicazione non-verbale delle emozioni, nonché l’indipendenza dei diversi codici comunicativi, poiché supportati da moduli (o network) corticali specifici. Più specificamente vengono prese in considerazione le principali caratteristiche e le funzioni della comunicazione non-verbale (Capitolo 8). Un capitolo specifico (Capitolo 9) è dedicato alla neuropsicologia della mimica facciale nell’encoding e nel decoding delle emozioni, con riferimento ai risultati empirici più significativi degli ultimi anni. Ampio spazio è, inoltre, dedicato al rapporto tra emozioni, componenti di personalità e misure psicofisiologiche (Capitolo 10). Di notevole interesse per l’approccio neuropsicologico sono le modificazioni dei parametri fisiologici nell’individuo, che consentono di ricostruire la poliedricitià dell’universo emotivo, con particolare riferimento alle variazioni di natura periferica (quali la conduttanza cutanea, ad esempio). Infine, ampio spazio è dedicato all’integrazione dei codici comunicativi (in particolare, quello vocale e quello mimico) nella comunicazione delle emozioni (Capitolo 11). Recenti contributi sperimentali mutuati dalla neuropsicologia consentono, infatti, di definire una differente risposta dei soggetti a pattern congruenti (convergenza di codici) o incongruenti (divergenza di codici), sia sul piano percettivo sia su quello cognitivo. Mi auguro che il volume possa essere di utilità per coloro che lavorano in questo settore; a opera ultimata il mio ringraziamento va alle persone, che, a titolo differente, hanno contributo alle diverse fasi di realizzazione di questo volume, dall’ideazione del medesimo alla sua nascita virtuale e poi reale. Alle persone professionalmente a me più vicine, che ne hanno sostenuto il cammino di produzione. A mio marito, il cui contributo è incommensurabilmente presente. Milano, dicembre 2007
Michela Balconi Dipartimento di Psicologia Università Cattolica del Sacro Cuore
Indice
Parte I – Neuropsicologia “per” il linguaggio e la comunicazione 1 Basi biologiche dei sistemi linguistici e comunicativi. Dalla neurolinguistica alla neuropragmatica ..................................... M. Balconi
3
2 Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio e alla comunicazione ..................................... M. Balconi
51
3 Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio attraverso i potenziali elettromagnetici correlati a eventi ................................... A. Mado Proverbio
91
Parte II – Aspetti pragmatici della comunicazione. Indici psicofisiologici, neuropsicologici e cognitivi 4 Comprensione di espressioni idiomatiche: evidenze neuropsicologiche................................................................... C. Papagno
121
5 Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici ed evidenze elettrofisiologiche ....................... C. Cacciari, F. Vespignani, N. Molinaro, S. Fonda, P. Canal
139
6 Dalla pragmatica alla prospettiva neuropragmatica......................... M. Balconi, S. Amenta
163
7 Intenzioni comunicative, strategie di azione e funzioni metacognitive ....................................................................... M. Balconi
183
X
Indice
Parte III – Comunicazione non-verbale delle emozioni 8 Sistemi di comunicazione non-verbale ................................................ M. Balconi
203
9 Neuropsicologia delle espressioni facciali ........................................... M. Balconi
225
10 Emozioni, temperamento e personalità: aspetti psicofisiologici....... V. De Pascalis
249
11 Percezione cross-modale delle emozioni. Sincronizzazione di codici comunicativi ............................................. M. Balconi, A. Carrera
275
Indice analitico .............................................................................................
289
Elenco degli Autori
Simona Amenta Dipartimento di Psicologia, Università Cattolica del Sacro Cuore, Milano Michela Balconi Dipartimento di Psicologia, Università Cattolica del Sacro Cuore, Milano Cristina Cacciari Dipartimento di Scienze Biomediche, Università degli Studi di Modena e Reggio Emilia, Modena Paolo Canal Dipartimento di Scienze Biomediche, Università degli Studi di Modena e Reggio Emilia, Modena Alba Carrera Dipartimento di Psicologia, Università Cattolica del Sacro Cuore, Milano Vilfredo De Pascalis Facoltà di Psicologia 1, Università degli Studi di Roma “La Sapienza”, Roma Sergio Fonda Dipartimento di Scienze Biomediche, Università degli Studi di Modena e Reggio Emilia, Modena Nicola Molinaro Dipartimento di Scienze della Formazione e della Cognizione, Università degli Studi di Trento, Rovereto (TN) Costanza Papagno Dipartimento di Psicologia, Università degli Studi di Milano-Bicocca, Milano Alice Mado Proverbio Dipartimento di Psicologia, Università degli Studi di Milano-Bicocca, Milano Francesco Vespignani Dipartimento di Scienze della Formazione e della Cognizione, Università degli Studi di Trento, Rovereto (TN)
Parte I
Neuropsicologia “per” il linguaggio e la comunicazione
Capitolo 1
Basi biologiche dei sistemi linguistici e comunicativi. Dalla neurolinguistica alla neuropragmatica Michela Balconi
1.1 Introduzione: neuropsicologia “per” il linguaggio e per la comunicazione La specie umana si caratterizza per la propria capacità di costruire strumenti, tra i quali il principale è il linguaggio. Utilizziamo il linguaggio per comunicare i nostri pensieri e sentimenti agli altri, attraverso la combinazione sistematica di suoni, gesti, simboli scritti. Tale abilità consente di raggiungere la mente altrui a distanza temporale e spaziale. Il linguaggio dà forma alla nostra struttura sociale e costituisce il mezzo più potente per mediare stati emotivi e relazioni interpersonali. Tali proprietà danno forma e caratterizzano in termini imprescindibili i sistemi linguistici e comunicativi. La comprensione del linguaggio richiede specifiche competenze, tra cui il saper ricavare strutture all’interno di un flusso di input visivi e uditivi a differenti livelli [1, 2]. A partire dai segnali sensoriali sono costruiti i fonemi, i morfemi, le sillabe, le parole, le frasi, il discorso e, più in generale, la struttura concettuale della conoscenza. Tali livelli sono strutturati in modo flessibile e ciascuno di noi è in grado di costruire ex novo stringhe di suoni o di segni mai uditi o prodotti in precedenza. D’altro canto, il parlante, oltre a comprendere gli input linguistici, convertendo i concetti in una serie di comandi motori, è in grado di produrre cambiamenti sistematici nel tratto vocale o nel sistema motorio sino ad ottenere una comunicazione complessa, sia di tipo verbale che non-verbale. In anni recenti, sempre più insistentemente, si è fatta largo la questione del rapporto tra i processi linguistici e comunicativi e la componente biologica che li supporta, ovvero la struttura corticale sottostante. In altri termini, ci si è domandato quale sia la natura della relazione che sussiste tra competenza linguistica e comunicativa e neuropsicologia. Inoltre, esaminando il percorso neurofisiologico della produzione e comprensione del linguaggio, si arriva a domandarsi come la struttura e la flessibilità del cervello possono mediare la struttura e la flessibilità del linguaggio. Quali sono le aree maggiormente implicate nel processo comunicativo e quali funzioni svolgono in relazione a esso? In che misura e in quale ordine temporale esse sono coinvolte nei diversi aspetti del linguaggio e della comunicazione? In generale, i dati neuropsicologici sono in grado di testare la plausibilità psicologica dei difM. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008
4
M. Balconi
ferenti tipi di rappresentazioni/costrutti previsti dai principali modelli psicolinguistici (neurolinguistica) [3, 4]. Ad esempio, la psicolinguistica ha ipotizzato l’esistenza di un lessico strutturato (o dizionario mentale) di termini che mediano le associazioni tra gli aspetti fonologici, ortografici, morfologici e semantici [5, 7]. In che misura siamo in grado di rilevare evidenze a favore di (o contro) tali livelli rappresentazionali e della loro organizzazione nel cervello? I dati neuropsicologici consentono di informare le teorie circa il modo con cui varie rappresentazioni sono utilizzate durante la produzione e la comprensione del linguaggio. Alcuni modelli, ad esempio, suppongono che determinati sottoprocessi linguistici siano istanziati in moduli altamente specializzati e indipendenti [8, 9]. Tali approcci predicono che le aree corticali elaborano differenti tipi di rappresentazioni avendo una influenza ridotta l’una sull’altra e divenendo attive in una specifica sequenza temporale (ad esempio, la sintassi prima della semantica e quest’ultima prima della pragmatica) [10, 11]. L’approccio interazionista, al contrario, sostiene che i livelli di elaborazione inferiori non siano indipendenti da quelli superiori ma, piuttosto, che interagiscano con essi in continuo [12, 13]. Un’altra questione riguarda la misura in cui la struttura del linguaggio deriva da processi neurobiologici linguaggio-specifici di funzionamento o, al contrario, come tali processi siano condizionati da vincoli cognitivi generali, quali la disponibilità di risorse attentive o della memoria di lavoro. In altri termini, i dati neurobiologici consentono non solo di comprendere la natura della rappresentazione linguistica e dei processi che operano su di essa ma anche di rivelare come il linguaggio si sviluppa e come possa venire compromesso in caso di trauma o deficit [14, 15]. In generale, è necessario definire a quali fattori il cervello sia sensibile e come tali fattori possano incidere sulle funzioni linguistiche e comunicative. Infine, esistono funzioni specifiche per il linguaggio in uso, ovvero per le funzioni comunicative che consentono di dare senso alla comunicazione nei contesti comunicativi reali e “situati”? Lo studio degli aspetti pragmatici attraverso la neuropsicologia (neuropragmatica, per questo concetto si veda anche il paragrafo 1.6) ha aperto nuove prospettive su come la comunicazione possa avvenire, garantendo la mutua condivisione di significati all’interno di contesti conversazionali [16]. Occorre tuttavia a questo punto introdurre alcune distinzioni rilevanti, innanzitutto evidenziando la ragione d’essere di una doppia dicotomia che abbiamo riportato in precedenza tra funzioni linguistiche e funzioni comunicative e tra capacità di produrre e di comprendere i significati. Rispetto al primo piano, la distinzione proposta è finalizzata a individuare le componenti distintive dei processi che sono stati trattati indipendentemente l’uno dall’altro, qui riproposta con un intento di sintesi e integrazione. Occorre infatti sottolineare che tale dicotomia è di natura fittizia, poiché linguaggio e comunicazione costituiscono due piani tra loro contigui, appartenenti a un unico dominio finalizzato alla trasmissione dei significati tra i parlanti. Distinguere tra un linguaggio astratto le cui proprietà sono determinate in assenza di contesto è infatti funzionale allo studio teorico, ma non rispondente alle reali condizioni di utilizzo [17]. L’atto comunicativo si realizza in forma intenzionale tra due o più parlanti come scambio reciproco e mutua comprensione di significati. Pertanto, il linguaggio è al servizio del più ampio processo comunicativo, che prevede la compresenza, reale o virtuale, di due o più individui in interazione.
1. Basi biologiche dei sistemi linguistici e comunicativi
5
Rispetto al secondo piano, occorre tenere presente che la complessità dell’atto comunicativo risiede nella duplice richiesta di elaborare significati per la loro trasmissione (processo in uscita) e di elaborare significati per la loro ricezione (processo in entrata). Diviene quindi necessario introdurre la distinzione tra produzione e comprensione, in quanto aspetti collegati ma tra loro indipendenti. Infatti, come avremo modo di osservare, anche sul piano neuropsicologico, deficit relativi alle funzioni di produzione dei significati non comportano necessariamente la compromissione delle funzioni di comprensione e viceversa [18-20]. Adottando l’ottica della neuropsicologia cognitiva, nel presente capitolo focalizzeremo i processi linguistici e comunicativi, considerando le competenze richieste a un parlante per produrre e per comprendere un messaggio e il funzionamento dei sistemi preposti a tali funzioni. La prima parte del capitolo sarà volta a illustrare lo stato dell’arte circa le componenti strutturali anatomiche sottese alla produzione del linguaggio e della comunicazione. In secondo luogo, uno sguardo particolare sarà rivolto alle fasi di sviluppo delle competenze linguistiche e comunicative in termini sia filogenetici sia ontogenetici. Seguirà l’analisi delle principali funzioni del linguaggio alla luce dei sistemi (morfologico, sintattico, semantico e concettuale) che lo caratterizzano, in un’ottica di indipendenza funzionale dei principali processi coinvolti. Nella seconda parte, la nostra trattazione sarà focalizzata sulle componenti più specificamente comunicative, con attenzione alla dimensione pragmatica (proprietà prosodiche, del discorso, della conversazione e competenze sociali). Considereremo il concetto di pragmatica in termini ampi, oltre il confine posto dalla pragmatica e dalla neuropragmatica cognitiva [21, 22], spostando il fuoco attentivo dal prodotto comunicativo (ad esempio, la comunicazione ironica o le proprietà del discorso) ai processi attivati dal parlante e alle caratteristiche che sono loro intrinseche.
1.2 Proprietà e funzioni del processo linguistico e comunicativo È necessario innanzitutto definire alcune premesse comuni ai processi linguistici e comunicativi. In particolare, focalizziamo quattro aspetti che caratterizzano il nostro dominio di analisi: la molteplicità strutturale e funzionale dei sistemi che presiedono al linguaggio e alla comunicazione; la multicomponenzialità dei sistemi, in particolare per quanto concerne le componenti comunicative non-verbali; il loro dinamismo intrinseco; l’evoluzione delle competenze linguistiche e comunicative nel corso dello sviluppo. In primo luogo, rispetto alla molteplicità strutturale è necessario precisare che le componenti neurofisiologiche sottostanti al linguaggio e alla comunicazione sono tra loro eterogenee [23]. Tale varietà si riferisce alla molteplicità di strutture corticali e sottocorticali che presiedono alla regolazione delle differenti funzioni implicate [24]. Nel corso del tempo si sono susseguiti modelli di diversa natura, volti a sintetizzare la mappa cerebrale delle principali operazioni connesse alla produzione e alla comprensione del linguaggio e della comuni-
6
M. Balconi
cazione. Attualmente è possibile concludere a favore di una molteplicità di strutture coinvolte sia in funzione delle differenti tipologie di unità funzionali implicate (si veda il paragrafo seguente) sia relativamente alle due componenti di produzione e comprensione [25]. Nonostante non sia ancora possibile definire una mappa che individui una corrispondenza uno-a-uno tra specifici processi e specifiche strutture corticali essi dedicate, in alcuni casi è stato riconosciuto un chiaro contributo di alcune componenti corticali e sottocorticali alle principali funzioni comunicative. Occorre precisare sin da ora che il termine mappa corticale non si riferisce, come supposto in precedenza, a specifiche aree localizzate e circoscritte; piuttosto, attualmente, si preferisce fare riferimento a modelli “distribuiti” [26] e non “localizzati”. La molteplicità funzionale del processo linguistico e comunicativo è riassumibile in una gerarchia di funzioni tra loro interconnesse. Le componenti più propriamente ascritte alle funzioni linguistiche sono così sintetizzabili: – componenti fonologiche (i fonemi, le loro funzioni e le regole che ne governano l’organizzazione); – morfologia (le più piccole unità dotate di significato di una lingua, possono anche essere singoli fonemi), che comprende la forma delle parole e le relative variazioni a seconda del significato e delle loro funzioni; – lessico, o livello delle parole (combinazione di fonemi aventi significato concettuale); – sintassi, livello che comprende la modalità di associare le parole per costruire un sintagma (gruppo minimo di elementi significativi componenti l’unità base della struttura sintattica di una frase), una proposizione o un periodo; – semantica, pertiene al livello del significato di singole parole o di unità più complesse (proposizione o periodo). In una posizione sovraordinata rispetto alle precedenti, si colloca la grammatica intesa come metadimensione che riguarda l’insieme di regole applicate agli elementi costitutivi della lingua e che ne regolano le modalità d’uso. Da ultimo, la pragmatica, o piano del significato nel contesto, che considera il linguaggio come sistema finalizzato a “comunicare” oltre che a “dire” [27, 28]. Identificato generalmente con il “voler dire” del parlante, pertiene più propriamente alle funzioni della comunicazione in senso lato (al riguardo si veda anche il paragrafo 1.6). Pur senza adottare una prospettiva di analisi di tipo “componenziale” [29], consideriamo il livello pragmatico come sovraordinato rispetto ai precedenti, in quanto attivo su di un registro rappresentazionale più ampio dei livelli tipicamente riferiti al linguaggio [30]. In realtà, tale livello di significazione si serve delle componenti linguistiche e non-linguistiche (non-verbali) per comunicare qualcosa. Queste ultime componenti si rifanno al piano extralingusitico, deputato principalmente a manifestare intenzioni e scopi, pensieri ed emozioni del parlante. A fronte della più generica finalità di veicolo o mezzo per costruire significati, propria del linguaggio, la pragmatica comunicativa assolve a un compito più ampio, in quanto strumento finalizzato alla regolazione del
1. Basi biologiche dei sistemi linguistici e comunicativi
7
mutuo scambio, fondato sulla condivisione di piani intenzionali [31]. Attraverso di essa la comunicazione può garantire la trasmissione di significati tra gli individui, può regolare la relazione e definire i confini psicologici dell’interazione. Facendo riferimento al piano della competenze cognitive richieste dal livello pragmatico, occorre includere anche l’insieme delle competenze inferenziali (ostensivo-inferenziale secondo il modello di Sperber e Wilson [30]), le capacità di attribuire stati mentali (più ampiamente incluse nel concetto di teoria della mente [32]), di definire funzioni sociali (comprensione dei ruoli ecc. [33, 34]), di regolare lo scambio (turni di eloquio, reciprocità) [35]. Un accento particolare viene posto sul ruolo del contesto (qui utilizzato nella sua accezione più ampia) nelle sue componenti di natura cognitiva, ma anche del più ampio contesto emotivo entro cui la comunicazione si situa (come nel caso della prosodia emotiva) [36]. In particolare, ci poniamo l’obiettivo di andare oltre i limiti posti dalla pragmatica cognitiva e dalla neuropragmatica cognitiva, che ha focalizzato di volta in volta il versante interattivo [37], cognitivo in senso stretto (con riferimento ai modelli mentali e al concetto di script) [38, 39], per definire l’ambito delle competenze cognitive, comunicative e relazionali congiunte che operano per la costruzione e la comprensione di significati. Per tale ragione, adottiamo un’accezione di pragmatica che non è solo il “voler dire nel conteso”, ma che include un’ampia gamma di fenomeni che hanno a che fare con la trasmissione di significati condivisi tra uno specifico individuo e l’altro in situazioni reali e, per tali ragioni, si innestano sulle più ampie competenze sociali (o di social cognition) del parlante [40]. Tra i principali ambiti in cui le competenze pragmatiche possono esplicarsi occorre distinguere: – le componenti vocali non-verbali, ovvero le funzioni prosodiche e l’espressione delle emozioni, grandemente indagate nella loro condizione deficitaria nell’ambito della neuropragmatica clinica [41, 42]; – le funzioni pragmatiche classicamente definite, che comprendono i fenomeni di comunicazione idiomatica, metaforica, ironica, gli atti linguistici indiretti in genere (Indirect Speech Act), precedentemente classificati come significato non-letterale [43-45]; – le funzioni discorsive e conversazionali, dominio specifico della discourse pragmatics [46, 47]; – le competenze di cognizione sociale allargate, come insieme di capacità che mediano il rapporto tra individuo e ambiente circostante [40]. Quest’ultima categoria in realtà interessa trasversalmente le precedenti, poiché i fenomeni pragmatici riguardano più propriamente la comunicazione nell’hic et nunc del contesto sociale. Ne deriva anche come conseguenza degli assunti precedenti che è possibile parlare di multicomponenzialità della comunicazione, in quanto essa si serve di veicoli comunicativi molteplici nella trasmissione dei significati: oltre alla via verbale propria del linguaggio è possibile elencare le componenti gestuali e mimiche che concorrono a definire l’insieme dei sistemi comunicativi. Le componenti non-verbali sono perlopiù finalizzate ad assolvere funzioni pragmatiche,
8
M. Balconi
seppure alcune di queste abbiano anche un ruolo nelle funzioni linguistiche (il vocale, ad esempio) (si veda il Capitolo 8). A questo riguardo, si pone l’esigenza di verificare l’esistenza di correlati neuropsicologici distinti per i diversi sistemi; in secondo luogo, la multicomponenzialità pone il problema della sincronizzazione tra le diverse componenti [48, 49]. Un’ulteriore considerazione riguarda il carattere dinamico del linguaggio e della comunicazione, in quanto essi si prefigurano come organizzazione di funzioni in divenire all’interno di un processo che implica negoziazione e sintonizzazione [50]. Recenti applicazioni della pragmatica hanno tenuto in notevole considerazione la diacronicità del processo comunicativo e il suo evolversi nel corso dell’interazione [51]. Più in generale, occorre sottolineare come le competenze linguistiche e comunicative siano facoltà che presuppongono un progressivo processo di apprendimento ed evoluzione dettati dalle diverse fasi dello sviluppo. Sia sul piano dello sviluppo ontogenetico sia di quello filogenetico si configura una costante modificazione delle competenze linguistiche e comunicative, in quanto il linguaggio è un sistema in evoluzione. Il paragrafo successivo illustrerà nello specifico tali fasi evolutive in relazione ai correlati neuroanatomici.
1.3 Fattori di sviluppo del linguaggio: filogenesi e ontogenesi 1.3.1 Sviluppo del linguaggio in termini filogenetici La comprensione dei processi linguistici e comunicativi richiede anzitutto l’analisi dei fondamenti biologici che definiscono il profilo anatomico, strutturale e funzionale delle aree deputate alla loro elaborazione. Occorre in primo luogo chiedersi per quali ragioni i piccoli della specie umana sopravanzino in misura così rilevante gli altri primati non umani nella capacità di apprendimento dei sistemi linguistici e, in particolare, dei sistemi simbolici. È altresì necessario chiedersi se si possa sostenere che le capacità linguistiche e comunicative dell’uomo siano dovute allo sviluppo di un’organizzazione cerebrale completamente nuova, devoluta esclusivamente al linguaggio. Infatti, analogamente a quanto si verifica per molte abilità cognitive dell’uomo, anche per quelle comunicative è legittimo ipotizzare l’esistenza di caratteristiche distintive della struttura cerebrale che supportino concomitanti differenze funzionali specie-specifiche [8, 52, 53]. Alcune strutture cerebrali indispensabili per la comunicazione si sono sviluppate precocemente nel corso dell’evoluzione dell’uomo. Inoltre, nella maggior parte dei soggetti l’emisfero sinistro è dominante per le funzioni linguistiche e l’area corticale del linguaggio del lobo temporale (il planum temporale) è più estesa nell’emisfero sinistro che in quello destro. La ricerca di asimmetrie morfologiche ha consentito di evidenziare la loro presenza già nei precursori della nostra specie. Tuttavia, nonostante le strutture anatomiche indispensabili per la comunicazione possano avere avuto origine in tempi remoti (probabilmente oltre 500.000 anni fa),
1. Basi biologiche dei sistemi linguistici e comunicativi
9
si ritiene che le competenze linguistiche e comunicative come tali si siano sviluppate abbastanza tardi nel periodo preistorico (circa 100.000 anni fa) [54]. Sull’origine della comunicazione sono state avanzate differenti ipotesi, alcune delle quali finalizzate a rilevare una sostanziale continuità tra comunicazione umana e quella dei primati della nostra specie, mentre, in altri casi, è stata ipotizzata una chiara discontinuità tra i due piani. All’interno della prima categoria con maggiore consapevolezza si pongono la teoria gestuale, quella vocale e una di natura integrativa. – La teoria gestuale ipotizza che la comunicazione si sia evoluta da un sistema di gesti che iniziò a manifestarsi quando gruppi di primati assunsero la postura eretta, rendendo autonomi e disponibili gli arti superiori per forme di comunicazione sociale. Il passaggio alla comunicazione vocale sarebbe successivo, al fine di consentire l’utilizzo degli arti per funzioni differenti da quelle comunicative [55]. – La teoria vocale sostiene, al contrario, che la comunicazione si sia sviluppata a partire da un esteso sistema di grida deputate a esprimere stati emozionali e motivazionali, come paura, gioia ed eccitamento sessuale. Solo con l’avvento di mutazioni nella struttura dell’apparato fonatorio (bocca, mandibola e laringe) sarebbe stato possibile il controllo dell’emissione dei suoni in modo volontario e riproducibile e ciò avrebbe consentito l’impiego dei suoni in modo originale e secondo combinazioni diverse [56]. – Una terza possibilità prevede l’intervento concomitante dei due sistemi gestuale e vocale nell’evoluzione dei linguaggi (teoria integrativa). Tale ipotesi risulta particolarmente rilevante dal momento che consente di spiegare la comune localizzazione nell’emisfero sinistro della rappresentazione e del controllo della dominanza manuale, della comunicazione verbale e di quella dei segni [57]. Diversamente dalle teorie sopra indicate, sulla base di recenti evidenze empiriche, alcuni modelli postulano una sostanziale discontinuità nello sviluppo della comunicazione, seppure motivata in modo differente. Autori come Pinker [58] e Chomsky [59] sottolineano la discontinuità nell’evoluzione del linguaggio rispetto ai primati, in quanto il linguaggio non si sarebbe evoluto ed esso non avrebbe, sostanzialmente, precursori. Secondo altri modelli [60], seppure è riconoscibile un’analogia tra sistemi di comunicazione non-verbale umana e dei primati, la differenza vera risiede nelle competenze linguistiche più evolute, proprietà esclusiva del genere umano. Infine, esisterebbe una discontinuità sostanziale fondata sulle competenze cognitive sottostanti alla comunicazione particolarmente evolute nell’uomo, come testimoniato dallo sviluppo consistente della neocorteccia. Esisterebbero, pertanto, competenze uniche della specie umana, non comparabili con quelle di altri esseri viventi [61]. Questi ultimi modelli riconoscono una piena indipendenza delle componenti linguistiche e non linguistiche nella comunicazione umana, così come essa si manifesta attualmente, poiché farebbero riferimento a canali espressivi autonomi. Al fine di definire meglio le fasi che hanno caratterizzato lo sviluppo linguistico nella specie umana, la ricerca si è orientata anche verso l’analisi di un possibile piano organizzativo di base per i sistemi comunicativi nei primati non umani. In
10
M. Balconi
particolare, i modelli di tipo “evoluzionistico” hanno cercato di individuare elementi di continuità tra specie, con l’intento di mostrare il sostanziale progressivo valore evolutivo delle competenze linguistiche. Asimmetrie simili a quelle umane sono presenti negli emisferi cerebrali delle scimmie antropomorfe, come lo scimpanzé. Nel macaco giapponese l’emisfero sinistro è dominante per i richiami relativi al riconoscimento specie-specifico. L’asimmetria funzionale per stimoli vocali dotati di senso (come i sistemi di richiami) è stata osservata in numerosi studi sperimentali [62]. In particolare, nel macaco i tempi richiesti per il riconoscimento di richiami prodotti da consimili ed elaborati dall’orecchio destro (emisfero sinistro) appaiono più brevi rispetto a quelli utilizzati per stimoli presentanti all’orecchio sinistro (emisfero destro). Inoltre, è stata rilevata una discreta plasticità emisferica nel caso in cui l’emisfero non dominante debba svolgere una funzione vicariante in concomitanza a lesioni controlaterali, con un contributo di entrambi gli emisferi nell’elaborazione delle vocalizzazioni. D’altro lato, i modelli basati sullo studio del mondo animale si sono rivelati non del tutto soddisfacenti. Innanzitutto, l’asimmetria emisferica dei primati non umani appare meno consistente rispetto a quella presente nell’encefalo umano. Inoltre, essa non è presente sin dalla nascita: lo sviluppo della dominanza emisferica per l’elaborazione dei sistemi di richiami specie-specifici compare solo a maturazione cerebrale compiuta e successivamente all’esposizione e alla comprensione del repertorio vocale. Inoltre, sebbene animali evolutivamente semplici possiedano forme elementari di comunicazione e alcune specie di uccelli possano disporre di forme comunicative ancora più complesse, differenze consistenti caratterizzano tali sistemi di segnalazione rispetto alla comunicazione umana. Infatti, benché nei primati non umani si possa parlare di forme complesse e di natura referenziali di comunicazione a livello semantico, non sono emersi elementi a favore di un’analogia sul piano dell’organizzazione sintattica: la competenza rilevata nell’uso di suoni ha poco o nulla a che vedere con la complessa struttura sintattica del linguaggio umano [63].
1.3.2 Ontogenesi dell’acquisizione delle competenze linguistiche: componenti innate e fattori di apprendimento A fronte di differenti approcci esplicativi circa l’origine del linguaggio, la specificità e l’universalità delle competenze legate allo sviluppo del linguaggio nell’uomo costituiscono un punto di riferimento obbligato per la psicolinguistica e la neurolinguistica. Fra gli altri, due approcci hanno cercato di rendere ragione di tale universalità nell’acquisizione delle competenze linguistiche. Il modello dell’innatismo strutturale postula la presenza di regole universali sottostanti allo sviluppo delle diverse lingue, per cui la capacità di apprendere una lingua è innata e si fonda su una comune “grammatica universale” [59]. Tale approccio rivendica, inoltre, l’esistenza di strutture geneticamente predefinite che supporterebbero tale apprendimento. A sua volta, il modello dell’universalità funzionale considera l’apprendimento del linguaggio fondato su processi e funzioni, piuttosto che su strutture grammaticali rigi-
1. Basi biologiche dei sistemi linguistici e comunicativi
11
damente predefinite, la cui acquisizione risulta uniforme, automatica e universale presso tutti gli individui. I processi chiamati in causa sono definiti come universali, sia in relazione alla loro comparsa temporale in virtù di una comune manifestazione di specifiche abilità cognitive e comunicative in determinate fasi dello sviluppo, sia all’ordine sequenziale con cui compaiono, ovvero secondo stadi sequenziali predefiniti nello sviluppo, sia alla gerarchia di funzioni, nei termini di acquisizione di funzioni secondo categorie linguistiche via via più complesse, quali l’apprendimento di termini, di regole morfologiche, di strutture sintattiche ecc. [64]. Aspetto discriminante degli approcci innatisti è il concetto di periodo critico di acquisizione, in quanto, per lo sviluppo delle competenze linguistiche, risulta vincolante il fatto che l’esposizione al linguaggio si verifichi in un preciso e definito periodo “sensibile” dello sviluppo. Tale periodo è generalmente fatto coincidere con la fase evolutiva caratterizzata, in termini anatomo-strutturali, da una maggiore plasticità neurale che avrebbe termine all’inizio della pubertà. Studi realizzati su soggetti in condizioni di deprivazione sociale e linguistica hanno posto in evidenza che la fase puberale costituisce il periodo discriminante per l’acquisizione delle principali competenze linguistiche, con una grande difficoltà nell’acquisire una lingua naturale nuova in tempi successivi a tale periodo [65, 66]. Tuttavia, è indispensabile sottolineare l’interdipendenza, piuttosto che la contrapposizione, fra maturazione ed esperienza nell’organizzazione strutturale e funzionale dei sistemi neuronali che presiedono ai differenti processi linguistici e comunicativi. A supporto della prima, vi è il fatto che la correlazione tra il processo di mielinizzazione delle strutture nervose e lo sviluppo funzionale ha evidenziato lo stretto rapporto esistente tra maturazione delle strutture cerebrali e specifiche competenze comunicative. A questo riguardo, l’impiego di tecniche di analisi di neuroimmagine e le rilevazioni mediante PET (al riguardo si veda il Capitolo 2) forniscono indicazioni utili circa i processi neuronali sottostanti all’apprendimento di una lingua naturale, sia in soggetti normali sia in soggetti esposti a tale apprendimento in tempi successivi al periodo critico. Rispetto al ruolo dell’esperienza, gli stimoli ambientali fungono da marcatori preposti ad attivare e a facilitare il corso dello sviluppo predefinito biologicamente, per cui se, da un lato, i sistemi neuronali possiedono vincoli intrinseci che li rendono capaci di elaborare solo alcuni e non altri tipi di informazioni, dall’altro, gli input ambientali possono intervenire a modificare le caratteristiche funzionali del sistema biologico con cui entrano in contatto [67]. Inoltre, esiste una certa variabilità tra i diversi sistemi interessati nell’applicabilità del principio della “esperienza-dipendenza” in funzione di diversi fattori. Tra essi si può menzionare la durata del processo di maturazione delle strutture che mediano i processi funzionali, per cui strutture con maturazione più tardiva hanno maggiori probabilità di essere influenzate dagli input dell’ambiente. Parimenti, la presenza di vincoli anatomici e della struttura architettonica, in funzione della maggiore o minore complessità dei legami intercorrenti fra le strutture cerebrali, rende più o meno efficace la mediazione dell’ambiente. Inoltre, in concomitanza a elementi universali di tipo strutturale (sviluppo anatomico) e processuale (acquisizione di specifiche competenze comunicative), è stata rilevata la presenza di consistenti differenze nell’organizzazione dei diversi linguaggi (specificità intralinguistica) [68]. Complessivamente,
12
M. Balconi
è necessario sottolineare che nonostante la presenza di periodi durante i quali l’uomo è geneticamente predisposto all’acquisizione del linguaggio, un’interazione adeguata con il contesto fisico e sociale è essenziale perché tale capacità possa svilupparsi.
1.4 Modelli di funzionamento anatomo-strutturale del linguaggio 1.4.1 Modelli classici Occorre fare un breve cenno sullo stato dell’arte nello studio delle strutture anatomiche sottostanti al processo linguistico, in base a come le conoscenze sono andate via via costituendosi nel corso del tempo [69]. Differenti modelli si sono proposti di sintetizzare il contributo delle strutture anatomiche come supporto alle competenze linguistiche dell’uomo, optando per una rappresentazione “focale” di tali competenze (moduli corticali) o, piuttosto, per una rappresentazione “distribuita” delle stesse (modelli a network) [8, 70]. A fronte di una certa eterogeneità dei dati a disposizione, sostanzialmente, la conclusione su cui converge la maggior parte degli autori si articola su due piani: – l’emisfero sinistro è generalmente dominante per il linguaggio; – le due aree di Broca e di Wernicke svolgono un ruolo prominente nel processo linguistico, rispettivamente per la produzione e per la comprensione del linguaggio. Prenderemo in considerazione i due assunti, cercando di evidenziarne gli elementi euristici per la comprensione del processo e, contemporaneamente, i punti di maggiore criticità. Rispetto al primo punto, esiste oggi un sostanziale accordo fra gli studiosi nel ritenere che vi siano differenze consistenti fra i due emisferi cerebrali sul piano anatomico (citoarchitettura) e funzionale in riferimento al linguaggio. La predominanza del lobo sinistro è stata dimostrata non solo attraverso analisi di tipo strutturale ma anche mediante misurazioni elettroencefalografiche. La rilevazione dei potenziali evocati corticali (si vedano i Capitoli 2 e 3) ha posto in evidenza che l’emisfero sinistro è differentemente sensitivo per il linguaggio già a partire dalla nascita [71]. In ambito clinico, risultati analoghi sono stati ottenuti dagli studi realizzati su soggetti con cervello diviso (Split-Brain Syndrome) o commissurotomizzati (ovvero con risezione delle commissura del corpo calloso) [72]. In modo simile, utilizzando soggetti sani facendo ricorso alla tecnica dell’ascolto dicotico, (mediante la somministrazione contemporanea di stimoli sonori fra loro parzialmente diversi, uno all’orecchio sinistro e l’altro all’orecchio destro, al fine di accertare la dominanza di uno dei due emisferi), si è osservata la distintività funzionale dei due emisferi in relazione a compiti linguistici [73]. Occorre chiedersi a questo punto se la lateralizzazione emisferica preceda o segua lo sviluppo del linguaggio. Secondo la teoria della equipotenzialità delle strutture cerebrali, è necessario considerare la lateralizzazione come un derivato
1. Basi biologiche dei sistemi linguistici e comunicativi
13
dello sviluppo linguistico [74]. Tuttavia, tale ipotesi è stata messa in discussione, poiché non è in grado di spiegare, a livello filogenetico e ontogenetico, per quale ragione sia stata attuata una selezione a vantaggio dell’emisfero sinistro e a sfavore di quello destro, evidenziandone i possibili vantaggi per la specie umana [66]. Inoltre, le aree del linguaggio appaiono anatomicamente e funzionalmente asimmetriche già prima della nascita, come dimostrano le ricerche effettuate sull’area del planum temporale, localizzato in adiacenza della corteccia primaria uditiva (all’interno dell’area di Wernicke). Tale asimmetria è presente già a partire dalla trentunesima settimana di gestazione ed è strettamente associata alla distinzione fra soggetti destrimani e soggetti mancini: il 96% dei destrimani possiede una maggiore specializzazione emisferica (con planum temporale più esteso) rispetto al 70% dei mancini. Un’ulteriore distinzione chiama in causa la struttura del corpo calloso, deputata alla connessione dei due emisferi, che svolge la funzione di unificazione delle informazioni che giungono da parti opposte del corpo. In particolare, si è accertata l’esistenza di differenze dimensionali nell’istmo (un’area specifica del corpo calloso), inversamente proporzionali alla dimensione del planum temporale: un’estensione maggiore della sezione del corpo calloso sarebbe correlata a una minore estensione del planum temporale, con conseguente minore asimmetria (e maggiore rappresentazione bilaterale) delle funzioni linguistiche [75, 76]. Rispetto al secondo punto, il modello grandemente accreditato anche sul piano sperimentale di Wernicke-Geschwind pone l’accento sull’importanza di specifiche aree corticali e sulle loro vie di connessione per la rappresentazione delle funzioni linguistiche. Secondo tale posizione, cui si rifanno i modelli “classici”, componenti discrete sul piano anatomico svolgerebbero specifiche funzioni di input-output per la produzione e la comprensione del linguaggio, e la loro compromissione comporterebbe un concomitante deficit delle abilità cognitive e linguistiche correlate. Infatti, lesioni circoscritte dell’area perisilviana producono deficit altrettanto specifici e delimitati in alcune funzioni linguistiche (sindromi afasiche). Tali sindromi afasiche comprendono sia le afasie di espressione (o afasie motorie) che riguardano l’area di Broca, sia le afasie di comprensione che interessano l’area di Wernicke. In particolare, l’area di Broca, adiacente alle parti inferiori dell’area motoria (giro prefrontale), risulta prioritaria per la produzione del linguaggio e controlla i movimenti necessari all’articolazione della parola, i movimenti mimici facciali e quelli della fonazione. La sua compromissione comporta la difficoltà di esprimersi con le parole, in assenza di paralisi dei movimenti fonatori (inceppi, sostituzione di fonemi, difficoltà di trovare le parole appropriate ecc.). A sua volta, l’area di Wernicke, localizzata nella regione postero-superiore del lobo temporale (giro temporale superiore), debordante verso il lobo occipitale, è considerata prioritaria per i processi di comprensione del linguaggio orale. Nel caso di una sua compromissione l’espressione orale risulta sconnessa, simile a un gergo, con la comparsa di neologismi. Sebbene l’accordo circa la reale localizzazione delle due aree non sia un dato definitivamente acquisito, è possibile rappresentare in linea generale la loro estensione come è proposto nella figura seguente (Fig. 1.1). Il modello di Wernicke-Geschwind è in grado di formulare previsioni attendibili rispetto agli effetti prodotti da lesioni focali delle aree del linguaggio. Innanzitutto, in
14
M. Balconi
Fig. 1.1 Rappresentazione delle principali aree del linguaggio (aree di Broca e di Wernike)
caso di lesione nell’area di Wernicke, esso prevede che il linguaggio orale, pur raggiungendo la corteccia uditiva, non possa attivare l’area suddetta, rendendo impossibile la comprensione del parlato. Nel caso in cui la lesione si estenda oltre l’area di Wernicke, essa può giungere a interessare le vie deputate all’elaborazione delle informazioni visive per il linguaggio, con un deficit nella comprensione sia del linguaggio orale sia di quello scritto. Al contrario, una lesione nell’area di Broca non riguarda la comprensione del linguaggio (sia scritto che orale) ma comporta una grave alterazione nella produzione del discorso, in quanto lo schema relativo all’emissione dei suoni e alla struttura del linguaggio non è trasferito alla corteccia motoria [54]. In terzo luogo, il modello prevede che una lesione del fascicolo arcuato, interrompendo la connessione fra l’area di Wernicke e l’area di Broca, alteri il normale flusso del discorso. In particolare, le afferenze uditive non potranno essere trasmesse all’area di Broca, così come le informazioni relative alla produzione del linguaggio non potranno essere ritrasmesse, mediante circuiti a feedback, all’area deputata alla comprensione [75].
1.4.2 Recenti acquisizioni: sistemi sottocorticali e “aree di interfaccia” La specificità ed esclusività delle aree corticali di Broca per la produzione e dell’area di Wernicke per la comprensione del linguaggio appare, tuttavia, messa in discussione dalla moderna neurolinguistica [76, 77] e dalle tecniche di neuroimmagine, poiché gli effetti delle lesioni cerebrali citate risultano variabili da persona a persona e non sono sempre univocamente classificabili. Seppure al momento attua-
1. Basi biologiche dei sistemi linguistici e comunicativi
15
le non è possibile individuare correlati anatomici discreti dei processi linguistici e comunicativi, in aggiunta al fatto che il linguaggio sia principalmente localizzato nell’area perisilviana sinistra, grazie a riscontri empirici recenti è ipotizzabile che a queste due aree occorra aggiungere altri sistemi neurali che presumibilmente operano in concomitanza ai precedenti per la produzione e la comprensione del linguaggio. È stato, infatti, rilevato il contributo delle regioni temporali sinistre e della corteccia prefrontale sinistra. Inoltre, anche strutture come il talamo o l’area motoria supplementare sono implicate nel processo linguistico [78]. Più specificamente, un ruolo fondamentale nella rappresentazione delle funzioni linguistiche è stato riconosciuto recentemente anche ad alcune strutture sottocorticali, come il talamo sinistro, il nucleo caudato sinistro e la sostanza bianca adiacente. In particolare, il nucleo caudato sinistro è considerato un’importante formazione per l’integrazione uditivo-motoria necessaria all’elaborazione linguistica, poiché lesioni di questo nucleo determinano un’alterazione della comprensione uditiva [79]. Rispetto alla funzione del talamo, vi è ragione di credere che esso abbia un ruolo importante nel linguaggio, benché di supporto, in quanto meccanismo che aumenta l’efficienza delle strutture implicate nel processo linguistico [80]. Esso favorirebbe, per esempio, la scelta corretta sul piano lessicale: alcuni fenomeni di anomia semantica per specifiche categorie nominali sarebbero infatti direttamente derivati da lesioni alle strutture talamiche. La debolezza dei modelli “classici” è ulteriormente evidenziata da recenti ricerche in ambito cognitivo, che non fanno riferimento unicamente al decorso anatomico delle vie di elaborazione dell’informazione linguistica. Ad esempio, vi è ragione di ritenere che non tutte le afferenze uditive siano elaborate dalla stessa via: suoni o parole prive di senso sono analizzati da una via indipendente rispetto a quella nella quale sono elaborate le parole dotate di significato. In sostanza, esistono vie distinte per l’elaborazione dei suoni (intesi come generali unità espressive) e per le unità morfemiche dotate di significato (il contenuto semantico della parola). Inoltre, il processo ascendente (dalla comprensione alla produzione) per il linguaggio orale e scritto rileva l’interessamento di un numero maggiore di aree e di connessioni nella rappresentazione delle funzioni linguistiche rispetto a quanto ipotizzato dal modello di Wernicke-Geschwind. Analisi effettuate su soggetti con trattamento chirurgico per patologia epilettica suggeriscono la presenza di sistemi di risposta differenti per tipologie di stimoli linguistici (come particolari classi di termini mono- o bisillabici, parole task-rilevanti o task-irrilevanti) [81]. Inoltre, alcune cellule maggiormente responsive appaiono essere localizzate nella porzione mediale del giro temporale superiore, equamente distribuite nell’emisfero destro e in quello sinistro. Recenti evidenze hanno messo in discussione la predominanza emisferica sinistra per la produzione e la comprensione del linguaggio. Ad esempio, è stata rilevata la possibilità per l’emisfero destro (in soggetti con cervello diviso) di compiere operazioni di comprensione e di discriminazione di suoni [82], così come di comprendere frasi sintatticamente semplici [83]. Tali dati sembrano confermare l’ipotesi che i sistemi di comprensione del linguaggio siano organizzati bilateralmente. Parallelamente, mediante uno studio condotto utilizzando la risonanza magnetica funzionale (fMRI), è stato rilevato il contributo della regione temporale
16
M. Balconi
Fig. 1.2 Modello neuroanatomico del linguaggio. Si evidenziano in particolare le aree di convergenza tra emisfero destro e sinistro per la produzione e la comprensione del linguaggio
superiore posteriore sinistra per compiti di produzione del linguaggio (compiti di naming di oggetti poco prima dell’articolazione della parola) [84]. Infine, evidenze comportamentali hanno consentito di individuare una stretta correlazione tra i processi di produzione e comprensione del linguaggio. Studi che hanno impiegato l’effetto di trasformazione verbale (la tendenza a percepire in modo scorretto i fonemi dopo la presentazione prolungata e ripetuta di una singola parola) [85] hanno rilevato una riduzione di tale fenomeno nel caso in cui vi fosse una produzione verbale da parte del soggetto, anche di tipo subvocalico. Ciò induce a supporre plausibile un modello in cui i sistemi per la produzione e la comprensione del linguaggio condividano unità processuali. È cioè possibile formulare un modello che preveda vaste aree di convergenza (interface-zones) [86, 87] o livelli rappresentazionali intermedi [88-90]. Proponiamo di seguito un recente modello, in cui è possibile evidenziare il contributo di entrambi gli emisferi per la produzione e la comprensione del linguaggio (Fig. 1.2). Il modello propone una stretta interdipendenza tra emisfero destro e sinistro, dove il primo supporterebbe la percezione del linguaggio inviando input ai sistemi di interfaccia uditivo-concettuale dell’emisfero sinistro. I sistemi di interfaccia basati sul suono interferirebbero non solo con il sistema delle conoscenze concettuali, ma anche con i sistemi frontali motori mediante un’interfaccia uditivo-motoria localizzata nel lobo parietale inferiore. In linea con modelli precedenti [91], tale paradigma ipotizza un legame diretto tra rappresentazione concettuale e i sistemi del lobo frontale. Assumendo che le rappresentazioni concettuali siano altamente distribuite, si può ipotizzare a sua volta la convergenza di input molteplici e di diversa provenienza nei sistemi di interfaccia della corteccia frontale [86-87]. Costituisce un
1. Basi biologiche dei sistemi linguistici e comunicativi
17
esempio di tale convergenza il fatto che alcune regioni del lobo temporale inferiore sinistro sono importanti per l’accesso di conoscenze concettuali/lessicali basate sull’oggetto nella produzione del linguaggio [92].
1.5 Apporto della neurolinguistica 1.5.1 Rappresentazione del processo di produzione e comprensione del linguaggio: modelli cognitivi Abbiamo sottolineato in precedenza che le competenze linguistiche di base del parlante sono identificabili nella produzione e nella comprensione di un messaggio e che su queste ultime la neuropsicologia è chiamata a fornire spiegazioni esaustive. L’analisi neuropsicologica del processo linguistico deve altresì includere la descrizione delle principali funzioni linguistiche, quali la capacità di produrre e di comprendere strutture fonologiche, sintattiche e semantiche e la possibilità di garantire il loro coordinamento [1]. L’esplicazione di tali funzioni dipende da una molteplicità di sistemi di conoscenze, che comprendono, tra gli altri, sistemi di elaborazione di informazioni linguistiche e sistemi di comprensione di informazioni non-verbali e, più a monte, un dispositivo di elaborazione concettuale. Tra i modelli precedentemente esaminati, quello di Wernicke-Geschwind fornisce elementi esplicativi circa le principali vie corticali di produzione e di comprensione degli stimoli linguistici, individuando sul piano strutturale due sistemi in grado di operare indipendentemente l’uno dall’altro. Tuttavia tale modello appare scarsamente incentrato sugli aspetti cognitivi coinvolti nei processi di elaborazione del messaggio. Prospettive neuropsicologiche recenti forniscono spiegazioni più adeguate alla complessità cognitiva delle operazioni mentali implicate, contemplando l’attivazione di un numero maggiore di aree coinvolte e di vie di connessione, disposte serialmente o in parallelo [93]. L’intento esplicito della moderna neurolinguistica è quello di decomporre e segmentare tale processo, assunto che i processi mentali sottesi alle funzioni del linguaggio siano separabili e che sia possibile definire la complessa architettura del sistema a partire dalle unità minime elementari degli stimoli fonetici. Citiamo tra i modelli linguistici più recenti il modello di Levelt [89], che consente di sintetizzare la complessità delle operazioni e dei processi cognitivi implicati nei percorsi discendente (di produzione) e ascendente (di comprensione) del messaggio (Fig. 1.3). Come appare nella Figura 1.3, il processo di produzione e di comprensione risulta essere costituito da più unità cognitive; inoltre, è presente un parallelismo nell’organizzazione dei sistemi ascendente e discendente, poiché entrambi possiedono livelli di elaborazione che includono la fonologia (struttura segmentale dei suoni), la prosodia (stress e intonazione della frase), la struttura lessicale, la sintassi e il “livello del messaggio”, relativo alla struttura del discorso e al sistema concettuale. Tali sistemi sono caratterizzati da due principali flussi di elaborazione: uno relativo alla produzione/riconoscimento lessicale e l’altro alla costruzione/ricostruzione delle strutture frasali in cui le componenti lessicali sono integrate.
18
M. Balconi
Fig. 1.3 Modello di produzione e comprensione del linguaggio secondo Levelt. Modificata da [90]
La distinzione tra la funzione di produzione/riconoscimento lessicale e di costruzione/comprensione della struttura frasale pone il problema del coordinamento tra questi due processi [94]. La rappresentazione lessicale avverrebbe in modo contemporaneo all’assegnazione della struttura frasale secondo un processo incrementale e sequenziale. Pertanto, nella comprensione di una frase, la forma lessicale sarebbe assimilata alla struttura frasale, a sua volta coerentemente definita grazie al contributo del piano prosodico. Inoltre, come appare nella Figura 1.3, il processo di assegnazione della forma lessicale, preceduto dall’elaborazione acustica e fonetica dello stimolo, non sarebbe direttamente dipendente dal significato della parola, ma guidato dalle proprietà formali del lemma. La fase successiva, relativa all’analisi sintattica, prevede l’assegnazione di componenti strutturali-sintattiche, come la definizione dei ruoli tematici, delle relazioni di predicazione e della coreferenza. Il percorso discendente di produzione del messaggio presenta la medesima sequenza di eventi, ma rovesciata: la costruzione sintattica precede l’attribuzione fonologica del lemma e l’assimilazione della struttura formale del lemma nella struttura frasale e prosodica, mentre il processo di articolazione costituisce l’esito della sequenza. Il principio dell’autonomia e dell’indipendenza dei livelli di elaborazione implicati (modularità funzionale) (al riguardo si veda anche il Capitolo 2) rappresenta il presupposto dell’intera organizzazione del processo, benché sia necessario che i vari livelli siano attivati simultaneamente e possano interagire al fine di garantire la produzione/comprensione del messaggio in tempo reale. In particolare, studi rela-
1. Basi biologiche dei sistemi linguistici e comunicativi
19
tivi alla presenza di lesioni “focali” di alcune funzioni depongono a favore dell’autonomia di alcuni processi e operazioni alla base del linguaggio, che non possiedono, al contempo, una controparte in altri domini non-linguistici [58]. Ad esempio, è stato rilevato che la comprensione di un termine può essere compromessa distintamente per la forma scritta (ortografica) o parlata (fonologica) della parola in relazione a differenti danni “focali”. Per citare solo alcuni esempi, lesioni localizzate sia nei lobi parietale e occipitale sinistro sia nel lobo frontoparietale sinistro mostrano concomitanti compromissioni nel sistema semantico esclusivamente per quanto riguarda il linguaggio parlato [95].
1.5.2 Modularità funzionale del linguaggio e indipendenza dei sistemi di rappresentazione concettuale, sintattico e semantico La modularità del linguaggio, inteso come insieme di processi e operazioni distinte è stata supportata da studi di diversa natura e con diverse metodologie di analisi (per una rassegna si veda Garrett [96]). In particolare, l’ipotesi dell’organizzazione funzionale del processo linguistico prevede che i tre principali sistemi implicati nella rappresentazione del linguaggio, il sistema concettuale (rappresentazione dei contenuti/concetti), il sistema strutturale (rappresentazione delle funzioni posizionali dei termini e della struttura della frase) e il sistema semantico (rappresentazione del significato complessivo del messaggio) siano funzionalmente autonomi. In genere, i modelli di tale natura prevedono una modalità di tipo incrementale. Un modello di tipo funzionale e “incrementale” è stato proposto recentemente da Levelt [11], che ha sottolineato la compresenza di operazioni di ordine metacognitivo nella costruzione del messaggio, quali la macropianificazione e la micropianificazione del messaggio. Entrambi i livelli possono essere ulteriormente distinti in funzioni specifiche (quali, ad esempio, la predisposizione di un apparato concettuale per il livello macroanalitico o la codifica morfofonologica per il livello microanalitico). La macropianificazione include la definizione di ciò che il parlante vuole comunicare. Formulazione di modelli mentali di sé e dell’altro, definizione della struttura complessiva del discorso, monitoraggio sulla effettiva realizzazione delle intenzioni comunicative costituiscono alcuni degli elementi fondamentali della macropianificazione. Il parlante genera un messaggio la cui finalità è quella di condizionare quanto è inteso dal ricevente, processo che chiama in causa le competenze sociali e l’insieme di conoscenze condivise. Levelt caratterizza ciascuna di tali funzioni in termini di specifiche operazioni cognitive che è possibile compiere nella costruzione del messaggio, il quale si configura come struttura eminentemente concettuale. Di particolare interesse è la definizione del sistema concettuale precedente alla costruzione del messaggio preverbale. Sul piano microanalitico, ciascuna unità deve essere trasposta in un format specifico che ne consenta la formulazione. Essa deve includere, inoltre, le tipologie di relazioni semantiche esprimibili attraverso l’ausilio linguistico (come, ad esempio, la relazione funzione/argomento). Le ipotesi sottostanti al modello teorico sopra riportato comportano rilevanti implicazioni per quanti si pongono a favore dell’organizzazione funzionale della
20
M. Balconi
struttura corticale. I modelli psicolinguistici descritti suggeriscono infatti che strutture neurali distinte, oltre che dispositivi funzionali, siano responsabili della rappresentazione dei processi semantico e concettuale da un lato e della forma lessicale dall’altro, nonché delle proprietà sintattiche del messaggio [97]. Fra di essi esiste, infatti, una complessa rete di relazioni, come sarà esplicitato più avanti. Riportiamo alcune delle più recenti evidenze a favore dell’esistenza di sistemi funzionalmente distinti nella produzione e comprensione del linguaggio sulla base di recenti ricerche in ambito neuropsicologico. Indipendenza fra forma lessicale e significato In psicolinguistica si è dibattuto a lungo circa l’indipendenza del significato dalla forma morfologica dei lessemi [98]. Rispetto all’elaborazione del significato di singole parole, è stato rilevato come, a fronte di una preservata conoscenza della forma lessicale, alcuni soggetti non appaiono in grado di attribuire al lessema il significato corretto. Ulteriori prove dell’indipendenza di questi due livelli di rappresentazione provengono dall’osservazione di specifici deficit relativi o al significato o alla forma lessicale dello stimolo. Nel primo caso, alcuni soggetti presentano deficit circoscritti per determinate categorie concettuali, quali parole astratte o concrete, oggetti inanimati, nomi geografici, nomi propri ecc., a fronte di una rappresentazione adeguata delle loro proprietà morfologiche. Nel secondo caso, in direzione opposta, il soggetto non è in grado di elaborare specifiche categorie grammaticali (nomi, verbi, preposizioni ecc.), pur dimostrandosi capace di comprendere il senso del lessema. Il caso di J.J., una paziente con un danno all’area temporale sinistra e ai gangli della base, è stato a lungo studiato in ambito neuropsicologico, in quanto ha consentito di mostrare come, in concomitanza a un deficit complessivo nella comprensione del significato dei termini, possa essere preservata la conoscenza della forma ortografica e fonologica del lessico [99]. Studi mediante rilevazione PET sembrano altresì corroborare tale distinzione in base all’attivazione di specifiche aree neuroanatomiche: lo svolgimento di compiti semantici, come l’attribuzione del significato, attiverebbe, oltre alle aree generalmente implicate nell’elaborazione delle informazioni linguistiche (area inferotemporale), anche la corteccia anteriore frontale, deputata più in generale alle funzioni cognitive di ordine superiore. Tale dato è stato confermato a partire dagli studi pionieristici di Petersen [100] e riproposto più recentemente per compiti di decisione semantica [101, 102]. Dissociabilità tra forma sintattica e concettuale Secondo il modello proposto da Frazier [103], il sistema sintattico è inteso come l’insieme di raggruppamenti, gerarchicamente organizzati, di categorie funzionali (secondo la funzione di ruolo tematico, di modificatore ecc.), tra le quali è possibile definire specifiche relazioni. Al contrario, il sistema concettuale è identificato con la più generale capacità di rappresentazione delle conoscenze, che integra competenze strutturali linguistiche, sistemi di conoscenza concettuale enciclopedica e
1. Basi biologiche dei sistemi linguistici e comunicativi
21
contestuale, come pure più ampie conoscenze pragmatiche. La competenza concettuale e la capacità di costruire complesse strutture enunciative appaiono essere funzioni autonome. In particolare, dalle ricerche è emersa una doppia dissociazione tra competenze concettuali e competenze sintattiche, con la compromissione dell’una a fronte della piena funzionalità dell’altra e viceversa [104]. Infatti, lesioni focali che comportino limitazioni al sistema concettuale di conoscenze sono compatibili con un normale funzionamento del linguaggio per quanto riguarda le strutture morfosintattiche e la gerarchia linguistica. L’assenza di abilità rappresentazionali generali e della comprensione del discorso appaiono, pertanto, coesistere con la capacità di identificare e produrre una struttura sintatticamente corretta. Viceversa, l’incapacità di costruire strutture sintattiche nella comprensione di frasi risulta dissociata dal processo di comprensione concettuale. A questo riguardo l’agrammatismo, definito come una condizione in cui il linguaggio presenta una forte riduzione nell’impiego di verbi, di aggettivi e avverbi, o di parolefunzione (come preposizioni, congiunzioni, quantificatori ecc.), produce complessivamente un discorso schematico e “telegrafico”. Soggetti con disturbi agrammatici sembrano comunque preservare generali capacità di ragionamento inferenziale e di rappresentazione del sistema concettuale e semantico del messaggio, confermando l’indipendenza di questi ultimi dalla rappresentazione delle strutture sintattiche [105]. Indipendenza fra sistema semantico e sintattico Nella rappresentazione del legame tra il sistema sintattico e il sistema semantico l’ipotesi più accreditata è quella della sostanziale indipendenza fra i due domini [106]. Infatti, dati sperimentali acquisiti con metodi di neuroimaging mostrano una stretta associazione tra alcune regioni cerebrali e il sistema sintattico, distinte da quelle sottese al sistema semantico. In particolare, deficit del sistema di comprensione semantico (demenza semantica) sono associati a lesioni del lobo temporale superiore, mentre permangono inalterate le funzioni fonologiche e quelle sintattiche. Per contro, una complessa rete di aree localizzate nella regione corticale perisilviana sinistra appare discriminante nel processo di produzione e comprensione (parsing) della struttura sintattica [97]. Risultati analoghi sono stati ottenuti anche con l’impiego della tecnica dei potenziali evocati corticali [107-109]. Tale tecnica consente di definire la risposta elettroencefalografica dello scalpo a stimoli reiterati, utilizzando quali parametri distintivi le caratteristiche di profilo e la latenza del picco d’onda rilevato quale risposta esterna (potenziali evocati esogeni o percettivi) o interna (potenziali evocati endogeni o cognitivi) allo stimolo. L’indice di interpretazione semantica, nella fattispecie relativo alla rilevazione di un’anomalia semantica nel messaggio (N400), risulta distinto da quello di elaborazione sintattica (P600), conseguente alla presenza di un’anomalia nella struttura enunciativa, di tipo sia morfologico sia strutturale. Contributi più recenti sottolineano una chiara separazione tra indici ERP conseguenti alla presenza di violazioni dei vincoli semantici posti dall’enunciato (con effetto N400) e un complesso precoce, di polarità negativa e maggiormente presente nelle aree sinistre (ELAN, Early Left Anterior Negativity), conse-
22
M. Balconi
guente a una violazione sintattica (in particolare violazione della categoria) [110]. Recentemente, Friederici [111] ha sottolineato la diversa funzione dei due indici P600 ed ELAN per l’elaborazione sintattica: il primo sarebbe la risposta al processo di analisi automatica della struttura sintattica; il secondo avrebbe a che fare con il processo di rianalisi e ricostruzione della struttura sintattica. Tuttavia, in alternativa al modello dell’indipendenza, sono stati proposti modelli cosiddetti dell’interazione, secondo cui, pur essendo possibile la presenza di differenze tra il piano di elaborazione semantico e quello sintattico, le diverse tipologie di informazioni interagiscono allo stesso livello contemporaneamente, al fine di determinare il significato complessivo da attribuire al messaggio [112; per una rassegna si veda 97]. Tra i modelli interattivi, una prospettiva più “radicale” prevede che ogni tipo di informazione, sintattica o semantica, converga per produrre il significato del messaggio, non essendo necessario ipotizzare un livello di rappresentazione puramente sintattico durante il processo di produzione e di comprensione del messaggio [113]. Indipendenza fra sistema semantico e concettuale e multimodalità rappresentazionale Il significato delle parole è realizzato da un sistema di rappresentazioni mentali definito generalmente come sistema semantico. Quest’ultimo può essere distinto dal sistema concettuale propriamente detto, poiché codifica aspetti del significato rilevanti per il linguaggio, mentre il sistema concettuale ha a che fare con un più ampio sistema enciclopedico di rappresentazione, includente il contesto pragmatico e il ragionamento euristico [114]. Anche se Jackendoff [2] giunge a sostenere una sostanziale unificazione fra il sistema semantico e quello concettuale all’interno di un processo rappresentazionale più generale, è plausibile ritenere che questi due sistemi siano distinti fra loro, anche se profondamente interdipendenti. Infatti, grazie a tale distinzione è possibile spiegare importanti e frequenti fenomeni comunicativi come ad esempio, l’ignoranza concettuale (il soggetto impiega una parola correttamente sul piano semantico di cui non conosce l’equivalente concettuale) e la polisemia (a una parola si riferiscono concetti diversi fra loro) [115]. Un secondo aspetto problematico concerne la presenza di un sistema semantico unico o di sistemi separati e distinti, ciascuno dipendente dalle diverse modalità di elaborazione dell’informazione in entrata (multimodalità rappresentazionale). Secondo un primo modello [89], il format di rappresentazione del significato è unico e ha una forma proposizionale. Per contro, secondo autori come Jackendoff [2] tale rappresentazione è mediata dai moduli percettivi di ingresso dell’informazione (visivo, acustico ecc.). A fronte dell’eterogeneità delle informazioni che costituiscono l’input della rappresentazione semantica, alcuni risultati sperimentali fanno propendere per l’esistenza di moduli distinti e strutturalmente localizzati della conoscenza semantica per cui, a differenti tipologie di rappresentazioni (un’immagine o una parola), corrisponde l’attivazione di specifiche strutture cerebrali. Almeno parti di tali regioni risultano essere esterne all’area usualmente considerata come rappresentativa delle funzioni comunicative (la corteccia inferotemporale di entrambi gli emi-
1. Basi biologiche dei sistemi linguistici e comunicativi
23
sferi), in quanto sarebbero coinvolte anche aree normalmente deputate all’elaborazione degli stimoli percettivi, come la corteccia visiva per le immagini e la corteccia uditiva per i suoni [95].
1.6 Neuropsicologia delle funzioni comunicative superiori: neuropragmatica La possibilità di comunicare implica assai di più della semplice abilità di costruire frasi corrette o di comprenderne il contenuto. La capacità di produrre un atto comunicativo comporta precise assunzioni sulle proprietà simboliche della comunicazione [116], a partire dall’abilità di operare su unità complesse piuttosto che su singoli elementi, di elaborare e comprendere piani inferenziali [27, 30], nonché di sviluppare un sistema di regole condivise per gestire lo scambio comunicativo [117, 118]. In particolare, è indispensabile programmare l’atto comunicativo, avendo cura di organizzare gli elementi informativi in un discorso articolato, nonché di tenere conto dei contesti (specifico e generale) in cui l’interazione ha luogo [119]. L’analisi delle competenze comunicative deve altresì prevedere e spiegare l’acquisizione delle funzioni pragmatiche della comunicazione, la capacità di organizzare sistemi di segnalazione verbali e non-verbali [120], così come la loro reciproca integrazione (o sincodifica, si veda al riguardo il Capitolo 11). Inoltre, è indispensabile includere nel processo complessivo le specifiche competenze cognitive richieste al parlante, tra cui le funzioni di comprensione dei processi di pensiero (metacognizione) [40], di cognizione sociale [33], nonché gli aspetti più complessi dei processi di intenzionalizzazione [121, 122] (al riguardo si veda il Capitolo 7). Proponiamo pertanto una visione della comunicazione come processo interattivo e, sul piano cognitivo, come processo inferenziale. La nostra attenzione è posta sulle competenze metacognitive e relazionali che mediano la produzione e la comprensione del linguaggio in uso nell’interazione. Occorre sottolineare che lo studio della comunicazione è stato perlopiù sostituito dallo studio sul linguaggio come facoltà astratta. Ciò ha comportato la separazione tra analisi della lingua e analisi dell’uso della lingua. In realtà, la dimensione comunicativa pone in evidenza come non si possa comprendere il linguaggio indipendentemente dalle componenti cognitive, emotive e relazionali che intervengono a pieno titolo nel processo. In altri termini, è stato sottolineato come non sia possibile esimersi dalla situazione reale (contesto pragmatico) per comprendere il significato di un messaggio. Dal punto di vista più specificamente neuropsicologico, l’ausilio di metodi di rilevazione avanzati ha consentito di evidenziare il contributo corticale nella produzione/comprensione del significato nel contesto mediante la chiara focalizzazione degli aspetti pragmatici della comunicazione (neuropragmatica). Già al suo sorgere la nuova disciplina della neuropragmatica appare eterogenea al suo interno e caratterizzata da differenti finalità esplicative. Basti considerare la presenza di approcci teorici ed empirici diversificati nel panorama complessivo, che confluiscono nella neuropragmatica sperimentale, incentrata sulle componenti neurolinguistiche [16], la neuropragmatica cognitiva, diretta derivazione dei modelli cogni-
24
M. Balconi
tivi applicati allo studio della pragmatica [61], la neuropragmatica clinica, perlopiù incentrata sull’analisi dei deficit comunicativi che ha messo a punto specifici protocolli per la valutazione delle competenze pragmatiche deficitarie [123]. Occorre porre attenzione inoltre ai recenti sviluppi della neuropramatica nella direzione dello studio dell’acquisizione di competenze cognitivo-sociali da un lato e dello sviluppo delle funzioni cognitive metarappresentazionali dall’altro [34]. Alcuni modelli più recenti suggeriscono la necessità di analizzare l’attività del soggetto in concomitanza allo svolgimento del processo stesso, considerando al contempo l’incidenza che la dinamica interazionale può avere sul piano neuropsicologico. Ovvero, occorre considerare come l’uso della lingua in un particolare contesto, includente le componenti emotive, i piani intenzionali e le relazioni tra parlanti, possa chiamare in causa componenti anatomiche e strutture cerebrali differenti. L’analisi dei network implicati consente di sondare il processo comunicativo reale nella sua dinamica time-by-time, integrando le componenti propriamente linguistiche con quelle non linguistiche, come l’attività motoria per la regolazione della comunicazione non-verbale, la memoria di lavoro per la regolazione e la sincronizzazione dei diversi sistemi, l’attenzione e l’intenzionalità nella pianificazione dell’atto comunicativo [124]. Inoltre, adottando una diversa prospettiva di analisi di tipo bottom-up, che parte dalla disamina della dinamica comunicativa, così come essa si articola vis-a-vis, è possibile tenere in debita considerazione l’importanza dell’interazione tra il sistema linguistico, il sistema visivo e il sistema motorio per la comprensione della comunicazione [125]. Considerando, ad esempio, le componenti fonologiche è stata rilevata una differenza tra ascoltare un fonema e ascoltare un fonema in associazione alla rappresentazione visiva del movimento delle labbra [126]. O ancora, si pensi al ruolo prioritario della rappresentazione motoria nella comunicazione non-verbale tramite la mediazione di sistemi corticali specifici [127]. Il rapporto comunicazione/azione è stato recentemente rinsaldato grazie all’evidenza che esiste un legame diretto tra comunicazione verbale e sistemi motori in senso lato. O, ancora, è stato osservato che la presenza della gestualità manuale durante la comunicazione incrementa la prestazione dei soggetti in termini di performance mnestica [128]. Sul piano conversazionale e del discorso, risultati empirici suggeriscono la necessità di considerare la conversazione e l’interazione alla luce dei processi di accomodamento come meccanismo di progressiva convergenza dei sistemi comunicativi verbali e non-verbali tra i parlanti [129]. Proponiamo di seguito le principali componenti che intervengono nella caratterizzazione dell’uso del linguaggio in un contesto di interazione. Si tratta di componenti che si riferiscono a piani gerarchici di diversa natura: dalle unità microcomunicative, che riguardano il sistema vocale, alle componenti di pertinenza enunciativa, che qualificano tipologie di atti comunicativi; al piano macrocomunicativo, che si riferisce più in generale al discorso e alla conversazione. Da ultimo intendiamo considerare le più ampie competenze di cognizione sociale, legate ai processi di auto- ed etero-attribuzione e alle cosiddette funzioni metacognitive. Più in generale, si evidenzia da quanto detto in precedenza che intendiamo le funzioni pragmatiche della lingua non come unicamente ciò che è posto al servizio del significare o “voler dire” di un messaggio (ciò che è implicato dal messaggio o
1. Basi biologiche dei sistemi linguistici e comunicativi
25
implicitamente comunicato) in aggiunta a “ciò che è detto” (il significato vero-condizionale o letterale esplicitamente comunicato) [130]. La pragmatica ha direttamente a che fare con quanto un parlante dice attraverso la lingua [131]. Pertanto le funzioni della pragmatica divengono essenzialmente ancorate al linguaggio e non solo al contesto, come tradizionalmente veniva proposto [132]. L’ampia sintesi delle funzioni svolte dalle componenti paralinguistiche rende ragione di tale distinzione.
1.6.1. Componenti paralinguistiche Gli aspetti paralinguistici possono essere sintetizzati come l’insieme di componenti che includono la struttura prosodica e soprasegmentale di un messaggio [133]. Esse sono classificate nel più ampio dominio delle componenti vocali non-verbali, ma distinte a loro volta dalle componenti non-verbali di natura extralinguistica, che comprendono il sistema mimico, quello gestuale e quello prossemico [134]. Queste ultime verranno considerate specificamente nella terza sezione del volume (si veda il Capitolo 8). Focalizziamo innanzitutto le funzioni pragmatiche esplicate dal sistema prosodico, con particolare attenzione alle proprietà emotive. Sistema prosodico Il sistema prosodico costituisce una componente del sistema paralinguistico e svolge un ruolo prominente nell’organizzazione della comunicazione e delle funzione discorsive. In quanto componente soprasegmentale, esso consente di dare connotazione ai termini [135, 136] attraverso la modificazione di alcuni parametri, quali il profilo di intonazione, il timbro, l’intensità, l’accento, lo stress ed i parametri temporali (ritmo di eloquio, di articolazione, fenomeni pausali). Trager [137] ha introdotto una specifica classificazione delle componenti vocali che non hanno una struttura propriamente linguistica (il paralinguaggio appunto). Il paralinguaggio, distinto dalle componenti più propriamente extralinguistiche, è a sua volta scomponibile in: – qualità vocali: tempo, ritmo, tonalità. Sono modificazioni di ciascun segnale vocale che accompagnano l’articolazione dei fonemi; – vocalizzazioni: caratterizzatori vocali (pianto, riso, ecc.), qualificatori vocali (sono simili alle qualità vocali, ma provvedono a variare non un intero enunciato, ma solo parti di esso, ad esempio nell’enfatizzare un elemento della frase), segregati vocali (anch’essi non linguistici, comprendono i grugniti, i rumori della lingua, le non-parole impiegate come parole, quali “shhh”, “ah”…). Le componenti paralinguistiche sono quindi effetti vocali, che vengono percepiti come aventi tono, volume e durata, ma che sono propriamente risultanti da meccanismi fisiologici, in quanto sono il prodotto del lavoro diretto della faringe o delle cavità nasali e orali.
26
M. Balconi
In generale, la prosodia viene indicata come elemento fondamentale per caratterizzare il “significato” reale di una comunicazione o il suo “voler dire”. In altri termini, essa fornisce elementi essenziali al parlante su come un enunciato debba essere interpretato o inteso [138]. Le competenze sottese a tali componenti riguardano la capacità di codificare/decodificare la natura del significato attraverso indici non linguistici [139]. Ad esempio, nei casi di ambiguità semantica esse divengono gli elementi distintivi per una corretta attribuzione semiotica nella comprensione di un enunciato. Sul piano delle parole, lo stesso termine o insieme di termini può esprimere contenuti contrapposti in funzione della distribuzione dello stress e della tonia enunciativa. Si consideri l’esempio di un passante incredulo di fronte a un personaggio noto visto in TV, che esclama con una tonia interrogativa: Ma è lui?, che pone il ricevente nella condizione di fornire informazioni circa la reale identità del personaggio, oppure, nel caso di una tonia esclamativa, evidenzia l’incredulità del parlante nel vedere il personaggio stesso (Ma è lui!) e il suo voler comunicare il proprio disappunto. La prosodia costituisce uno strumento rilevante anche da un secondo punto di vista, rispetto al piano della connotazione emotiva del messaggio. La scelta dei termini enunciativi e le modalità prosodiche di produzione consentono, assieme alle più ampie componenti non-verbali, di comunicare le attitudini del parlante, poiché la connotazione rimarca le componenti motivazionali e contribuisce a definire il significato referenziale del messaggio. Nell’esempio seguente Giorgio sta camminando quando improvvisamente si volta all’udire la voce di Carlo che esclama No, tu!: in funzione del tono assunto dal parlante, l’enunciato può significare una felice sorpresa per l’amico rivisto casualmente dopo molti anni, o, al contrario, il tono irritato di chi ha incontrato per l’ennesima volta uno scocciatore. Occorre distinguere opportunamente alcune categorie prosodiche tra loro differenziate in relazione al piano funzionale: a) la prosodia intrinseca, connessa con il profilo intonativo di un enunciato (che consente, per esempio, di distinguere una frase affermativa da una interrogativa); b) la prosodia intellettiva, relativa alle funzioni di accentuazione delle diverse componenti enunciative (per cui possiamo comprendere il significato ironico della frase: Sei proprio simpatico, nel caso in cui l’accento sia posto sul termine proprio); c) la prosodia emotiva, propriamente detta, concernente la funzione vocale di espressione delle emozioni (con la quale possiamo distinguere il profilo della collera, per esempio, da quello della tristezza). Come rilevato da alcune evidenze empiriche, rispetto a queste diverse forme, l’emisfero destro appare particolarmente competente per la prosodia emotiva – rispetto alla prosodia intrinseca – e a quella intellettiva per la quale, tuttavia, mantiene un contributo secondario [138]. Occorre introdurre una ulteriore distinzione tra le due competenze di produzione e di comprensione della prosodia. In generale, studi su soggetti normali o con lesioni corticali hanno mostrato una distinzione tra le due competenze. Il linguaggio di soggetti con lesioni alle aree frontali destre tende a essere aprosodico e può apparire pertanto monofonico. Il soggetto può tuttavia continuare a mantenere intatta la capacità di interpretare il tono di voce nelle sue componenti emotive. Al contrario, soggetti non grado di interpretare il significato prosodico di enunciati ma con competenze preservate per quanto concerne la produzione vocale mostrano lesioni nelle aree posteriori dell’emisfero destro [140].
1. Basi biologiche dei sistemi linguistici e comunicativi
27
Di particolare interesse sono le funzioni prosodiche con funzione di comunicazione delle emozioni. La voce può comunicare emozioni, anche e soprattutto, attraverso la modulazione del ritmo, dell’intonazione e dell’intensità dell’eloquio. Si fa riferimento quindi all’enorme potere evocativo che possiede la voce umana, non solo per quanto viene detto verbalmente, ma anche per come un contenuto viene comunicato. Nello specifico, la comunicazione delle emozioni fa ricorso a modificazioni dei parametri vocali per differenziare profili emotivi, per i quali si è giunti a porre in luce l’esistenza di alcuni pattern vocali sistematici. Si possono infatti distinguere due classi di caratteristiche acustiche: – una classe caratterizzata da un’alta frequenza fondamentale, elevata intensità e velocità; – una classe caratterizzata da bassa frequenza fondamentale, scarsa variazione di tonalità, debole intensità e ridotta velocità. Analizzando le emozioni caratterizzate dall’una o dall’altra delle due precedenti configurazioni si può osservare che il pattern costituito dalla combinazione di alta frequenza/alto volume/alta velocità corrisponde a emozioni che richiedono un elevato grado di attivazione (elevato arousal) (come gioia, rabbia, paura), mentre il secondo pattern è distintivo delle emozioni a basso livello di attivazione (basso arousal come indifferenza, noia, tristezza) [133]. Deficit neuropsicologici della prosodia Studi approfonditi sono stati realizzati anche sul versante dei deficit di produzione e di riconoscimento delle componenti prosodiche in generale e di quelle emotive in particolare. L’analisi volta a indagare la funzionalità o disfunzionalità delle competenze prosodiche impiega generalmente modalità richiestive al soggetto, al fine di produrre enunciati in formato dichiarativo con una particolare tonia affettiva (per esempio con rabbia o gioia) o con una particolare enfasi. Sul versante della comprensione, al contrario, si richiede al soggetto di identificare il particolare pattern emotivo o il significato non letterale (ad esempio, ironico) veicolato dall’enunciato. Occorre sottolineare una generale difficoltà nel classificare i disturbi prosodici, legata alla mancanza di un modello esaustivo della normale performance prosodica che includa sia i parametri acustici sia quelli fisiologici, sebbene alcuni progressi sono stati compiuti di recente [133]. In generale, sono stati individuati diversi disordini clinici relativi alla prosodia. La disprosodia, intesa come un mutamento delle qualità vocali che in alcuni pazienti dà origine alla sindrome del cosiddetto “accento straniero”, generalmente associata alle forme di afasia non fluente e che comporta principalmente lesioni dell’emisfero destro. In questo caso, gli aspetti emotivi possono rimanere intatti, implicando unicamente compromissione degli aspetti articolatori del discorso associati alla produzione, pronuncia e intonazione dell’enunciato. L’aprosodia, al contrario, denota una costrizione nella modulazione dell’intonazione comunemente presente nei soggetti con Parkinson. Infine,
28
M. Balconi
l’iperprosodia implica un uso sproporzionato e accentuato della prosodia, spesso correlata a disturbi maniacali. Nella maggior parte dei casi, deficit delle componenti prosodiche implicano lesioni più o meno estese dell’emisfero destro. Tuttavia, alcune evidenze empiriche sembrano andare in direzione opposta, rilevando la presenza in soggetti afasici di una correlazione positiva tra la comprensione di enunciati e il decoding della prosodia, con particolare riferimento a quella affettiva. Ciò suggerisce che una lesione localizzata nell’emisfero sinistro che pregiudichi la comprensione possa anche compromettere la comprensione linguistica delle componenti prosodiche. Occorre tuttavia sottolineare che il paralinguaggio, al pari del linguaggio, utilizza la materia fonica per essere prodotto: infatti, un aspetto rilevante nell’analisi delle funzioni della prosodia riguarda la necessità di assicurare un corretto coordinamento e un’integrazione tra le componenti articolatorie-verbali e gli elementi prosodiciaffettivi, al fine di ottenere una comunicazione unificata e temporalmente coerente. Disturbi linguistici che implicano compromissioni nella capacità di comprendere le unità fonetiche possono produrre, pertanto, un concomitante deficit nella comprensione della prosodia affettiva [141]. Rispetto alla prosodia affettiva, sono state rilevate specifiche disfunzioni sottocorticali in associazione a deficit di produzione e comprensione [142]. Tra le diverse componenti, i gangli della base mostrano di avere un ruolo per la prosodia affettiva. Un tipico effetto di disfunzionalità della componente prosodica è costituito dal linguaggio monotonico, associato a lesioni sia dell’emisfero destro sia di quello sinistro, così come a strutture sottocorticali. Variazioni dai valori normativi nei parametri della F0 sono state rilevate sia per soggetti con danni cerebrali destri che sinistri [143, 144]. Parallelamente, deficit nella comprensione e nella produzione di contenuti emotivi lessicali sono stati individuati in diverse ricerche. Più specificamente, una mancanza di contenuti emotivi nel lessico parlato in congiunzione alla difficoltà nell’identificare e descrivere stati emotivi è stata denominata alessitimia, con una chiara predominanza di deficit destri. È stato infatti rilevato che l’emisfero destro è in grado di organizzare il proprio lessico in accordo a principi contestuali, affettivi e idiosincratici [114, 145]. Difficoltà nel produrre e comprendere parole a contenuto emotivo sono state osservate anche per pazienti commisurotomizzati, probabilmente a causa della mancanza di un normale flusso di informazioni dall’emisfero destro a quello sinistro. Alcune teorie spiegano la prevalenza emisferica destra per le funzioni emotive della prosodia facendo ricorso a un’ipotesi percettiva, secondo cui l’emisfero destro sarebbe privilegiato per processamento di stimoli uditivi; altre impiegano un’ipotesi funzionale, secondo cui il valore di indici emotivi privi di valore semiotico (in quanto entità non linguistiche) sarebbe di pertinenza dell’emisfero destro (per una revisione si veda [140]).Tuttavia, anche l’emisfero sinistro non è privo di ruolo per la comprensione delle componenti emotive della voce. La predominanza destra sarebbe infatti relativa alle cosiddette componenti affettive non-verbali (di natura prosodica appunto), distinta dalla semantica emotiva, ovvero la capacità di etichettare le emozioni e di comprenderne il significato in funzione allo specifico conteso (ad esempio, un soggetto può non essere in grado di comprendere che un individuo è triste poiché ha subito recentemente una perdita). Complessivamente, entrambi gli emisferi appa-
1. Basi biologiche dei sistemi linguistici e comunicativi
29
iono essere coinvolti nella comprensione delle componenti prosodiche affettive. Infatti, deficit nella capacità di comprendere la prosodia affettiva sono legati anche a lesioni sinistre, così come un’attivazione bilaterale destra e sinistra è stata rilevata in compiti di decoding prosodico, secondo un crescente consenso che attribuisce maggiore credito all’ipotesi della dominanza “relativa” piuttosto che “assoluta” per l’emisfero destro [146]. Modelli più recenti vanno nella direzione di una visione più strumentale dell’emisfero sinistro, con funzioni integrative, che ha il compito di combinare il prodotto di processi emozione o tono-correlati, tipicamente destri, con il prodotto di processi semantico-verbali propri delle aree sinistre [143]. Occorre precisare che la metodologia di studio utilizzata in ambito neuropsicologico non appare irrilevante per chiarire il ruolo dei due emisferi nelle competenze prosodiche emotive. Differenti disegni e compiti di ricerca possono infatti rendere più o meno preponderante il contributo delle aree destre o sinistre. I diversi esperimenti includono, infatti, compiti di discriminazione della prosodia emotiva a partire da eventi appaiati (discriminazione emotiva); compiti di identificazione del significato emotivo di indici prosodici rispetto a etichette verbali o a espressioni facciali (identificazione emotiva); esprimere un giudizio su stimoli prosodici per dimensioni come la valenza o l’intensità (valutazione emotiva). Risultati diversi sembrano essere legati ai compiti diversi, con una conferma del contributo di entrambi gli emisferi alla produzione e alla comprensione della prosodia emotiva [140].
1.6.2. Atti linguistici indiretti e funzioni pragmatiche del linguaggio figurato L’emisfero destro è caratterizzato da una specifica competenza anche per le funzioni pragmatiche del linguaggio propriamente dette, che riguardano l’uso dei significati in un dato contesto. Il rapporto tra pragmatica e neuropsicologia è divenuto rilevante in questo ambito alla luce soprattutto di due aspetti: la necessità di fare riferimento più stretto alle componenti cognitive e ai processi di produzione/elaborazione del significato in condizioni non ordinarie (o non standard) [147]; il quesito circa lo status delle funzioni che presiedono alla pragmatica, ovvero la loro dipendenza/indipendenza funzionale dagli altri piani della struttura componenziale [29]. Tra le funzioni pragmatiche del linguaggio, possiamo fare riferimento in particolare ai fenomeni di seguito descritti. – Gli atti linguistici indiretti e la comunicazione implicita. A questo proposito, l’emisfero destro appare in grado di elaborare le informazioni implicite dell’atto comunicativo. Risulta, infatti, che soggetti con lesioni destre, essendo incapaci di valutare correttamente gli elementi contestuali, non possiedono una corretta comprensione delle componenti non esplicite del messaggio, quali la finzione e l’allusione [148]. Inoltre, è stato accertato che soggetti con lesioni dell’emisfero destro hanno difficoltà nel comprendere il significato delle richieste indirette. Tale fenomeno appare attribuibile all’incapacità di questi soggetti di attivare modelli rappresentazionali coerenti con il contesto comunicativo [149].
30
M. Balconi
– Il linguaggio figurato, tra cui citiamo come esempio la comunicazione ironica o il significato metaforico. Particolare attenzione è posta in questo caso sul ruolo svolto dalle operazioni cognitive che consentono il passaggio da un piano di codifica/decodifica diretta e immediata a un piano indiretto. All’interno di molti modelli esplicativi diviene centrale il problema delle inferenze che garantiscono il legante tra un livello per così dire “superficiale” e un livello “profondo” del significato [150]. Molto modelli propri della pragmatica cognitiva hanno cercato di individuare differenze quantitative e/o qualitative nei due percorsi. Citiamo come esempio le analisi di Gibbs [131] sul rapporto tra accesso diretto e indiretto del significato figurato. O i lavori di Coulson [151] sulla natura dei significati non letterali, equiparati a forme di anomalia semantica, in contrapposizione ai significati letterali non anomali. In altre parole, l’autrice postula la validità dell’equazione che pone il significato standard come semanticamente non anomalo e il significato non standard come equiparabile a un’anomalia semantica, in virtù di quanto rilevato da una serie di studi con rilevazioni ERP. Recenti contributi empirici sembrano andare nella direzione dell’automaticità e immediatezza della comprensione di significati non letterali, sino alle ipotesi più radicali secondo cui che ciò che viene prodotto nell’atto di comprendere un qualsiasi messaggio è una rappresentazione concettuale, che consente di andare oltre la distinzione tra letterale/non letterale [152, 153]. Entrambe le componenti sovracitate degli atti linguistici indiretti e del linguaggio figurato attingono a una più ampia capacità richiesta al parlante di fare inferenze nel caso sia necessario accedere a significati meno espliciti o per così dire meno direttamente fruibili a livello superficiale [154]. La comunicazione rende necessario l’intervento di processi interpretativi che soddisfino la necessità di anticipare informazioni non esplicitamente presenti nel discorso. Tali competenze sono particolarmente rilevanti nella comprensione del linguaggio figurato, come nel caso dell’ironia e della metafora, ma anche ordinariamente per contesti comunicativi semanticamente ambigui. Lesioni all’emisfero destro sono state correlate alla difficoltà di comprensione del piano inferenziale: soggetti con deficit destri mostrano un’incapacità nel processo inferenziale logico o nelle inferenze basate su conoscenze logiche. Più in generale, l’incapacità di scegliere modelli interpretativi adeguati alla conversazione assieme ai deficit inferenziali metacognitivi può essere correlata alla compromissione focale di componenti dell’emisfero destro. Gli studi con neuroimaging hanno mostrato una sostanziale concordanza nell’attribuire all’emisfero destro proprietà di elaborazione di significati figurati, come nel caso delle metafore. Uno studio interessante con rilevazione PET di Bottini e colleghi [155] ha evidenziato come tale emisfero sia maggiormente attivato nella comprensione di enunciati metaforici rispetto a enunciati letterali. In particolare, la regione dorsolaterale prefrontale e il giro temporale mediale, nonché il lobo parietale mediale dell’emisfero destro appaiono maggiormente coinvolti nell’elaborazione di significati metaforici. L’autrice attribuisce un maggiore contributo da parte dell’emisfero destro a causa della necessità di riattivare esperienze immaginabili dalla memoria episodica. Tale ipotesi è stata supportata più recentemente da Fletcher e colleghi [156] che hanno supposto un maggiore
1. Basi biologiche dei sistemi linguistici e comunicativi
31
coinvolgimento destro al fine di ispezionare le immagini prodotte in concomitanza alla comprensione metaforica. Tuttavia, si pone il problema dell’effettiva modularità funzionale dei percorsi di produzione/comprensione di componenti pragmatiche, con risvolti diretti sul piano delle strutture corticali (modularità strutturale) a essi sottese. Innanzitutto, occorre domandarsi se tali funzioni siano isolabili dalle altre funzioni comunicative in termini processuali. In secondo luogo, occorre chiedersi se queste ultime siano temporalmente distinte dalle precedenti. L’argomento risulta essere di difficile trattazione in primo luogo a ragione del fatto che il concetto di modulo è esso stesso oggetto di dibattimento (con posizioni più o meno “radicali”) (al riguardo si veda il Capitolo 2); secondariamente, i piani di analisi appaiono eterogenei, in virtù del fatto che l’oggetto di cui si discute è per sua natura multiforme. Infatti, è presumibile che nell’attivazione di percorsi inferenziali per la comprensione di significati figurati siano chiamati in causa processi almeno parzialmente distinti da quelli implicati, ad esempio nella comprensione dell’ambiguità semantica. Una terza difficoltà è rappresentata dalla diversa metodologia impiegata nello studio dei fenomeni pragmatici. Le ricerche più recenti si avvalgono di indici elettrofisiologici o più propriamente di rilevazioni mediante neuroimaging. Questi solo negli ultimi anni hanno consentito di evidenziare con maggiore chiarezza il contributo di specifiche aree per altrettanto specifici processi comunicativi. Accanto a essi, esiste, tuttavia, anche un numero consistente di studi empirici che fanno ricorso a indici di natura comportamentale (ad esempio, con rilevazioni dei TR o dei movimenti oculari, si veda il Capitolo 2), ponendo la necessità di integrare prospettive differenti al fine di rispondere in modo quanto più esaustivo possibile ai diversi quesiti.
1.6.3. Problema della specializzazione emisferica per le funzioni comunicative superiori Occorre a questo punto evidenziare che un oggetto di crescente interesse per gli studiosi concerne la specializzazione emisferica delle funzioni comunicative e in particolare di quelle pragmatiche. Considerando l’insieme di studi che hanno esplorato tale tematica è stato rilevato che la specializzazione emisferica corticale destra può essere riferita a quattro principali funzioni: a) le componenti non-verbali in genere e il linguaggio figurato in particolare; b) le componenti paralinguistiche della comunicazione; c) i compiti percettivi complessi che includono l’identificazione di volti a contenuto emotivo; d) le componenti emotive in senso lato. Più in dettaglio, una specificità funzionale dell’emisfero destro concerne la produzione e l’analisi delle proprietà prosodiche del linguaggio (si veda il paragrafo 1.6.1) [157]. Ad esempio, l’identificazione delle componenti vocali del tono e il profilo di intonazione appaiono essere di pertinenza dell’emisfero destro, come rivelato da studi che hanno impiegato il metodo dell’ascolto dicotico. Anche compiti di natura non-verbale chiamano in causa principalmente l’emisfero destro, così come compiti di riconoscimento di volti non familiari. Focalizzando le componenti emotive della comunicazione, esse appaiono lateralizzate nelle aree destre,
32
M. Balconi
sia per quanto concerne l’espressione delle emozioni che rispetto all’esperienza emotiva. Più in generale, un insieme di fenomeni riconducibili all’esperienza emotiva appare strettamente legato all’emisfero destro, tra cui l’abilità di esprimere le emozioni attraverso la prosodia, la mimica facciale, i gesti, così come la capacità di comprendere la natura dell’emozione espressa mediante la prosodia e la mimica emotiva. Esperimenti che hanno impiegato indici elettrodermici hanno evidenziato una minore risposta del soggetto a stimoli con contenuto emotivo nel caso di lesioni destre [158]. In particolare, la corretta comprensione degli aspetti emotivi dei volti richiede il contributo dell’emisfero destro, mentre meno rilevante appare quello dell’emisfero sinistro. Quest’ultimo conserva, tuttavia, una generale competenza per la semantica delle emozioni, in quanto ha la capacità di interpretare lo “sfondo” emotivo delle situazioni (per esempio, individuando il legame tra tristezza ed eventi luttuosi); per contro, la capacità di interpretare il significato di un’espressione facciale, di un gesto o della variazione del tono di voce è scarsamente influenzata dal contributo dell’emisfero sinistro. Dall’altro lato, i risultati relativi alla funzione espressiva di produzione delle emozioni appaiono più eterogenei: entrambi gli emisferi presentano tale competenza, sebbene sia distribuita in funzione del canale sensoriale implicato, quello visivo o vocale. Rispetto al primo canale, i due emisferi apportano un contributo equo, anche se differenziato per gli specifici compiti richiesti (definizione di dettaglio o dell’intera configurazione mimica). Rispetto al secondo, l’elaborazione delle componenti affettive mediante il canale vocale è prerogativa dell’emisfero destro piuttosto che di quello sinistro [159] (al riguardo si veda il Capitolo 9). Tre principali teorie hanno cercato di rendere conto di tale differenziazione emisferica. Secondo l’approccio percettivo, le differenze tra gli emisferi sarebbero legate ad abilità percettive distinte nell’elaborazione delle proprietà sensoriali di base, che supportano successive differenziazioni nell’esecuzione delle operazioni cognitive di più alto livello. In particolare, l’ipotesi della frequenza spaziale prevede che i due emisferi si differenzino nel processo di elaborazione delle informazioni rispetto alla proprietà della frequenza spaziale misurata in cicli per grado di angolo visivo (ogni ciclo corrisponde all’alternanza di due superfici circoscritte e fra loro adiacenti, una scura e una chiara) [160]. L’informazione visiva è a bassa frequenza nel caso in cui, in un dato spazio, si ha un valore modesto di cicli per grado, mentre è ad alta frequenza quando tale valore risulta elevato. L’emisfero destro sarebbe deputato a elaborare stimoli a bassa frequenza spaziale, mentre quello sinistro sarebbe specializzato nell’individuazione di frequenze spaziali elevate. Sulla base di tale distinzione, si è ritenuto che, mentre l’emisfero sinistro utilizza un “codice di dettaglio” nell’elaborazione delle informazioni, quello destro faccia ricorso a un “codice globale”. Il secondo approccio prende in considerazione le diverse modalità di elaborazione dell’informazione nei due emisferi, in quanto vi è un differente “stile” di elaborazione, di tipo olistico o, al contrario, di tipo analitico [161]. La modalità analitica, attribuibile all’emisfero sinistro, ha la propria specificità nella rilevazione delle relazioni temporali, mentre la modalità olistica, caratteristica dell’emisfero destro, è adatta alla rilevazione di configurazioni complessive (rappresentazione sintetica) e, in particolare, all’elaborazione delle relazioni spaziali. Tuttavia, ricerche effettuate su soggetti con funzioni intatte e soggetti con deficit hanno posto in evidenza che entrambi gli emisferi sono chiamati in causa per l’elaborazione delle
1. Basi biologiche dei sistemi linguistici e comunicativi
33
medesime informazioni in funzione della modalità di elaborazione richiesta. Per esempio, nel riconoscimento di volti, per cui l’emisfero destro appare possedere una superiorità rispetto a quello sinistro, l’attivazione dell’uno o dell’altro emisfero dipenderebbe non dal tipo di informazione in sé, ma da quanto richiesto dal compito: nel caso in cui il riconoscimento sia legato alla rilevazione di dettagli (per esempio, gli occhi), si osserva una superiorità emisferica sinistra (processo analitico) piuttosto che destra (processo olistico). Le caratteristiche distintive dei due emisferi in termini rappresentazionali secondo la dicotomia “analitico/sintetico” consentono di spiegare una serie di fenomeni relativi alle funzioni comunicative e pragmatiche, come la rappresentazione dei significati e l’attivazione di molteplici percorsi interpretativi nell’elaborazione di parole semanticamente ambigue. In particolare, risulta che l’emisfero destro sia specializzato per l’attivazione simultanea di significati multipli in riferimento a termini ambigui all’interno di un enunciato [114]. Infatti, nella comprensione del significato occorre che alcune caratteristiche semantiche dei termini siano selezionate (informazioni pertinenti) a discapito di altre non rilevanti (informazioni non pertinenti) per il contesto. In questo processo, l’emisfero sinistro sarebbe deputato alla selezione delle informazioni pertinenti a monte dell’attribuzione del significato (selettività semantica), mentre l’emisfero destro potrebbe rappresentare l’intero campo semantico del lemma, e i possibili legami concettuali che il lemma intrattiene con altri campi semantici secondo il principio della somiglianza (polivalenza semantica), come appare nella Figura 1.4. Nel complesso, per l’emisfero destro vale il principio dell’estensione e della sovrapposizione, per il sinistro quello della selezione e della distinzione.
Fig. 1.4 Attivazione dei campi semantici nei due emisferi. Mentre l’emisfero sinistro attiva un campo semantico ristretto, selezionando le proprietà essenziali della parola, quello destro prevede un campo semantico più esteso e più indefinito, che include proprietà tra loro anche distanti. In riposta a una parola (in basso), l’emisfero destro presenta possibili aree di sovrapposizione nel campo semantico, con associazioni tra parole anche distanti tra loro
34
M. Balconi
Le due teorie precedenti possono essere combinate in una prospettiva di integrazione [73]. Infatti, le differenze riscontrate nei due emisferi rispetto alla modalità di percepire gli stimoli e agli “stili” di elaborazione possono essere integrate in un’unica prospettiva. Da un lato, l’estrapolazione di informazioni a bassa frequenza può indurre l’emisfero destro a elaborare le informazioni in modo più globale, dall’altro, la superiorità dell’emisfero sinistro per le informazioni ad alta frequenza può determinare una concomitante specializzazione per processi “analitici” e per modalità di elaborazione “locale” piuttosto che “globale”. Tuttavia, a questo punto, è utile precisare che, tra le funzioni linguistiche e comunicative, solo alcune appaiono chiaramente soggette alla lateralizzazione e, per molte di queste (ad esempio, i processi linguistici di lettura o l’attribuzione delle proprietà grammaticali alle parole), entrambi gli emisferi appaiono fornire il proprio contributo, seppure con ruoli distinti sul piano qualitativo e quantitativo. Distinguiamo, pertanto, tra specificità funzionale emisferica, nel caso in cui una determinata funzione sia prerogativa di uno dei due emisferi e aspecificità funzionale, nel caso in cui un emisfero possieda competenze per quella funzione, ma con un ruolo secondario e di supporto rispetto all’altro. A questo riguardo occorre superare sia l’equazione tradizionale “emisfero sinistro = linguaggio” sia la concezione dell’aspecificità dell’emisfero destro per il linguaggio, da intendersi come semplice “facilitatore” dei processi linguistici. Infatti, gli studi sulle proprietà comunicative dell’emisfero destro si sono perlopiù concentrati sulla comprensione dei termini (semantica lessicale) [114]. In quest’ambito è emerso che tale emisfero svolge un ruolo specifico nell’attribuzione di significato alle parole indipendentemente dai vincoli sintattici e del contesto enunciativo nel quale il termine è collocato (rappresentazione intralessicale). In particolare, l’opzione a favore del significato intralessicale (rispetto a quello intraenunciativo) fornisce un indubbio vantaggio, dal momento che tale rappresentazione è formulata a partire da un contesto informativo più semplice e meno strutturato rispetto al contesto enunciativo. L’emisfero destro favorisce più facilmente del sinistro l’interscambiabilità semantica nella rappresentazione del significato, con possibili sovrapposizioni di proprietà appartenenti a termini tra loro semanticamente associati [162]. Inoltre, l’emisfero destro svolge la funzione di rappresentare semanticamente stimoli che compaiono in modalità differenti da quella proposizionale, come le immagini e gli stimoli visivi, consentendo la “traduzione” concettuale dello stimolo a partire dalla sua configurazione visiva.
1.5.4 Neuropragmatica del discorso Nell’ultimo decennio, un interessante sviluppo della neuropragmatica è andato nella direzione dell’analisi del piano sovraenunciativo del discorso. È innanzitutto necessario distinguere tra differenti tipologie di discorso, ovvero tra la cosiddetta narrazione [163] e la produzione conversazionale [164], che include la presenza di uno scambio tra parlante e astante. Quest’ultimo rappresenta il contesto privilegiato di comunicazione umana, cui sarà dedicato un apposito paragrafo (si
1. Basi biologiche dei sistemi linguistici e comunicativi
35
veda il paragrafo 1.6.5), mentre analizziamo nel presente il discorso di tipo narrativo. Obiettivo di questa analisi è quello di considerare i processi sovraordinati di produzione e comprensione di unità comunicative articolate o di strutture discorsive sovrimposte. Tra le componenti di maggiore interesse del discorso indagate da una prospettiva pragmatica, sono degni di nota gli studi circa le competenze del parlante nel comprendere coerentemente parti del discorso, nel definire sequenze logiche e nel focalizzare gli elementi di maggiore rilevanza nella struttura complessiva del discorso [165]. Tale struttura consente di organizzare le unità del discorso così da consentire il collegamento di periodi all’interno di enunciati o di episodi all’interno di storie. Recenti evidenze empiriche hanno sottolineato il contributo dell’emisfero destro nella produzione e nella comprensione del discorso narrativo, in termini di capacità di organizzazione degli enunciati per la costruzione di una storia, o di valutazione della rilevanza di un enunciato per la comprensione complessiva del discorso [166]. Individui con danni focali destri mostrano una maggiore difficoltà nell’estrapolazione delle componenti tematiche di storie o nell’utilizzo di informazioni per ricostruire una rappresentazione adeguata dell’intero discorso [167]. Un’analoga difficoltà è stata rilevata per la comprensione di passaggi ambigui del discorso, come nel caso di contesti polisemici. Dati a favore della specificità corticale destra per le funzioni del discorso provengono dall’analisi delle componenti tematiche del discorso, come lo studio di Caplan e Dapretto [168], sebbene in questo caso gli autori sottolineino anche il contributo delle aree perisilviane oltre che dei loro omologhi destri. Studi interessanti riguardano inoltre l’analisi della coerenza discorsiva [46] o della capacità di comprendere il significato intrinseco di racconti [169]. In quest’ultimo caso, mediante rilevazione PET è stata osservata una maggiore attivazione del giro frontale inferiore e del giro mediotemporale, entrambi dell’emisfero destro. Competenze discorsive: il modello di Kintsch e van Dijk In generale, le competenze discorsive presuppongono la capacità di attivare un processo cognitivo multilivello che prevede la concettualizzazione delle singole unità come parte di un tutto. Tale competenza si esplica come facoltà di integrazione di differenti piani funzionali, tra cui la capacità di avere una rappresentazione completa delle informazioni, grazie a opportune inferenze atte a garantire la corretta interpretazione del significato, nonchè la capacità di comprendere gli aspetti sia letterali che figurati del messaggio. Gran parte della letteratura esistente si è focalizzata sugli aspetti di coerenza lessicale e morfosintattica del discorso, di maggiore pertinenza della neurolinguistica del discorso [170]. Citiamo, tra gli altri, gli studi che hanno impiegato indici grammaticali e semantici del discorso (come il type/token ratio, l’indice di varietà lessicale ecc. [171]; indici relativi alla struttura complessiva (come la lunghezza degli enunciati, il numero di periodi ecc.) [172], o ancora elementi che possono essere ricondotti all’organizzazione semantica del discorso [173]. In altri casi, sono state impiegate misure indirette di coesione del discorso, come nel caso dei fenomeni anaforici, delle ripetizioni lessicali, della sinonimia ecc., che defi-
36
M. Balconi
niscono il grado di coerenza della rappresentazione del discorso nel parlante e, di converso, dell’interpretazione da parte del ricevente [174]. Seppure non esime da critiche, il modello proposto da van Dijk e Kintsch [175] consente di sintetizzare alcuni dei passaggi cruciali nella rappresentazione della tipologia di discorso narrativo e di fare previsioni circa i processi comunicativi e cognitivi sottostanti alla produzione/comprensione della struttura discorsiva. L’approccio ha focalizzato unità di metalivello, tra cui unità metafrasali, coincidenti con strutture organizzate secondo un insieme di regole e un insieme finito di relazioni che intercorrono tra sotto-unità (ad esempio di tipo causale o secondo sequenze temporali). Tali unità possono includere episodi a loro volta costituiti da setting, obiettivi, personaggi ecc. Sul piano cognitivo, occorre che vi sia un’adeguata rappresentazione mentale in grado di contemplare le unità componenti e le loro reciproche relazioni. In particolare, un elemento focale è costituito dal concetto di rapporto causale tra elementi costitutivi. Suggerimenti euristici sul modo con cui i soggetti possano rappresentarsi il discorso giungono dal concetto di macrostruttura presente nel modello [176]. L’interpretazione di un testo è vista come un processo in tempo reale limitato dal carattere finito della memoria a breve termine del decoder. L’analisi e la comprensione procedono attraverso fasi cicliche che includono la suddivisione in microproposizioni, formate da predicato (verbo) e argomento (agente, obiettivo, oggetto). Microproposizioni organizzate gerarchicamente all’interno di un network sono legate insieme a formare l’unità tematica principale del discorso. Quest’ultima costituisce un elemento di primo piano nell’intera struttura. L’attribuzione tematica può consentire infatti l’interpretazione di informazioni ambigue o indefinite, può facilitare le inferenze circa quanto non è stato esplicitamente asserito e permette di fare previsioni su quale informazione sarà aggiunta probabilmente in seguito, determinando il sistema di attese semantiche del parlante. Il processo inferenziale viene attivato al fine di rappresentare il testo e la sua organizzazione secondo network, all’interno di un processo di costruzione/ricostruzione della macrostruttura del testo. Sul versante cognitivo, la comprensione può essere più o meno complessa in funzione delle sforzo richiesto per connettere tra loro le diverse parti del discorso in un insieme dotato di senso e implica la capacità di utilizzare strategie cognitive adeguate al contesto per la definizione del tema del discorso. A questo riguardo, l’emisfero destro mostra una specifica competenza per l’elaborazione di percorsi di senso concernenti l’organizzazione generale delle componenti tematiche di più alto ordine secondo una gerarchia di livelli, da quello analitico (o microstruttura) a quello sintetico (o macrostruttura). Soggetti con lesioni localizzate nell’emisfero destro (afasia da danno cerebrale destro) mostrano una complessiva difficoltà nel ricostruire il senso complessivo del discorso, nel fare inferenze su quanto è stato detto e nel discriminare ciò che è effettivamente rilevante della struttura articolata del discorso. Tra le funzioni maggiormente compromesse in caso di emilesione destra delle aree del linguaggio (sia di Broca sia di Wernicke), vi è l’incapacità di organizzare la sequenza degli enunciati che compongono il discorso e di determinare quali informazioni siano maggiormente rilevanti per attribuire un significato globale al medesimo [166].
1. Basi biologiche dei sistemi linguistici e comunicativi
37
1.6.5. Funzioni di regolazione della conversazione Le funzioni pragmatiche sono state analizzate nel più ampio contesto dell’interazione comunicativa, che considera quali componenti centrali le dinamiche di reciproco scambio tra i parlanti. Il discorso conversazionale o conversazione può essere rappresentato come un’interazione finalizzata tra individui all’interno di coordinate spazio-temporali, che richiede specifiche competenze da parte degli attori comunicativi. Tali funzioni includono il più ampio insieme delle competenze di gestione dell’interazione e di regolazione del comportamento nel contesto sociale. Sul piano metodologico, gli strumenti impiegati per indagare le competenze pragmatiche della conversazione sono tra loro notevolmente differenziati, anche rispetto alla specifiche finalità cui rispondono. Citiamo, tra gli altri, alcuni test classici quali il PONS (Profile of Nonverbal Sensitivity, [177]), che consentono di rilevare l’abilità di fare inferenze a partire da stimoli complessi come vignette o script viedoregistrati, ponendo in evidenza il rapporto tra setting conversazionale e componenti non-verbali (quali postura, tono di voce ecc.). La neurolinguistica ha principalmente adottato come modello della conversazione la prospettiva pragmatica di Grice [27], con una serie di implicazioni derivate dal principio di cooperazione da essa proposto. Più recentemente, alcuni modelli hanno focalizzato il ruolo delle implicature conversazionali [30, 118], al fine di attribuire maggiore rilievo al rapporto di mutuo scambio tra emittente-ricevente e alle reciproche inferenze necessarie allo svolgimento dell’atto comunicativo. Sul piano cognitivo, l’insieme di rappresentazioni prodotte reciprocamente dai parlanti costituisce il background cognitivo che garantisce coerenza e pertinenza alla dinamica comunicativa: la rappresentazione delle conoscenze rese salienti dalla comunicazione in atto e la condivisione delle conoscenze contestuali danno vita a un muto ambiente condiviso. Un recente filone di ricerca si è focalizzato sugli aspetti costitutivi dell’atto comunicativo, nei termini dei meccanismi di intenzionalizzazione e di reintenzionalizzazione della comunicazione [31]. Anche il concetto di modello mentale è stato ampiamente considerato all’interno dello studio della pragmatica della conversazione. Secondo tale prospettiva, gli elementi rappresentazionali focali della conversazione sarebbero integrati progressivamente dai parlanti nei propri modelli mentali, aumentando così gradualmente il background di conoscenze condivise. Per i paradigmi che hanno indagato più direttamente le componenti di regolazione della conversazione due elementi appaiono rilevanti: la coerenza locale e la plausibilità globale nella gestione dello scambio. Rispetto alla coerenza essa sarebbe fondata sulla regolazione delle sovrapposizioni (evitare per esempio l’inconsistenza dei legami tra parti del discorso), la progressione tematica (evitare la ridondanza), l’attenzione alle non contraddizioni logiche e la rilevanza pragmatica del discorso [30, 178]. In secondo luogo, elemento costitutivo dello scambio conversazionale è la regolazione dei turni di eloquio (turn-taking) per la gestione delle aperture, chiusure, cessione del turno ecc.: la regolazione dei turni e i cambi avvengono infatti generalmente in contesti transazionali rilevanti [179]. Un parlante gestisce il turno con il proprio interlocutore, autoselezionandosi (ad esempio, attraverso un innalzamento del tono di voce) o selezionando il proprio interlocutore (ad esempio, attraverso una domanda). Un caso significativo è costituito dai turni appaiati, defini-
38
M. Balconi
to da componenti adiacenti della conversazione che dipendono l’uno dall’altro, come nelle aperture con saluti, le offerte-accettazioni/rifiuti. Il tipo di enunciati prodotti da un parlante (come gli atti linguistici delle richieste) e l’influenza delle variabili contestuali sono ulteriori aspetti considerati rilevanti nella conversazione, avendo un impatto diretto sul processo interpretativo. Ad esempio, il carattere diretto o indiretto delle richieste, determinato dal complesso di intenzioni comunicative del parlante, possiede una ricaduta sull’effettiva capacità del ricevente di comprendere correttamente l’intenzione comunicativa dell’emittente (processo di reintenzionalizzazione). Più specificamente, in relazione alla compromissione della capacità di regolazione dei turni di eloquio, dello stile di eloquio o, più in generale, di adeguare il proprio registro comunicativo in funzione del contesto conversazionale, sono stati individuati deficit specifici sul piano delle competenze comunicative sociali. Generalmente, tali deficit sono classificati come disordini della comunicazione interpersonale e possono includere l’incapacità di valutare la plausibilità di elementi con il contesto inferito e rappresentato dal soggetto [180]. Tali deficit si riferiscono alla più generale incapacità di aggiornare o adattare i propri modelli mentali alla situazione reale, con riferimento alle più ampie competenze di comprensione del contesto sociale e di contestualizzazione delle informazioni. Gardner e colleghi [181] hanno sottolineato l’incapacità di un paziente nel contestualizzare gli eventi e nel valutare la loro plausibilità, che si accompagna all’incapacità di cogliere il senso complessivo di uno script conversazionale. Tale competenza, di pertinenza dell’emisfero destro, consentirebbe di giudicare la probabilità o la possibilità che un evento abbia luogo. Deficit specifici destri mostrano inoltre come il soggetto non sia in grado di cogliere l’incoerenza e la violazione della plausibilità semantica di oggetti/eventi in una specifica situazione. Infine, l’impossibilità di comprendere i piani di conoscenza condivisa da parte dei parlanti è stata messa in relazione diretta a deficit di natura rappresentazionale, propri della cognizione sociale (al riguardo si veda il paragrafo 1.7). Un modello multicomponenziale Nell’ottica di una generale integrazione delle differenti componenti che intervengono nel processo di produzione/comprensione della conversazione, riportiamo il modello multicomponenziale di Frederiksen, Bracewell, Breuleux e Renaud [182], che pone in evidenza non solo il piano semantico-pragmatico della conversazione ma anche le competenze concettuali necessarie alla regolazione dello scambio. Secondo tale modello, il processo comunicativo è inteso come una sequenza di espressioni della lingua naturale che rappresenta una parte della più complessa conoscenza concettuale posseduta dal parlante. Esso opera simultaneamente su quattro differenti livelli: linguistico, proposizionale, semantico-pragmatico e concettuale. La componente concettuale, in particolare, è una rappresentazione mentale (o modello) che include informazioni provenienti in parte dalla memoria a lungo termine e in parte direttamente dal contesto discorsivo. Quest’ultimo è costruito secondo un processo incrementale, man mano che lo scambio procede e diviene la cornice interpretativa dell’unità discorsiva di riferimento. I quattro livelli hanno valore di sottoprocessi funzionalmente distinti. La rilevazione di deficit “focali” per alcune di tali funzioni supporta infatti l’esistenza di
1. Basi biologiche dei sistemi linguistici e comunicativi
39
moduli di elaborazione autonomi l’uno dall’altro. In alcuni casi, a fronte di una capacità integra di comprendere “localmente” i contenuti del messaggio, il soggetto presenta una generale carenza nell’estrapolazione delle informazioni pragmatiche (come l’interpretazione del significato figurato o metaforico) o conversazionali (come l’alternanza dei turni tra i parlanti). Alcuni soggetti mostrano, per esempio, consistenti difficoltà nell’elaborare le richieste indirette a fronte di una lesione localizzata nelle corrispondenti aree del linguaggio dell’emisfero destro. Inoltre, deficit relativi unicamente al sistema referenziale, con conseguente incapacità di elaborare significati anaforici, pongono in evidenza l’esistenza di strutture neurali funzionali distinte, quali i lobi temporali e parietali destri. Nel modello di discorso proposto da Fredericksen e colleghi [183] e riportato nella Figura 1.5, le funzioni discorsive più generali (dalla generazione della cornice discorsiva alla produzione della rete semantica) sono di più stretta competenza dell’emisfero destro, mentre le funzioni discorsive più analitiche (come l’analisi sintattica e l’analisi lessicale e morfologica) richiedono più direttamente il contributo dell’emisfero sinistro.
Fig. 1.5 Modello di elaborazione del discorso. Modificata da [183]
40
M. Balconi
1.7 Metacognizione e social cognition Parlare di competenze comunicative significa fare riferimento alle più ampie abilità legate alla social cognition che dirigono il processo di pianificazione prima e di messa in atto poi dell’atto comunicativo [33]. Il concetto di comunicazione come azione e come interazione ha lungo corso [132]. Tuttavia, solo negli ultimi tempi tale concezione è andata ampliandosi sino a includere il più vasto repertorio di competenze “sociali” che si pongono quale requisito la regolazione dello scambio comunicativo. Tra esse, occorre includere il complesso rapporto tra metacognizione e funzioni comunicative [34], non restringendo tuttavia il campo esclusivamente alle funzioni di mentalizzazione o di attribuzione di stati mentali. Piuttosto, occorre tenere presente un insieme articolato di competenze relazionali che costituiscono il bagaglio indispensabile alla regolazione dello scambio tra i parlanti. Le competenze che possono essere incluse in tale ambito si riferiscono più specificamente ad alcune dimensioni, quali: – le capacità di inferire gli stati mentali propri e altrui (classicamente raggruppate nella Theory of Mind); – la conoscenza di stati emotivi come elementi caratterizzanti la comunicazione e i processi di sintonizzazione emotiva; – la capacità di rappresentarsi il contesto relazionale che contraddistingue l’interazione comunicativa e le funzioni di monitoraggio e automonitoraggio del comportamento. Tali competenze possono essere considerate distinte funzionalmente da altre competenze sociali genericamente intese? In altri termini, la loro declinazione nel divenire della comunicazione conferisce alle stesse uno status indipendente, in quanto si declinano secondo modalità processo-specifiche al servizio dell’atto comunicativo? Al fine di rispondere a tali quesiti l’approccio neuropsicologico ha indagato approfonditamente il ruolo di specifiche componenti funzionali e strutturali in relazione alla regolazione della comunicazione tra gli individui [124]. In primo luogo, è necessario prevedere che un qualsiasi scambio comunicativo includa la capacità di rappresentarsi l’altro come dotato di pensieri e motivazioni. Infatti, gli individui, in quanto regolati da complessi stati mentali, costituiscono un esempio unico nel loro genere: con tale peculiarità ciascun individuo deve fare i conti nella realizzazione del proprio atto comunicativo. La ricerca si è indirizzata essenzialmente in due direzioni: verso la definizione delle competenze rappresentazionali finalizzata alla comprensione dell’altro come agente intenzionale [183, 184]; verso i processi di mentalizzazione che caratterizzano la definizione di una teoria della mente propria e altrui [185]. Sul piano neurofunzionale è possibile sostenere che esista una rappresentazione specifica per la categoria degli individui, al pari di quelle precedentemente rilevate per altre categorie di oggetti? [186] Studi recenti sottolineano come sia possibile individuare aree deputate a elaborare in modo discreto sia l’individuo, le sue azioni e il suo comportamento [187] sia gli stati mentali altrui [32]. In particolare, la corteccia prefrontale mediale, la giunzione temporoparietale destra, il solco temporale superiore e il giro fusiforme appaiono essere deputati all’elaborazione di
1. Basi biologiche dei sistemi linguistici e comunicativi
41
informazioni circa gli stati mentali altrui. In particolare, l’area mediale prefrontale sarebbe attiva nella rappresentazione di stati mentali nel caso in cui essi siano attribuiti ad altri individui (e non a esseri generici come animali) [34]. Collegata alla precedente è la capacità di formulare modelli mentali dell’individuo rispetto alle componenti emotive che caratterizzano l’azione intenzionale da un lato [36, 188, 189] e la capacità di sintonizzarsi emotivamente con il proprio interlocutore, dall’altro [190-192]. Tuttavia, una buona parte degli studi di neuroimaging ha indagato tale fenomeno da una prospettiva eminentemente unidirezionale, ovvero focalizzando gli effetti prodotti da stimoli socialmente rilevanti sulla mente di singoli individui. Al contrario, un approccio bidirezionale deve tener conto del fatto che due o più individui entrano in interazione per comunicare, influenzandosi reciprocamente rispetto alle rappresentazioni mentali reciproche, riferite sia alle componenti cognitive sia a quelle emotive. Occorre pertanto analizzare come pensieri, sentimenti e intenzioni possano essere trasmessi da un individuo all’altro. Al riguardo sono stati proposti alcuni modelli simulativi che consentono di spiegare come possa avere luogo la “lettura della mente” altrui, garantendo al contempo un’adeguata sintonizzazione emotiva con il proprio interlocutore [193]. La capacità di rappresentarsi la mente dell’altro passerebbe attraverso la rappresentazione delle proprie funzioni metacognitive e, parallelamente, individui che mostrano specifici deficit per tali competenze presentano una concomitante incapacità nel regolare la propria interazione in modo funzionale. Specificamente, danni all’area mediale prefrontale appaiono essere legati all’incapacità di porsi in sintonia con il proprio interlocutore, nei termini di impossibilità di individuare empaticamente lo stato emotivo e motivazionale dell’altro [194, 195]. Più recentemente è stata rilevata la necessità di analizzare come possa avvenire la comunicazione di pensieri e sentimenti al proprio interlocutore, al fine di consentire a quest’ultimo di costruire proprie rappresentazioni circa i pensieri e vissuti emotivi altrui. Occorre cioè spostare l’attenzione dalla rappresentazione prodotta individualmente alla muta induzione di rappresentazioni nel corso del processo comunicativo [196]. Tale “processo circolare” è concluso nel momento in cui, in seconda istanza, la mente altrui è in grado di inviare un feedback sulle rappresentazioni così formulate in attesa di un ulteriore input che ricorsivamente innesti nuovi processi comunicativi. I meccanismi cognitivi sottostanti costituiscono l’oggetto principe della ricerca neuropsicologica attuale, sebbene occorra prevedere la predisposizione in contesti sperimentali di strumenti di rilevazione che coinvolgano più attori comunicativi in interazione, con la registrazione simultanea dell’interazione diadica che coinvolge strutture corticali multiple [52, 197]. Infine, in termini più generali, le competenze relazionali richieste dal processo comunicativo come scambio tra individui includono la capacità di rappresentare correttamente il contesto di interazione, nonché l’abilità di rinegoziare i propri obiettivi comunicativi in relazione all’evoluzione dello scambio. Una funzione ausiliaria alla precedente nei termini di regolazione dello scambio comunicativo consiste nella capacità di distinguere le conoscenze semantiche rilevanti da quelle non rilevanti, competenza che appare distinta funzionalmente dalla rappresentazione delle funzioni mentali (auto ed eteroriferite). Dal punto di vista neuropsicologico, alcuni studi hanno focalizzato le funzioni di regolazione sociale in relazione al contributo della
42
M. Balconi
corteccia orbitofrontale. Infatti, tale area appare strettamente legata alle strutture coinvolte nei processi sociali ed emotivi, incluse amigdala, area del cingolo, area somatosensoriale [198]. Lesioni della corteccia orbitofrontale comportano l’incapacità dei soggetti di definire priorità comportamentali e di individuare il comportamento comunicativo adeguato al contesto [199]. Più in generale, tali componenti sarebbero legate alla capacità del soggetto di autopercepirsi e di autoregolare il proprio comportamento adottando norme comportamentali adeguate al contesto conversazionale (per un ampliamento ulteriore del tema si veda anche il Capitolo 7). Sottesa a tale funzione di rappresentazione dell’azione nel contesto è la capacità di percepire il proprio comportamento, comparandolo con uno standard astratto e definito a priori in virtù di come esso dovrebbe essere regolato [200, 201]. Entrambi i piani di autopercezione e di autoregolazione sono stati strettamente collegati all’attivazione della corteccia orbitofrontale. In particolare, tale area corticale appare legata alla capacità di rilevare elementi cognitivi, emotivi e motivazionali adeguati al fine di stabilire relazioni pertinenti all’interno dello scambio conversazionale [202]. Parallelamente, lesioni orbitofrontali comporterebbero l’incapacità di utilizzare una comunicazione comprensibile, finalizzata alla condivisione di intenzioni comunicative con il proprio interlocutore.
1.8 Conclusioni Nel corso del capitolo abbiamo sottolineato come la capacità di utilizzare lo strumento linguistico richieda competenze articolate su più piani, che includono sia le funzioni del linguaggio sia più complesse capacità di attivare processi comunicativi. Ci riferiamo, ad esempio, alle competenze metacognitive, ai piani inferenziali e di regolazione dell’interazione tra parlanti. Attenzione particolare è stata rivolta ai processi di regolazione della conversazione e alla social cognition, che include componenti sia di natura cognitiva sia di origine sociale. Inoltre, rispetto alle componenti pragmatiche (neuropragmatica) occorre sottolineare la sempre maggiore importanza del linguaggio “in uso”, evidenziando al contempo l’estrema eterogeneità degli approcci teorici ed empirici adottati. Data l’estrema varietà delle componenti prese in considerazione e delle unità processuali considerate, non risulta compito sempre facile individuare una diretta corrispondenza uno-a-uno tra funzioni e specifiche unità corticali attivate sul piano neuroanatomico. In primo luogo, si rende necessario adottare una visione più ampia del concetto di localizzazione di funzioni, tenendo conto anche della non perfetta scomponibilità in unità cognitive distinte dei processi comunicativi coinvolti. In secondo luogo, è possibile concludere a favore del coinvolgimento di un network articolato di strutture coinvolte: oltre alle aree classiche del linguaggio occorre, infatti, considerare il ruolo di alcune componenti, tra cui ad esempio quelle deputate a regolare le funzioni metacognitive (come l’area prefrontale) o finalizzate alla sintonizzazione emotiva (sistema amigdala-talamo). In terzo luogo, occorre superare la classica dicotomia emisfero destro-emisfero sinistro, rispettivamente per le funzioni comunicative-pragmatiche e linguistiche, a favore di una visione integrata, che prevede l’interazione, piuttosto che l’azione indipendente, dei due emisferi.
1. Basi biologiche dei sistemi linguistici e comunicativi
43
Bibliografia 1. Brown CM, Hagoort P (1999) The neurocognition of language: challenges and future directions. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New York, pp. 3-15 2. Jackendoff R (1999) The representational structure of the language faculty and their interactions. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New York, pp. 37-79 3. Whitaker HA (1998) Electrical stimulation mapping of language and cortex. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 126-131 4. Stemmer B, Whitaker HA (eds) (1998) Handbook of Neurolinguistics. Academic Press, San Diego London 5. Laudanna A, Burani C (1993) Il lessico: processi e rappresentazioni. La Nuova Italia, Roma 6. Miller JL, Eimas PD (eds) (1995) Speech, language and communication. Academic Press, New York 7. Seidemberg MS (1995) Visual recognition: an overview. In: Miller JL, Eimas PD (eds) Speech, language and communication. Academic Press, New York, pp. 138-179 8. Deacon TW (1997) The symbolic Species: The co-evolution of language and the brain. Norton & Company, New York London 9. Rugg MD (1999) Functional neuroimaging in cognitive neuroscience. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New York, pp. 37-79 10. Frazier L (1995) Issues of representation in psycholinguistics. In: Miller JL, Eimas PD (eds) Speech, language and communication. Academic Press, New York, pp. 1-29 11. Levelt WJM (1999) Producing spoken language: a blueprint of the speaker. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New York, pp. 83-122 12. Caramazza A (2000) The organization of conceptual knowledge in the brain. In: Gazzaniga M (ed) The new cognitive neuroscience. Bradford Book/The MIT Press, Cambridge Mass., pp. 1037-1046 13. Gibson E, Pearlmutter NJ (1998) Constraints on sentence comprehension. Trends Cogni Sci 2:262-268 14. Miceli G, Caramazza A (1988) Dissociation of inflectional and derivational morphology. Brain Lang 35:24-65 15. Zaidel E (1990) Language functions in the two hemispheres following cerebral commissurotomy and hemispherectomy. In: Boller F, Grafman J (eds) Handbook of neuropsychology. Elsevier, Amsterdam, pp. 115-150 16. Noveck IA, Sperber D (2004) Experimental Pragmatics, Palgrave, San Diego 17. Mey J (1998) Pragmatics In: Mey J (ed.) Concise Encyclopedia of Pragmatics. Elsevier, Amsterdan, pp. 716-737 18. Basso A, Cubelli R (1999) Clinical aspects of aphasia. In: Pizzamiglio L, Denes G (eds) Handbook of clinical neuropsychology. Psychology Press, Hove, pp. 181-193 19. Damasio AR, Damasio H (2000) Aphasia and the neural basis of language. In: Mesulam MM (ed) Principles of behavioral and cognitive neurology. Oxford University Press, New York, pp. 294-315 20. Làdavas E, Berti AE (1995) Neuropsicologia. Il Mulino, Bologna 21. Carston R (2002) Linguistic meaning, communicated meaning and cognitive pragmatics. Mind Lang 17:127-148 22. Kasher A (1994) Modular speech act theory: Programme and results. In: Tsohatzidis SL (ed.) Foundations of Speech Act Theory. Routledge, London, pp. 312-322 23. Vallar G (1999) I metodi di indagine nell’uomo. In: Umiltà C (ed) Manuale di neuroscienze. Il Mulino, Bologna, pp. 461-512
44
M. Balconi
24. Büchel C, Frith CD, Friston K (1999) Functional integration: methods for assessing interactions among neuronal systems using brain imaging. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New York, pp. 337-358 25. Kutas M, Federmeier KD, Sereno MI (1999) Current approaches to mapping language in electromagnetic space. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New York, pp. 359-392 26. Demonet JF (1998) Tomographic brain imaging of language functions: prospects for a new brain/language model. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 132-143 27. Grice HP (1989) Studies in the way of words. Harvard University Press, Cambridge Mass. 28. Searle JR (1979) Expression and meaning. Cambridge University Press, Cambridge 29. Bar-Hillel Y (1971) Pragmatics of Natural Language. Reidel, Dordrecht 30. Sperber D, Wilson D (1986) Relevance: communication and cognition. Oxford University Press, Oxford 31. Anolli L (2002) Psicologia della comunicazione. Il Mulino, Bologna 32. Baron-Cohen S (1995) Mindblindness: an essay on autism and theory of mind. The MIT Press, Cambridge Mass. 33. Frith CD, Wolpert DM (2004) The neuroscience of social interaction: decoding, imitating and influencing the actions of others. Oxford University Press, Oxford New York 34. Mitchell JP, Mason MF, Macrae CN, Banaji MR (2006) Thinking about others: The neural substrates of social cognition. In: Cacioppo JT, Visser PS, Pickett CL (2006) Social neuroscience: People thinking about thinking people. The MIT Press, Cambridge Mass, pp. 63-82 35. Sally D (2004) Dressing the mind properly for the game. In: Frith CD, Wolpert DM (eds) The neuroscience of social interaction: decoding, imitating and influencing the actions of others. Oxford University Press, Oxford New York, pp. 283-303 36. Gallese V (2001) The “shared manifold” hypothesis: from mirror neurons to empathy. J Consc Stud 8:33-50 37. Bara B (2004) Neuropragmatics: Neuropsychological constraints to the theory of Communication. Talk presented at Scuola Normale Superiore, May 28, Pisa, Italia 38. Lakoff G, Johnson M (1980) Metaphors we live by. University of Chicago Press, Chicago 39. Shank R, Abelson R (1977) Scripts, plans, goals and understanding. Erlbaum, Hillsdale 40. Cacioppo JT, Visser PS, Pickett CL (2006) Social neuroscience: People thinking about thinking people. The MIT Press, Cambridge Mass. 41. Van Lancker D, Pachana NA (1998) The influence of emotion on language and communication disorders. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 301-313 42. Lorch MP, Borod JC, Koff E (1998) The role of emotion in the linguistic and pragmatic aspects of aphasic performance. Journal of Neurolinguist 11 (1-2):103-118 43. Giora R (2003) On our mind: Salience, context and figurative language. Oxford University Press, New York 44. Giora R (1999) On the priority of salient meanings: Studies of literal and figurative language. J Pragmatics 31:919-929 45. Stemmer B, Giroux F, Joanette Y (1994) Production and evaluation of requests by right hemisphere brain-damaged individuals. Brain Lang 47:1-31 46. Maguire EA, Frith CD, Morris RGR (1999) The functional neuroanatomy of comprehension and memory: the importance of prior knowledge. Brain 122:1839-1850 47. Robertson DA, Gernsbacher MA, Guidotti SJ et al (2000) Functional neuroanatomy of the cognitive process of mapping during discourse comprehension. Psychol Sci 11:255-260 48. Balconi M, Carrera A (2006) Cross-modal perception of emotional face and voice. A neuropsychological approach. Paper presented at the “2th Meeting of the European Societies of Neuropsychology” (18-20 October), Toulouse, France 49. Calvert GA, Campbell R, Brammer MJ (2000) Evidence from functional magnetic reso-
1. Basi biologiche dei sistemi linguistici e comunicativi
50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64.
65.
66.
67. 68. 69.
70.
71. 72.
73. 74. 75.
45
nance imaging of crossmodal binding in the human heteromodal cortex. Curr Biol. 10:649-657 Giles H, Smith P (1979) Accommodation Theory: Optimal Levels of Convergence. In: Giles H, St. Clair H (eds) Language and Social Psychology. Basil Blackwell, Oxford Pickering MJ, Garrod S (2003) Toward a mechanistic psychology of dialogue. Behav Brain Sci 26:678-678 Caplan D (1992) Language: Structure, processing and disorders. The MIT Press, Cambridge MassLanguage and Cognitive Processes Gainotti G (1993) Riddle in the right hemisphere’s contribution to the recovery of language. EJDC 28:227-246 Aglioti SM (2006) Neuropsicologia del linguaggio. Il Mulino, Bologna Rizzolati G, Arbib MA (1998) Language within our grasp. TINS 21:188-194 Liberman AM, Mattingly IG (1989) A specialization for speech perception. Science 243:489-494 Kandel ER, Schwartz JH, Jessel TM (1995) Essential of neuroscience and behavior. Appleton & Lange, Stanford Pinker S (1994) The language instinct. Morrow, New York Chomsky N (1986) Knowledge of language: Its nature, origin and use. Praeger, New York Burling R (1993) Primate calls, human language, and nonverbal communication. Curr Anthropol 343:25-53 Bara BG, Tirassa M (2000) Neuropragmatics: brain and communication. Brain Lang 71:10-14 Hauser MD, Andersson K (1994) Left hemisphere dominance for processing vocalizations in adult, but not infant rhesus monkeys: Field experiments. Pro Nat Ac Sci 91:3946-3948 Vallortigara G (2000) Altre menti: Lo studio comparato della cognizione animale. Il Mulino, Bologna Neville HJ (1996) Developmental specificity in neurocognitive development in humans. In: Gazzaniga MS (ed) The cognitive neuroscience. The MIT Press, Cambridge Mass pp. 219-231 Curtiss S (1988) Abnormal language acquisition and the modularity of language. In: Newmeyer FJ (ed) Linguistics: The Cambridge survey. Cambridge University Press, Cambridge, vol 2 pp. 96-116 Stromswold K (2000) The cognitive neuroscience of language acquisition. In: Gazzaniga M (ed) The new cognitive neurosciences. Seconda edizione. The MIT Press, Cambridge Mass, pp. 909-932 Làdavas E, Sartori G, Zago S (1999) Le basi della neuropsicologia. In: Umiltà C (ed) Manuale di neuroscienze, Il Mulino, Bologna, pp. 513-642 Gumperz JJ, Levinson SC (1996) Rethinking linguistic relativity. Cambridge University Press, Cambridge Whitaker HA (1998) Neurolinguistics from the Middle Ages to the Pre-Modern era: historical vignettes. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 27-54 Hickock G (2000) Speech perception, conduction aphasia and the functional neuroatonomy of language. In: Grodzinsky Y, Shapiro LP, Swinney D (eds) Language and the brain: Representation and processes. Academic Press, San Diego London, pp. 87-104 Hiscock M (1998) Brain lateralization across life span. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 358-368 Zaidel E (1998) Language in the right emisphere following callosal disconnection. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 369-383 Banich MT (1997) Neuropsychology: The neural bases of mental function. Houghton Miffin Company, Boston New York Lennenberg EH (1967) Biological foundations of language. John Wiley & Sons, New York Hellige JB (1998) Unity of language and communication: interhemispheric interaction in the
46
76.
77. 78.
79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93.
94. 95.
96.
97.
98.
99.
M. Balconi lateralized brain. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 405-414 Zaidel E (1994) Interhemispheric transfer in the split brain: Long-term status following complete cerebral commissurotomy. In: Davidson RH, Hugdahl K (eds) Human laterality. The MIT Press, Cambridge, pp. 491-532 Lieberman P (2000) Human language and the reptilian brain. Harvard University Press, Cambridge Mass Crosson B, Nadeau SE (1998) The role of subcortical structures in linguistic processes: Recent developments. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 431-445 Wallesch CW, Papagno C (1988) Subcortical aphasia. In: Rose FC, Whurr R, Wyke MA (eds) Aphasia. Whurr Publishers, London, pp. 256-257 Damasio AR, Damasio H (1992) Brain and language. Sci Am 267:88-95 Creutzfeldt O, Ojemann, G, Lettich E (1989) Neuronal activity in the human lateral temporal lobe: I. Responses to speech. Exp Brain Res 77:451-475 Boatman D, Hart JJ, Lesser RP, Honeycutt N et atl (1998) Right hemisphere speech perception revealed by amobarbital injection and electrical interference. Neurology 51:458-464 Zaidel E (1985) Language in the right hemisphere. In: Benson DF, Zaidel E (eds) The dual brain: Hemispheric specialisation in humans. Guilford Press, New York, pp. 205-231 Levelt WJM, Praamastra P, Meyer AS et al (1998) An MEG study of picture naming. Jou Cognitive Neurosci 10:553-567 Warren RM (1968) Verbal transformation effect and auditory perceptual mechanisms. Psychological Bulletin 70:261-270 Damasio AR (1989) The brain binds entities and events by multiregional activation from convergence zones. Neural Comput 1:123-132 Mesulam MM (1998) From sensation to cognition. Brain 121:1013-1052 Garret MF (1992) Disorders of lexical selection. Cognition 42:143-180 Levelt WJM (1989) Speaking: From intention to articulation. The MIT Press, Cambridge Mass Vigliocco G, Antonini T, Garret MF (1998) Grammatical gender is on the tip of Italian tongues. Psychol Sci 8:314-317 McCarthy R, Warrington EK (1984) A two-route model of speech production. Evidence from aphasia. Brain 107:463-485 Damasio H, Grabowsky TJ, Tranel D et al (1996) A neural basis for lexical retrieval. Nature 380:499-505 Rapp BC, Caramazza A (1996) Disorders of lexical processing and the lexicon, In: Gazzaniga MS (ed) The cognitive neurosciences. The MIT Press, Cambridge, pp. 901913 Miceli G, Silveri MC, Nocentini U et al (1988) Patterns of dissociation in comprehension and production of nouns and verbs. Aphasiology 2:351-358 Saffran EM, Sholl A (1999) Clues to the functional and neural architecture of word meaning. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New York, pp. 241-272 Garret M (2000) Remarks on the architecture of language processing systems. In: Grodzinsky Y, Shapiro LP, Swinney D (eds) Language and the brain: Representation and processes. Academic Press, San Diego London, pp. 31-69 Hagoort P, Brown CM, Osterhout L (1999) The neurocognition of syntactic processing. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New York, pp. 273-315 Cutler A, Clifton C Jr (1999) Comprehending spoken language: a blueprint of the listener. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New York, pp. 123-166 Hillis AE, Caramazza A (1991) Category specific naming and the comprehension impairement: a double dissociation. Brain 110:613-629
1. Basi biologiche dei sistemi linguistici e comunicativi
47
100. Petersen SE, Fox PT, Posner MI et al (1989) Positron emission tomographic studies of the processing of single words. J Cognitive Neurosci 1:153-170 101. Gabrielli JDE, Desmond JE, Demb JB et al (1996) Functional magnetic resonance imaging of semantic memory processes. Psychol Sci 7:278-283 102. Price C, Indefrey P, van Turennout M (1999) The neural architecture underlying the processing of written and spoken forms. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New York, pp. 211-240 103. Frazier L (1987) Processing syntactic structures: Evidence from Dutch. Nat Lang Linguist Th 5:519-559 104. Bock JK, Eberhard K (1992) Meaning, sound and syntax in English number agreement. Lang Cognitive Proc 8:57-99 105. Kolk H (1998) Disorders of syntax in aphasia: Linguistic-descriptive and processing approaches. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 250-261 106. Frazier L (1990) Exploring the architecture of language processing system. In: Altmann MT (ed) Cognitive model of speech processing: Psycholinguistic and computational processing. The MIT Press, Cambridge Mass, pp. 409-433 107. Kutas M, Hillyard S (1984) Brain potential during reading reflect word expectancies and semantic association. Nature 307:161-163 108. Federmeier KD, Kutas M (2003) Il linguaggio del cervello. In: Zani A, Mado Proverbio A (eds) Elettrofisiologia della mente. Carocci, Roma, pp. 139-171 109. Balconi M, Pozzoli U (2004) Elaborazione di anomalie semantiche e sintattiche con stimolazione visiva e uditiva. Un’analisi mediante correlati ERPs. GIP 3:585-612 110. Neville HJ, Nicol JL, Barss A et al (1991) Syntactically based sentence processing classes: Evidence from event-related brain potentials. J Cognitive Neurosci 3:151-165 111. Friederici AD (2002) Towards a neural basis of auditory sentence processing. Trends Cogn Sci 2:78-84 112. Taraban R, McClelland JL (1990) Parsing and comprehension: A multiple constraint view. In: Balota DA, Flores d’Arcais GB, Rayner K (eds) Comprehension processes in reading. Erlbaum, Hillsdale, pp. 231-263 113. Altmann, GTM, Garnahm A, Dennis Y (1992) Avoinding the garden path: eye movements in context. J Mem Lang 1:685-712 114. Beeman M, Chiarello C (1998) Right hemisphere language comprehension: perspectives from cognitive neuroscience. Erlbaum. Hillsdale 115. Violi P (1997) Significato ed esperienza. Bompiani, Milano 116. Lakoff G (1987) Women, fire and dangerous things: what categories reveal about the mind. University of Chicago Press, Chicago 117. Garfinkel H (1967) Study in ethnomethodology. Prentice Hallo, Englewood Cliffs 118. Levinson SC (2000) Presumptive meanings: The theory of generalized conversational implicature. The MIT Press, Cambridge Mass 119. Mininni G (2000) Psicologia del parlare commune. Editoriale Grasso, Bologna 120. Messing LS, Campbell R (1999) Gesture, speech and sign. Oxford University Press, Oxford 121. Dennet DC (1987) The intentional stance. The MIT Press, Cambridge Mass 122. Searle JR (1983) Intentionality: An essay in the philosophy of mind. Cambridge University Press, Cambridge 123. Gardner H, Brownell HH (1986) Right hemisphere communication battery. Psychology Service, Boston 124. Nusbaum HC, Small SL (2006) Investigating cortical mechanisms of language processing in social context. In: Cacioppo JT, Visser PS, Pickett CL (eds) Social neuroscience: People thinking about thinking people. The MIT Press, Cambridge Mass, pp. 131-152 125. Puce A, Perret D (2004) Electrophisiology and brain imaging of biological motion. In: Frith CD, Wolpert DM (eds) The neuroscience of social interaction: decoding, imitating and influencing the actions of others. Oxford University Press, Oxford New York, pp. 1-22 126. Campell R, MacSweeney M, Surguladze S et al (2001) Cortical substrates for the perception
48
M. Balconi
of face actions: An fMRI study of the specificity of activation for seen speech and for meaningless lower-face acts (gurning). Cognitive Brain Res 12:233-243 127. Rizzolatti G, Craighero L, Fadiga L (2002) The mirror system in humans. In: Stamenov MI, Gallese V (eds) Mirror neurons and the evolution of brain and language. John Benjamins, Amsterdam, pp. 37-59 128. Goldin-Meadow S, Nusbaum H, Kelly SD et al (2001) Explaining math: Gesturing lightens the load. Psychol Sci 12:516-522 129. Giles H, Coupland N (1991) Language: context and consequences. Thomson Brooks, Belmont 130. Green GM (1996) Pragmatics and natural language understanding. Erlbaum, Mahwah 131. Gibbs RW Jr (2002) A new look at literal meaning in understanding what is said and implicated. J Pragmatics 34:457-486 132. Grice HP (1975) Logic and conversation. In: Cole P, Morgan JL (eds) Syntax and semantics: vol 3, Speech Acts. Academic Press, New York, pp. 199-219 133. Davidson RJ, Scherer KR, Hill Goldsmith H (2003) Handbook of affective sciences. Oxford University Press, New York 134. Feldman RS, Rimé B (1991) Fundamentals of nonverbal behavior. Cambridge University Press, Cambridge 135. Birdwhistell RL (1970) Kinesis and context: Essay on body-motion communication. Pennsylvania University Press, Philadelphia 136. Siegman AW, Feldstein S (1987) Nonverbal behavior and communication. Erlbaum, Hillsdale 137. Trager GL (1958) Paralanguage: A first approximation. Stud. Linguist. 13:1-12 138. Ross ED (2000) Affective Prosody and the Aprosodias. In: Mesulam MM (ed) Principles of behavioral and cognitive neurology. Oxford University Press, New York, pp. 316-331 139. Anolli L, Ciceri R (1997) La voce delle emozioni. Verso una seriosi della comunicazione vocale non-verbale delle emozioni. Franco Angeli, Milano 140. Pell MD (2006) Cerebral mechanisms for understanding emotional prosody in speech. Brain Lang 96:221-234 141. Feyereisen P, Seron X (1982) Nonverbal communication and aphasia: a review. Brain Lang 31:191-212, 213-236 142. Denes G, Caldognetto EM, Semenza C et al (1984) Discrimination and identification of emotions in human voice by brain damaged subjects. Acta Neurol Scand 69:154-162 143. Friederici AD, Alter K (2004) Lateralization of auditory language functions: a dynamic dual pathway model. Brain Lang 89:267-276 144. Kotz S, Meyer M, Alter K et al (2003) On the lateralization of emotional prosody: An eventrelated functional MR investigation. Brain Lang 86:366-376 145. TenHouten WD, Hoppe KD, Bogen JE et al (1986) Alexithymia: An experimental study of cerebral commisurotomy patients and normal control subjects. Am J Psychiat 143:312-316 146. Gandour J, Tong Y, Wong D et al (2004) Hemispheric roles in the perception of speech prosody. Neuroimage 23:344-357 147. Marraffa M (2005) Meccanismi della comunicazione. In: Ferretti F, Gambarara D (eds) Comunicazione e scienza cognitiva. Laterza, Roma, pp. 151 148. Anolli L, Balconi M, Ciceri R (2002) Deceptive Miscommunication Theory (DeMiT): A new model for the analysis of deceptive communication. In: Anolli L, Ciceri R, Riva G (eds) Say not to say: New perspectives on miscommunication. Ios Press, Amsterdam, pp. 75-104 149. Beeman M (1998) Coarse semantic coding and discourse comprehension. In: Beeman M, Chiarello C (eds) Right hemisphere language comprehension: perspectives from cognitive neuroscience. Erlbaum, Hillsdale, pp. 255-284 150. Giannoli GI (2005) La comprensione inferenziale. In: Ferretti F, Gambarara D (eds) Comunicazione e scienza cognitiva. Laterza, Roma, pp. 73-110 151. Coulson, S, Van Petten C, Folstein J (2000) Event-related brain response to literal and figurative language in left handers. Psychophysiology 37:Suppl. 1 152. Glucksberg S (2004) On the Automaticity of Pragmatic Processes: A Modular Proposal. In: Noveck IA, Wilson D (eds) Experimental Pragmatics. Palgrave, San Diego, pp. 72-92
1. Basi biologiche dei sistemi linguistici e comunicativi
49
153. Sperber D, Wilson D (2003) Pragmatics, modularity and mind reading. Mind Lang 17:3-23 154. Verschueren J (1999) Understanding pragmatics. Arnold, London 155. Bottini G, Corcoran R, Sterzi R, Paulesu E, Shenone P, Scarpa P, Frackowiak RSJ (1994) The role of the right emisphere in the interpretation of figurative aspects of language. Brain 117:1241-1253 156. Fletcher PC, Shallice T, Frith CD, et al (1996) Brain activity during memory retrieval: The influence of imagery and semantic cueing. Brain 119:1587-1596 157. Ellis AW, Young AW (1995) Human cognitive neuropsychology: a textbook with readings. Hove Psychology Press, Hove 158. Öhman A, Hamm A, Hugdahl K (2000) Cognition and the autonomic nervous system: Orienting, anticipation and conditioning. In: Cacioppo JT, Tassinary LG, Berntson GG (eds) Handbook of psychophysiology. Cambridge University Press, New York, pp. 522-575 159. Davidson RJ (1995) Cerebral asimmetry, emotion and affective style. In: Davidson RJ, Hughdahl K (eds) Brain asimmetry. The MIT Press, Cambridge Mass, pp. 361-387 160. Hellige JB (1993) Hemispheric asimmetry: what’s right and what’s left. Harvard University Press, Cambridge Mass. 161. Sergent J (1995) Hemispheric contribution to face processing: Patterns of convergence and divergence. In: Davidson RJ, Hughdahl K (eds) Brain asimmetry. The MIT Press, Cambridge Mass, pp. 157-181 162. Faust M, Kravetz S, Babkoff H (1993) Hemisphericity and top-down processing of language. Brain Lang 44:1-18 163. Van Dijk TA (1997) Discourse studies: A multidisciplinary introduction. Sage, London 164. Sacks H (1984) Notes on methodology. In: Atkinson JM, Scherzer J (eds) Structures of social action. Cambridge University Press, Cambridge, pp. 21-27 165. Kintsch W (1998) Comprehension: A paradigm for cognition. Cambridge University Press, Cambridge 166. Rehak A, Kaplan JA, Weylman ST et al (1992) Story Processing in right brain damaged patients. Brain Lang 42, pp. 320-336 167. Moya KL, Benowitz LI, Levine DN et al (1986) Covariant deficits in visuospatial abilities and recall of verbal narrative after right hemisphere stroke. Cortex 22:381-397 168. Caplan R, Dapretto M (2001) Making sense during conversation. NeuroReport 12:36253632 169. Nichelli P, Grafman J, Pietrini P et al (1995) Where the brain appreciates the moral of a story. Neuroreport 6:2309-2313 170. Chantraine Y, Joanette Y, Cardebat D (1998) Impairements of discourse-level representations and processes. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 262-275 171. Losito G (1993) L’analisi del contenuto nella ricerca sociale. Franco Angeli, Milano 172. Ulatowska HK, North AJ, Macaluso-Haynes S (1981) Production of narrative and procedural discourse in aphasia. Brain Lang 13:345-371 173. Chapman SB, Ulatowska HA (1989) Discourse in aphasia: Integration deficits in processing reference. Brain Lang 36:651-668 174. Cardebat D (1987) Incohérence narrative: Analyse comparée de récits de patients aphasiques et des patients déments. Cahiers du Centre Interdisciplinare des Sciences du Langage 6:151-175 175. Van Dijk TA, Kintsch W (1983) Strategies of discourse comprehension. Academic Press, New York 176. Kintsch W, van Dijk TA (1978) Toward a model of text comprehension and production. Psychol Rev 85:363-394 177. Rosenthal R, Hall J, Archer D et al (1979) The PONS test manual. Irvingston Publishers, New York 178. Charolles M (1986) Grammaire de texte, Théorie du discourse, Narrativité. Pratiques 1112:133-154 179. Schegloff EA (1972) Sequencing in conversational openings. In: Gumperz JJ, Hymes DH (eds) Directions in sociolinguistics. Holt, New York, pp. 346-380
50
M. Balconi
180. Kaplan JA, Brownell HH, Jacobs JR et al (1990) The effects of right hemisphere damage on the pragmatic interpretation of conversational remarks. Brain Lang 38:315-333 181. Gardner H, Brownell HH, Wapner W et al (1983) Missing the point: the role of the right hemisphere in the processing of complex linguistic material. In: Perecman E (ed) Cognitive processing in the right hemisphere. Academic Press, New York, pp. 169-182 182. Frederiksen CH, Bracewell RJ, Breuleux A et al (1990) The cognitive representation and processing of discourse: Function and disfunction. In: Joanette Y, Brownell H (eds) Discourse ability and brain damage: theoretical and empirical perspectives. Springer, New York, pp. 19-44 183. Morris JS, Frith CD, Perret DI et al (1996) A differential neural response in the human amigdala to fearful and happy facial expressions. Nature 383:812-815 184. Phillips ML, Young AW, Senior C et al (1997) A specific neural substrates for perceiving facial expressions of disgust. Nature 389:495-498 185. Frith CD (2003) Neural hermeneutics: How brains interpret minds. Keynote Lecture, 9th Annual Meeting of the Organization of Human Brain Mapping, New York 186. Caramazza A, Shelton JR (1998) Domain-Specific Knowledge Systems in the Brain: The Animate-Inanimate Distinction. J Cognitive Neurosci 10:1-34 187. Blackemore SJ, Decety J (2001) From the perception of action to the understanding of intention. Nat Neurosci 10:561-567 188. Gallese V (2004) The manifold nature of interpersonal relations: the quest for a common mechanism. In: Frith CD, Wolpert DM (2004) The neuroscience of social interaction: Decoding, imitating and influencing the actions of others. Oxford University Press, Oxford New York, pp. 159-182 189. Preston SD, de-Waal FBM (2002) Empathy: Its ultimate and proximate bases. Behavioral and Brain Science 25:1-72 190. Carr L, Iacobini M, Dubeau MC et al (2003) Neural mechanisms of empathy in humans: a rely from neural systems for imitation to limbic areas. Proc. Natl. Acad. Sci. USA 100:54975502 191. Decety J, Chaminade T (2003) Neural correlates of feeling sympathy. Neuropsychologia 41:127-138 192. Balconi M, Carrera A (2007). Emotional representation in facial expression and script. A comparison between normal and autistic children, Res Dev Disabil 28:409-422 193. Davis M, Stone T (1995) Mental simulation: readings in mind and language. Blackwell, Oxford 194. Damasio AR (1994) Descarte’s error: emotion, reason and the human brain. Putnam, New York 195. Shamay-Tsoory SG, Tomer R, Berger BD et al (2003) Characterization of empathy deficits following prefrontal brain damage: the role of the right ventromedial prefrontal cortex. J Cognitive Neurosci 3:324-337 196. Singer T, Wolpert DM, Frith CD (2004) Introduction: the study of social interactions. In: Frith CD, Wolpert DM (eds) The neuroscience of social interaction: Decoding, imitating and influencing the actions of others. Oxford University Press, Oxford New York, pp. xiii-xxvii 197. Montague PR, Berns GS, Cohen JD et al (2002) Hyperscanning: Simultaneus fMRI during linked social interactions. Neuroimage 16:1159-1164 198. Adolphs R (1999) Social cognition and the human brain. Trends Cogn Sci 3:469-479 199. Kaczmarek BLJ (1984) Neurolinguistics analysis of verbal utterances in patients with focal lesions of frontal lobes. Brain Lang 21:52-58 200. Beer JS (2002) Self-regulation of social behavior. Dissertation, University of California Berkeley 201. Stuss DT, Benson DF (1987) The frontal lobes and the control of cognition and memory. In: Perecman E (ed) The frontal lobes revisited. IRBN Press, New York, pp. 141-158 202. Collins NL, Miller LC (1994) Self-disclosure and liking: A meta-analytic review. Psychological Bulletin 116:457-475
Capitolo 2
Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio e alla comunicazione Michela Balconi
2.1 Introduzione L’ampio contributo scientifico, di ordine sperimentale e clinico, sui processi comunicativi ha consentito in tempi recenti un notevole approfondimento delle conoscenze circa l’architettura funzionale delle strutture cerebrali che supportano i processi linguistici e comunicativi, grazie all’impiego di strumenti innovativi e di nuove metodologie di analisi [1]. Il presente capitolo si prefigge di fornire un’introduzione sul piano metodologico allo studio del linguaggio e della comunicazione. In particolare verranno rappresentate le potenzialità del paradigma neuropsicologico per l’esplorazione delle principali funzioni del processo comunicativo, con riferimento agli ambiti sia della neuropsicologia sperimentale sia di quella clinica. Inoltre sarà fornita un’ampia panoramica sui principali strumenti psicofisiologici (come le rilevazioni mediante potenziali evento-correlati, ERP) e neuropsicologici (in particolare le tecniche di neuroimaging) che hanno consentito di meglio definire quale sia il contributo di aree corticali specifiche per le funzioni e le operazioni coinvolte nel processo comunicativo. Per ciascuna delle componenti considerate saranno sintetizzati i contributi della ricerca empirica più rilevanti nonché i punti di maggiore criticità in questo ambito.
2.2 Assunti della neuropsicologia cognitiva e paradigmi di analisi A fondamento dell’approccio neuropsicologico viene supposta l’esistenza di una relazione tra componente anatomo-strutturale e funzioni cognitive [2, 3]. Assunto centrale di tale approccio è che esista un legame diretto tra unità funzionali e strutture anatomiche cerebrali, nonché la rappresentazione della struttura stessa come qualitativamente invariante anche a fronte di possibili danni subiti [1, 4]. In altri termini, considerando il fatto che la neuropsicologia cognitiva studia prevalentemente pazienti con lesioni focali del cervello allo scopo di trarne inferenze per il funzionamento normale del sistema cognitivo, diviene indispensabile supporre l’esistenza di una corrispondenza tra struttura neurale e organizzazione funzionale della mente. Se operazioni mentali indipendenti dal punto di vista processuale sono fondate su processi fisici (strutture cerebrali) almeno in parte distinti, è possibile M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008
52
M. Balconi
che una lesione ne danneggi selettivamente uno o alcuni e non altri. Consideriamo specificamente tale assunto, evidenziandone aspetti euristici ed elementi di criticità per lo studio del linguaggio e della comunicazione.
2.2.1 Rapporto funzione-struttura Abbiamo evidenziato come l’approccio della neuropsicologia applicato alle funzioni comunicative abbia due principali obiettivi: comprendere a livello funzionale l’identità e l’organizzazione delle “operazioni elementari” sottostanti ai processi comunicativi e spiegare, in secondo luogo, come tali operazioni siano sostanziate nel sistema nervoso. La neuropsicologia cognitiva considera questi obiettivi come strettamente correlati, così che le informazioni funzionali possono essere usate per costruire modelli neurobiologici e viceversa [5]. L’analisi dei correlati anatomo-strutturali delle funzioni comunicative deve tenere in considerazione due principali aspetti: a) la dicotomia tra localismo (che propone l’ipotesi di una corrispondenza biunivoca tra specifiche funzioni e precise aree cerebrali) e olismo (che ipotizza una distribuzione delle funzioni comunicative in più aree/circuiti cerebrali) [6]; b) il problema della lateralizzazione delle competenze linguistiche nell’emisfero sinistro e, di converso, il ruolo svolto dall’emisfero destro per la produzione e comprensione delle funzioni comunicative [7]. Abbiamo già sottolineato come per i modelli della neuropsicologia classica tale corrispondenza tra anatomia cerebrale e funzioni cognitive richiedeva un’esatta collocazione delle funzioni all’interno di precise aree cerebrali. Per contro, alcuni modelli “antilocalisti” prevedono il superamento delle precedenti posizioni modulari, a favore dell’esistenza di una corrispondenza tra moduli e struttura anatomica sottostante in base a circuiti complessi, i quali chiamano in causa diverse aree cerebrali [5]. La neuropsicologia cognitiva moderna presuppone l’esistenza di una corrispondenza tra moduli cognitivi e struttura neurale a livello di network corticali che interessano probabilmente più aree cerebrali. Secondo tali modelli varrebbe anche il principio opposto, secondo cui una stessa struttura cerebrale sarebbe in grado di svolgere più funzioni cognitive (polifunzionalità delle aree cerebrali), intervenendo, cioè, in differenti processi cognitivi con funzioni, di volta in volta, diverse. Come abbiamo osservato, considerato pur nella sua complessità, l’approccio localista sembra essere applicabile a funzioni comunicative semplici (ad esempio, la rappresentazione fonologica di un input linguistico). Di gran lunga più difficile è individuare precise localizzazioni cerebrali per funzioni complesse, come quella relativa alla programmazione del discorso, alle funzioni di controllo e monitoraggio o, ancora, all’integrazione dei sistemi verbale e non-verbale di comunicazione.
2.2.2 Modularità strutturale, funzionale e rappresentazionale Nel presente contesto introduciamo il concetto di modulo e di modularità considerando l’evoluzione che esso ha subito nel corso del tempo, in funzione di differen-
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
53
ti modelli cognitivi assunti dai ricercatori. Differenti approcci teorici si sono succeduti nel corso degli ultimi decenni, da una versione “forte” del modularismo, secondo cui si suppone l’esistenza di sottosistemi funzionali isolabili sul piano anatomico, in grado di funzionare indipendentemente l’uno dall’altro, anche se non allo stesso livello di efficienza che in condizioni di interazione [8], a posizioni “moderate” (o “deboli”) di modularismo, che chiamano in causa una più complessa architettura cerebrale sottostante alle diverse funzioni cognitive [4, 9]. Secondo la concezione modularista classica, l’architettura dei processi mentali umani è costituita da componenti distinte. Adottando la definizione di Marr [10] ogni processo cognitivo deve essere suddiviso in una serie di sottoprocessi, indipendenti e specializzati, definiti modularmente. I moduli sono meccanismi geneticamente determinati, che operano su rappresentazioni specifiche e sono associati a strutture neurali localizzate. In secondo luogo, in quanto processi che agiscono in modo veloce e automatico, sono poco influenzabili da altre componenti del sistema (per cui sono definiti “incapsulati informazionalmente”) e per tale ragione possono essere paragonati a dei riflessi automatici, scarsamente accessibili ai processi coscienti (per un approfondimento del concetto di modulo si veda [11]). Complessivamente, il concetto di modulo coincide con la rappresentazione di un sottosistema funzionale isolabile, che può cioè funzionare indipendentemente da un altro. Secondo Fodor [8] tuttavia la struttura modulare interesserebbe solo le parti più periferiche del sistema cognitivo (quelle guidate cioè dalle funzioni sensoriali), mentre il nucleo centrale della macchina cognitiva non mostrerebbe la modularità dei suoi sistemi: pertanto i processi periferici sarebbero modulari, mentre quelli centrali no. In ogni caso per entrambe le accezioni di modularismo si ipotizza che esista una corrispondenza tra struttura neurale e organizzazione funzionale della mente, supportata sperimentalmente dalla rilevazione di correlazioni tra lesioni in sistemi neurali discreti e deficit per una specifica funzione psichica (si veda anche il paragrafo 2.3, seguente). Abbiamo tuttavia già evidenziato in precedenza (si veda il Capitolo 1) che, benché in alcuni casi sia possibile rilevare differenti funzioni cognitive strettamente correlate a specifiche aree cerebrali, per i processi cognitivi di più alto ordine la localizzazione sembra essere meno vincolante [12]. Ad esempio, considerando la rappresentazione cerebrale delle funzioni sensoriali o motorie, si può osservare che l’area motoria primaria e l’area sensoriale sono condizionate in termini locali dalla presenza di specifiche fibre afferenti ed efferenti [6]. Al contrario, le funzioni di alto livello, tra cui le funzioni comunicative, presentano una maggiore variabilità rispetto alla propria localizzazione cerebrale. Pertanto, benché nei singoli individui tali funzioni possano essere più o meno localizzate (con una certa variabilità interindividuale), è possibile che per molte delle funzioni proprie del processo comunicativo non vi sia a priori una localizzazione univocamente definita. Recenti sviluppi del concetto di modularismo vanno nella direzione di una ridefinizione della modularità di sistemi nei termini di una modularità rappresentazionale piuttosto che semplicemente funzionale [13, 14]. In altri termini, la modularità si esprimerebbe non per facoltà su larga scala, come, ad esempio, la percezione del linguaggio, ma piuttosto per processi integrativi e inferenziali. Ovvero la specificità di dominio dei processi mentali ha a che fare con ciò a cui le rappresentazioni hanno accesso o da cui derivano. Si tratta di una modularità che riguarda proces-
54
M. Balconi
si integrativi (ad esempio, il processo messo in atto dal parser sintattico che, data una sequenza di categorie lessicali, costruisce una struttura sintattica pienamente specificata), o processi di natura inferenziale (come nel caso di una traduzione di una rappresentazione complessiva da un formato rappresentazione ad un altro).
2.2.3 Localizzazione funzionale e frazionamento funzionale Occorre tuttavia esplicitare ulteriori distinzioni concettuali proprie del dominio neuropsicologico al fine di comprenderne a fondo la natura. In particolare, introduciamo un’ulteriore distinzione tra il concetto di localizzazione funzionale e di frazionamento funzionale. Il concetto di localizzazione funzionale introduce un principio analogo al “funzionalmente segregato” [15]. Ovvero, obiettivo della concettualizzazione è quello di mappare le operazioni cognitive in substrati neurali funzionalmente specializzati. In genere, tali operazioni sono intrinsecamente legate allo studio dei deficit derivati da lesioni in cui le basi neurali per differenti funzioni cognitive sono inferite a partire dalla localizzazione delle lesioni che causano una compromissione selettiva sul piano cognitivo di tali funzioni [16]. È comprensibile, pertanto, che le recenti applicazioni con strumenti di rilevazione come il neuroimaging funzionale (si veda il paragrafo 4.5) occupino un ruolo principale in ambito neuropsicologico, in particolare per le funzioni cognitive di alto livello. Infatti, in aggiunta agli strumenti di rilevazione clinici (si veda il paragrafo 3.1), gli strumenti di rilevazione funzionali consentono di esplorare un’ampia gamma di regioni cerebrali, anche quelle precedentemente poco analizzate. A titolo esemplificativo riportiamo gli studi effettuati recentemente sull’insula, poco considerata seppure essa svolga un ruolo importante nella produzione del linguaggio parlato [17]. In secondo luogo il neuroimaging funzionale consente di fornire informazioni circa la dinamica dell’attività neurale, ovvero diviene possibile non solo considerare la localizzazione dell’attività neurale associata a specifiche operazioni cognitive, ma anche rispetto alle modalità con cui tale attività evolve nel tempo e alla natura delle interazioni che hanno luogo tra differenti aree cerebrali. Ciò rende possibile formulare complesse concettualizzazioni circa i rapporti tra operazioni cognitive e substrati neurali sottostanti rispetto ai più tradizionali approcci correlazionali deficit-lesioni, con l’assunto di una relazione uno-a-uno tra operazioni cognitive e popolazioni neurali funzionalmente specializzate. Rispetto al concetto di frazionamento funzionale anche in questo caso è possibile riconoscere un ruolo di primo piano all’introduzione di tecniche di neuroimaging nell’identificare operazioni cognitive distinte. Mediante tali metodi di rilevazione è infatti possibile mappare specifiche operazioni cognitive in rapporto a un altrettanto specifico substrato neurale: se due manipolazioni sperimentali danno origine a pattern qualitativamente distinti di attività neurale, si può concludere che essi implichino operazioni cognitive funzionalmente distinte. Il frazionamento funzionale delle abilità cognitive nelle proprie operazioni costituenti viene realizzato in due differenti modi. In primo luogo nello studio di soggetti normali, supponendo che se due compiti supportano differenti operazioni cognitive vi siano differenze nella perfor-
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
55
mance dei soggetti su questi stessi compiti. Ad esempio, la frequenza di comparsa di un termine incide sulle parole aperte ma non su quelle chiuse, fatto che induce a ritenere che tali categorie di termini siano elaborate in modi funzionalmente distinti. In secondo luogo, il frazionamento cognitivo agisce in modo analogo nel caso di pazienti con deficit cerebrali. L’esistenza di una doppia dissociazione per alcuni processi comunicativi (ad esempio, nella comprensione di enunciati ironici vs. metaforici) può rendere conto dell’esistenza di processi di comprensione differenziati, uno specifico per il linguaggio ironico e uno per quello metaforico.
2.3 Metodi di analisi della neuropsicologia cognitiva 2.3.1 Metodi sperimentali e metodi clinici Storicamente lo studio delle funzioni cognitive sottese al linguaggio e alla comunicazione è stato condotto su singoli soggetti che presentavano deficit circoscritti e localizzati, come per la lettura di parole o la comprensione di frasi [18]. Tra i vantaggi principali forniti dalla metodologia clinica vi è la possibilità di dimostrare l’indipendenza di operazioni cognitive attraverso la prova dell’esistenza di dissociazioni o doppie dissociazioni funzionali (al riguardo si veda il paragrafo precedente [1]). In secondo luogo, l’analisi del funzionamento anomalo di specifiche unità può consentire la comprensione del funzionamento di quella stessa unità in condizioni normali [19]. In altri termini, a partire dalle evidenze empiriche su soggetti con deficit è stato possibile evidenziare l’organizzazione funzionale dei processi nella loro normale modalità di funzionamento. Solo in una fase più recente si è proceduto ad analizzare il funzionamento cognitivo utilizzando direttamente campioni di soggetti sani, utilizzando tecniche di ricerca tipicamente sperimentale [20]. Alla luce dell’evoluzione che la disciplina neuropsicologica ha avuto, introduciamo la distinzione tra metodi di analisi in base alla tipologia sperimentale e clinica. Quale presupposto comune ai due approcci è posto lo sviluppo del modello cognitivo, che si prefigge di decomporre l’intero processo comunicativo in una ipotetica sequenza di fasi processuali, in cui le informazioni, in differenti formati rappresentazionali, fluiscono da una componente processuale all’altra, grazie a specifiche trasformazioni [11]. Occorre sottolineare, infatti, che la neuropsicologia cognitiva si pone l’obiettivo di scomporre le funzioni cognitive nelle sue componenti essenziali [3]. Nel caso della neuropsicologia sperimentale, in genere l’analisi verte su soggetti normodotati e sulle qualità dei processi sottesi per determinate operazioni comunicative (ad esempio, la comprensione di anafore). Essa prevede la predisposizione di un complesso apparato empirico che può avvenire sia in ambiente protetto (esperimenti di laboratorio), sia sul campo (esperimenti in ambiente naturale), così come processi simulati (simulazione). Nel caso della neuropsicologia clinica il metodo più largamente impiegato è quello correlazionale anatomo-clinico e di attivazione cerebrale, focalizzati sullo studio di casi singoli che presentano deficit cerebrali e una concomitante compromissione di una o più funzioni cognitive.
56
M. Balconi
In particolare i metodi clinici hanno alcune finalità precipue: – individuare lo spazio dei principali deficit linguistici e comunicativi; – estendere le implicazioni teoriche all’ambito dei soggetti normodotati; – unificare i risultati ottenuti dallo studio di soggetti normali e con danno all’interno di un modello plausibile e possibilmente onnicomprensivo di come la comunicazione è prodotta. La qualità e la validità dei metodi adottati si declina in funzione di alcuni parametri che li caratterizzano: i sottostanti modelli neurologici; la qualità del disegno sperimentale, il grado di risoluzione utilizzato per individuare i correlati anatomici, così come gli strumenti comunemente impiegati per valutare gli effetti di danni cerebrali sui processi in gioco [2]. Rispetto agli strumenti utilizzati è possibile distinguere, ad esempio, tra quelli che si prefiggono di considerare il ruolo delle lesioni cerebrali mediante rilevazione di neuroimaging: l’analisi delle lesioni costituisce l’elemento focale di tale metodo, in quanto esso consente il confronto delle strutture cerebrali lesionate in pazienti con i deficit cognitivi precedentemente rilevati. Un secondo insieme di strumenti è finalizzato a valutare in dettaglio la gamma di abilità cognitive compromesse, con l’intento di ottenere un profilo dei deficit presenti. In questo caso lo strumento principalmente impiegato è la batteria testistica (per una rassegna si veda il paragrafo 2.4.1). Sul piano metodologico la somministrazione di test si inserisce nel contesto della valutazione neuropsicologica, finalizzata a verificare il grado di compromissione delle funzioni comunicative a seguito di un danno al sistema nervoso centrale. Nel processo di valutazione è possibile esaminare anche gli eventuali progressi riscontrati in individui nel corso del tempo. In aggiunta agli strumenti impiegati è possibile caratterizzare i differenti metodi a partire dalla definizione del campione di soggetti esaminati. In alcuni casi gli studi si limitano a prendere in considerazione il caso singolo, in altri casi essi esaminano gruppi di soggetti che mostrano deficit simili per una determinata operazione cognitiva [21]. Esperimenti con soggetti singoli o con gruppi di soggetti, sia normali sia patologici, sono stati grandemente impiegati negli ultimi anni nello studio del linguaggio e della comunicazione. Confrontiamo più in dettaglio i due approcci con caso singolo e con gruppi di soggetti. – Studi su caso singolo. Secondo tale approccio, disordini specifici in alcune funzioni cognitive (come, ad esempio, la comprensione della prosodia emotiva) possono dipendere da lesioni cerebrali localizzate, rilevabili dall’analisi dei singoli casi patologici studiati. Tale prospettiva ha dato impulso storicamente alla creazione di modelli localisti delle funzioni cerebrali a fini osservativi e curativi. – Studi su gruppi di soggetti. Prevedono il confronto tra soggetti sani e cerebrolesi, con metodi quantitativi (generalmente test). In particolare, lo studio sui gruppi rispetto allo studio su caso singolo sembra offrire il vantaggio di consentire un’adeguata analisi di tipo statistico, ovviando ai limiti degli studi classici di neuropsicologia [22]. Finalità di tali studi consiste nella determinazione di specifici e differenti livelli di deficit che focalizzano determinate modalità comunicative, componenti o fasi del processo. Grazie agli sviluppi nella diagnosi psico-
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
57
logica generalmente sono incluse procedure controllate di valutazione, mediante l’impiego di strumenti psicometrici, che consentono la selezione di categorie omogenee di soggetti. Ma come avviene la creazione di un gruppo? Un primo criterio adottato tiene conto della consonanza della sintomatologia presente nei soggetti. Tuttavia, tale criterio rischia di non tenere conto di altri importanti fattori intervenienti che potrebbero incidere sulla sintomatologia del paziente o mascherare quella esistente. Un secondo criterio considera la sede della lesione cerebrale. In questo caso l’analisi verte sulla presenza o sull’assenza di un particolare disturbo quando si è di fronte a un danno di una data area cerebrale. La distinzioni tra studi su gruppi di soggetti o su caso singolo pone alcuni importanti problemi con ricaduta sull’oggetto di analisi. In particolare, alcune assunzioni metodologiche, che ipotizzano la necessità di ricorrere esclusivamente all’analisi su caso singolo (in virtù della non diretta comparabilità tra soggetti anche in presenza di sintomatologie simili), appaiono riduttive [23]. D’altra parte l’omogeneità dei sistemi cognitivi implicati per gruppi con deficit omologhi appare in molti casi discutibile, così come il presupposto della generalizzabilità dei risultati ottenuti su un gruppo di individui a un’intera popolazione, per la formulazione di un modello teorico di riferimento. Parallelamente, l’omogeneità strutturale del danno cerebrale sul gruppo di soggetti appare una questione non sempre dimostrabile in via definitiva.
2.3.2 Simulazione Introduciamo questa sezione relativa ai recenti sviluppi delle tecniche di analisi mediante simulazione, procedura che consente di implementare modelli teorici mediante utilizzo di supporti informatici. Essa, diversamente dai metodi precedentemente considerati, presenta una serie di vantaggi relativi alla possibilità di verificare o falsificare il modello teorico, imponendo al contempo la formalizzazione di concetti a un livello decisamente superiore rispetto a quanto si verifica nei classici contesti sperimentali. L’approccio simulativo è stato recentemente declinato nell’ambito del connessionismo, con importanti applicazioni anche per i processi linguistici e comunicativi [24]. Mediante il supporto dell’intelligenza artificiale e grazie allo sviluppo di metodi di studio dell’architettura della mente che ambiscono a fornire un modello astratto e generale della struttura cognitiva del cervello, il modello del connessionismo fornisce una simulazione su computer dei processi mentali con l’intento di corroborare, o, al contrario, di falsificare teorie esistenti. Il modello connessionista è stato ampiamente applicato allo studio del linguaggio nei classici lavori di Rumelhart e McClelland [25], finalizzati a introdurre il concetto di elaborazione parallela e distribuita, che prevede l’impiego sia di informazioni dal livello inferiore (bottom-up) sia dal livello superiore (top-down). Un esempio di applicazione è costituito dal processo di lettura di parole che fa ricorso a informazioni sia del livello inferiore (le lettere), sia del livello superiore (le informazioni contestuali) per poter essere attuato.
58
M. Balconi
I modelli connessionisti svolgono la loro attività computazionale (di elaborazione delle informazioni) in modo simile all’attività neurale e la metafora del computer viene utilizzata per rappresentare l’attività cerebrale sottostante. L’unità fondamentale di attivazione è una sorta di “neurone astratto” che riceve o invia segnali ad altri neuroni. È possibile distinguere tre differenti tipologie di neuroni: – unità neurali d’ingresso (input) che ricevono segnali da sorgenti esterne al sistema (stimoli sensoriali o da altri sistemi che fanno parte del modello); – unità neurali di uscita (output) che inviano segnali fuori dal sistema (ad esempio, direttamente al sistema motorio o ad altri sistemi interni); – unità neurali nascoste (hidden) le cui afferenze ed efferenze sono situate all’interno del sistema. Pertanto, le reti artificiali sono un modello astratto dei circuiti neurali reali formati da dendriti e assoni. Per la rappresentazione di un sistema connessionista è inoltre, necessaria una rappresentazione dello stato di attivazione delle varie componenti della rete, nonché occorre specificare la funzione di attivazione delle unità, l’organizzazione delle connessioni e il loro peso. In particolare, la funzione sinaptica è simulata dai pesi modificabili, associati a ogni connessione, e il segnale elettrico in uscita da ogni neurone è espresso da un numero che rappresenta la sua attività. Lo schema (Fig. 2.1) seguente riporta le principali unità di attivazione e le loro reciproche relazioni. Vanno, inoltre, definite le procedure attraverso cui la rete neurale può apprendere un compito e riuscire a svolgerlo con stimoli nuovi. L’addestramento della rete è fatto inviando segnali appropriati alle unità d’ingresso e calcolando
Fig. 2.1 Rappresentazione di una rete connessionista, costituita da differenti livelli di unità di input, nascoste e di output
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
59
di quanto il segnale in uscita si discosta da quello voluto. Sulla base dell’errore si modifica il peso delle connessioni e la procedura viene ripetuta finché la rete non apprende a svolgere il compito in questione al livello di accuratezza desiderato. Ad esempio, secondo la procedura detta della back-propagation, l’informazione dell’errore commesso dalla rete è propagata all’indietro dallo strato di output fino a quello di input, per determinare le modificazioni appropriate dei pesi delle connessioni.
2.4 Misurazione La definizione di indici di misura nell’ambito della neuropsicologia della comunicazione deve tenere conto di un doppio asse categoriale: uno relativo alla natura degli indici considerati, che valuta la specifica unità di analisi che viene considerata dallo sperimentare. Distinguiamo, al proposito, indici di tipo osservativo o comportamentale, che considerano come unità di analisi il comportamento manifesto del soggetto in determinate condizioni. Una seconda categoria si riferisce alle modificazioni corporee presenti nel soggetto ma non manifeste, di natura psicofisiologica e neurobiologica in senso stretto, che si avvalgono dei correlati neurali prodotti dal soggetto in risposta a fonti di stimolazione interne o esterne. Un secondo asse è relativo alla modalità più o meno diretta di rilevazione degli indici da parte dello sperimentatore [26]. Tra i metodi comportamentali precedentemente introdotti accanto agli indici di risposta (come i tempi di reazione o gli indici di comunicazione non-verbale) è possibile considerare misure di tipo autovalutativo (le cosiddette misure di self-report), che implicano la possibilità per il soggetto di monitorare consapevolmente e direttamente la loro manifestazione. Tra le misure psicofisiologiche è possibile considerare gli indici di attivazione autonomica (come l’aumento della conduttanza cutanea in risposta a stimoli emotivi), che manifestano modificazioni fisiologiche come marcatori dei processi sottostanti, o indici “cognitivi” come i potenziali evento-correlati (ERP), che rendono conto della qualità del processo cognitivo oggetto di analisi. Tali categorie si differenziano grandemente in funzione delle modalità con cui vengono indagati i costrutti: è infatti molto diverso rilevare la prestazione di un soggetto cui viene richiesto di comprendere un enunciato (ad esempio, una frase ironica) dal rilevare le modificazioni dei correlati psicofisiologici (le variazioni del tracciato EEG) prodotte in risposta a quello stesso stimolo enunciativo. Parallelamente vi sono differenze metodologiche rilevanti nel valutare la risposta di un soggetto con deficit a una batteria testistica per il comportamento non-verbale dal valutare la maggiore o maggiore compromissione delle competenze cognitive in seguito all’osservazione della comunicazione non-verbale in un contesto sperimentale. Tralasciando le possibili implicazioni metodologiche legate all’utilizzo di differenti misurazioni (per una rassegna completa si veda [27]), ci soffermiamo in particolare sulle principali categorie di indici esistenti per lo studio della comunicazione, con specifica attenzione agli indici psicofisiologici e neuropsicologici.
60
M. Balconi
2.4.1 Indici di misura psicometrici Consideriamo in primo luogo gli indici di risposta che derivano dalla somministrazione di batterie testistiche e le scale di self-report, entrambe applicabili sia su campioni di soggetti normali sia con deficit specifici. Assessment neuropsicologico, batterie testistiche e misure di self-report La valutazione delle competenze linguistiche e comunicative consente di definire il grado generale di funzionamento delle singole funzioni, che includono le proprietà fonatorie-articolatorie, grammaticali, morfologiche, sintattiche, semantiche e pragmatiche [28]. Per la categoria fonatoria ci riferiamo in particolare alla capacità di articolare i suoni, mentre nel caso delle competenze morfologiche facciamo riferimento alle competenze di produzione delle unità linguistiche. Sul piano grammaticale viene valutata l’applicazione adeguata di regole per costruire la forma corretta delle parole nel contesto enunciativo (con riferimento alle componenti temporali, dell’uso della persona, del singolare/plurale). Le componenti sintattiche riguardano la conoscenza e la corretta applicazione di regole di congiunzione di parolefrase frase-frase all’interno di un periodo, nonché dell’uso di una sequenza ordinata di parole nell’enunciato, mentre il piano semantico riguarda l’utilizzo corretto dei “significati”, ovvero del linguaggio nella sua valenza semiotica (includente, ad esempio, la capacità di impiegare un vocabolario ampio e pertinente). Infine la pragmatica riguarda l’uso delle funzioni comunicative o del linguaggio nel contesto, comprendendo un insieme di competenze ampie, quali i registri non verbali, i significati figurati o la capacità di formulare metarappresentazioni (per la definizione dei livelli precedenti si rimanda al Capitolo 1). In ambito più specificamente clinico l’assessment neuropsicologico costituisce una procedura largamente impiegata [2]. Obiettivo complessivo dell’intero processo è costituito dal descrivere la performance del soggetto in relazione alle principali componenti che intervengono nel sistema linguistico e comunicativo. Tale procedura consente non solo di valutare la presenza e l’ampiezza di un deficit, ma anche di verificare sul piano qualitativo la capacità del soggetto di fare fronte al deficit mediante strategie compensative delle funzioni danneggiate [29]. È bene sottolineare che un atteggiamento ecologicamente valido implica la necessità di compiere un’analisi che possa prendere in considerazione i molteplici sistemi linguistici e comunicativi. L’assessment in genere include una valutazione più generale ad ampio spettro e una successiva valutazione più specifica relativa alle funzioni danneggiate. Al termine della somministrazione viene formulata una sintesi dettagliata dell’esito della prova. Quest’ultima fase si inserisce in una procedura definita da una serie di step sequenziali, tra cui l’anamnesi, il colloquio clinico, la valutazione vera e propria e il possibile intervento riabilitativo. Generalmente gli strumenti presenti nel panorama testistico applicati allo studio della comunicazione consentono di misurare solo determinate componenti funzionali, essendo perlopiù incentrati su alcuni livelli e non altri, ovvero le componenti morfosintattiche, lessicali, fonologiche e semantiche. Di gran lunga trascurata nel
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
61
panorama attuale è, al contrario, la componente pragmatica, anche in conseguenza dello sviluppo più recente di tale ambito di ricerca. Appare, inoltre, rilevante sottolineare la necessità di integrazione tra le misure psicometriche con misure di diversa natura, poiché l’uso di test normativi non appare sufficiente a discriminare con precisione le competenze funzionali o disfunzionali del soggetto [29]. Occorre, ad esempio, aggiungere ai dati psicometrici indici relativi alla prestazione dei soggetti per compiti specifici (ad esempio, indici comportamentali rilevati in laboratorio). È necessario, inoltre, sottolineare la necessità di correlare i risultati testistici non solo ai valori rilevati per un campione di riferimento normativo, ma occorre anche valutare le effettive prestazioni dei soggetti per un dato compito comunicativo nei termini di frequenza e modalità con cui esse si manifestano. Un’ulteriore distinzione può essere fatta in merito alla tipologia di soggetti cui la misurazione può essere applicata, rispetto ai parametri: normali/deficitari; in fase di sviluppo/in età adulta (per una rassegna completa di rimanda a [30]). Infine è necessario distinguere tra test finalizzati ad analizzare una specifica competenza linguistica e comunicativa dai test ad ampio spettro, che vertono su competenze più generiche. Distinguendo tra il piano delle competenze linguistiche e quello delle competenze comunicative, è possibile rilevare che la categoria dei test linguistici è complessivamente più ricca. Quest’ultima è ulteriormente divisibile in tre tipologie differenti: i test di screening; i test complessivi del funzionamento linguistico e i test su specifiche abilità linguistiche (per una rassegna dettagliata si veda [31]. Di particolare interesse la categoria di test finalizzati a rilevare la fluenza verbale (come nel caso del Test di Fluenza Verbale per Categorie, [32]). Esempi di interessanti ricerche condotte con indici psicometrici sono quelli forniti da Hillis e Caramazza [33], che riportano un confronto dettagliato di tipologie di deficit, consentendo la successiva modellizzazione del funzionamento del linguaggio per quelle specifiche funzioni. Fornendo un’eccellente descrizione di deficit a un elevato livello di analiticità, oltre che una buona validità ecologica, il loro valore euristico consiste principalmente nella possibilità di definire quale aspetto del sistema sia danneggiato. Al contrario risultano essere di minore rilevo per spiegare esattamente come il sistema linguistico sia deficitario per un determinato meccanismo. Più recentemente è stato possibile impiegare strumenti di più stretta pertinenza dell’ambito delle funzioni comunicative di alto livello, che indagano perlopiù un ampio spettro di competenze in condizioni deficitarie. Focalizziamo in modo particolare quest’ultimo livello (per una sintesi si veda [30]). Una prima distinzione consente di raggruppare i Protocolli Pragmatici e i Test di Efficienza Comunicativa [34]. I primi sono rivolti alla valutazione degli aspetti pragmatici del linguaggio, come il Pragmatic Protocol [35], che indaga, attraverso 30 categorie comportamentali, le modalità di comunicare del soggetto (fluenza, prosodia, componenti non verbali), l’azione propositiva (scelta e stili comunicativi), il piano intenzionale (proprio e di feedback a carico dell’interlocutore); il Profile of Communicative Appropriateness (PCA, [36]), che prevede un’interazione vis-àvis tra soggetto e sperimentatore, valutando successivamente la produzione spontanea del soggetto mediante codifica attuata con l’ausilio di modelli di comunicazione testuale. Esso include, in particolare, l’analisi di competenze come la responsività all’interlocutore, il controllo del contenuto semantico, la coesione tra
62
M. Balconi
unità informative del discorso, la fluenza verbale, la sensibilità al contesto sociale, la comunicazione non-verbale. Citiamo, inoltre, il Comprehensive Test of Language Functioning (PICA, [37, 38]), utilizzato al fine di quantificare la produzione e la comprensione del linguaggio, le competenze di scrittura e lettura, l’analisi dei gesti ecc. O, ancora, il Communicative Abilities in Daily Living (CADL, [39]), che consente di stimare la capacità del soggetto di comunicare nelle situazioni quotidiane. Tra quelli di maggiore interesse per le componenti conversazionali e del discorso occorre citare il test di comprensione del discorso (Discourse Comprehension Test) [40], che indaga la capacità di comprendere il contenuto di macrounità (al riguardo si veda anche il Capitolo 1). In diverse occasioni è stato rilevato che pazienti con lesioni emisferiche destre appaiono incapaci di rispondere correttamente, presumibilmente per la difficoltà di sopprimere informazioni irrilevanti. Infine, le cosiddette misure di self-report fanno riferimento alla dimensione autovalutativa del soggetto [30]. Distinguiamo due principali tipologie, che si riferiscono da un lato ai resoconti verbali dei soggetti in concomitanza all’esecuzione di un compito (verbal reports); dall’altro ai questionari di autovalutazione (questionari di self-report in senso più specifico). Impiegati prevalentemente per comprendere le modalità di produzione e comprensione del linguaggio in contesti reali, essi richiedono l’utilizzo congiunto di misure comportamentali al fine di studiare i processi sottesi in modo esaustivo e completo. Inoltre, essi offrono interessanti vantaggi, in quanto costituiscono strumenti privilegiati per analizzare le modalità con cui gli individui regolano e controllano i propri processi comunicativi. Le misure di tipo autovalutativo presentano, tuttavia, alcuni limiti intrinseci, tra cui la coincidenza tra soggetto osservato e soggetto osservatore, l’impossibilità di avere riscontri “oggettivi” delle variazioni riportate, nonché l’estrema variabilità soggettiva registrata nelle misure. Un secondo problema è relativo alla validità di costrutto, poiché gli strumenti autovalutativi fanno riferimento alla capacità di rendere conto di processi che hanno luogo all’interno del soggetto. In questa prospettiva, l’applicazione congiunta di misure osservative e di protocolli di autovalutazione consente di studiare i processi mentali in modo più esaustivo e integrato. Da un lato, infatti, gli strumenti di misura “oggettivi” consentono di rilevare l’effettiva prestazione del soggetto in un compito cognitivo, dall’altro gli strumenti di autovalutazione riflettono il modo con cui il soggetto stesso si rappresenta e modula la propria attività comunicativa.
2.4.2 Indici osservativi È utile sottolineare che un grosso vantaggio dei metodi osservativi è costituito dal poter fornire utili informazioni circa il funzionamento dei meccanismi linguistici e comunicativi durante il decorso del processo stesso. Al contrario, le misure precedentemente illustrate vengono indicate come retrospettive, ovvero sono rilevabili dopo che la prestazione ha avuto luogo, pertanto forniscono indicazioni circa il prodotto di un determinato processo [26]. Le misure di tipo osservativo fanno riferimento a indici rilevati perlopiù in contesti sperimentali, finalizzati a ottenere le
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
63
modalità di risposta di un soggetto a particolari condizioni (variabili sperimentali), al fine di trarre specifiche inferenze circa il funzionamento dei meccanismi cognitivi sottostanti. Un secondo grosso vantaggio di tali rilevazioni è legato al contesto sperimentale, che garantisce un ambiente protetto e controllato rispetto ad altri ambiti. Gli indici osservativi in senso stretto sono basati sulla rilevazione delle occorrenze (frequenze) con cui si verifica un certo comportamento sulla base della creazione di categorie di osservazione esaustive (modalità di comparsa del fenomeno studiato). Prendiamo in considerazione gli indici osservativi relativi alla comunicazione verbale (indici linguistici) e non-verbale (indici di comunicazione non verbali) che utilizzano l’osservazione del comportamento mimico, gestuale e delle componenti vocali, e gli indici di natura cognitiva, come i tempi di reazione (TR) e i movimenti oculari. Indici verbali e non verbali In questo paragrafo prendiamo in considerazione gli indici di tipo comportamentale impiegati nello studio dei correlati linguistici e comunicativi, con particolare attenzione a questi ultimi. Nel caso del linguaggio, sono state predisposte rilevazioni di specifiche abilità verbali, come compiti di riconoscimento di parole, di lettura, di denominazione [41]. Di particolare interesse è lo studio dell’organizzazione del linguaggio utilizzando gruppi di soggetti differenziati in funzione di caratteristiche specifiche, come soggetti con deficit vs. soggetti normali, soggetti madrelingui vs. bilingui [42] o soggetti appartenenti a differenti fasce di età (per un review si veda [43]). Una ricca fonte di informazioni circa il processo linguistico nella popolazione normale proviene dallo studio degli errori e dei fenomeni di esitazione naturalmente commessi dai parlanti. Noti sono gli studi sugli errori compiuti dai bambini, che hanno consentito di rilevare l’acquisizione precoce di regole necessarie a spiegare la produzione degli errori stessi (errori rule-based) [44]. In generale, lo studio dei meccanismi legati alla comunicazione in contesti sperimentali è rilevante poiché consente di limitare il numero di possibili modelli formulabili circa l’organizzazione del linguaggio: l’omogeneità degli errori rilevati in campioni adulti e di bambini ha permesso, ad esempio, di rilevare importanti elementi circa l’architettura del linguaggio. Differenze e incongruenze tra campioni di soggetti di differenti fasce di età hanno, al contrario, puntualizzato quali aspetti necessitino di un processo evolutivo di acquisizione. Sul versante della comunicazione non-verbale ci si avvale degli indici comportamentali rilevati attraverso griglie di osservazione dei diversi sistemi attivati. Rispetto a questi ultimi è possibile codificare una serie di segnali rappresentativi dei canali comunicativi, tra cui le componenti facciali e posturali, il sistema gestuale e prossemico, le componenti vocali. In particolare, Ekman [45] ha messo a punto uno strumento per codificare la comunicazione delle emozioni mediante le espressioni facciali. Prendiamo in considerazione specificamente a fini esemplificativi lo strumento di decodifica delle espressioni facciali proposto dagli autori (FACS, Facial Action Coding System), finalizzato a decomporre le unità
64
M. Balconi
Fig. 2.2 Riproduzione di stimoli mimici di emozioni secondo lo strumento FACS
muscolari ultime del volto e a individuarne il ruolo nell’espressione facciale delle emozioni. La gestalt del volto è suddivisa in due differenti aree: un’area superiore (fronte, sopracciglia, occhi) e un’area inferiore (guance, naso, bocca mento). Complessivamente sono state identificate 44 unità d’azione, differenti per intensità e per modificazioni visibili nel viso. Queste ultime, singolarmente o in combinazione l’una con l’altra, rendono conto di tutte le possibili espressioni facciali delle emozioni. L’analisi complessiva delle configurazioni mimiche ha consentito di rilevare alcune varianti nella durata delle modificazioni dei singoli muscoli, con range variabile da 0,5 a 4 sec e nella latenza di comparsa delle espressioni (ad esempio, nel trasalimento – startle effect – le modificazioni sarebbero tempestive al contrario delle modificazioni correlate alla tristezza). Interessanti integrazioni di tali indici comportamentali provengono dalle misure di natura psicofisiologica e neuropsicologica mediante studi con potenziali evento-correlati (si veda il paragrafo 4.3). La Figura 2.2 riproduce alcune tipiche espressioni delle emozioni secondo il sistema FACS. Tempi di risposta (TR) I tempi di riposta (TR) costituiscono dati di tipo cronometrico, utilizzati soprattutto in relazione a compiti linguistici. Essi consentono di formulare una misura precisa del tempo necessario ai soggetti per produrre una risposta in relazione a uno specifico compito sperimentale. Inoltre, i TR costituiscono misure indirette più sensibili rispetto ad altre, poiché differenze di TR nell’elaborazione di specifici aspetti della comunicazione possono essere documentate anche in assenza di differenze nei punteggi psicometrici. Pertanto, tali indici consentono di rappresentare in modo peculiare la presenza di processi qualitativamente differenti, poiché ne illustrano l’effettiva modalità di funzionamento. La rilevazione dei TR tiene conto di due componenti (anche dette fasi), che consentono di decomporre il processo di riposta nei momenti salienti che lo contraddistinguono:
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
65
– una fase centrale destinata alla codifica dell’informazione sensoriale relativa a un certo stimolo sino alla selezione di una possibile risposta; – una fase periferica destinata ai processi finalizzati alla produzione motoria (risposta mediante un tasto, ad esempio). Le variazioni dei TR generalmente sono utilizzate come misura indiretta della difficoltà del compito, sulla base dell’assunto che un compito che richiede maggiore elaborazione richieda anche più tempo per essere eseguito [26]. Nello studio dei processi comunicativi tale indice è stato impiegato per confrontare la prestazione di soggetti normali e con specifici deficit. Ad esempio, tale misura è stata utilizzata ampiamente per testare la risposta del soggetto per processi di lettura o di comprensione di frasi, per compiti di natura semantica come testare l’ambiguità semantica di un termine, la polisemia, o, ancora, a livello pragmatico, la discriminazione di componenti soprasegmentali [46]. Per citare solo alcuni esempi di applicazioni al dominio linguistico, gli studi più recenti, perlopiù realizzati con soggetti in età precoce, si sono focalizzati sul cambiamento della fluenza verbale e sull’analisi delle strategie utilizzate dai bambini per la comprensione di frasi [47]. Entrambi i costrutti della comprensione e della fluenza sono infatti soggetti a un progressivo miglioramento, in funzione dello sviluppo di strategie metacognitive per generare e comprendere materiale verbale. In riferimento a campioni di soggetti con deficit, differenze dei TR sono state impiegate per dirimere la presenza di specifiche operazioni compromesse, come nel processo di decisione lessicale [46], di elaborazione sintattica [48] o per valutare i tempi di trasferimento delle informazioni in bambini con disabilità nella lettura [49]. Indici discriminativi, di interferenza e di priming Una categoria specifica di misure è rappresentata dagli indici discriminativi, in grado di fornire informazioni di natura cronometrica e non, che consentono di rilevare una potenziale differenziazione nei tempi e nelle modalità di esecuzione delle singole operazioni in assenza di risposta esplicita da parte del soggetto. In genere, viene richiesto al soggetto di attuare una distinzione tra stimoli che differiscono per esigue caratteristiche temporali. Tali misure consentono di analizzare eventuali deficit per specifiche funzioni in assenza di un compito motorio (fase periferica precedente), garantendo l’indipendenza dei due processi (l’uno cognitivo, l’altro motorio appunto) e consentendo al contempo di testare differenze minime e di “basso livello” tra processi difficilmente rilevabili mediante altri metodi di analisi. Ad esempio, la richiesta fatta a un soggetto di distinguere tra due stimoli linguistici ambigui può consentire di rilevare non solo differenze temporali sottostanti ma anche di testare la qualità della rappresentazione attivata, nonché le possibili reti associative esistenti fra i significati. Costituiscono esempi di possibili applicazioni delle misure discriminative gli studi di Caplan [28] relativi alla confusione di fonemi in pazienti afasici o lo studio di Arguin e colleghi [50] sul rapporto tra la complessità degli stimoli e l’organizzazione semantica in pazienti con anomia categoria-specifica per frutti e vegetali.
66
M. Balconi
Alla medesima categoria possono essere associate le misure di priming e di interferenza. Il priming viene generalmente utilizzato per facilitare (priming positivo) o inibire (priming negativo) l’accesso di un secondo stimolo (target), collegato al precedente sul piano lessicale, sintattico o semantico. Il grado di facilitazione o di interferenza esercitato dal priming (misurato attraverso i TR per il secondo stimolo) è utilizzato per rilevare il legame e la natura della relazione che intercorre tra prime e target. Applicazioni recenti sono state realizzate, ad esempio, nel caso di difficoltà di accesso lessico-semantico di diversa natura, ad esempio, in pazienti con Alzheimer [51]. L’effetto di interferenza è, invece, paragonabile a quello prodotto dall’effetto Stroop [52]. Lo studio di Arguin e colleghi [50], grazie all’impiego del paradigma del priming, ha mostrato evidenze a favore del fatto che un incremento nel numero di dimensioni variabili per una classe di stimoli interferisce con l’accesso alle informazioni semantiche circa quella classe, nel caso di un paziente agnostico. Occorre, tuttavia, sottolineare che i metodi del priming e dell’interferenza possono fornirci esclusivamente informazioni circa il corso temporale e l’estensione dell’interferenza tra processi cognitivi in competizione o tra rappresentazioni di stimoli differenti. Essi non consentono, al contrario, di configurare con esattezza in che cosa consistano tali processi o rappresentazioni, come essi funzionino o come si facilitino o si ostacolino reciprocamente. In sostanza, occorre essere cauti nel formulare conclusioni circa il significato funzionale del priming o dell’interferenza e circa il contributo delle componenti neurobiologiche sottostanti [26]. Movimenti oculari La misurazione dei movimenti oculari consente di stimare, attraverso una rilevazione comportamentale, i processi cognitivi sottostanti alla comprensione del significato di un testo scritto [53, 54]. Generalmente essi vengono monitorati grazie all’impiego di strumenti di registrazione (come videocamere) con funzioni di scanning. In particolare, consentono la rilevazione delle variazioni EOG (elettroculogramma) che monitorano i movimenti orizzontali e verticali compiuti dall’occhio. In ambito empirico tale misura è stata perlopiù impiegata per misurare una serie di variabili, che sono riconducibili alle variazioni delle fissazioni di un determinato termine, del numero di ricorsioni e della loro durata. Specificamente le fissazioni di brevissima durata (pochi millisecondi) sono intercalate alle saccadi (spostamenti rapidi degli occhi) che segnalano il livello di comprensione di un testo. La rilevazione dei movimenti saccadici è considerata un indice del processo di elaborazione del significato che consente di definire i piani di comprensione e l’eventuale difficoltà di attribuzione di significato all’unità testuale. Gli indici di misura generalmente impiegati sono riconducibili alle rilevazioni della latenza, dell’ampiezza, della direzione del movimento ecc. I movimenti oculari sono controllati da sistemi corticali e sottocorticali in congiunzione con i nervi cranici e un insieme di muscoli oculari. In particolare, sia la corteccia frontale sia quella occipitale sono coinvolte nell’attività oculare: più specificamente le fissazioni sono controllate dalla corteccia premo-
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
67
toria dei lobi frontali, mentre il collicolo superiore è coinvolto nella produzione delle saccadi. Studi precedenti hanno rilevato un rapporto diretto tra movimenti oculari e attività cognitiva svolta dal soggetto, rispetto alla maggiore o minore complessità del compito di elaborazione. Continue ricorsioni possono, cioè, segnalare la necessità per il soggetto di rivedere parti di maggiore complessità o ambiguità, essendo pertanto una misura indiretta della generale difficoltà di comprensione [55]. Per questa ragione tali indici sono applicabili sia ad alcuni processi linguistici classici (come la lettura di parole o frasi) sia più generalmente alla comprensione semantica del testo. Occorre, tuttavia, sottolineare che il processo di lettura in sé e il processo o i processi cognitivi sottostanti non sono facilmente separabili, come, ad esempio, nel caso della comprensione o della decisione lessicale. Evidentemente il tipo di compito previsto per il soggetto (di comprensione, di associazione o di memorizzazione ecc.) può costituire un fattore altamente discriminante nel definire la natura del processo indagato. I movimenti oculari sono direttamente legati a ulteriori fenomeni di interesse per la psicologia della comunicazione, come la chiusura spontanea delle palpebre (blinks oculari) in stretta relazione alla cosiddetta risposta di startle (startle response). Essa è intesa come risposta attiva, rapida, a uno stimolo inatteso, poiché l’aumento dei blinks segnala propriamente il sopraggiungere di tale stimolazione imprevista. È stato rilevato che i processi attentivi ed emotivi possono modulare il riflesso di startle e, più in generale, che esiste un rapporto diretto tra le variazioni di arousal dell’organismo e l’incremento o la diminuzione dei blinks [56]. Rispetto agli studi effettuati nell’ambito dei processi linguistici e comunicativi, le applicazioni recenti riguardano soprattutto lo studio delle componenti non verbali della comunicazione e la produzione e la comprensione di correlati emotivi. La figura seguente riporta un esempio di variazione dei blinks (Fig. 2.3).
Fig. 2.3 Ampiezza media della risposta di blink elicitata da uno startle di origine acustica (stimolo probe) durante la visione di immagini emotive positive, neutre o negative
68
M. Balconi
2.4.3 Indici psicofisiologici: misure neurovegetative Qualsiasi organismo vivente produce un complesso “sistema di segnalazioni” fisiologiche connesse al funzionamento dell’organismo stesso: tali unità di informazioni sono chiamate biosegnali [57]. In funzione della natura di tali segnali è possibile individuare due grandi categorie: i segnali elettrici (biopotenziali: elettrocardiogramma -ECG-; elettroencefalogramma – EEG; elettromiogramma – EMG) e i segnali non elettrici (modificazioni pressorie, volumetriche, termiche ecc.) [2]. Tre sono i principali ambiti di rilevazione dell’attività elettrofisiologica del soggetto: l’attività elettrica della cute, relativa all’attivazione del sistema neurovegetativo; l’attività elettrica dell’occhio, costituita dall’attività elettrica della retina e dei movimenti oculari; infine, per l’attività cerebrale è registrata la presenza di variazioni elettriche prodotte dallo scalpo come indice di attivazione dello stesso. In particolare esploreremo nel presente paragrafo i meccanismi legati all’attività neurovegetativa dell’individuo, riservando uno spazio apposito agli indici corticali (indici cognitivi) nel paragrafo successivo. L’attivazione del sistema nervoso autonomico è, infatti, di particolare interesse per le componenti non verbali della comunicazione [58]. Tale attività assume un ruolo di primo piano nello studio dei processi comunicativi, soprattutto in relazione alla regolazione delle risposte emotive all’interno dell’interazione comunicativa. Occorre focalizzare alcuni parametri, tra cui attività elettrica del muscolo e dell’occhio; gli indici di attivazione cutanea (come la risposta e il livello di conduttanza); il ritmo cardiaco e la pressione sanguigna. Elettromiografia L’elettromiografia è la tecnica utilizzata per misurare i potenziali elettrici associati alla contrazione delle fibre muscolari. La risposta elettromiografica del soggetto appare direttamente legata alle componenti di attivazione generale (variazioni di arousal). Una serie di studi ha, inoltre, collegato la risposta elettromiografica ai TR: un aumento della risposta muscolare è generalmente collegato a una riduzione dei TR [59]. Nell’ambito del linguaggio tale indice è stato applicato principalmente ai processi di lettura, ad esempio, nello studio del linguaggio sublocale che si rileva durante la lettura [60]. In particolare, è stato osservato che maggiori sono i tempi richiesti a un soggetto per la lettura di un testo, maggiore è l’ampiezza dell’attività muscolare attivata in relazione al linguaggio subvocalico [61]. Alcune applicazioni dell’EMG riguardano anche l’ambito della comunicazione non-verbale, come nello studio delle modificazioni di pattern mimici in relazione a specifiche emozioni. Tra gli altri, gli studi di Ekman [62] si sono posti l’obiettivo di definire configurazioni di modificazioni muscolari emozione-specifiche. In aggiunta ai pattern muscolari che definiscono le risposte emotive dei soggetti (come nel caso dei muscoli corrugatori o zigomatici) è possibile verificare la presenza di specifici pattern neurali che guidano la produzione di specifiche emozioni (si veda al riguardo anche il Capitolo 9). Nel programma neuroculturale di Ekman è stata ipotizzata la presenza di specifici network neurali per pattern di espressioni emotive e, in secondo luogo, tali pattern sarebbero comuni a differenti contesti culturali (estendibilità cross-cul-
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
69
turale). La mimica emotiva può essere intesa come sistema comunicativo finalizzato alla gestione dell’interazione comunicativa ed essa può essere indagata sia come canale espressivo sia come canale comunicativo di risposta a stimoli interni o esterni. Studi recenti [63] hanno, infatti, evidenziato la presenza di un effetto comunicativo detto di “contagio” secondo cui i soggetti di fronte a stimoli mimici emotivi risponderebbero modificando il proprio pattern facciale con modalità congruenti allo stimolo osservato. In particolare, i soggetti risponderebbero con pattern mimici di emozioni positive a stimoli mimici positivi e in direzione opposta per stimoli negativi. Dimberg ha testato tale ipotesi [64] analizzando se individui esposti a stimoli con volti della gioia e della rabbia potessero essere influenzati nell’organizzazione del proprio pattern mimico: i volti della rabbia in particolare aumentano l’attività del muscolo corrugatore, mentre, volti della gioia aumentano l’attività del muscolo zigomatico. Un secondo quesito che è stato posto nell’ambito della psicologia della comunicazione è relativo all’effetto che stimoli mimici possono esercitare sull’umore dei soggetti, con interessanti effetti per il reciproco rapporto tra esperienza emotiva e manifestazione della stessa negli individui [65]. Variazioni del diametro pupillare Anche le variazioni del diametro pupillare costituiscono un valido indice impiegato nell’analisi della comunicazione non-verbale. Tale indice si riferisce all’aumento o alla diminuzione del diametro della pupilla (seppure per variazioni di scala ridotta che va da 0 a 10 mm). Recentemente è stato introdotto l’indice di misura definito come “risposta pupillare al compito”, ottenuto a partire dal profilo medio dei cambiamenti registrati in risposta a certi eventi o compiti cognitivi [66]. Cambiamenti di ordine così ridotto possono essere rilevati in relazione a un baseline predefinito, che costituisce la condizione neutra o di riposo del soggetto. In particolare, le dimensioni pupillari sono state studiate in relazione alle risposte del soggetto per stimoli a carattere emotivo [67], poiché tale indice è un marcatore diretto dell’attività del sistema nervoso autonomo. Gli studi si sono focalizzati, ad esempio, sul rapporto tra variazione pupillare e valore degli stimoli per il soggetto o il grado di novità intrinseca degli stessi; la riposta alla paura o l’eccitazione sessuale dei soggetti. Sul piano della comunicazione nonverbale un aumento del diametro pupillare è stato collegato all’aumento dell’arousal del soggetto da un lato e alla rilevanza del contesto-stimolo per il soggetto dall’altro. È stato inoltre rilevato che esso aumenta progressivamente in relazione al contenuto positivo degli stimoli emotivi e, al contrario, una sua riduzione è direttamente proporzionale al valore negativo degli stimoli. Alcuni filoni di ricerca hanno indagato più direttamente il rapporto tra variazione del diametro pupillare e attività della memoria a breve termine o l’intervento di processi di natura percettiva [68]. Più in generale, tale indice appare direttamente correlato all’elaborazione del linguaggio. Alcuni studi hanno rilevato che le variazioni pupillari appaiono essere direttamente proporzionali alla complessità del contenuto elaborato [69]. Ad esempio, è stato osservato che la modificazione della struttura sintattica degli enunciati (ad esempio, con l’introduzione di un
70
M. Balconi
ordine casuale delle parole nella frase) può avere un effetto diretto sul diametro pupillare, con un aumento della risposta fisiologica. Tali modificazioni rifletterebbero il diverso grado di elaborazione delle informazioni in funzione dell’investimento cognitivo dei soggetti [53]. Tecniche di indagine dell’attivazione cutanea L’attività elettrica cutanea che deriva dall’azione del sistema nervoso simpatico è utilizzata come indice del livello di attivazione o di reazione emotiva dell’organismo. Essa è anche indicata come riflesso psicogalvanico, o come attività fasica della pelle, contrapposta all’attività tonica di base [70]. La registrazione può essere relativa alle variazioni spontanee del potenziale elettrico tra due elettrodi applicati sulla pelle (detta endogena o del potenziale cutaneo) oppure alla registrazione della resistenza opposta dalla pelle al passaggio di una corrente debole fra gli elettrodi (detta esogena o della conduttanza cutanea). Generalmente gli elettrodi vengono posti sulla pelle delle dita o del palmo della mano o del braccio. La risposta elettrocutanea (EDA, Electro Dermal Activity) si pone quale indice attendibile del livello di vigilanza e del riflesso di orientamento prodotto dal soggetto. Tale attività è stata studiata particolarmente nel caso della comunicazione delle emozioni, poiché essa rappresenta un indice delle risposte emozionali inconsce in assenza di elaborazione consapevole. Studi specifici hanno indagato, in particolare, la possibilità di una specializzazione emisferica delle risposte emozionali e specificamente dell’emisfero destro [71]. A conferma di tale ipotesi è stato rilevato che la risposta elettrocutanea dei soggetti con lesioni cerebrali destre è assente in presenza di stimoli emotigeni (parole con forte valore emotigeno). L’emisfero destro sarebbe, pertanto, determinante per la produzione della reazione emozionale appropriata e per la comunicazione di tale reazione. Nello studio della comunicazione non-verbale delle emozioni, in particolare, è stato rilevato un rapporto diretto tra manipolazione della risposta emotiva e livelli di conduttanza. In particolare, ai soggetti veniva chiesto di esagerare o ridurre la propria risposta per stimoli a carattere emotivo [72], osservando come nel caso di accentuazione i soggetti mostravano un incremento di conduttanza, al contrario della condizione di riduzione che presentava un concomitante decremento della risposta conduttanza. Il significato non-verbale della regolazione delle emozioni appare così supportato da modificazioni psicofisiologiche specifiche e, più in generale, l’indice EDA costituisce un marcatore del valore emotivo dello stimolo per il soggetto. Interessanti applicazioni dell’indice EDA riguardano anche l’elaborazione non conscia delle emozioni per stimoli di diversa natura (volti, oggetti, script complessi ecc.). In particolare, Tranel e Damasio [73] hanno rilevato in soggetti con danno cerebrale, incapaci di elaborare consapevolmente stimoli mimici, un incremento di conduttanza nel caso di stimoli familiari. Inoltre, è stato rilevato un incremento del livello di EDA per stimoli emotivi di natura negativa vs. positiva, in linea con quanto rilevato per l’elaborazione consapevole degli stimoli. Ciò fa supporre che i soggetti abbiano preservato una conoscenza, seppure implicita, degli stimoli e del loro valore semantico.
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
71
Attività del sistema cardiocircolatorio Un interessante indice di natura psicofisiologica è costituito dall’attività cardiaca. In particolare, l’indice relativo al battito cardiaco è definito come numero di battiti del muscolo cardiaco rilevato per unità temporale [70]. Interessanti correlazioni sono state individuate tra l’accelerazione del battito e la comunicazione delle emozioni. Un aumento del battito si rileva in concomitanza a vissuti emotivi negativi e, più in generale, a una maggior complessità cognitiva ed emotiva del contesto/evento. Inoltre, è stato individuato un rapporto diretto tra attività cardiovascolare e attività somatica (muscolare) da un lato e attività cardiovascolare e attività centrale (corticale), dall’altro. Ricerche recenti hanno individuato una correlazione stretta tra attività cardiaca e tempi di reazione, poiché a un aumento del battito si accompagna in genere, una riduzione dei TR [57]. Interessanti applicazioni all’ambito dello studio del linguaggio riguardano il rapporto tra attività cardiaca e apprendimento di stimoli verbali, con un sensibile aumento dell’attività cardiaca in relazione all’apprendimento degli stimoli, in particolare in stretta relazione alla complessità degli stessi. Per la comunicazione non-verbale, tra gli studi condotti quelli di Ekman hanno evidenziato lo stretto rapporto esistente tra aumento dell’indice di attività cardiaca e risposta a stimoli mimici a contenuto emotivo. Nello specifico, rabbia e paura mostrano una maggiore attivazione cardiaca rispetto a gioia e disgusto [74]. Interessanti risultati riguardano, inoltre, il rapporto tra lateralizzazione e regolazione dell’attività cardiaca. Una serie di studi ha rilevato, infatti, il maggior contributo destro rispetto alla capacità di regolare il ritmo cardiaco nei soggetti [75]. D’altro canto, è stato osservato anche come l’attività cardiovascolare sia strettamente legata all’attività cerebrale, dal momento che il ritmo cardiovascolare può mediare l’impatto degli stimoli esterni sul sistema nervoso centrale. Anche la pressione sanguigna costituisce una delle principali variabili psicofisiologiche indagate nell’ambito della comunicazione delle emozioni. In particolare, l’indice pressorio è stato correlato all’encoding e al decoding delle componenti emotive: un incremento di pressione è stato rilevato per stimoli a elevato contenuto emotivo o più in generale in condizioni di aumento di stress per l’organismo. Le variazioni pressorie sono state indagate anche in funzione di alcune variabili che caratterizzano diversi contesti comunicativi. Ad esempio, modificazioni interessanti sono state rilevate in contesti conversazionali in relazione ad alcune variabili quali lo status dei soggetti, il numero di individui coinvolti nello scambio, il loro genere ecc. [76].
2.4.4 Attività elettrica corticale Particolare attenzione è rivolta allo studio dei metodi elettroencefalografici di indagine dell’attività corticale dei soggetti, poiché quest’ultima è stata ampiamente impiegata negli ultimi anni per lo studio della produzione e della comprensione del linguaggio (si veda anche il Capitolo 3) e, più recentemente, per l’analisi delle componenti pragmatiche della comunicazione. Tale tecnica di rilevazione, diversamente da quelle precedentemente analizzate, consente un’analisi più diretta dei processi
72
M. Balconi
cognitivi chiamati in causa. Infatti, essa consente la scansione dell’attività cognitiva in intervalli temporali minimi e ha il vantaggio di rapportare con maggiore precisione l’attivazione corticale a specifici compiti cognitivi cui il soggetto è sottoposto. Elettroencefalogramma L’EEG consente di registrare le variazioni corticali relative al voltaggio in varie parti dello scalpo in relazione a un comune sito di riferimento (considerato spesso il lobo dell’orecchio o il valore medio di tutti gli elettrodi). Le variazioni elettroencefalografiche prodotte dall’attività corticale possono essere a loro volta distinte in due differenti tipologie di indici: l’EEG e i potenziali evocati corticali (o ERP, Event Related Potentials). Il primo è largamente impiegato per definire l’attività sincrona dei neuroni rispetto all’attività di base [57]. L’attività elettrica così registrata prende l’aspetto di una serie di onde di frequenza variabile, trasformata graficamente in tracciato per mezzo del poligrafo. Distinguiamo di seguito le principali bande di frequenza di maggiore interesse per l’ambito neuropsicologico. Innanzitutto si rileva una banda di frequenza di voltaggio relativamente alto (50 microvolt) con una frequenza media di circa 10 cicli/sec (onde α), tipica del soggetto adulto rilassato e con gli occhi chiusi e onde di voltaggio minore e di frequenza maggiore, circa 18-30 cicli (onde β). Il passaggio da una condizione di riposo a occhi chiusi a una condizione di allerta fa rilevare il blocco o desincronizzazione del ritmo, con sostituzione delle onde α con onde β. A queste due bande se ne aggiungono due di altro tipo: le onde δ costituite da frequenze di oscillazione molto basse, inferiori a 4 cicli/sec ed elevato voltaggio (100 microvolt), tipicamente registrate nelle condizioni di sonno profondo; il ritmo θ, di frequenza compresa tra i 4 e gli 8 cicli e di grande ampiezza (circa 100 microvolt). Le principali ricerche condotte in ambito neuropsicologico hanno considerato come centrale l’attività di tipo α: tipicamente la procedura prevede l’esecuzione di un’analisi spettrale che permetta di individuare la proporzione di attività elettrica generale attribuibile alle varie bande di frequenza [77]. La proporzione dell’attività α rispetto all’attività elettrica complessiva è il miglior indice di attivazione corticale, dal momento che qualsiasi impegno mentale comporta una diminuzione di tale componente o un aumento della componente β1. La Figura 2.4 riporta alcuni tracciati caratterizzati da attività sincrona o desincronizzata in funzione dell’attività svolta dal soggetto. Ad esempio, durante lo svolgimento di un compito di valutazione di stimoli a contenuto emotivo si registra una minore attività nell’emisfero sinistro rispetto a quello destro. Una condizione opposta si verifica nel caso di compiti linguistici, con una minore attività dell’emisfero destro [78]. Pertanto, dovrebbe essere possibile stabilire quale emisfero sia più impegnato in un processo cognitivo confrontando il livello di attivazione elettroencefalografica evidenziata rispettivamente nei due emisferi. Il vantaggio di tale tecnica è legato, inoltre, alla possibilità di rilevare variazioni circostanziate ad aree corticali definite e non solo a interi emisferi. In relazione all’analisi topografica dell’EEG sono state definite mappe cerebrali computerizzate, che comprendono la mappatura spaziale e l’analisi temporale e statisti-
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
73
Fig. 2.4 Tracciati EEG in differenti condizioni del soggetto (dal coma alla veglia attiva)
ca dell’attività registrata. Mediante analisi computerizzata è possibile, infatti, rilevare l’attività elettrica nel suo contenuto in frequenza, analizzando la consistenza nel tempo di tale attività per ciascun elettrodo, creando una mappa della distribuzione spaziale dell’attività (per una trattazione completa delle bande di frequenza si rimanda a [57]). Potenziali evocati (ERP) esogeni ed endogeni Maggiore attenzione viene dedicata nel paragrafo al secondo indice di rilevazione elettroencefalografica, ovvero il parametro relativo ai potenziali evocati corticali. Tale indicatore, diversamente dall’analisi dello spettro EEG, consente di analizzare l’attivazione neurale del soggetto in relazione a stimoli esterni ripetuti [79]. L’attività neurale considerata per il calcolo dell’ERP medio tiene conto di stimoli o compiti reiterati sottoposti al soggetto. I potenziali evocati corticali vengono definiti come attività di risposta neurale (la risposta sinaptica dei dendriti delle cellule piramidali) a stimolazione di breve durata. Per tale ragione essi sono largamente impiegati per la rilevazione di processi cognitivi di base. La registrazione avviene sul cuoio capelluto e consente di osservare le variazioni di potenziale elettrico che si verificano in concomitanza di stimolazioni sensoriali, di processi motori o cognitivi. La Figura 2.5 riporta la disposizione di alcuni elettrodi collocati sullo scalpo secondo la notazione internazionale [80]. L’analisi verte sui profili d’onda prodotti dallo scalpo, poiché le diverse componenti riflettono stadi diversi di elaborazione dell’informazione. È possibile distinguere componenti primarie relative all’analisi percettiva dello stimolo, che include la rilevazione delle proprietà fisiche dello stesso (potenziali evocati percettivi o esogeni, a breve latenza) e componenti secondarie relative alle operazioni cogniti-
74
M. Balconi
Fig. 2.5 a, b Rappresentazione della collocazione degli elettrodi sullo scalpo secondo il sistema internazionale. Da [80]
a
b
ve (potenziali evocati cognitivi o endogeni, a lunga latenza). Più recentemente a tale distinzione è stata sostituita una nuova classificazione che evidenzia una differente risposta agli stimoli, di tipo automatico con potenziali precoci, di tipo cognitivo e di natura strategica con potenziali endogeni [81]. Tali potenziali riflettono l’attività di un numero consistente di neuroni della struttura nervosa che si somma all’attività di base evidenziata dall’EEG. Pertanto, è indispensabile separare i potenziali evocati dall’attività EEG registrata dalle stesse strutture nervose, mediante una procedura di sommazione computerizzata dell’attività elettrica spontanea e di quella indotta dall’evento registrato. Ciò consente di separare l’attività non correlata all’evento (variazioni casuali) all’attività specifica per quel compito cognitivo (variazioni sistematiche). Mediante la procedura di sommazione, l’attività elettrica spontanea non legata all’evento tende ad annullarsi, mentre viene a essere evidenziata per sommazione l’attività elettrica legata all’evento oggetto di studio. Inoltre, in ciascun potenziale evocato è possibile distinguere differenti componenti, dette onde, di valore positivo o negativo, caratterizzate, oltre che dal segno di variazione del potenziale, da un’ampiezza e da una latenza, ovvero il tempo che intercorre dall’evento alla comparsa dell’onda. Tali parametri e le loro relative variazioni forniscono le principali informazioni rispetto all’attività corticale sottostante. Lo studio dei processi cognitivi che impiega i parametri di ampiezza e tempo dell’onda ha come presupposto implicito che ogni processo cognitivo possa essere letto come la somma di una combinazione sequenziale (e in alcuni casi parallela) di subprocessi. L’organizzazione in sottocomponenti può essere ritenuta una suddivisione arbitraria, legata al particolare modello cognitivo adottato [82]. L’ipotesi sottostante all’utilizzo dell’analisi dei potenziali evocati è che l’attività elettrica transitoria evidenziata dai potenziali
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
75
rifletta i processi nervosi sottostanti e i processi cognitivi implicati nello svolgimento del compito. Da ciò ne conseguirebbe, inoltre, che le caratteristiche spaziotemporali dei potenziali permettono di fare inferenze relativamente alle regioni corticali che intervengono in tali processi cognitivi e circa il succedersi nel tempo delle loro componenti elementari [83]. Alcuni aspetti salienti dell’approccio adottato consentono di definire meglio le caratteristiche del potenziale. – Gli eventi mentali non possono essere misurati direttamente ma devono essere inferiti a partire da misurazioni di tipo comportamentale e neurale associate a essi. Il metodo dei potenziali evocati medi (averaged) assume che le sottocomponenti sottostanti a uno specifico processo cognitivo siano elementi invarianti nel tempo e rispetto a compiti identici reiterati. – L’onda media del potenziale è considerata come un insieme di componenti che si sommano temporalmente e spazialmente, generate da sistemi neurali differenti. Potenziali evocati e attività cognitive Lo studio dei processi cognitivi (percezione, memoria, emozione, attenzione, linguaggio e pensiero) mediante la tecnica dei potenziali evocati è stato condotto sotto l’egida metodologica e teorica dell’indirizzo cognitivista. Tre punti principali consentono di riassumere la prospettiva cognitivista ai fini della nostra trattazione: – l’indagine è focalizzata sui processi psichici superiori; – la mente viene concepita come una struttura organizzata in stadi e livelli con l’obiettivo di elaborare l’informazione in entrata e in uscita; – i risultati delle ricerche condotte in ambito comportamentale sono confrontati con i risultati delle neuroscienze, assumendo che i processi mentali siano funzioni complesse del cervello. Uno degli aspetti più rilevanti di tale approccio è costituito dalla possibilità di analizzare le variazioni delle risposte del soggetto non tanto in relazione allo stimolo ma piuttosto al processo cognitivo attivato per l’elaborazione dell’informazione. Infatti, la neuropsicologia cognitiva pone al centro della propria disamina fondamentalmente i processi fisiologici e cognitivi nella loro dinamica piuttosto che come semplice effetto o risultato di tale processo. La tendenza prevalente delle ricerche sugli ERP come indici dei processi cognitivi coincide con lo studio delle variazioni elettroencefalografiche correlate alle operazioni svolte dal soggetto, dipendenti non tanto dalle caratteristiche dello stimolo, quanto dalle condizioni sperimentali, dalle aspettative e dalle strategie del soggetto stesso. Pertanto, la risposta prodotta sotto forma di potenziale viene intesa come indice di quanto avviene in vari stadi o livelli dell’elaborazione dell’informazione, a partire dall’analisi primaria degli stimoli. In particolare, nell’analisi dei fenomeni comunicativi l’approccio dei potenziali evocati offre indubbi vantaggi. Innanzitutto, la sua
76
M. Balconi
non invasività, a fronte di un’enorme quantità di dati forniti relativamente ai processi di elaborazione, costituisce un aspetto differenziale rispetto ad altre tecniche di rilevazione. Inoltre, gli ERP consentono un esame dei processi rispetto a una specifica “cronometria cerebrale”, consentendo un’elevata risoluzione in termini di rilevazione puntuale dei tempi di latenza delle componenti processuali. ERP e studio dei processi linguistici e comunicativi Definite le premesse circa il significato delle rilevazioni ERP per la moderna neuropsicologia è necessario comprenderne le principali applicazioni allo studio del linguaggio e della comunicazione [84]. Sono ormai molti gli studi sul linguaggio con applicazioni ERP. Basti citare gli studi sulla comprensione dei processi fonologici, lessicali, sintattici o semantici. In termini più analitici, lo studio mediante ERP ha consentito di verificare l’esistenza di una reale distinzione dei processi di elaborazione di verbi e nomi; l’elaborazione fonologica vs. acustica delle parole; la distinzione tra parole funzione e contenuto; la suddivisione tra i livelli di elaborazione sintattica e semantica [85, 86]. O ancora, il possibile confronto tra acquisizione della prima e della seconda lingua; la relazione longitudinale tra l’elaborazione del linguaggio nelle fasi iniziali dello sviluppo e la successiva acquisizione di competenze linguistiche nell’adulto. Ci limitiamo in questo ambito a riportare due esempi di possibili applicazioni di indici ERP per lo studio dei processi di comprensione sintattica e semantica (per un approfondimento si veda il Capitolo 3). Costituiscono un esempio di applicazione delle rilevazioni mediante ERP gli studi sulle variazioni a lunga latenza, quali la deflessione negativa N400, che appare approssimativamente intorno ai 400 ms poststimolo in concomitanza all’identificazione di un’anomalia semantica, maggiormente localizzata nelle aree posteriori bilaterali [87]. L’ampiezza di tale deflessione appare direttamente proporzionale al grado di anomalia o inadeguatezza con il contesto dello stimolo linguistico (o non linguistico) [88, 89]. Essa appare rappresentativa di una più generale condizione di non congruenza stimolo-contesto. Per tale ragione è stata rilevata anche per singole parole in aggiunta a stimoli enunciativi (come per coppie di parole, parole ambigue, liste di termini ecc.). Ipotesi più recenti considerano tale negatività come marcatore della necessità da parte dell’individuo di rivedere le proprie aspettative (ciò che è atteso) sul piano della rappresentazione semantica in senso più ampio [90] o come indice dello sforzo di elaborazione richiesto [91] o, ancora, come richiesta di intervento da parte della working memory [92]. La notevole varietà di prospettive esplicative adottate pone in evidenza il fatto che tale indice può rendere conto di meccanismi differenti. Infatti, occorre tenere presente che i processi linguistici e comunicativi non appaiono mai “isolati” ma piuttosto prevedono l’integrazione di processi come l’attenzione, la memoria di lavoro ecc. In secondo luogo, tale indice risulta essere particolarmente rilevante anche per analizzare le componenti non verbali della comunicazione al fine di sondare il rapporto che esse intrattengono con il contesto. Ad esempio, recenti ricerche hanno evidenziato un significativo incremento della deflessione N400 in relazione ai cosiddetti fenomeni “non standard” del significato, come nel caso di
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
77
elaborazione di enunciati metaforici [93, 94]. Sono stati considerati, inoltre, i processi di convergenza e di sintonizzazione dei diversi sistemi di comunicazione non-verbale. Nello specifico è stata rilevata la presenza di una deflessione negativa in condizioni di divergenza tra componenti vocali e mimiche nella comunicazione delle emozioni [95, 96]. Un indice positivo di particolare interesse per lo studio del linguaggio è stato rilevato in concomitanza alla violazione di vincoli sintattici, anche detta P600 [97, 98]. La variazione P600 è stata interpretata, tuttavia, in modi differenti. Secondo una prima ipotesi, essa sarebbe il risultato della convergenza di più componenti cognitive, correlate al processo di parsing sintattico [99]. Una seconda possibilità è che tale variazione sia una componente della più ampia famiglia delle variazioni positive di lunga latenza (P300), rilevate in concomitanza all’elaborazione di eventi inattesi ma rilevanti rispetto al compito [100]. Più recentemente è stata introdotta una seconda componente negativa (effetto LAN, Left Anterior Negativity), di maggiore ampiezza nelle regioni anteriori dello scalpo e nell’emisfero sinistro (per una discussione approfondita di tali indici ERP si rimanda a [84]). Ma quali sono i reali vantaggi e gli svantaggi nell’utilizzo di tali tecniche? Abbiamo già sottolineato la possibilità di rilevare in modo preciso la cronometria mentale dei processi cognitivi indagati, consentendo contemporaneamente la scomposizione dell’intero processo in sottocomponenti o in singole operazioni mentali. Gli indici ERP sono in grado di monitorare il processo nel suo divenire, offrendo la possibilità di fare inferenze circa i tempi di attivazione delle singole componenti del processo stesso. Inoltre, essi consentono una rilevazione nel caso in cui vi siano deficit che invalidano la produzione dei soggetti (come nel caso delle afasie) o con soggetti in età precoce. Tra i principali limiti insiti nelle procedure di rilevazione mediante ERP occorre annoverare in primis la ridotta risoluzione spaziale degli indici rispetto alle misure di neuroimaging. Inoltre, gli ERP risultano poco adatti per compiti sperimentali che hanno durata superiore a pochi minuti, non consentendo quindi di rendere conto di processi a lungo termine. In aggiunta, al fine di limitare la presenza di artefatti nel tracciato è utile prevedere la sospensione dell’attività motoria del soggetto, fatto che contribuisce a rendere poco naturale e vincolante il contesto di rilevazione del potenziale [101]. Elementi di natura tecnica, legati all’apparato di registrazione, possono avere, inoltre, un’incidenza sull’output finale. Si pensi, ad esempio, al particolare tipo di montaggio degli elettrodi che influenza direttamente il pattern di componenti ERP osservate. O, ancora, le caratteristiche dell’amplificatore (cutoff) incidono sulla rilevazione del segnale (nei termini di rilevazione delle basse frequenze del segnale). Inoltre, sul piano teorico, in molti casi i ricercatori focalizzano la propria attenzione su particolari variazioni ERP già rilevate in precedenza (ad esempio, la componente N400) trascurando al contempo altre variazioni presenti nel tracciato, potenzialmente rilevanti. Tale scelta può indurre a sottostimare la presenza di componenti nuove, a favore di componenti note in risposta a specifiche variabili sperimentali. Le recenti applicazioni dell’approccio di analisi multivariato (come l’analisi della Componenti Principali) possono ovviare a tale problema, consentendo di individuare quali componenti rendano conto effettivamente della maggior quota di varianza dell’ERP [102].
78
M. Balconi
Magnetoencefalografia (MEG) e stimolazione magnetica transcranica (TMS) Abbiamo precisato come sia possibile cogliere la variazione time-by-time dell’attività cerebrale associata a un particolare evento cognitivo non invasivamente nella forma delle variazioni di voltaggio rilevate sulla superficie dello scalpo, definite come potenziali evento-correlati (ERP). Tuttavia questi ultimi non sono in grado di fornire sufficienti informazioni circa la localizzazione precisa delle sorgenti delle variazioni di voltaggio rilevate. Un indice in grado di compensare in parte tale limite è rappresentato dalla MEG (magnetoencefalografia). In quanto tecnica non invasiva, essa è impiegata in misura sempre più consistente, in particolare per lo studio del linguaggio [103]. Inoltre, essa offre l’indubbio vantaggio di fornire un’ottima risoluzione sia spaziale sia temporale, pur rilevando unicamente l’attività superficiale corticale e non quella degli strati più profondi. Essa è in grado di rilevare mediante appositi sensori le piccole variazioni di campi magnetici prodotti dall’attività elettrica dei neuroni (con campi non solo tangenziali ma anche radiali), grazie alla rilevazione di cambiamenti nel campo magnetico generati all’interno del cervello, sincronizzati a stimoli o eventi esterni. La MEG si avvale dell’impiego di un neuromagnetometro, con l’intento di rilevare i campi magnetici prodotti dall’attività di aree molto piccole. Al fine di aumentare il rapporto segnale-rumore delle rilevazioni magnetiche si prevede di registrare più rilevazioni MEG in risposta a reiterazioni dell’evento sperimentale, ottenendo un profilo medio delle variazioni. Per tale ragione, gli indici prodotti sono indicati come campi magnetici evocati, parallelamente agli ERP. Uno degli scopi principali della MEG è costituito dalla definizione della sorgente dell’attivazione cerebrale associata a un particolare stimolo, al fine di delineare un modello adeguato della sorgente sottostante. Tuttavia la definizione di tali sorgenti è resa problematica dalla difficoltà di calcolo dei parametri delle sorgenti intracraniche (ovvero le loro coordinate spaziali, la loro forza e il loro orientamento) a partire dalla distribuzione dei campi magnetici misurati sulla superficie dello scalpo. Tale problema è in parte risolto grazie al contributo e all’integrazione delle rilevazioni MEG con informazioni ottenute da altri paradigmi di ricerca, come gli studi su lesioni o altre tecniche di neuroimaging funzionale. Disponendo di sistemi di amplificazione molto potenti, tale tecnica combinata consente di rappresentare le variazioni dei campi magnetici sull’immagine anatomica del soggetto ottenuta tramite risonanza magnetica, fornendo un complessivo quadro anatomo-funzionale di una specifica area. Tra i maggiori vantaggi della MEG occorre sottolineare, in aggiunta alla sua ridotta invasività, una risoluzione temporale migliore rispetto alle tecniche di neuroimaging. Inoltre, essa offre la possibilità di interpretare i dati ottenuti anche in assenza di confronto con altri soggetti, senza cioè ricorrere alla costruzione di un “profilo medio” (richiesto, ad esempio, dalla fMRI). In sintesi, essa consente di integrare un’elevata risoluzione, tipica degli ERP, con elevata capacità di localizzazione generata all’interno di regioni cerebrali sufficientemente piccole. Tra i principali esempi di ricerca applicata all’ambito della comunicazione, citiamo lo studio di Basile e colleghi [104], che ha individuato regioni distinte della corteccia frontale implicate nella preparazione ed esecuzione di differenti compiti
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
79
non verbali. Interessanti rilevazioni di campi magnetici relati a eventi (EventRelated Magnetic Fields) sono state effettuate da Salmelin e colleghi [105] nello studio di compiti di denominazione di parole. Nello studio, data l’ottima risoluzione spaziale dell’ouput, è stato possibile evidenziare come nel processo di elaborazione di parole siano dapprima attivate le aree visive e successivamente alcune strutture neurali con specifiche competenze linguistiche. Anche per lo svolgimento di compiti cognitivi complessi è possibile evidenziare l’utilità della MEG. Citiamo come esempio il compito di individuazione di una categoria semantica per stimoli uditivi (parole) [106]. Nello studio è emersa la presenza di una deflessione negativa (N100m) in entrambi gli emisferi, seguita da un campo di massima ampiezza intorno ai 400 ms (N400m) dopo l’onset dello stimolo, con una localizzazione più posteriore per l’emisfero sinistro rispetto al destro. Più recentemente, alcuni studi hanno cercato di correlare in modo diretto indici ERP e MEG (come per la N400 e N400m) con interessanti risultati (si veda, ad esempio, [107]). Anche la stimolazione magnetica transcranica (TMS, Trans Magnetic Stimulation) costituisce una recente tecnica che impiega campi magnetici al fine di intervenire sul processo di produzione linguistica [20]. Questa tecnica, più moderna e meno invasiva, è basata sul principio dell’induzione elettromagnetica, secondo cui un impulso di corrente elettrica che passa attraverso una bobina di metallo è in grado di generare un campo magnetico con direzione perpendicolare a quella del campo elettrico. Gli apparecchi più moderni impiegano una bobina stimolante contenente una spirale che viene appoggiata sullo scalpo ed è connessa a un condensatore. Il campo elettrico così generato induce un campo magnetico di elevata potenza e breve durata (in genere 180-300 ms) che attraversa i tessuti cutanei, muscolari e ossei del cranio, raggiunge la corteccia e, in condizioni di stimolazione prolungata, blocca temporaneamente le funzioni dell’area corticale sottostante (nel punto in cui è posizionata la bobina). Rispetto all’utilizzo in abito comunicativo, la TMS consente, ad esempio, di intervenire direttamente sulla produzione dell’eloquio inducendo l’interruzione del processo [108, 109]. Essa può essere anche impiegata con l’intento di produrre un effetto opposto, ovvero di stimolare la produzione verbale del soggetto nei casi di deficit come per la produzione di nomi e di verbi [110]. Esistono, tuttavia, alcune controindicazioni nell’uso dello strumento (si veda il carattere epilettogeno dello stesso nel caso di stimolazioni di lunga durata a elevata frequenza), oltre che limiti intrinseci, tra cui l’impossibilità di indagare i tessuti sottocorticali.
2.4.5 Neuroimaging: tecniche morfologiche e funzionali In anni recenti è stato possibile osservare l’emergere di nuovi e potenti mezzi per studiare le funzioni cerebrali. Lo studio analitico dell’attività cerebrale è stato reso possibile grazie allo sviluppo di tecnologie di rilevazione in vivo mediante bioimmagine [111]. Distinguiamo, in particolare, due differenti tipologie di tecniche che consentono di evidenziare aspetti differenti dell’attività cognitiva degli individui: gli strumenti di rilevazione strutturali e gli strumenti di rilevazione funzionali. Ciascuno di tali metodi misura particolari aspetti della fisiologia del cervello, come
80
M. Balconi
il flusso sanguigno, il consumo di ossigeno e glucosio o la corrente intracellulare all’interno dei neuroni. Tali tecniche hanno consentito di individuare con estrema precisione eventi cerebrali all’interno di regioni anatomiche molto piccole. La supposizione è che ogni immagine funzionale riveli operazioni o meccanismi propri della comunicazione, in quanto indice del grado di attivazione di una popolazione di neuroni. Ovvero esse mostrano attività di strutture supportanti sistemi funzionali che mediano operazioni comunicative. Nello studio della comunicazione, i metodi strutturali e funzionali sono stati ampiamente utilizzati, in particolare per analizzare il ruolo di specifiche aree corticali e sottocorticali nei processi comunicativi. Specificamente è stato considerato il contributo dei due emisferi nell’elaborazione delle componenti verbali e non verbali. A titolo esemplificativo possiamo riportare i recenti studi sulla lateralizzazione destra per l’elaborazione delle componenti soprasegmentali della comunicazione [112]. Strumenti di rilevazione strutturali Consideriamo due principali tecniche morfologiche largamente impiegate con finalità cliniche e di ricerca negli ultimi anni: la Tomografia Assiale Computerizzata (TAC) e la Risonanza Magnetica Nucleare (RMN). TAC e RMN forniscono entrambe un’immagine strutturale e non funzionale del cervello [6]. Ciò significa che, in presenza di una lesione, ciò che viene visualizzato dall’analisi si riferisce all’alterazione della struttura macroscopica, senza alcun riferimento alle eventuali alterazioni funzionali determinate da tale lesione. Più specificamente, la TAC è uno strumento utilizzato al fine di analizzare le strutture cerebrali in vivo. Tale tecnica consente di valutare la densità dei vari tessuti cerebrali tramite misurazione dei valori di assorbimento di un fascio di raggi X. I valori individuati vengono successivamente tradotti in diverse tonalità di grigio a seconda del livello di assorbimento del tessuto studiato. Riportiamo un esempio di immagini con una TAC (Figg. 2.6a e 2.6b). Si noti in particolare la presenza di un’area più scura nella regione opercolare frontale. In seguito a trauma, si è verificata infatti una perdita di tessuto, che ora appare scuro poiché riempito di fluido cerebrospinale. Al contrario la RMN si basa sull’uso di apparecchiature in grado di generare campi magnetici di intensità variabile. Essa sfrutta la proprietà di alcuni nuclei atomici che, posti in un campo magnetico e stimolati da onde radio di lunghezza definita, riemettono parte dell’energia assorbita sottoforma di segnale radio [113]. Lo studio del comportamento degli atomi e le informazioni relative al tempo impiegato da questi ultimi per ritornare in una condizione normale può essere usato per creare un’immagine dell’anatomia corticale. Le immagini ottenute mediante TAC e RMN sono tipicamente rappresentate sul piano bidimensionale (in genere la TAC) e tridimensionale (specialmente la RMN). Ciascun elemento che definisce un punto sul piano (con coordinate x e y) è definito pixel, mentre l’elemento che definisce un punto nello spazio tridimensionale (coordinate x, y, z) si definisce voxel. Pixel e voxel costituiscono, pertanto, le unità di misura di tali immagini.
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
81
Fig. 2.6 a, b Rappresentazione di un danno cerebrale mediante TAC (a). Rappresentazione del danno precedente mediante le corrispondenti aree di Brodman (b)
a
b
Tecniche di neuroimaging funzionale Metodi di neuroimaging funzionale possono essere impiegati per studiare l’organizzazione e le basi neurali delle funzioni cognitive come la comunicazione e il linguaggio. In particolare, facciamo riferimento ai metodi di misurazione non invasiva dell’attività cerebrale, con particolare attenzione alle misure basate su variabili emodinamiche come la tomografia a emissione di positroni (PET) e la risonanza magnetica funzionale (fMRI). Vista la complessità e il livello tecnico degli strumenti presentati di seguito, ci limitiamo a fornire alcune indicazioni generali sul loro funzionamento, focalizzando maggiormente gli aspetti di utilità e i limiti a essi intrinseci (per un approfondimento si veda anche [114]). In quanto metodi di natura emodinamica, essi presuppongono che esista una relazione stretta tra cambiamenti del livello di attività delle popolazioni neurali coinvolte e cambiamenti nella richiesta di sangue. Tali strumenti si basano sul principio che la quantità di sangue che irrora un dato tessuto e il suo metabolismo dipenda dall’attività svolta da quel tessuto in relazione a uno specifico compito: maggiore è l’attività funzionale svolta da un tessuto, maggiore dovrà essere il suo metabolismo e l’apporto di sangue. Pertanto, il flusso dinamico regionale cerebrale è usato come misura indiretta di un aumento di attività neurale. È bene sottoli-
82
M. Balconi
neare che il cambio di flusso avviene solo nel caso di variazione generale della richiesta metabolica dei neuroni e non in caso di variazione temporale dell’attività dell’insieme di neuroni (ad esempio, da asincrono a sincrono), che non ha controparte emodinamica dato lo scarso significato funzionale di tale cambiamento. Presentiamo le principali misure emodinamiche utilizzate, come la CBF, SPECT, PET e fMRI. Distinguiamo, in particolare, differenti tecniche di rilevazione funzionale, la misurazione del Flusso Ematico Cerebrale (CBF), la Tomografia a Emissione di Singoli Fotoni (SPECT), la Tomografia a Emissione di Positroni (PET) e la Risonanza Magnetica Funzionale (fMRI). La prima delle tecniche elencate (CBF) è impiegata in studi di attivazione funzionale durante l’esecuzione di un determinato compito. Mediante CBF è possibile rilevare l’aumento di perfusione in specifiche aree, correlato al compito in questione. Essa consiste nell’iniezione di un isotopo radioattivo (Xeno 133) nel circolo cerebrale. Successivamente viene misurata la distribuzione dell’isotopo, mediante strumenti che consentono di rilevare le radiazioni gamma emesse dall’isotopo. In tale modo, è possibile valutare le variazioni di concentrazione dell’isotopo nel tempo e la sua distribuzione nelle diverse regioni cerebrali. Tale tecnica ha il vantaggio, attraverso la correlazione con le immagini morfologiche ottenute, ad esempio, mediante TAC, di evidenziare come le aree di alterata perfusione siano spesso più ampie rispetto alla lesione strutturale. Infatti, il contributo più rilevante fornito da tale tecnica consiste nell’aver consentito di evidenziare come l’esecuzione di un compito cognitivo non sia legata esclusivamente all’attivazione di un’unica regione cerebrale, bensì al funzionamento di una rete di aree interconnesse. Attraverso la tecnica delle tomografie computerizzate è possibile determinare la distribuzione di un tracciante radioattivo in un tessuto al fine di ricavarne informazioni morfologiche e funzionali. Ad esempio, mediante la SPECT, che impiega isotopi a emissione di raggi gamma, è possibile realizzare studi di flusso cerebrale ematico che consentono di visualizzare la distribuzione del tracciante radioattivo attraverso un sistema rotante di rilevamento (gammacamera). L’apporto del computer consente di tramutare i segnali che giungono dalla gammacamera in immagini simili alla TAC. In tale modo, è possibile avere dati di tipo sia funzionale sia strutturale. La PET offre il vantaggio di poter studiare in modo più diretto rispetto al flusso sanguigno le funzioni dell’encefalo attraverso l’analisi del suo metabolismo (nella maggior parte degli studi PET è studiato il metabolismo del glucosio). Il principio alla base di tale tecnica è che qualsiasi compito richiede al cervello risorse energetiche per essere eseguito, con conseguente aumento del flusso ematico e del metabolismo, misurabile con gli strumenti sopra descritti. Infine, la risonanza magnetica funzionale (fMRI) consente di misurare le modificazioni emodinamiche dovute all’attività neurale durante l’attività cerebrale. Le variazioni dell’attività neurale sono associate ai cambiamenti delle richieste energetiche. Ciò produce una locale vasodilatazione, un aumento di flusso sanguigno e un conseguente aumento della concentrazione di emoglobina ossigenata. Attraverso il cosiddetto metodo BOLD, si procede a confrontare la quantità di emoglobina ossigenata con la quantità di emoglobina deossigenata. Pertanto, è possibile misurare un aumento della concentrazione relativa di emoglobina ossigenata e quindi un aumento dell’attività neurale. Le
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
83
due emoglobine hanno proprietà magnetiche diverse e rispondono diversamente a un campo magnetico esterno, dando luogo a differenti immagini RM. Le maggiori applicazioni di tali tecniche emodinamiche riguardano le funzioni linguistiche e comunicative colte nella loro organizzazione strutturale (al contrario, per le ragioni già sottolineate, la dimensione temporale appare ridotta), con riferimento alle principali componenti del linguaggio (fonologico, morfologico, sintattico, e semantico) fino al più complesso livello della comprensione di frasi. Gli studi, ormai molto numerosi, hanno consentito di ridefinire in termini di mappe corticali il contributo delle diverse aree per le funzioni linguistiche e comunicative, superando l’originaria bilocazione Broca-Wernicke (per una rassegna si veda [115]). A fini esemplificativi possiamo citare l’ormai classico lavoro con metodologia PET di Petersen e colleghi [116] per elaborazione di singole parole in tre distinte condizioni: semplice lettura di parole; ripetizione a voce alta delle stesse; associazione parole-verbi a esse appropriati. Tutte e tre le condizioni venivano testate in modalità sia visiva sia uditiva. Il confronto di ciascuna condizione con il livello precedente secondo una “modalità sottrattiva” ha consentito di definire mappe differenziate per i tre compiti linguistici. Occorre, comunque, sottolineare che le tecniche di neuroimaging presentano indubbi limiti legati ai vincoli posti dagli stessi strumenti di rilevazione. In particolare, la risoluzione temporale risulta essere molto ridotta, nonostante le migliorie introdotte negli ultimi tempi (ad esempio, per indagine PET) in relazione all’ordine di scala dei processi cognitivi (minori di 1 secondo). Anche le tecniche di rilevazione neurofunzionale, quali la fMRI, appaiono limitate rispetto alla capacità di rendere conto di processi microtemporali, seppure esse presentano un indubbio vantaggio rispetto ad altre (come la PET), consentendo di rilevare un ampio numero di misurazioni separate di segnali funzionalmente significativi in un breve periodo di tempo. Questo è un indubbio vantaggio che consente alla fMRI di operare con compiti sperimentali più articolati, in cui è possibile ripetere le rilevazioni variando sensibilmente il compito fornito al soggetto [5]. Occorre, inoltre, sottolineare che in alcuni casi il metodo di rilevazione utilizzato è esso stesso oggetto di discussione. Si pensi all’ampio dibattito circa la validità del metodo sottrattivo utilizzato nell’analisi fMRI. Nei paradigmi classici si ipotizza che l’attivazione corticale prodotta da due compiti diversificati in base a una specifica operazione cognitiva (ad esempio, compiti di decisione fonologica e di decisione lessicale) possa essere confrontata “sottraendo” l’una dall’altra e individuando così le aree specifiche per un determinato compito e non per l’altro (per una rassegna si veda [114]). Tuttavia, occorre tenere presente che nelle situazioni cognitive più complesse è difficile sostenere che il risultato ottenuto dalla “sottrazione” tra due compiti isoli “il” correlato neurale di una particolare componente linguistica, dal momento che quest’ultima è ritenuta essere presente in un compito e assente nell’altro. Il quadro di riferimento appare essere spesso cognitivamente più complesso e non riducibile in via semplicistica a differenze tra operazioni cognitive. Si pensi, ad esempio, ai complessi contesti comunicativi o ai compiti di natura pragmatica, in cui sono in gioco contemporaneamente più fattori. Una valida alternativa al metodo sottrattivo proposto in precedenza è costituita dall’applicazione dell’approccio correlazionale, come, ad esempio, l’analisi delle componenti principali [117]. Friston e col-
84
M. Balconi
Tabella 2.1 Raffigurazione dei principali vantaggi e limiti dei metodi di rilevazione elettrofisiologico ed emodinamico Punti di forza
Punti di debolezza
Elettrofisiologico
Misura diretta dell’attività neurale Alta risoluzione temporale Facilità nell’ottenere dati relativi a una performance
Campioni solo parziali delle operazioni rilevate Scarsa risoluzione spaziale
Emodinamico
Campionamento omogeneo (PET) o quasi omogeneo (fMRI) di attivazioni relative a un compito Elevata risoluzione spaziale
Misura indiretta dell’attività neurale Bassa risoluzione temporale Difficoltà nell’ottenere dati relativi a una performance Difficoltà nel distinguere tra effetti dovuti allo stato del soggetto o allo stimolo
leghi [118, 119] al riguardo sottolineano la rilevanza dei metodi correlazionali per lo studio di network funzionali sottostanti alle funzioni linguistiche. Tali metodi possono essere utili per descrivere dati acquisiti con tecniche differenti (come PET, fMRI e l’elettrofisiologia), utilizzando al contempo scale temporali diverse. Infine occorre tenere presente che i metodi sopra elencati condividono una proprietà specifica, il cosiddetto effetto emodinamico tempo-costante: la grandezza della risposta emodinamica evidenziata da un cambiamento dell’attività neurale aumenta in funzione della durata del cambiamento [120]. Da ciò consegue che una risposta emodinamica di durata pari a 100 ms sarà indubbiamente più ridotta di una risposta di durata maggiore (ad esempio, 1000 ms). Cambiamenti dell’attività neurale sostenuti sono pertanto più facilmente individuabili di cambiamenti transitori e più brevi. Riportiamo nella tabella i principali vantaggi e svantaggi delle differenti tecniche di rilevazione (Tabella 2.1). In sintesi, è evidente che le due metodologie di analisi, elettrofisiologica ed emodinamica, costituiscono strumenti complementari e non esaustivi di per sé. Le informazioni a elevata risoluzione temporale (elettrofisiologiche) e spaziale (emodinamiche) necessitano di un’integrazione, al fine di definire le principali caratteristiche dei processi linguistici e comunicativi.
2.5 Conclusioni L’estrema varietà di strumenti di misura e l’eterogeneità delle procedure di rilevazione hanno consentito di analizzare in modo sempre più approfondito le componenti anatomo-funzionali dei processi linguistici e comunicativi. In particolare, l’integrazione delle misure di natura psicofisiologica con quelle di neuroimaging ha posto in evidenza il contributo di molteplici strutture corticali e sottocorticali per l’elaborazione e la comprensione dei significati. Nonostante ciascuno di questi strumenti non sia esime da critiche rispetto ai parametri e alle procedure di rilevazione
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
85
adottate, la possibilità di monitorare livelli di analisi differenti, di volta in volta, i correlati comportamentali e gli indici di risposta, la variazioni ERP e le rilevazioni dell’attivazione corticale in vivo, forniscono un quadro ampio delle principali operazioni e dei meccanismi sottostanti alla comunicazione umana. Da questo punto di vista, una sempre più crescente convergenza di prospettive e di metodologie offre l’opportunità di analizzare i costrutti del linguaggio e della comunicazione come oggetti multicomponenziali.
Bibliografia 1. Vallar G (2006) Metodi di indagine. In: Cacciari C, Papagno C (eds) Psicologia generale e neuroscienze cognitive. Il Mulino, Bologna 2. Banich MT (1997) Neuropsychology: The neural bases of mental function. Houghton Miffin Company, Boston New York 3. McCarthy RA, Warrington EK (1990) Cognitive neuropsychology: A clinical introduction. Academic Press, San Diego 4. Brown CM, Hagoort P (1999) The neurocognition of language. Oxford University Press, Oxford New York 5. Rugg MD (1999) Functional neuroimaging in cognitive neuroscience. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New York, pp. 37-79 6. Làdavas E, Berti AE (1995) Neuropsicologia. Il Mulino, Bologna 7. Hellige JB (1998) Unity of language and communication: interhemispheric interaction in the lateralized brain. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 405-414 8. Fodor JA (1983) The modularity of mind. The MIT Press, Cambridge Mass. 9. Shallice T (1988) From neuropsychology to mental structure. Cambridge University Press, Cambridge 10. Marr D (1976) Early visual processing. Philos T Roy Soc B 275:483-524 11. Marraffa M, Meini C (2005) La mente sociale: Le basi cognitive della comunicazione. Laterza, Roma-Bari 12. Gazzaniga M (1995) The cognitive neuroscience. The MIT Press, Cambridge Mass. 13. Jackendoff R (2000) Fodorian modularity and representational modularity. In: Grodzinsky Y, Shapiro LP, Swinney D (eds) Language and the brain: Representation and processes. Academic Press, San Diego London, pp. 3-30 14. Levelt WJM (1989) Speaking: From intention to articulation. The MIT Press, Cambridge Mass 15. Frith CD, Friston KJ (1997) Studying brain function with neuroimaging. In: Rugg MD (ed) Cognitive neuroscience. Psychology Press, Hove, pp. 169-195 16. Mesulam MM (2000) Principles of behavioral and cognitive neurology. Oxford University Press, New York 17. Price C, Wise RJS, Frackowiak RSJ (1996) Demonstraiting the implicit processing of visually presented words and pseudowords. Cereb Cortex 6:62-70 18. Atkinson RL, Atkinson RC, Smith E et al (1999) Hilgard’s introduction to psychology. Harcourt Brace & Company, Orlando 19. Olson A, Caramazza A (1991) The role of cognitive theory in neuropsychological research. In: Boller F, Grafman J (eds) The Handbook of Neuropsychology. Elsevier, Amsterdam, pp. 287-309 20. Whitaker HA (1998) Neurolinguistics from the Middle Ages to the Pre-Modern era: historical vignettes. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 27-54 21. Aglioti SM, Fabbro F (2006) Neuropsicologia del linguaggio. Il Mulino, Bologna
86
M. Balconi
22. Denes G, Pizzamiglio L (1996) Manuale di neuropsicologia. Zanichelli, Bologna 23. Caramazza A (1984) The logic of neuropsychological research and the problem of patient classification in aphasia. Brain Lang 21:9-20 24. Churchland PM (1989) A neurocomputational perspective. The MIT Press, Cambridge 25. Rumelhart DE, McClelland JL (1986) Microstruttura dei processi cognitivi. Il Mulino, Bologna 26. Westbury C (1998) Research strategies: Psychological and psycholinguistic methods in neurolinguistics. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 83-93 27. Vallar G (1999) I metodi di indagine nell’uomo. In: Umiltà C (ed) Manuale di neuroscienze. Il Mulino, Bologna, pp. 461-512 28. Caplan D (1992) Language: Structure, processing and disorders. The MIT Press, Cambridge MassLanguage and Cognitive Processes 29. Viggiano MP (2004) Valutazione cognitiva e neuropsicologica nel bambino, nell’adulto e nell’anziano. Carocci, Roma 30. Commodari E (2002) Disturbi del linguaggio: I deficit della comunicazione orale: strumenti di valutazione e riabilitazione. Città Aperta, Enna 31. Lezak MD (1995) Neuropsychological assessment, Oxford University Press, New York 32. Spinnler H, Tognoni G (1987) Standardizzazione e taratura italiana di test neuropsicologici. Ital J Neurol Sci 6:suppl. 33. Caramazza A, Hillis A (1989) The disruption of sentence production: some dissociations. Brain Lang 36:625-650 34. Carlomagno S, Labruna L, Blasi V (1998) La valutazione pragmatico-funzionale dei disturbi del linguaggio nel cerebroleso adulto. In: Carlomagno S, Caltagirone C (eds) La valutazione del deficit neurologico e comportamentale nella pratica neurologica. Global Services, London 35. Prutting C, Kirchner D (1987) A clinical appraisal of the pragmatics aspects of language. J Speech Hear Disord 52:105-119 36. Penn C (1988) The profiling of sintax and pragmatics in aphasia. Clin Linguist Phonet 2:179207 37. Porch BE (1971) Porch Index of Communicative Ability. Vol 1. Theory and development. Consulting Psychology Press, Palo Alto 38. Porch BE (1981) Porch Index of Communicative Ability. Vol. 2. Administration, scoring and interpretation (3rd ed). Consulting Psychology Press, Palo Alto 39. Holland A (1980) Communicative abilities in daily living. University Park Press, Baltimora 40. Brookshire RH, Nicholas LE (1993) Discourse comprehension test. Communication Skill Builders, Tucson 41. Hillis AE, Caramazza A (1991) Category specific naming and the comprehension impairement: a double dissiociation. Brain 110:613-629 42. Perani D, Paulesu E, Galles NS et al (1998) The bilingual brain. Proficiency and age of acquisition of the second language. Brain 121:1841-52 43. Gernsbacher M (1994) Handbook of psycholinguistics. Academic Press, San Diego 44. Gropen J, Pinker S, Hollander M et al (1991) Syntax and semantic in the acquisition of locative verbs. J Child Lang 18:115-151 45. Ekman P (1992) An argument for basic emotion. Cognition Emotion 6:169-200 46. Münte T, Heinze H (1994) Brain potentials reveal deficits of language processing after closed head injury. Arch Neurol-Chicago 51:482-493 47. Newport EL (1990) Maturational constraints on language learning. Cognitive Sci 14:11-28 48. Obler L, Fein D, Nicholas M et al (1991) Auditory comprehension and aging: Decline in syntactic processing. Appl Psycholinguis 12:433-452 49. Davidson R, Leslie S, Saron C (1990) Reaction time measures of interhemispheric transfer time in reading disabled and normal children. Neuropsychology 28, 471-485 50. Arguin M, Bub D, Dudek G (1996) Shape integration for visual object recognition and its implication in category-specific visual agnosia. Vis Cogn 3:221-275
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
87
51. Chertkow H, Bub D, Bergman H et al (1994) Increased semantic priming in patients with dementia of the Alzheimer type. J Clin Exp Neuropsyc 16:608-622 52. Revonsuo A (1995) Words interact with colors in a globally aphasic patient: Evidence from a Stroop-like task. Cortex 32:377-386 53. Just M, Carpenter P (1993) The intensity dimension of thought: Pupillometric indices of sentence processing. Can J Exp Psychol 47:310-339 54. Liversedge SP, Findlay JM (2000) Saccadic eye movements and cognition. Trends Cogn Sci 4:7-14 55. Rayner K (1998) Eye movements in reading and information processing: 20 years of research. Psychol Bull 124:372-422 56. Tecce JJ (1992) Psychology, physiology and experimental psychology. In: Ed. McGraw-Hill yearbook of science and technology, McGraw-Hill, New York, pp. 375-377 57. Andreassi JL (2000) Psychophysiology: Human Behavior and Physiological Response, Erlbaum, Mahwah 58. Öhman A, Hamm A, Hugdahl K (2000) Cognition and the autonomic nervous system: Orienting, anticipation and conditioning. In: Cacioppo JT, Tassinary LG, Berntson GG (eds) Handbook of psychophysiology. Cambrige University Press, New York, pp. 522575 59. Haagh SS, Brunia CH (1984) Cardiac-somatic coupling during the foreperiod in a simple reaction-time task. Psychol Res 46:3-13 60. McGuigan FJ (1973) Electrical Measurement of covert processes as an explication of “higher mental events”. In: McGuigan FJ, Schoonover RA (eds) The psychophysiology of thinking. Academic Press, New York, pp. 343-385 61. McGuigan FJ (1981) Review of Andreassi’s “Psychophysiology: Human behavior and physiological response”. Am J Psychol 94:359-362 62. Ekman P (1984) Expression and the nature of emotion. In: Scherer KR, Ekman P (eds) Approaches to emotion. Erlbaum, Hillsdale, pp. 176-198 63. Dimberg U (1990) Facial electromiography and emotional reactions. Psychophysiology 27:481-494 64. Dimberg U (1982) Facial reactions to facial expressions. Psychophysiology 19:643-647 65. Sirota AD, Schwartz GE (1982) Facial muscle patterning and lateralization during elation and depressed imagery. J Abnorm Psychol 91:25-34 66. Stern JA, Dunham DN (1990) The ocular system. In: Cacioppo JT, Tassinary LG (eds) Principles of psychophysiology. Cambridge University Press, Cambridge, pp. 193-215 67. Hess EH (1972) Pupillometrics. In: Greenfield NS, Sternbach RA (eds) Handbook of psychophysiology. Holt, Rinehart & Wintson, New York, pp. 491-531 68. Granholm E, Asarnow RF, Sarkin AJ, Dykes KL (1996) Pupillary responses index cognitive resource limitations. Psychophysiology 33:457-461 69. Beatty J (1982) Task-evoked pupillary responses, processing load, and the structures of processing resources. Psychol Bull 91:276-292 70. Cacioppo JT, Tassinary LG, Berntson GG (2000) Handbook of psychophysiology. Cambridge University Press, New York 71. Balconi M (2006) Neuropsychology and cognition of emotional face comprehension. Research Sign Post, Kerala 72. Moser JS, Haycak J, Bukay E et al (2006) Intentional modulation of emotional responding to unpleasant pictures: An ERP study. Psychophysiology 43:292 73. Tranel D, Damasio AR (1988) Non-conscious face recognition in patients with face agnosia. Behav Face Res 30:235-249 74. Ekman P, Levenson RW, Friesen WV (1984) Autonomic nervous system activity distinguishes among emotions. Science 22:1208-1210 75. Weisz J, Szilagyi N, Lang E et al (1992) The influence of monocular viewing on heart period variability. Int J Psychophysiol 12:11-18 76. Lawler KA (1998) Individual differences and cardiovascular responsivity. Int J Psychophysiol 28:113-116
88
M. Balconi
77. Shaw JC (1996) Intention as a component of the alpha rhythm response to mental activity. Int J Psychophysiol 24:7-24 78. Sperry RW (1982) Some effects of diconnetting the cerebral hemispheres. Science 217:12231226 79. Handy TC (2005) Event-related potentials: A methods handbook. The MIT Press, Cambridge 80. Jaspers HH (1958) The ten-twenty electrode system of the International Federation. Electroen Clin Neuro 10:371-375 81. Polich J (1993) Cognitive brain potentials. Curr Dir Psychol Sci 2:175-179 82. Zani A, Mado Proverbio A (2000) Elettrofisiologia della mente. Carocci, Roma 83. Rugg MD, Coles MGH (1995) Electrophysiology of mind. Oxford University Press; Oxford 84. De Vincenzi M, Di Matteo R (2004) Come il cervello comprende il linguaggio. Laterza, Roma Bari 85. Hillis AE, Caramazza A (1995) Representation of gramartical categories of words in the brain. J Cognitive Neurosci 7:396-407 86. Segalowitz SJ, Chevalier H (1998) Event-related potential (ERP) research in neurolinguistics: Part II: Language processing and acquisition. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 111-123 87. Kutas M, Hillyard SA (1983) Event-related brain potentials to grammatical errors and semantica anomalies. Memory Cognition 11:539-550 88. Olivares E, Bobes MA, Aubert E et al (1994) Associative effects with memories of artificial faces. Cogn Brain Res 2:39-48 89. Balconi M, Pozzoli U (2003) ERPs (event-related potentials), semantic attribution, and facial expressions of emotions. Consciousness and Emotion 4:63-80 90. Kutas M, Van Petten CK (1994) Psycholinguistics electrified: Event-related potential investigations. In: Gernsbacher MA (ed) Handbook of psycholinguistics. Academic Press, San Diego, pp. 83-143 91. Kluender R, Kutas M (1993) Bridging the gap: Evidence from ERPs on the processing of unbounded dependencies. J Cognitive Neurosci 5:196-214 92. Gunter T, Jackson J, Mulder G (1995) Language, memory and aging: An electrophysiological exploration of the N400 during the reading of memory-demanding sentences. Psychophysiology 32:215-229 93. Coulson S, Van Petten C (2002) Conceptual integration and metaphor: an event-related potential study. Mem Cognition 30:958-68 94. Tartter VC, Gomes H, Dubrovsky B et al (2002) Novel metaphors appear anomalous at least momentarily: evidence from N400. Brain Lang 80:488-509 95. Balconi M (2003) Conscious and unconscious in emotional face processing. JINS 2:304-305 96. Balconi M, Carrera A (2006) Cross-modal perception of emotional face and voice. A neuropsychological approach. Paper presented at the “2th Meeting of the European Societies of Neuropsychology” (18-20 October), Toulouse, France 97. Osterhout L, Holcomb PJ (1990) Syntactic anomalies elicit brain potentials during sentence comprehension. Psychophysiology 27:suppl 5 98. Neville H, Nicol J, Barss A et al (1991) Syntactically based sentence processing classes: Evidence from event-related brain potentials. J Cogn Neurosci 3:152-165 99. Münte TF, Heinze H-J, Mangun GR (1993) Dissociation of brain activity related to syntactic and semantic aspects of language. J Cogn Neurosci 5:335-344 100. Coulson S, King JW, Kutas M (1998) Expect the unexpected: event-related brain response to morphosyntactic violations. Lang Cognitive Proc 13:21-58 101. Picton T, Lins O, Sherg M (1995) The recording and analysis of event-related potentials. In: Boller F, Grafman J (eds) Handbook of neuropsychology. Elsevier, Amsterdam, vol 10, pp. 3-73 102. Dien J, Frishkoff GA (2006) Principal components analysis of ERP data. In: Handy TC (ed) Event-related potentials: A methods handbook. The MIT Press, Cambridge, pp. 189-207 103. Papanicolaou AC, Panagiotis GS, Basile LFH (1998) Applications of magnetoencephalography to neurolinguistic research. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 143-158
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio
89
104. Basile LFH, Rogers RL, Bourbon WT et al (1994) Slow magnetic fields. In: Coulson S, King JW, Kutas M (1998) Expect the unexpected: event-related brain response to morphosyntactic violations. Lang Cognitive Proc 13:21-58 105. Salmelin R, Hari R, Lounasmaa OV et al (1994) Dynamics of brain activation during picture naming. Nature 368:463-465 106. Hari R, Hämäläinen M, Kaukoranta E et al (1989) Selective listening modifies activity in the human auditory cortex. Exp Brain Res 74:463-470 107. Simos PJ, Basile LFH, Papanicolaou AC (1997) Source localization of the N400 response in a sentence-reading paradigm using evoked magnetic fields and magnetic resonance imaging. Brain Res 762:29-39 108. Pascual-Leone A, Grafman J, Clark K et al (1991) Procedural learining in Parkinson’s disease and cerebellar degeneration. Ann Neurol 34:594-602 109. Stewart L, Walsh V, Frith U et al (2001) Transcranial magnetic stimulation produces speech arrest but not song arrest. Ann NY Acad Sci 930:433-435 110. Cappa SF, Sandrini M, Rossini PM et al (2002) The role of the left frontal lobe in action naming: rTMS evidence. Neurology 59:720-723 111. Vallar G (1990) I fondamenti metodologici della neuropsicologia. In: Denes G, Pizzamiglio L (eds), Manuale di neuropsicologia, Zanichelli, Bologna, pp. 136-159 112. Zaidel E (1998) Language in the right emisphere following callosal disconnection. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 369-383 113. Castiello U (1995) Tecniche sperimentali di ricerca in psicologia. Piccin Démonet, Padova 114. Démonet JF (1998) Tomographic brain imaging of language functions: prospects for a new brain/language model. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 132-143 115. Démonet JF, Thierry G, Cardebat D (2005) Renewal of the neurophysiology of language: Functional neuroimaging. Physiol Rev 85:49-95 116. Petersen SE, Fox PT, Posner MI et al (1989) Positron emission tomographic studies of the processing of single words. J Cognitive Neurosci 1:153-170 117. Frith CD, Friston KJ, Liddle PF et al (1991) A PET study of word finding. Neuropsychology 29:1137-1148 118. Friston KJ, Frith CD, Liddle PF et al (1993) Functional connectivity: The principal-component analysis of large (PET) data sets. J Cerebr Blood F Met 13:5-14 119. Friston KJ (1997) Imaging cognitive anatomy. Trends Cogn Sci 1:21-27 120. Rosen BR, Buckner RL, Dale AM (1998) Event-related fMRI: Past, present and future. P Natl Acad Sci 95:773-780
Capitolo 3
Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio attraverso i potenziali elettromagnetici correlati a eventi Alice Mado Proverbio
3.1 Modelli di comprensione e produzione del linguaggio In questo capitolo descriveremo i processi che sottostanno alla comprensione del linguaggio, sia nella modalità visiva della lettura sia nella modalità acustica dell’ascolto, soffermandoci sui principali stadi di analisi dell’informazione linguistica, dai più sensoriali a quelli più simbolici. Data la specificità della tecnica di misurazione utilizzata, non tratteremo la natura dei meccanismi di produzione linguistica. Questi, nell’eloquio spontaneo, per esempio, si basano sulla capacità di formulare un pensiero, accedendo alla rappresentazione dei concetti, e di strutturarlo in modo corretto dal punto di vista lessicale (del significato) e sintattico (del sequenziamento), di accedere alla forma fonologica e fonemica delle varie parti del discorso (parole, verbi, parole-funzione), di preprogrammare i movimenti muscolari e articolari responsabili della fonazione e di implementare tali comandi eseguendo in modo fluente e con la giusta prosodia l’emissione di fonemi linguistici appropriati. I dati neurologici su pazienti con lesioni focali unilaterali in diverse regioni corticali, secondo il modello di Wernicke-Lichteim-Geschwind [1], indicano la regione deputata alla produzione del linguaggio fluente e all’articolazione fonemica nel piede della terza circonvoluzione frontale di sinistra (il cui danno produce un’afasia di Broca); la regione deputata alla comprensione del linguaggio e alla rappresentazione della forma uditiva delle parole nella corteccia temporale (il cui danno produce un’afasia di Wernicke); la regione che contiene la rappresentazione dei concetti (necessaria all’eloquio spontaneo e alla comprensione delle parole, ma non alla ripetizione passiva di materiale udito) nella corteccia parietale, giro angolare e sopramarginale; la connessione tra l’area di Broca e quella di Wernicke nel fascicolo arcuato (la cui interruzione produce un’afasia di conduzione, con incapacità di ripetere materiale udito). I meccanismi di comprensione della parola scritta sono stati oggetto di largo interesse da parte degli studiosi. Negli studi cognitivi sul linguaggio vengono spesso utilizzati paradigmi di presentazione di stimoli linguistici visivi, che includono: M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008
92
A. Mado Proverbio
– le parole, che possono variare secondo il loro grado di frequenza d’uso, di concretezza/astrattezza e di valore di immagine, ad esempio: ARANCIA; – le pseudoparole, che sono stringhe di lettere senza senso assemblate rispettando le regole ortografiche (dette legali), ad esempio: MORLEDIO; – le stringhe illegali, che sono stringhe di lettere assemblate senza rispettare le regole di concatenazione (illegali), ad esempio: PQERLZFTQ; – i falsi caratteri, che sono stringhe di simboli non linguistici ma che possono o meno assomigliare a delle lettere, ad esempio: . Secondo il cosiddetto modello a due vie della lettura di Coltheart [2] l’elaborazione di uno stimolo visivo linguistico può essere effettuata mediante l’attivazione di una via “lessicale”, fondata sul riconoscimento globale e immediato degli stimoli familiari, e di una via “fonologica”, fondata sulla conversione di grafemi in fonemi. Si ipotizza che le parole ad alta frequenza d’uso vengano riconosciute direttamente come unità visive globali, mentre le pseudoparole e le parole a bassa frequenza verrebbero elaborate attraverso la via fonologica. L’evidenza dell’esistenza di queste due vie di lettura è supportata dall’esistenza di pazienti con compromissioni specifiche di una sola di esse. Il modello di lettura di Coltheart è poi stato modificato per includere una terza via, detta diretta (non semantica), che è stata inserita per poter spiegare il processo di lettura nei pazienti con iperlessia, i quali mostrano una lettura accurata di parole in assenza di comprensione. Secondo il modello standard il primo stadio d’analisi nella lettura è costituito dall’elaborazione sensoriale visiva della stringa di lettere e delle sue caratteristiche fisiche (luminanza, grandezza, colore, forma, orientamento), seguita dall’eventuale riconoscimento delle singole lettere. Da questo livello d’elaborazione partono tre vie in parallelo: la via visiva, la via fonologica e la via diretta. Nella via lessicale il riconoscimento visivo dello stimolo avviene attraverso l’accesso al lessico ortografico d’ingresso. Da lì è possibile accedere al sistema semantico che contiene i significati delle parole. Il primo stadio della via fonologica permette l’accesso alla forma fonologica di uno stimolo (stringhe, non parole, oppure parole a bassa frequenza) secondo le regole di trasformazione grafema/fonema della lingua in uso. I principali disturbi di lettura osservati dai neuropsicologi sono stati interpretati come specifiche compromissioni delle varie vie della lettura postulate dal modello standard. In particolare, la dislessia superficiale descritta da Marshall e Newcombe [3], più facilmente riscontrabile nelle lingue non trasparenti come l’inglese piuttosto che nell’italiano, è caratterizzata da errori di regolarizzazione di parole irregolari (consistenti in italiano nell’assegnazione incorretta dell’accento) e dal fallimento nel test dell’omofonia silente: per esempio non si distingue tra parole la cui forma visiva è diversa ma la cui forma fonologica è simile (in italiano si ha difficoltà a distinguere item come “l’ago” e “lago”). I dislessici superficiali si comportano come se fossero incapaci di riconoscere la parola a prima vista e leggessero applicando a ogni parola le regole di conversione grafema/fonema. Questo quadro clinico si può spiegare attraverso la compromissione della via lessicale. A causa di quest’interruzione il paziente legge sia le parole sia le non parole attraverso la via fonologica, applicando le regole di trasformazione grafema/fonema.
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
93
Questo tipo di dislessia, se acquisito in seguito a lesione o trauma, è spesso associato a una lesione temporale sinistra. Viceversa, la dislessia fonologica, descritta per esempio da Temple e Marshall [4], consiste sostanzialmente nell’incapacità di leggere le non-parole, le parole sconosciute e le parole funzione (e, se, per), mentre viene conservata la capacità di leggere le parole che fanno parte del vocabolario usuale del paziente. Questo quadro si può spiegare ipotizzando una compromissione della via fonologica. Di conseguenza il paziente riesce a riconoscere le parole familiari attraverso la via lessicale ma non è più in grado di applicare le regole di trasformazione grafema/fonema per item non riconosciuti visivamente. Spesso i pazienti affetti da dislessia fonologica hanno lesioni parieto-occipitali sinistre includenti il giro angolare, il quale è anche coinvolto, come vedremo nel paragrafo 3.5, nel mapping grafema/fonema.
3.2 Elettrofisiologia del linguaggio La Figura 3.1 mostra il decorso temporale dell’informazione linguistica secondo le attuali conoscenze derivanti dall’applicazione della tecnica di registrazione dell’attività cerebrale evocata elettromagnetica (ERP e MEG, magnetoencefalogramma ). In particolare, i potenziali correlati a eventi (ERP, dall’inglese: Event-Related Potentials) rappresentano uno strumento estremamente utile di studio e analisi dei diversi stadi d’elaborazione delle informazioni, poiché uniscono la tradizionale noninvasività della tecnica di registrazione elettroencefalografica (i segnali ERP derivano dalla somma d’epoche EEG sincronizzate con l’evento o lo stimolo d’interesse, ad esempio, parole, immagini ecc.) a un’ottima risoluzione temporale (inferiore al ms). La risoluzione spaziale degli ERP è abbastanza buona, soprattutto in combinazione con tecniche di localizzazione del generatore intracorticale (come la LORETA, Low Resolution Electro-Magnetic Tomography, la modellizzazione dei dipoli – dipole modelling –, MUSIC, la combinazione con dati fMRI, Fig. 3.1). Rimandando ad altre sedi una trattazione più dettagliata delle origini e della natura del segnale elettromagnetico [5, 6], ricordiamo che gli ERP si ottengono per mediazione (procedimento di averaging) di centinaia di segmenti EEG allo scopo di amplificare il minuscolo segnale evocato, nascosto tra le oscillazioni spontanee di grande voltaggio, relativo alla specifica elaborazione cerebrale in risposta al dato evento. La latenza temporale d’insorgenza di una data deflessione, o picco (variazione di voltaggio positiva o negativa), nella forma d’onda del potenziale evocato sarebbe, quindi, indice della comparsa di un’attività elaborativa cerebrale associata all’evento. Per esempio, la comparsa a circa 70-80 ms di una variazione di potenziale sulla corteccia visiva primaria indica l’arrivo di un segnale visivo in corteccia e la corrispondente attivazione della popolazione neurale implicata nell’elaborazione delle varie proprietà sensoriali dello stimolo (BA 17). Allo stesso modo, la comparsa di un’ampia deflessione negativa intorno ai 400 ms in risposta a stimoli semanticamente incomprensibili, indica il verificarsi di processi di analisi del significato delle parole. La tecnica degli ERP si presta molto bene all’analisi dei meccanismi di comprensione del linguaggio parlato e della lettura silente, mentre i meccanismi di pro-
94
A. Mado Proverbio
Fig. 3.1 Decorso temporale di attivazione cerebrale durante l’elaborazione di materiale linguistico, come indicato dalla latenza di insorgenza della varie componenti ERP. Intorno ai primi 100 ms post-stimolo avviene l’analisi sensoriale pre-linguistica dello stimolo (componente P1); tra i 150 e i 200 ms si verifica l’analisi ortografica di parole scritte (componente N1 posteriore; componente N170 per aspetti strutturali) tra i 200 e i 300 ms si svolge l’analisi fonologico/fonetica, come evidenziato dalla negatività da mismatch fonologica (pMMN temporale e anteriore) in risposta a incongruenze fonologiche sia visive sia uditive; intorno ai 400 ms si osserva un’ampia negatività centroparietale destra (N400) da incongruenza semantica, testimoniante lo svolgersi di processi di analisi lessicale; la comprensione di frasi di senso compiuto raggiunge la coscienza tra i 300 e i 500 ms (componente P300); infine, l’analisi sintattica di secondo grado è indicata dalla comparsa di una componente positiva tardiva (P600) intorno ai 600 ms di latenza post-stimolo
duzione verbale sono difficilmente studiabili tramite registrazione EEG, giacché ogni movimento muscolare (come quelli impiegati nella fonazione e nell’eloquio) produce un segnale elettromiografico di notevole ampiezza, in grado di mascherare qualunque variazione di voltaggio cerebrale sincronizzata. I segnali bioelettrici cerebrali di superficie derivano, invece, da potenziali post-sinaptici extracellulari eccitatori e inibitori di popolazioni neurali che, oltre a essere attive in modo sincrono, hanno dendriti apicali orientati perpendicolarmente alla superficie di registrazione (per l’EEG) o parallelamente a essa (per la MEG). L’ottima risoluzione spaziale della MEG, riflettente le variazioni dei campi magnetici indotte dai dipoli bioelettrici, e ortogonali a essi, deriva dal fatto che i segnali magnetici non vengono distorti al passaggio dei vari tessuti, materia grigia e bianca, liquidi, membrane, meningi e ossa craniche, mantenendo quindi una chiara corrispondenza tra generatore intracorticale e distribuzione di superficie (Fig. 3.2).
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
95
Fig. 3.2 Corrispondenza tra picco delle risposte magnetiche correlate a eventi e localizzazione del generatore intracorticale. A sinistra, si osserva una risposta sensoriale visiva aspecifica intorno ai 100 ms di latenza post-stimolo che interessa la corteccia occipitale. Al centro, l’insorgenza di un picco negativo intorno ai 170 ms indica la probabile attivazione del giro fusiforme sinistro deputato all’analisi ortografica. A destra, compare un’ampia risposta negativa riflettente il mancato riconoscimento semantico di non-parole rispetto a parole esistenti (intorno ai 400 ms), da parte della corteccia parieto/temporale. Da [7], con autorizzazione
L’utilizzo degli ERP nello studio dei meccanismi di comprensione del linguaggio è stato applicato per la prima volta verso la fine degli anni Settanta dai californiani Steve Hillyard e Marta Kutas, famosi elettrofisiologi, e co-fondatori insieme ad altri cognitivisti, psicologi, neurologi, ingegneri, fisici, linguisti, filosofi della scienza e neuroscienziati (come Emmanuel Donchin, Terence Picton, Michael Posner, Michael Gazzaniga, Leslie Ungerleider, Antonio Damasio, Steve Petersen, Marcus Raichle o Robert Rafal) della disciplina ora nota come “Neuroscienza Cognitiva”. Nel 1968 Sutton aveva scoperto che il cervello emetteva un’ampia risposta positiva a stimoli, per il resto identici ad altri, cui il soggetto in quel momento prestava particolarmente attenzione. Questo significava che sarebbe stato possibile studiare i processi mentali osservando la loro manifestazione neurofisiologica. Per studiare il linguaggio, Marta Kutas sviluppò due diversi paradigmi sperimentali. Il primo, detto della presentazione seriale visiva rapida (RSVP, Rapid Series Visual Presentation) consisteva nella presentazione consecutiva di parole singole al centro dello schermo [8] per simulare un processo di lettura spontaneo di una frase e poter monitorare l’andamento dei processi di comprensione semantica
96
A. Mado Proverbio
e sintattica nel tempo, evitando i movimenti oculari orizzontali che normalmente accompagnano la lettura del testo. Infatti, qualunque paradigma di registrazione degli ERP prevede l’assoluta immobilità dello sguardo, allo scopo di evitare la contaminazione dell’EEG a opera del segnale elettromiografico. Un altro paradigma molto utilizzato è quello detto della parola terminale [9] che prevede la presentazione di un contesto semantico o sintattico di varia complessità o natura, seguito da una certa parola terminale, su cui viene sincronizzato il potenziale evocato, e che può essere più o meno congruente con il contesto o rispettoso delle varie regole di concatenazione del linguaggio in una data lingua. Un esempio di questo paradigma è dato dalle frasi riportate nella Figura 3.1. Nei paragrafi seguenti illustreremo in maggior dettaglio i vari stadi d’analisi dell’informazione linguistica, da quella ortografica fino all’analisi sintattica, e osserveremo anche componenti più complesse non illustrate nella Figura 3.1 come la ELAN, la LAN, o la variazione sintattica positiva (SPS, Syntactic Positive Shift).
3.3 Analisi ortografica Una questione molto dibattuta nella recente letteratura di neuroimmagine [10-13] riguarda l’esistenza di un area cerebrale specializzata nell’analisi visiva di stimoli ortografici e parole, chiamata la regione per la forma visiva della parole (VWFA, Visual Word Form Area), che sarebbe localizzata nella corteccia inferotemporale di sinistra e più precisamente nel giro fusiforme (Fig. 3.3). Studi neurofunzionali hanno mostrato come questa regione risponda con un’attivazione maggiore a stimoli linguistici (stringhe alfabetiche) piuttosto che a stimoli non linguistici (come scacchiere, e a caratteri reali piuttosto che a falsi caratteri o a stringhe di simboli o di icone [10, 12, 14-18]). Sembra inoltre che la VWFA mostri una qualche sensibilità sublessicale alle regolarità ortografiche con cui le lettere formano le parole. Infatti, dati fMRI [14] hanno mostrato come questa regione sia più attiva in risposta a stringhe di lettere ben strutturate (pseudoparole legali) piuttosto che a stringhe di lettere mal strutturate (cioè stringhe illegali). Inoltre, sembra che la VWFA distingua le stringhe legali significative (parole) dalle pseudoparole legali [11, 19]. Si può ipotizzare che livelli funzionalmente diversi di analisi possano essere presenti in quest’area: ci potrebbe essere un primo livello di analisi in cui alcune micropopolazioni di neuroni riconoscono lettere dell’alfabeto, discriminandole da codici simbolici sconosciuti (gli oggetti familiari sarebbero, in questo caso, le lettere); quindi, un livello più complesso in cui i neuroni della VWFA, con campi recettivi più ampi dei precedenti, discriminano le pseudoparole dalle parole (gli oggetti familiari sarebbero in questo caso stringhe di lettere superapprese, e cioè parole). Gli ERP rappresentano uno strumento estremamente prezioso allo studio dei meccanismi di lettura, in quanto forniscono diverse indicazioni di ciò che si verifica nel cervello, millisecondo per millisecondo, a partire dall’onset dello stimolo: dall’analisi delle caratteristiche visive sensoriali (linee curve o rette, angoli, cerchi),
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
97
Fig. 3.3 La visione passiva di parole (rispetto a stimoli non linguistici) attiva la corteccia occipito/temporale di sinistra
all’analisi ortografica (riconoscimento delle lettere), fino all’analisi di configurazioni complesse (parole), della loro veste ortografica (ad esempio, lingua tedesca, inglese o finlandese) e del loro significato. Numerosi studi ERP e MEG hanno fornito chiare evidenze che la risposta ERP N1 occipito/temporale (con una latenza intorno ai 150-200 ms) è specificamente indice di processi di analisi ortografica degli stimoli [16, 20-25]. Per esempio, Helenius e collaboratori [21] hanno registrato segnali magnetoencefalografici (MEG) da individui adulti dislessici e di controllo mentre leggevano silenziosamente parole o vedevano stringhe di simboli chiaramente visibili degradati con un rumore gaussiano. I risultati mostrarono che mentre la prima risposta sensoriale (a una latenza di 100 ms), originante nella corteccia extrastriata, era associata a variazioni nel contrasto di luminanza e non mostrava di differire nei dislessici rispetto agli adulti senza disordini di lettura, la prima componente sensibile a fattori ortografici (N150), generata nella corteccia occipitotemporale inferiore di sinistra, e quindi probabilmente nella cosiddetta VWFA (Fig. 3.4), non era rilevabile negli individui dislessici. Similmente, studi fMRI e MEG su persone adulte con dislessia evolutiva [25] o bambini con deficit di lettura [26] hanno mostrato un’inadeguata o atipica/insufficiente attivazione di regioni posteriori sinistre durante la lettura. In un recente studio [27] abbiamo messo a confronto gli ERP evocati da parole e pseudoparole presentate nel loro orientamento normale con quelli elicitati da altre parole e pseudoparole ruotate specularmente. Lo scopo era quello di appurare se l’inversione delle parole le privasse delle loro proprietà linguistiche. L’EEG è stato registrato da 128 canali e sono stati presentati poco meno di 1300 stimoli, metà dei quali erano parole, mentre i rimanenti pseudoparole. Il compito consisteva nel rilevare una determinata lettera (che poteva essere inclusa o meno negli stimoli), che veniva annunciata di volta in volta dallo sperimentatore. Sono stati messi a confronto gli ERP elicitati da stimoli target e non-target, allo scopo di individuare l’esatto momen-
98
A. Mado Proverbio
Fig. 3.4 mN170 (elettromagnetica) in risposta a stringhe di lettere, lettere degradate e simboli geometrici in individui adulti non-dislessici. Le mappe mostrano la localizzazione anatomica e la forte asimmetria emisferica nell’attivazione della VWFA. Da [21], con autorizzazione
to temporale in cui vengono elaborate e riconosciute le lettere dell’alfabeto. La componente ERP interessata da questo processo si è rivelata essere la N70 occipitale laterale, di ampiezza maggiore per i target che per i non-target. Un’analisi LORETA (Low Resolution Electromagnetic Tomography, tecnica che individua la sorgente anatomica del segnale bioelettrico) effettuata sull’onda ERP differenza, ottenuta sottraendo dalla N1 alle lettere target quella registrata ai non-target, ha mostrato un forte focus di attivazione nel giro fusiforme sinistro (BA 37; x = -29,5, y = -43, z = -14,3) sito probabilmente corrispondente alla VWFA. Il confronto tra ERP elicitati da stimoli ruotati vs. normali ha, invece, prodotto un effetto probabilmente non-linguistico (sempre a livello della N1 occipito/temporale). La LORETA effettuata sull’onda differenza, ottenuta sottraendo la N1 agli stimoli standard da quella agli stimoli ruotati, ha individuato un focus d’attivazione per l’effetto di rotazione delle parole nel giro occipitale mediale destro (BA 19; x = 37,7, y = -68,1; z = -4,6). Questo risultato mette in evidenza l’attivazione di una regione visiva non linguistica per l’elaborazione di stringhe più o meno familiari, e della VWFA solo per l’effettiva analisi ortografica (riconoscimento di lettere). Esso mette quindi in guardia contro l’uso troppo disinvolto del paradigma di inversione di oggetti nelle neuroimmagini (usato per le facce, le case, gli oggetti) allo scopo di investigare l’esistenza di regioni rispondenti a specifiche categorie semantiche o funzionali.
3.4 Analisi fonologico/fonetica È ampiamente riconosciuto che il secondo stadio di analisi nel meccanismo di lettura è rappresentato dalla conversione della forma visiva in quella fonologica, detta anche conversione grafema/fonema. Un recente studio fMRI correlato a eventi [28] ha investigato tale meccanismo nella lettura di parole, trovando una maggiore attivazione del giro frontale inferiore sinistro per la lettura di pseudoparole e una maggiore attivazione bilaterale delle aree occipito/temporali e del giro temporale media-
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
99
le posteriore sinistro (MTG) durante la lettura di parole e stringhe di lettere a circa 170-230 ms di latenza. Altri studi concordano sul ruolo della corteccia frontale inferiore di sinistra nella lettura delle pseudoparole [29]. Questa regione potrebbe far parte della cosiddetta via fonologica (phonologic route) che si occuperebbe di assemblare segmenti fonologici (assembled phonology) durante la lettura. Lo studio magnetico di Simos e colleghi [30] ha confermato l’esistenza di due diversi meccanismi coinvolti nell’elaborazione fonologica e nel riconoscimento visivo delle parole. Un meccanismo supportante la fonologia assemblata per la lettura di stringhe legali ma inesistenti, e dipendente dall’attivazione della parte superiore del giro temporale superiore (STG), e un meccanismo supportante la fonologia indirizzata alla lettura di parole reali, dipendente dal giro temporale mediale posteriore sinistro (MTGp). Questi recenti studi di neuroimmagine sono coerenti con le predizioni del cosiddetto modello computazionale di lettura a due vie (per una rassegna si veda [2]), il quale assume una routine che indirizza la pronuncia delle parole conosciute dal lettore (la cosiddetta via lessicale-semantica), e un’altra routine responsabile dell’assemblaggio della pronuncia di stringhe inesistenti, basata su una corrispondenza grafema/fonema (spelling-suono), la cosiddetta via fonologica. Nonostante si conoscano le basi neuroanatomiche dei processi di conversione grafema fonema, solo i segnali elettromagnetici cerebrali, e principalmente gli ERP possono determinare con precisione lo stadio temporale di analisi degli aspetti fonetico/fonologici nella lettura. E infatti gli ERP sono stati utilizzati in diversi studi tesi a investigare il decorso temporale dello stadio di analisi fonologico/fonetico della parola scritta, specialmente mediante il paradigma di giudizio di rime [20, 31, 32]. Con questa procedura, si chiede ai soggetti di valutare se una serie di parole fanno rima tra loro (ad esempio, se CRICETO fa rima con VIOLETTA oppure con ROSETO). Tipicamente, item incongruenti dal punto di vista fonologico, cioè non facenti rima, elicitano una risposta negativa di mismatch la cui latenza indica lo stadio temporale di elaborazione fonologica (intorno ai 250 ms). In un famoso studio di Bentin e colleghi [20] sono stati comparati gli ERP elicitati da parole e pseudoparole che rimavano con una data parola francese, con quelli che invece non facevano rima con essa. I risultati mostrarono la presenza di una componente negativa intorno ai 320 ms di latenza post-stimolo, che raggiungeva la sua massima ampiezza sulla regione temporale mediale sinistra in risposta a item non-facenti rima. Studi di neuroimmagine funzionale [33] hanno mostrato che le aree dorsali intorno al giro di Heschl, bilateralmente, e in particolare il planum temporale e il giro temporale superiore dorsolaterale mostrano un’attivazione maggiore durante l’elaborazione di toni modulati in frequenza piuttosto che di rumore, suggerendo così il loro ruolo nell’elaborazione di semplice informazione uditiva codificata temporalmente. Al contrario, regioni centrate sul solco temporale superiore sono più attive bilateralmente durante l’ascolto di stimoli linguistici, siano essi parole, pseudoparole o linguaggio riprodotto all’incontrario (inverted speech) piuttosto che toni, suggerendo il loro ruolo nell’elaborazione acustica prefonetica. Infine, regioni ventrali temporali e temporo/parietali sono più attive durante l’elaborazione di parole e non parole; ciò indicherebbe il loro ruolo nell’accesso alle proprietà fonologiche e semantiche delle parole. Così, mentre gli studi di neuroimmagine ci mostrano il probabile substrato neuroanatomico dei meccanismi di analisi fonologica delle parole, gli studi elettroma-
100
A. Mado Proverbio
gnetici (ERP e MEG) forniscono l’indice temporale dello stadio di attivazione (250350 ms), come si può vedere nello studio di Proverbio e Zani [34] illustrato nella Figura 3.5. Essa mostra la negatività da mismatch fonologica (pMMN) in risposta a sillabe incongruenti rispetto a determinate parole mantenute in memoria per qualche secondo. Ai volontari veniva chiesto di recuperare la forma fonologica di parole descritte da una definizione univoca. ad esempio, “Fibra ottenuta dal vello delle pecore: LANA” oppure “Fiorellini regalati per la festa della donna: MIMOSA”. Successivamente veniva chiesto di stabilire se un trigramma presentato in un secondo tempo, dopo un certo intervallo, facesse o meno parte della parola pensata, premendo uno di due tasti per la risposta affermativa o negativa. Nell’esempio di cui sopra MOS è presente in mimosa (tasto: SÌ), mentre LEN non è presente (tasto: NO). In questo modo la rappresentazione fonologica delle parole non veniva fornita secondo una data modalità sensoriale (visiva se scritta o uditiva se parlata), ma secondo un codice mentale astratto (Fig. 3.5). Se la pMMN in questo studio conferma la latenza media di occorrenza dei processi di analisi fonologica del linguaggio (circa 250-250 ms), è stato osservato, però, un esordio precedente dei meccanismi di conversione grafema/fonema della parola scritta, e in particolare della sillaba. In questo studio, infatti, si è osservata una MMN visiva durante il confronto di sillabe fonologicamente incongruenti sulla corteccia visiva estrastriata, e più precocemente sull’emisfero sinistro, suggerendo quindi un accesso alle proprietà fonologiche di sillabe e parole e un inizio di conversione grafema/fonema intorno ai 175 ms post-stimolo.
Fig. 3.5 pMMN in risposta a sillabe fonologicamente incongruenti con la forma fonologica di una parola recuperata e tenuta in memoria dall’osservatore. Si noti l’esordio molto precoce della negatività, intorno ai 200 ms di latenza post-stimolo. Da [34], con autorizzazione
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
101
Un altro recente studio ERP ha approfondito proprio i meccanismi di conversione grafema/fonema [24], mettendo in evidenza il decorso temporale dei meccanismi di estrazione dell’informazione fonetica durante la lettura. Il paradigma era il seguente: più di un migliaio di parole, pseudoparole e stringhe di lettere italiane sono state mostrate ad alcuni studenti universitari italiani che avevano il compito di stabilire se un dato fono era presente in una parola fornita visivamente. Il fono rappresenta l’implementazione acustica e fonetica di un dato fonema (e quindi grafema) e è recuperabile solamente se si conoscono esattamente le regole di pronuncia e se non ci sono possibili ambiguità nemmeno per le pseudoparole o le stringhe di lettere. Ad esempio, il grafema C si pronuncia sicuramente [t∫] sia nella parola CIELO sia nella pseudoparola CERTUBIOLA o nella stringa MLHGWTOCIV, come sa ogni parlante italiano che padroneggi le regole di conversione grafema fonema dell’italiano, peraltro trasparenti (si veda la Tabella 3.1 per la lista dei foni utilizzati come target e per quelli utilizzati come distrattori allo scopo di rendere il compito più difficile). Sono stati quindi registrati gli ERP a tutte le categorie di stimolo a seconda che contenessero o meno i foni target (Tabella 3.1). Tabella 3.1 Lista di stimoli target e non-target per l'esperimento di decisione fonetica. Lista di foni target a cui i soggetti dovevano rispondere in una certa sessione, insieme ai relativi distrattori presenti per metà degli stimoli non-target. I distrattori potevano avere una similarità di tipo ortografica o fonetica con i target. Da [24], con autorizzazione Target
Non-target
Fono
Grafema
Esempio
[k]
c
cuore
[t∫]
c
cielo
[∫]
sc
pesce
[z]
s
isola
[s]
s
pasta
[ts]
z
pizza
[dz]
z
zaino
[g]
g
gatto
[d3]
g
gente
[λ]
gl
aglio
[η]
gn
pugno
[n]
n
brina
Distrattori [t∫], [∫] bacio, sciata, [k], [ ∫], [kw] occhio, fascio, [s], [k], [t∫], [kw] secchio, carta falce, eloquio [s], [ts], [∫], [dz] sodio, sensazione, uscita, zia [z], [ts], [∫], causa, fazione,biscia [s], [dz], [z] bistecca, manzo, revisore [ts], [s], [z] polizia, sigaretta, riserva [η], [d3], [λ] sogno, gesto, sveglia [λ], [η], [g] voglia, prugna, ghiaccio [l], [g], [d3], [η] palio, lingua, gioco, montagna [n], [g], [d3], [λ] banana, ghiacciolo, formaggio, sbaglio [η], [λ] ragno, boscaglia
102
A. Mado Proverbio
Uno dei dati più interessanti riguarda la dissociazione anatomico funzionale antero/posteriore osservata per una componente negativa intorno ai 250-350 ms, che era di maggiore ampiezza sulle regioni frontali e prefrontali sinistre durante l’elaborazione fonemica di stringhe di lettere benformate (pseudoparole) o malformate e raggiungeva la massima ampiezza sulle regioni occipito/temporali di sinistra durante l’analisi fonemica di parole di alta o bassa frequenza d’uso [24]. Tale risultato ha confermato la possibile esistenza di due circuiti funzionalmente distinti (una via visiva e una via fonologica) per la conversione grafema/fonema, fornendo indicazioni sul decorso temporale di tali processi. Essi occorrerebbero parzialmente in parallelo con il completamento del riconoscimento visivo delle parole da parte della VWFA e l’avvio dell’accesso ai sistemi lessicali indicizzato dalla successiva componente N400, di latenza variabile tra i 200 e i 600 ms. Il rapido accesso alla rappresentazione fonologico/fonetica delle parole ci consente di leggere con grande rapidità anche 5/6 parole al secondo in brani di testo mai visti e complicati. La capacità di lettura si sviluppa, ovviamente, con l’esercizio e migliora dall’età scolare fino all’età adulta. Studi fMRI [35] hanno mostrato che l’accesso rapido e accurato alla rappresentazione fonologica migliora significativamente nell’adulto rispetto al ragazzo prepubere (fino ai 14 anni), e che durante l’adolescenza avviene un raffinamento dell’abilità di lettura e il consolidamento degli automatismi. In particolare Booth e colleghi [36] hanno evidenziato modificazioni legate allo sviluppo cerebrale e all’età nell’attivazione di aree linguistiche cerebrali sinistre durante la lettura, in particolare a carico dell’area frontale inferiore, del giro temporale superiore e del giro angolare. Durante compiti uditivo/visivi intermodali (ad esempio, compiti di rima visiva come: “SOAP [s υp] fa rima con HOPE [h υp]?”) si registrava un’attivazione specifica del giro angolare (BA39), coinvolto nel reperimento della corrispondenza tra rappresentazione ortografica e fonologica delle parole, sia nei ragazzi sia negli adulti. Ciò che è più interessante notare è che nell’adulto l’attivazione automatica del giro angolare si osservava anche durante compiti ortografici non richiedenti una conversione grafema/fonema, (come nel compito “VOTE [v υt] fa rima con NOTE [n υt]?”) Questa attivazione automatica non si osservava invece nei ragazzi di età inferiore ai 14 anni, probabilmente a causa di differenze maturazionali nella sinaptogenesi, nel metabolismo del glucosio, nella mielinizzazione e nello sviluppo della materia bianca corticale, occorrenti tra i 10 e i 20 anni, specialmente nelle aree prefrontali. Questi dati di Booth e colleghi [36] individuano dunque nel giro angolare e sopramarginale una regione specializzata nel mapping ortografico/fonologico dell’informazione linguistica. Accanto a ciò, segnalano, nel periodo dalla pubertà all’età adulta, un miglioramento nella trasmissione del segnale nervoso e nella rapida interconnessione di regioni eteromodali durante la lettura. e
e
e
e
3.5 Conversione grafema/fonema nel deficit di lettura (dislessia) L’incapacità di lettura, intesa come deficit nel reperimento rapido della corrispondenza grafema/fonema, e quindi della forma grafemica nel dettato (come si scrive qualcosa che si è udito), e della forma fonetica nella lettura (come si pronuncia qualcosa che
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
103
si è letto) interessa una certa popolazione di bambini chiamati dislessici, per lo più fonologici. Secondo alcuni dati, descritti nel paragrafo 1.1, taluni soggetti (probabilmente dislessici superficiali) potrebbero avere un’insufficiente/atipica attivazione della VWFA [21], che, nello studio di Proverbio e collaboratori [34], abbiamo visto essere in parte coinvolta nell’analisi grafemico/fonologica. Tuttavia, la maggior parte delle teorie sulle basi neurobiologiche della dislessia fonologica fanno riferimento a tre ipotesi principali che di seguito discuteremo sulla base di dati elettrofisiologici (esclusa la cosiddetta ipotesi magnocellulare che ipotizza un coinvolgimento di strutture legate ai movimenti oculari e al cervelletto, e che non discuteremo in questa sede). La prima ipotesi sostiene che i dislessici abbiano un deficit nella capacità di distinguere informazioni acustiche temporalmente complesse, ma diciamo subito che è stato ampiamente dimostrato il contrario, mediante una stimolazione di tipo non linguistico. La seconda asserisce che essi abbiano un deficit nella capacità di discriminare i tempi di transizione delle formanti (specialmente quelli troppo brevi vs. lunghi). La terza e, come vedremo, la più accreditata dai dati elettromagnetici e di neuroimmagine, afferma che i dislessici abbiano un deficit di discriminazione fonetica, dovuto a una percezione allofonica dei suoni linguistici. La percezione allofonica è molto sensibile alle sottili variazioni fisiche della stimolazione sonora a livello di tempi di transizione delle formanti, ma è accompagnata da una corrispondenza grafema/fonema poco stabile (confusioni nella categorizzazione della forma globale dello spettro del segnale). L’ipotesi del deficit di discriminazione temporale è stata disconfermata da recenti studi di autori come Studdert-Kennedy [37] o Nittrouer che hanno mostrato come i deficit nella consapevolezza fonetica non dipendano da problemi nell’elaborazione uditiva di informazioni temporalmente complesse o rapide. Infatti, bambini dislessici di seconda elementare, con problemi a distinguere le sillabe /ba/-/da/, ottengono gli stessi risultati dei coetanei in compiti di discriminazione di sillabe con un simile grado di complessità temporale nella transizione delle formanti, ma foneticamente più distintive per luogo e tipo di articolazione (com /ba/-/sa/ o /fa//da/). Allo stesso modo, dimostrano di eseguire, altrettanto correttamente dei bambini di pari età, ma senza deficit di lettura, compiti in cui è richiesta una sensibilità a brevi segnali transitori del linguaggio sintetizzato, o la discriminazione di onde sonore non linguistiche ma simili alla seconda e terza formante delle sillabe /ba//da/. In conclusione, i bambini dislessici avrebbero problemi di confusione percettiva tra fonemi foneticamente simili, piuttosto che una difficoltà a percepire rapidi cambiamenti nello spettro dell’informazione acustica [37]. Queste ipotesi sono state confermate da studi elettrofisiologici facenti uso di linguaggio sintetizzato. Un tipo di paradigma che ha messo in luce nei bambini dislessici un deficit di tipo fonologico e non acustico/fonetico è quello del priming implicito fonologico. Esso si realizza in compiti di decisione lessicale (decidere se uno stimolo è una parola o una non-parola) presentando una precedente parola che può essere o meno fonologicamente legata ai target successivi. Ad esempio, la parola MATTINA agisce da prime (agente facilitante) fonologico alla pseudoparola BATTINA ma non alla pseudoparola LEBANTI. Quello che tipicamente si ottiene per un deficit di tipo fonologico è l’assenza/riduzione della pMMN agli item non-associati fonologicamente rispetto a quelli associati al prime (Fig. 3.6).
104
A. Mado Proverbio
Fig. 3.6 Forme d’onda ERP registrate in individui dislessici e di controllo in risposta a pseudoparole fonologicamente associate o non con una parola precedente (prime). La mancanza di una risposta differenziata a livello di N2 temporo/parietale per i due tipi di item riflette un certo deficit nell’elaborazione fonologica
Come abbiamo già detto, comunque, il deficit fonologico non sarebbe associato a una mancanza di sensibilità acustico/fonetica, ma, anzi, a un’eccessiva sensibilità a indicatori temporali piuttosto che spaziali (spettro). È stato dimostrato [39] come i dislessici ottengano risultati migliori, rispetto al gruppo di controllo, in compiti di discriminazione intra-categorica tra sillabe artificiali ottenute modificando impercettibilmente lungo un continuo due sillabe chiaramente distinguibili come /da/ e /ta/. Al contrario, essi hanno una prestazione peggiore in compiti di discriminazione tra fonemi categoricamente diversi /da/ vs. /ta/. La Figura 3.7 mostra i risultati di uno studio di categorizzazione fonemica effettuato con linguaggio sintetizzato e mette in evidenza un’incompetenza dei bambini dislessici di 10 anni nello stabilire una corrispondenza tra input fonologico e rappresentazione fonemica, simile a quello di bambini non ancora in grado di leggere o peraltro estremamente incerti nel mappaggio grafema/fonema. Questa spiccata sensibilità a differenze nel continuum della stimolazione sonora è stato chiamato “percezione allofonica” (Fig. 3.7) , in opposizione a percezione categorica. La prova che i dislessici siano più sensibili a livello di differenze fonetiche deriva da studi ERP che utilizzano il paradigma della mismatch negativity (MMN). Questo paradigma, sviluppato dallo scienziato finlandese Risto Näätänen [40, 41], si basa sulla presentazione acustica di una serie ripetitiva di stimoli omogenei che è seguita da uno stimolo deviante per una sola caratteristica fisica (ad esempio, la durata, l’intensità, la frequenza, lo spettro). Il confronto degli ERP elicitati dagli stimoli standard con quelli elicitati dallo stimolo deviante mostra una negatività la cui latenza (150-300 ms) e localizzazione indica i meccanismi elaborativi della caratteristica sensoriale deviante. I dati raccolti sui soggetti dislessici mostrano una maggiore MMN sia precoce (340 ms) sia tardiva (520 ms) rispetto ai controlli in situazioni in cui vengono messe a confronto serie di parole pronunciate in modo scandito, senza glissare su certe lettere (ad esempio, TECNICO, ALREADY), con parole pronunciate secondo regole di assimilazione (per esempio, TENNICO, A(L)READY). In definitiva, i controlli compenserebbero le differenze nell’informazione fonetica per giungere a categorizzazioni finali simili. Al contrario, i dislessici sarebbero molto sensi-
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
105
Fig. 3.7 Confronto tra prestazioni in un compito di categorizzazione di fonemi artificiali tra gruppi di parlanti di diversa età e competenza fonologica. I bambini dislessici hanno una prestazione simile ai bambini che si trovano all’inizio della scolarizzazione
bili alle differenze fonetiche della stimolazione, dando così luogo a maggiori negatività da mismatch acustico/fonetica in risposta a parole come TENNICO (assimilato) rispetto a TECNICO (scandito). Un’altra prova della maggiore sensibilità dei soggetti dislessici a stimoli devianti è stata offerta da uno studio elettrofisiologico di Pavo Leppänen e colleghi [42] che ha messo a confronto le risposte evocate da parole standard o devianti per la durata di una vocale o di una consonante. Ad esempio, la parola /tuli/ (fuoco) è stata messa a contrasto con la deviante /tuuli/ (vento) differente da essa solamente per la durata della vocale /u/; mentre il segmento standard /ata/ è stato messo a contrasto con la versione più duratura /atta/. Questo importante studio longitudinale è stato condotto su una popolazione di 100 neonati di 6 mesi appartenenti a famiglie senza deficit di lettura, e quindi geneticamente non predisposti alla dislessia (controlli), e altri 100 bambini appartenenti a famiglie con almeno 1 membro affetto da deficit di lettura. I risultati hanno mostrato la presenza nei neonati a rischio di una MMN molto più ampia, specialmente nella fase tardiva (600 ms) in risposta a stimoli devianti. L’osservazione dei soggetti a rischio in età adulta ha poi mostrato che una certa percentuale di individui sviluppava effettivamente un deficit di lettura. La MMN registrata su soggetti dislessici (cioè lettori mediocri, del gruppo a rischio) in risposta a stimoli come /ka/ standard e /kaa/ deviante era di ampiezza consistente, ma prevalentemente osservabile sulle regioni emisferiche destre. La MMN registrata su soggetti originariamente a rischio, ma che non avevano mai sviluppato problemi di lettura (cioè, buoni lettori, a rischio), mostrava una notevole ampiezza sia su regioni emisferiche destre, sia sinistre. Infine, la MMN registrata su buoni lettori del gruppo non a rischio mostrava una sola MMN su regioni emisferiche sinistre. Sembra quindi che una MMN destra fosse in qualche modo predittiva di una certa facilità alla confusione nella categorizzazione dei fonemi. Questo dato potrebbe in qualche modo essere legato all’evidenza che le persone con preferenza manuale meno marcata hanno una maggiore probabilità di essere dislessiche rispetto agli individui fortemente destrimani. Studi anche elettrofisiologici hanno evidenziato un netto miglioramento delle capacità di lettura in bambini di 5 anni con scarsa abilità nell’associare un suono a una lettera (e appartenenti a famiglie geneticamente a rischio, cioè con almeno 1 membro dislessico) in seguito a specifico training intensivo. I dati ERP hanno mostrato una significativa correlazione tra miglioramento della capacità di leggere appro-
106
A. Mado Proverbio
priatamente le lettere e comparsa di una MMN precoce su regioni temporo/parietali sinistre al contrasto standard/deviante per i fonemi tipo /ba/ /ga/ /da/. Questo tipo di addestramento, studiato perché sia avvincente per un bimbo di 5/6 anni, si presenta sottoforma di videogioco chiamato graphogame. Il bambino ascolta di volta in volta dei suoni tramite una cuffia mentre guarda lo schermo di un computer. Per vincere il gioco deve cercare di catturare prontamente la versione ortografica corrispondente al suono di volta in volta udito (una lettera che cade in verticale) prima che tocchi terra, spostando con il mouse un simpatico polipetto con i tentacoli aperti a forma di U. Ci sono varie lettere che cadono contemporaneamente per terra e il bambino deve fare presto a individuare e catturare quella giusta, per superare i vari livelli del videogioco. Il graphogame, grazie ai suoi effetti sulla plasticità cerebrale e sull’apprendimento, è utilizzato dal 2005 nell’ambito del VI programma quadro dell’Unione Europea, per studiare i problemi di lettura nelle lingue inglese, finlandese, olandese e tedesco, all’interno di progetto chiamato “Training grapheme-phoneme correlations with a child-friendly computer game in preschool children with familial risk of dyslexia”. In sintesi, imparare a leggere consisterebbe proprio nell’individuare una corrispondenza stabile e sicura tra grafema e fonema, che abbiamo visto in precedenza essere un meccanismo che continua a migliorare anche dopo la pubertà, grazie anche al ruolo decisivo del giro angolare e del giro sopra-marginale; al contrario, sarebbe predisponente per la dislessia una debolezza nella codifica fonologica (categorizzazione fonemica) di input fonetici.
3.6 Analisi lessicale Dopo l’accesso alle proprietà fonologiche di una parola, il nostro cervello è in grado di estrarne le proprietà semantico/lessicali intorno ai 300-400 ms di latenza post-stimolo. Mediante il paradigma della parola terminale è stato possibile determinare già nel 1980 [9] l’esistenza di una componente degli ERP negativa di latenza intorno ai 400 ms (denominata N400) che compariva in risposta a parole semanticamente incongruenti con il contesto, ma ortograficamente o fonologicamente corrette. Questa componente ha un’ampiezza maggiore sulla regione centroparietale destra del cervello; tuttavia, ciò non indica necessariamente la localizzazione anatomica delle funzione semantica. Per esempio, studi di registrazione intracranica hanno mostrato in un caso un generatore della N400 vicino al solco collaterale e al giro fusiforme anteriore. Kutas, nel suo articolo originale del 1980, approfondisce le proprietà funzionali della N400 distinguendo il concetto di incongruenza semantica da quello di aspettativa dell’osservatore sulla terminazione di una certa frase, nel paradigma della parola terminale. Vi sarebbe un vincolo contestuale (contextual constraint) dato dal significato semantico della frase, che da solo non basterebbe a spiegare l’insorgenza della N400. Ma andiamo per gradi. Il contrasto tra la frase “Mise zucchero e limone nel suo TÈ” e “Mise zucchero e limone nel suo STIVALE” produce una N400 di ampiezza rilevante in risposta a STIVALE, a causa dell’incongruenza semantica della parola terminale con il contesto di bevanda calda. Se si compara la risposta evocata dalla
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
107
frase “Mise zucchero e limone nel suo CAFFÈ” si osserva una N400 di ampiezza minore rispetto allo STIVALE, in quanto il CAFFÈ è semanticamente più associato al TÈ di quanto non sia lo STIVALE. Questo fenomeno riflette l’effetto del vincolo contestuale (contextual constraint). La Kutas introduce il fattore della cloze probability o “probabilità di chiusura”, intesa come la probabilità che un gruppo di parlanti completi una certa frase con una determinata parola terminale, i cui effetti non si identificano completamente quelli del vincolo contestuale. ad esempio, la frase “Spedì la lettera senza FRANCOBOLLO” viene completata dalla totalità dei soggetti in modo uniforme e predicibile, a dimostrazione del fatto che possiede un’alta probabilità di chiusura. Al contrario, la frase “Non c’era niente di rotto nel CONGELATORE” possiede una bassa probabilità di chiusura, in quanto non molte persone statisticamente completerebbero la frase nello stesso modo. Gli ERP elicitati da FRANCOBOLLO e CONGELATORE nelle due frasi di cui sopra producono deflessioni molto diverse (una P300 e una N400, rispettivamente), in quanto la parola CONGELATORE sorprende il lettore non meno di quanto potrebbe fare qualunque altra parola che rappresenti un oggetto il cui meccanismo può incepparsi, ed è quindi semanticamente congruente, ma inaspettata. La N400 sarebbe, dunque, indice di meccanismi di integrazione semantica, e sarebbe sensibile alla difficoltà con cui il lettore/ascoltatore integra l’input con il contesto precedente, sulla base delle proprie aspettative. Sebbene il massimo picco di risposta a parole incompatibili, inaspettate, o a bassa probabilità di chiusura venga raggiunto intorno ai 400 ms, sono state mostrate risposte ERP più precoci sensibili ad alcune proprietà lessicali delle parole, come la frequenza d’uso. King e Kutas [43] hanno descritto una componente negativa anteriore chiamata negatività da elaborazione lessicale (LPN, Lexical Processing Negativity) con una latenza di circa 280/340 ms, che era molto sensibile alla frequenza di occorrenza delle parole. Questa componente è stata anche registrata nel già citato studio di Proverbio [24] in un compito di decisione fonetica, come illustrato nella Figura 3.8. In quest’ultima possiamo osservare la LPN registrata a varie categorie di stimoli di diversa familiarità per il lettore (stringhe, pseudoparole e parole di alta e bassa frequenza d’uso). Si noti come la diversa familiarità si riflette nell’ampiezza di tale componente negativa a livello delle componenti N3 e N4, anche se il compito, di natura fonetica, non richiedeva un accesso a informazioni di tipo lessicale. Come si vede, questi effetti lessicali sono già visibili a 250 ms di latenza post-stimolo sulle regioni anteriori del cervello, e ancora prima (intorno ai 150 ms) sulla corteccia parietale, sottoforma di una modulazione dell’ampiezza della P150. Similmente, in un altro studio ERP, Schendan e colleghi [44] osservarono una componente centro/parietale P150 che esibiva la massima ampiezza in risposta a stringhe di lettere e pseudolettere, un’ampiezza intermedia in risposta a stringhe di icone, e, infine, una meno ampia in risposta a oggetti e pseudo-oggetti. Gli autori conclusero che la P150 riflettesse l’attivazione superficiale di un generatore localizzato nel giro fusiforme. In questo studio, l’effetto più precoce di distinzione lessicale (parola/pseudoparola) si osservò a circa 200 ms post-stimolo. Sembrerebbe, quindi, che i meccanismi di accesso a proprietà lessicali si attivino in parallelo rispetto all’estrazione di proprietà ortografiche e fonologiche. Alcuni studi mostrano una sensibilità lessicale a latenze anche inferiori ai 150 ms in risposta a brevi parole familiari [45, 46] sulla regione centro/parietale di sinistra (Fig. 3.8).
108
A. Mado Proverbio
Fig. 3.8 Forme d’onda ERP registrate in risposta a parole, pseudoparole e stringhe di lettere durante un compito di decisione fonetica (come ad esempio: il fono /k/ è presente in ARANCIATA?). Da [24], con autorizzazione
3.7 Analisi pragmatica Così, come la P300 sarebbe indice di meccanismi di aggiornamento contestuale (dall’inglese contextual updating), ovverosia di confronto tra input in entrata con informazioni pregresse e aggiornamento delle conoscenze [47, 48], al contrario, l’insorgere della N400 indicherebbe una difficoltà nell’integrazione di informazioni in entrata con conoscenze preesistenti di tipo semantico, o procedurale nel caso dei gesti, conoscenze sul mondo e pragmatiche, conoscenze sociali (scenari, convenzioni, appropriatezza del comportamento). Esaminiamo separatamente alcuni esempi. Prendiamo, ad esempio, il caso classico di una violazione del significato locale o del vincolo semantico come quello dato dalla frase: “Jane disse a suo fratello quanto egli fosse incredibilmente”, seguita da 3 possibili parole terminali come: A. VELOCE B. LENTO C. PIOVOSO
Congruente Congruente Incongruente
Come abbiamo visto ampiamente nel corso del paragrafo precedente, il caso C determina l’insorgere della N400 Fig. 3.9, parte 1) in quanto la piovosità non è una possibile proprietà di una persona, e ciò rende difficile integrare il significato della parola terminale con la rappresentazione concettuale fornita dalla frase. Poiché questa incongruenza si riscontra in assoluto, a prescindere dal contesto o dagli spe-
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
109
cifici parlanti, si parla di violazione del vincolo semantico (da distinguersi dalla violazione della “probabilità di chiusura”). Hagoort e collaboratori [49] hanno però scoperto che la N400 è anche sensibile alla violazione del significato mediata dal contesto o dalle conoscenze sociali. Consideriamo il contesto “Alle 7 del mattino il fratello di Jane si era già fatto la doccia e si era anche già vestito” seguito dalla frase: “Jane disse a suo fratello quanto egli fosse incredibilmente”, completata dalle 2 possibili parole terminali: A. VELOCE B. LENTO
Congruente Incongruente
Il caso B determina l’insorgere della N400 (Fig. 3.9, parte 2), in quanto la rappresentazione concettuale fornita dalla frase, e cioè quella di un fratello svelto e mattiniero, è in stridente contrasto con il modo in cui egli viene qualificato dalla sorella. L’incongruenza semantica si può estendere anche a conoscenze implicite o pragmatiche come quelle sociali. Consideriamo la frase “La domenica di solito vado al parco con” pronunciata con voce di: 1. bimbo 2. uomo adulto e seguita dalle 2 possibili parole terminali: A. PAPINO B. MIA MOGLIE Le combinazioni 1B e 2A elicitano un’ampia deflessione N400 (Fig. 3.9, parte 3) in assenza di qualunque violazione del significato semantico locale o contestuale, riflettendo, quindi, una violazione delle conoscenze pragmatiche e sociali (Fig. 3.9). Un altro studio di Hagoort e colleghi [50] fornisce un parallelismo molto interessante tra violazione del vincolo semantico e violazione di conoscenze sul mondo. Una tipica conoscenza sul mondo (detta world knowledge dallo psicologo
Fig. 3.9 ERP registrati in risposta a parole terminali che completano un precedente contesto (si veda il testo per le frasi specifiche) producendo una violazione del significato locale (caso 1), del significato contestuale (caso 2) o delle conoscenze pragmatiche (caso 3): linea punteggiata = parola incongruente, linea continua = parola congruente. Tratta e modificata da vari studi del gruppo di Hagoort e colleghi
110
A. Mado Proverbio
Norman) potrebbe essere, ad esempio, la direzione con cui si aprono le porte (quasi sempre verso l’interno, ma verso l’esterno se antipanico), conoscenza che si apprende implicitamente mediante ripetute esperienze nel mondo esterno. Hagoort presentò comparativamente 3 tipi di frasi, di seguito elencate. A. I treni olandesi sono gialli e molto affollati. B. I treni olandesi sono bianchi e molto affollati. C. I treni olandesi sono acidi e molto affollati. Il caso B (violazione di conoscenze sul mondo) e il caso C (violazione semantica) elicitarono N400 di ampiezza e distribuzione simile in soggetti olandesi, pur essendo profondamente differenti. Tutti sanno che un treno non può essere acido (conoscenza semantica). Allo stesso modo un olandese che abbia girato un po’ per metropolitane ha appreso in modo implicito, ma altrettanto solidamente, che i treni della sua città non sono bianchi. La difficoltà nell’integrare le informazioni fornite dalle frasi B e C con le conoscenze preesistenti determina quindi processi mentali, osservabili circa 400 ms dopo la parola target, la cui controparte neurofisiologica nello studio di Hagoort e colleghi [50] è rappresentata dalla N400, e il cui generatore venne identificato mediante fMRI nel giro frontale inferiore sinistro (BA 45) per entrambe le situazioni.
3.8 Analisi sintattica di primo e di secondo livello L’analisi sintattica di una frase, cioè l’analisi della relazione tra le varie parti del discorso, sia esso in forma scritta che parlata, consiste in diversi livelli elaborativi più o meno complessi che si svolgono parzialmente in parallelo con gli altri tipi di elaborazione del segnale linguistico, mano a mano che provengono output di riconoscimento dall’analisi ortografica, fonologica e semantica. Gli stadi iniziali sono più automatici e meno influenzati da aspettative o rappresentazioni cognitive. Addirittura, secondo Noam Chomsky [51], una certa capacità sintattica, la cosiddetta grammatica universale (cioè la capacità di comprendere e poi di generare il discorso secondo certe regole sintattiche), sarebbe innata e insita nell’architettura biologica dell’homo sapiens sapiens. Gli studi ERP ci hanno consentito di distinguere 3 diversi tipi di analisi parzialmente consecutive, la cui manifestazione neurofisiologica è rappresentata dalle componenti ELAN, LAN e P600 o SPS, che verranno descritte qui di seguito. La ELAN (il cui acronimo sta per Early Left Anterior Negativity), si osserva tra i 100 e i 300 sulle ragioni anteriori sinistre del cervello [52]. Riflette meccanismi di assegnazione della struttura sintattica della frase e di integrazione sintattica, essendo molto sensibile alla categoria delle vari parti del discorso. Una frase come “Casa a ragazza la tornò” elicita tipicamente una negatività precoce ELAN da violazione sintattica, in quanto le varie parti del discorso non occupano la posizione che andrebbe loro assegnata (articolo, sintagma nominale, sintagma verbale, preposizioni). La ELAN rifletterebbe, quindi, un parsing di primo livello, guidato dalle regole di strutturazione della frase e da processi sintattici primari (parzialmente innati).
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
111
La LAN, che sta per negatività anteriore tardiva (Late Anterior Negativity) [53, 54], è sempre una negatività anteriore da violazione sintattica, ma più tardiva (300-500 ms) e sensibile ad aspetti morfosintattici più complessi come la concordanza soggetto/verbo, verbo/articolo, le declinazioni e le coniugazioni. Una frase che tipicamente eliciterebbe una vistosa LAN è rappresentata dall’espressione “La ragazzi avrà andate”. L’ultimo e più sofisticato livello di analisi sintattica è indicato dalla comparsa di una componente positiva chiamata P600 per via della latenza intorno ai 600 ms, o anche Syntactic Positive Shift (SPS, variazione sintattica positiva) [55, 56]. Essendo successiva alla P300, compare dopo che si è acquisita una certa consapevolezza del significato di una data frase. Questa positività tardiva rifletterebbe processi linguistici relativamente controllati, sensibili all’informazione inflessionale e associati a processi sintattici secondari, come la rianalisi di frasi complesse o incongruenti, oppure processi inibitori di una rappresentazione non corretta della frase dovuti a difficoltà di integrazione sintattica. Presumibilmente, per capire questa frase avrete dovuto mettere in atto processi sintattici secondari la cui manifestazione ERP è data dalla P600. Ma consideriamo il caso della frase “Il giornalista riteneva l’oggetto del contendere…” e poniamo il caso che ci sia un certo intervallo durante il quale il lettore o l’ascoltatore abbia il tempo di formarsi una rappresentazione del significato e quindi una certa aspettativa sul tipo di parola terminale. A questo punto, la presentazione della conclusione “in un posto sicuro” impone un processo di rianalisi del significato della frase e in particolare della parola “riteneva”, che era stata probabilmente (statisticamente) interpretata come “considerava”, poiché una delle proprietà dei giornalisti è quella di farsi un’opinione su determinati fatti ed eventi. La conclusione inaspettata cambia il significato di “ritenere” nella sua accezione semantica di “trattenere”, obbligando il lettere/ascoltatore a processi di rianalisi della frase indicati appunto dalla SPS. Vi sono, inoltre, altre componenti linguistiche interessanti, che sono molto peculiari e riflettono sempre l’indicazione anatomica del ruolo della corteccia frontale sinistra (area di Broca) nell’analisi sintattica. Ne è un esempio la negatività anteriore sinistra da complessità sintattica, descritta da Kutas e colleghi [57]. In un loro studio, gli autori misero a confronto frasi sintatticamente complesse, come quelle relative all’oggetto, con altre identiche in tutto e per tutto ma relative al soggetto e quindi meno complesse. Ad esempio, la frase “Il cronista che il senatore attaccò violentemente ammise l’errore” (relativa all’oggetto) confrontata con la frase “Il cronista che attaccò violentemente il senatore ammise l’errore” (relativa al soggetto). Registrarono quindi gli ERP a un certo numero di persone, e li divisero successivamente in due gruppi a seconda del grado di comprensione della frase che avevano poi successivamente mostrato. L’assunto era che chi avrebbe mostrato una comprensione successiva ottimale, avrebbe presentato, in qualche modo, segni di un’elaborazione sintattica più approfondita durante l’elaborazione della frase. I risultati mostrarono che il gruppo contraddistinto da una comprensione ottimale esibiva una maggiore negatività da complessità sintattica per le frasi relative all’oggetto (piuttosto che al soggetto) sulla regione frontale sinistra, mentre il gruppo caratterizzato da una successiva comprensione mediocre non esibiva tale negatività.
112
A. Mado Proverbio
3.9 Rappresentazione del linguaggio nel cervello multilingue: interpreti e bilingui Uno degli argomenti più dibattuti nelle neuroscienze cognitive riguarda il tema del multilinguismo e, in particolare, la questione relativa al come le varie lingue siano rappresentate nel cervello dei poliglotti [58], e quale grado di indipendenza o di interferenza ci sia tra di esse. La ricerca di una rete di regioni cerebrali linguistiche coinvolte nei diversi aspetti della comprensione, lettura e produzione del linguaggio è complicata da fattori quali il livello di competenza padroneggiato per le lingue straniere e per la lingua madre, l’età di acquisizione (dalla nascita, entro i 5 anni, entro i 12 ecc.), le modalità e i tempi di esposizione ai vari contesti linguistici (ad esempio, a casa, a scuola, sul lavoro), il contesto socio-affettivo di acquisizione (in famiglia o a scuola), nonché l’interazione tra tutti questi fattori [59]. Alcuni studi sembrano supportare l’idea che, a parità di competenza acquisita, non vi siano differenze macroscopiche nel modo in cui le diverse lingue vengono elaborate da bilingui precoci fluenti e, in particolare sembra che l’età di acquisizione non giochi un ruolo fondamentale [60-62]. Altri studi forniscono, invece, prove di marcate differenze nel decorso temporale di attivazione e nel reclutamento di aree anatomiche per l’elaborazione linguistica di lingue acquisite a diverse età e in diversi contesti culturali [24, 59, 63-65]. Questi ultimi dati sono compatibili con l’evidenza che gli interpreti simultanei, per quanto padroneggino perfettamente una lingua, preferiscano comunque tradurre verso la lingua madre piuttosto che verso la lingua straniera; essi mostrano inoltre pattern di asimmetria emisferica differenti durante l’interpretazione verso la seconda lingua [66], nel senso di una riduzione della lateralizzazione sinistra per le funzioni linguistiche. Questa differenza tra lingua madre e lingue straniere, a parità, come abbiamo detto, di competenza linguistica, sarebbe dovuta al fatto che la lingua madre si apprende contestualmente alla formazione delle conoscenze concettuali (ad esempio, la nozione di cosa sia una /´kjave /; che l’/´akkwa / è un liquido fresco da bere) e alle conoscenze pragmatiche sul mondo (che le porte chiuse a /´kjave / non si possono aprire, che la pappa con la pastina è /´bwona /ecc.). In altri termini la forma fonologica delle parole verrebbe acquisita contestualmente all’acquisizione dei contenuti concettuali. Diversamente, le parole di lingue apprese dopo l’età di 5 anni sarebbero in qualche modo “tradotte” nella lingua nativa (“parassitismo” secondo Elizabeth Bates [67]) per trovare una corrispondenza nel sistema lessicale, e questo evidentemente produce una significativa differenza nella facilità d’accesso semantico tra L1 e L2. Una prova elettrofisiologica di questa differenza ci viene da uno studio ERP che abbiamo recentemente effettuato su interpreti simultanei professionisti [67]. Questi individui rappresentano una categoria particolare di poliglotti che possiede il massimo grado possibile di padronanza di più lingue, unito a una chiara differenza nell’età di acquisizione delle stesse. Gli interpreti considerati avevano una padronanza formidabile dell’inglese, per la quale interpretavano per organismi della Comunità Europea sia da sia verso l’italiano (interpretazione attiva e passiva IT<>EN). Essi avevano anche una conoscenza del tedesco, ma meno approfondita (L3). Lo studio dell’attività bioelettrica corticale degli interpreti consente, quindi, di studiare l’effet-
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
113
to dell’età di acquisizione della lingua madre rispetto a quelle straniere, a prescindere dal fattore padronanza. In questo studio sono state presentate a interpreti simultanee professioniste (donne, età media 40 anni) circa 800 stringhe di lettere di lunghezza variabile tra 6 e 10 caratteri, metà delle quali erano parole di bassa frequenza d’uso (come: ECOGRAFIA o OBIEZIONE). Un terzo delle parole presentate erano parole e non-parole italiane; vi erano inoltre parole e non parole inglesi e tedesche. Le pseudoparole erano chiaramente riconoscibili come appartenenti a un dato linguaggio per via della loro veste ortografica e legalità. ad esempio, CHIUBANTO e DOIGNESCA erano pseudoparole italiane, STIRBIGHT e SCROWFOND erano pseudoparole inglesi, mentre BERNSTACK e MEUSCHÄND erano pseudoparole tedesche. Analogamente le parole sono state selezionate affinché avessero una veste ortografica facilmente riconoscibile. Il compito era di natura ortografica e consisteva nel riconoscere e premere un tasto alla presenza di una determinata lettera target (annunciata all’inizio della prova dallo sperimentatore) che poteva essere presente o meno (in metà delle prove) all’interno della stringa mostrata. Le interpreti non dovevano curarsi se la stringa fosse una parola reale o una non-parola di una qualsivoglia lingua. I risultati mostrarono una negatività da selezione del target molto più ampia per la lingua madre, piuttosto che per le lingue straniere, sulla regione occipito/temporale sinistra intorno ai 200 ms post-stimolo, mostrando, quindi, un forte effetto dell’età di acquisizione. Sull’area frontale è stata osservata la presenza di una componente negativa che era molto sensibile sia all’età di acquisizione sia alla padronanza della lingua e cioè la LPN già descritta nel paragrafo 3.6. Tale negatività, osservabile nella Figura 3.10, era molto più ampia per le pseudoparole che per le parole, indicando, quindi, la sua sensibilità alla familiarità di queste ultime. Ciò che è più interessante notare è che essa variava in ampiezza in funzione della lingua anche per le pseudoparole (item mai visti in quanto non esistenti); ciò suggerirebbe un effetto di sensibilità differenziata alla veste ortografica di L1 (italiano), L2 (inglese), e di L3 (tedesco). La LPN, e di conseguenza la differenza tra risposta alle pseudoparole e risposta alle parole, era molto maggiore per L1, piuttosto che per L2, e per L2 piuttosto che per L3. Quest’ultimo effetto mostra un chiaro segno della differenza di padronanza tra le lingue (Fig. 3.10). Un’analisi più approfondita della risposta delle interpreti alla lingua tedesca è stata effettuata raggruppando le interpreti in 2 gruppi: coloro che effettivamente avevano una conoscenza troppo superficiale di questa lingua (non-fluenti) e coloro che la consideravano una terza lingua (L3) rispetto all’inglese, ma che erano pur sempre fluenti anche in tedesco (fluenti). Le analisi condotte sulle variazioni dei valori della LPN tra i due gruppi, in funzione anche della loro fluenza, ha permesso di osservare più da vicino l’effetto della padronanza. Come si vede dai dati della Figura 3.11, la differenza tra pseudoparole e parole era molto più ampia per il gruppo di fluenti che per i non fluenti; ciò identifica quindi nella LPN anteriore un marker chiaramente predittivo del livello di padronanza di una lingua (Fig. 3.11). Abbiamo visto come gli ERP possano indicare l’effetto dell’età di acquisizione di varie lingue sulla risposta cerebrale a parole e non parole, anche durante un compito di natura ortografica. Questo testimonia che l’accesso al lessico è un meccanismo automatico e che il vantaggio della lingua madre su quelle acquisite in età superiore ai 5 anni è imprescindibile.
114
A. Mado Proverbio
Fig. 3.10 Forme d’onda degli ERP medi registrati in interpreti professionisti in risposta a parole e pseudoparole di varie lingue (italiano =L1, inglese =L2, tedesco =L3) sugli elettrodi frontali di sinistra (F3) e di destra (F4). La parte ombreggiata rappresenta l’aumento di negatività in risposta a stringhe non riconosciute come esistenti. La certezza di non-esistenza di una non-parola diminuisce proporzionalmente alla padronanza della lingua (L2 vs. L3), ed è molto maggiore nella lingua madre (L1) rispetto alla lingua straniera (L2), a parità di padronanza. Modificata da [68]
Vedremo, ora, l’esempio di un’altra componente ERP sensibile a fattori come il multilinguismo nei processi di analisi sintattica, e cioè la P600 sintattica. In uno studio condotto su bilingui precoci e fluenti italo/sloveni [23] abbiamo investigato i meccanismi di analisi semantica e sintattica con il paradigma della parola terminale. Il compito consisteva nello stabilire se le frasi fossero sensate o per qualche motivo insensate premendo uno di due tasti con la mano sinistra o destra. I bilingui considerati vivevano tutti nella zona intorno a Trieste, dove si trova una comunità di lingua slovena. La lingua appresa in famiglia e parlata a casa e nel vicinato era quindi lo sloveno (L1), mentre la lingua appresa a scuola e parlata nell’ambiente professionale era, per lo più, l’italiano (L2). Abbiamo messo a confronto i bilingui con un gruppo di italiani di pari età e livello culturale, residenti nella stessa provincia ma appartenenti a famiglie italiane, che non conoscevano la lingua slovena. Durante la registrazione EEG sono stati presentati 3 tipi di frasi: corrette (ad esempio, “La luce filtrava dalle TAPPARELLE”), semanticamente incongruenti (ad esempio, “La struttura della città era troppo INVIDIOSA”) o sintatticamente incongruenti (ad esempio, “Insisteva perché voleva RIGUARDANTI”). Oltre a 200 frasi in italiano, sono state predisposte altrettante frasi in sloveno di significato diverso ma bilanciate per ogni fattore. I risultati sono stati molteplici. Tra i più interessanti, una N170 ortografica che nei bilingui interessava soprattutto la corteccia occipito/temporale sinistra per L1 ma coinvolgeva anche omologhe regioni dell’emisfero
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
115
Fig. 3.11 Ampiezza media della LPN anteriore (in µV) registrata in risposta a parole e a non parole nelle interpreti professionisti in funzione della loro fluenza per la lingua tedesca (L3). Una maggiore fluenza è associata a una maggiore negatività per le non parole, e quindi a una maggiore sensibilità lessicale
destro per L2, dimostrando una riduzione della lateralizzazione per le funzioni linguistiche nella seconda lingua già a livello di analisi ortografica. Un analogo risultato si ottenne per le componenti N400 e P600 riflettenti un’elaborazione di tipo semantico e sintattico (Fig. 3.12). Come si vede nella Figura 3.12, la N400 elicitata dalle frasi che mostravano una violazione sintattica, ma che erano anche semanticamente incongruenti, mostrava la classica distribuzione emisferica destra per i monolingui. Tale asimmetria diminuiva
Fig. 3.12 Grandi medie ERP registrate in un gruppo di monolingui italiani e di bilingui precoci fluenti italo/sloveni in risposta a frasi corrette e sintatticamente incongruenti, sulla regione temporale posteriore di sinistra e di destra. Da [23], con autorizzazione
116
A. Mado Proverbio
progressivamente fino ad arrivare a una distribuzione perfettamente bilaterale nei bilingui per L2. Per quanto concerne l’analisi sintattica più tardiva, possiamo osservare, intorno ai 600 ms di latenza, l’insorgenza di una componente positiva sulla regione temporale sinistra nei monolingui, una minore lateralizzazione nei bilingui per L1 e una netta riduzione di questa componente riflettente processi sintattici secondari per la seconda lingua dei bilingui. Questi dati mostrano l’esistenza di macroscopiche differenze nell’ampiezza e nella distribuzione dell’attività elettrica cerebrale in funzione della padronanza linguistica e del contesto di acquisizione socio/affettivo; al contrario, l’esposizione a una data lingua avrebbe un ruolo marginale. In conclusione, possiamo osservare come gli ERP siano un ottimo marker, soprattutto temporale, dei vari processi mentali sottostanti i meccanismi di comprensione linguistica e di lettura.
Bibliografia 1. Geschwind N (1965) Disconnexion syndromes in animals and man. I. Brain 88:237-294 2. Coltheart M, Rastle K, Perry C et al (2001) DRC: a dual route cascaded model of visual word recognition and reading aloud. Psychological Review 108:204-256 3. Marshall JC, Newcombe F (1973) Patterns of paralexia: a psycholinguistic approach. Journal of Psycholinguistic Research 2:175-199 4. Temple CM, Marshall JC (1983) A case study of developmental phonological dyslexia. British Journal of Psychology. 74:517-533 5. Proverbio AM, Zani A (eds) (2000) Psicofisiologia cognitiva. Carocci, Roma 6. Zani A, Proverbio AM (eds) (2003) Elettrofisiologia della mente: il cervello e le funzioni cognitive. Carocci, Roma 7. Salmelin R (2007) Clinical neurophysiology of language: the MEG approach. Clin Neurophysiol 118:237-54 8. Kutas M (1987) Event-related brain potentials (ERPs) elicited during rapid serial visual presentation of congruous and incongruous sentences. EEG Clin Neurophysiol Suppl 40:406-11 9. Kutas M, Hillyard SA (1980) Reading senseless sentences: brain potentials reflect semantic incongruity. Science 11 207:203-5 10. Cohen L, Dehaene S (2004) Specialization within the ventral stream: the case for the visual word form area. Neuroimage 22:466-76 11. Kronbichler M, Hutzler F, Wimmer H et al (2004) The visual word form area and the frequency with which words are encountered: evidence from a parametric fMRI study. Neuroimage 21:946-53 12. McCandliss BD, Cohen L, Dehaene S (2003) The visual word form area: expertise for reading in the fusiform gyrus. Trends Cogn Sci 7:293-9 13. Price CJ, Devlin JT (2004) The pro and cons of labelling a left occipitotemporal region: “the visual word form area”. Neuroimage 22:477-9 14. Cohen L, Dehaene S, Naccache L et al (2000) The visual word form area. Spatial and temporal characterization of an initial stage of reading in normal subjects and posterior splitbrain patients. Brain 123:291-307. 15. Kuriki S, Takeuchi F, Hirata Y (1998) Neural processing of words in the human extrastriate visual cortex. Cogn Brain Res 6:193-203 16. Nobre AC, Allison T, McCarthy G (1994) Word recognition in the human inferior temporal lobe. Nature 372:260-3 17. Petersen SE, Fox PT, Posner M, et al (1988) Positron emission tomographic studies of the cortical anatomy of single-word processing. Nature 331:585-9
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio
117
18. Walla P, Endl W, Lindinger G et al (1999) Early occipito-parietal activity in a word recognition task: an EEG and MEG study. Clin Neurophysiol 10:1378-87 19. Mechelli A, Gorno-Tempini ML, Price CJ (2003) Neuroimaging studies of word and pseudoword reading: consistencies, inconsistencies and limitations. J Cogn Neurosci 15:260-271 20. Bentin S, Mouchetant-Rostaing Y, Giard MH et al (1999) ERP manifestations of processing printed words at different psycholinguistic levels: time course and scalp distribution. J Cogn Neurosci 11:35-60 21. Helenius P, Tarkiainen A, Cornelissen P et al (1999) Dissociation of normal feature analysis and deficient processing of letter-strings in dyslexic adults. Cereb Cortex 9:476-83 22. Tarkiainen A, Helenius P, Hansen PC et al (1999) Dynamics of letter string perception in the human occipitotemporal cortex. Brain 122:2119-32 23. Proverbio AM, Čok B, Zani A (2002) ERP measures of language processing in bilinguals. J Cogn Neurosci 14:994-1017 24. Proverbio AM, Vecchi L, Zani A (2004) From orthography to phonetics: ERP measures of grapheme-to-phoneme conversion mechanisms in reading. J Cogn Neurosci 16:301-17 25. Salmelin R, Helenius P, Service E (2000) Neurophysiology of fluent and impaired reading: a magnetoencephalographic approach. J Clin Neurophysiol 17:163-74 26. Shaywitz BA, Shaywitz SE, Pugh KR et al (2002) Disruption of posterior brain systems for reading in children with developmental dyslexia. Biol Psychiatry 52:101-10 27. Proverbio AM, Wiedemann F, Adorni R et al (2007) Dissociating object familiarity from linguistic properties in mirror word reading, Brain and behavioral functions, Aug 20; 3:43 28. Fiebach CJ, Friederici AD, Muller K et al (2002) fMRI evidence for dual routes to the mental lexicon in visual word recognition. J Cogn Neurosci 14:11-23 29. Rodriguez-Fornells A, Schmitt BM, Kutas M et al (2002) Electrophysiological estimates of the time course of semantic and phonological encoding during listening and naming. Neuropsychologia 40:778-87 30. Simos PG, Breier JI, Fletcher JM et al (2002) Brain mechanisms for reading words and pseudowords: an integrated approach. Cereb Cortex 12:297-305 31. Grossi G, Coch D, Coffey-Corina S et al (2001) Phonological processing in visual rhyming: a developmental ERP study. J Cogn Neurosci 13:610-25 32. Rugg MD, Barrett SE (1987) Event-related potentials and the interaction between orthographic and phonological information in a rhyme-judgment task. Brain Lang 32:336-61 33. Binder JR, Frost JA, Hammeke TA et al (2000) Human temporal lobe activation by speech and nonspeech sounds. Cereb Cortex 10:512-28 34. Proverbio AM, Zani A (2003) Time course of brain activation during graphemic/phonologic processing in reading: an ERP study. Brain Lang 87:412-20 35. Proverbio AM, Zani A (2005) Developmental changes in the linguistic brain after puberty. Trends Cogn Sci 9:164-7 36. Booth JR, Burman DD, Meter JR et al (2004) Development of brain mechanisms for processing orthographic and phonologic representations. J Cogn Neurosci 16:1234-1249 37. Mody M, Studdert-Kennedy M, Brady S (1997) Speech perception deficits in poor readers: auditory processing or phonological coding? J Exp Child Psychol 64:199-231 38. Nittrouer S (1999) Do temporal processing deficits cause phonological processing problems? J Speech Lang Hear Res 42:925-42 39. Serniclaes W, Sprenger-Charolles L, Carre R et al (2001) Perceptual discrimination of speech sounds in developmental dyslexia. J Speech Lang Hear Res 44:384-99 40. Näätänen R, Brattico E, Tervaniemi M (2003) Mismatch negativity (MMN): a probe to auditory cognition and perception in basic and clinical research. In Zani A, Proverbio AM (eds) The Cognitive Electrophysiology of Mind and Brain, San Diego, Academic Press, pp. 343-355 41. Kujala T, Naatanen R (2001) The mismatch negativity in evaluating central auditory dysfunction in dyslexia. Neurosci Biobehav Rev 25:535-43 42. Leppanen PH, Pihko E, Eklund KM et al (1999) Cortical responses of infants with and without a genetic risk for dyslexia: II. Group effects. Neurorep 10:969-73
118
A. Mado Proverbio
43. King JW, Kutas M (1998) Neural plasticity in the dynamics of human visual word recognition. Neuroscience Letters 244:61-4 44. Schendan HE, Ganis G, Kutas M (1998) Neurophysiological evidence for visual perceptual categorization of words and faces within 150 ms. Psychophysiol 35:240-51 45. Assadollahi R, Pulvermüller F (2003) Early influences of word length and frequency: a group study using MEG. Neuroreport 14:1183-1187 46. Pulvermüller F, Assadollahi R, Elbert T (2001) Neuromagnetic evidence for early semantic access in word recognition. Europ J Neurosci 13 (1):201-205 47. Johnson R Jr (1986) A triarchic model of P300 amplitude. Psychophysiology 23(4):367-84 48. Donchin E (1987) The P300 as a metric for mental workload. EEG Clin Neurophysiol Suppl 39:338-43 49. Van Berkum JJA, Hagoort P, Brown CM (1999) Semantic integration in sentences and discourse: evidence from the N400, J Cogn Neurosci 11:657-671 50. Hagoort P, Hald L, Bastiaansen M et al (2004) Integration of word meaning and world knowledge in language comprehension. Science 304:438-41 51. ChomskY N (1965) Aspects of the Theory of Syntax. MIT Press, Cambridge MA 52. Friederici AD (2002) Towards a neural basis of auditory sentence processing. Trends Cognit. Sci 6:78-84 53. Friederici AD (1995) The time course of syntactic activation during language processing: a model based on neuropsychological and neurophysiological data. Brain Lang 50:259-281 54. Münte TF, Heinze HJ, Mangun GR (1993) Dissociation of brain activity related to syntactic and semantic aspects of language. J Cogn Neurosci 5:335-344 55. Osterhout L, Holcomb PJ (1992) Event-related brain potentials elicited by syntactic anomaly. J Memory Lang 31:785-806 56. Hagoort P (2003) How the brain solves the binding problem for language: a neurocomputational model of syntactic processing. NeuroImage 20(1):18-29 57. Federmeier KD, Kluender R, Kutas M (2002) Aligning linguistic and brain views on language comprehension, In: Zani A, Proverbio AM (eds) The cognitive electrophysiology of mind and brain. San Diego, Academic Press pp. 115-140 58. Hernandez A, Li P, MacWhinney B (2005) The emergence of competing modules in bilingualism. Trends Cogn Sci 9:220-5 59. Proverbio AM, Adorni R, Zani A (2007) The organization of multiple languages in polyglots: Interference or independence? J Neuroling 20:25-49 60. Illes J, Francis WS, Desmond JE et al (1999) Convergent cortical representation of semantic processing in bilinguals. Brain Lang 70:347-63 61. Paradis M (1996) Selective deficit in one language is not a demonstration of different anatomical representation. Comments on Gomez-Tortosa et al (1995). Brain Lang 54:170-173 62. Perani D, Abutalebi J (2005) The neural basis of first and second language processing. Current Opin Neurobiol 15:202-6 63. Roux FE, Lubrano V, Lauwers-Cances V et al (2004) Intra-operative mapping of cortical areas involved in reading in mono- and bilingual patients. Brain 127:1796-810 64. Dehaene S, Dupoux E, Mehler J et al (1997) Anatomical variability in the cortical representation of first and second language. Neuroreport 8:3809-15 65. Lucas TH, McKhann GM, Ojemann GA (2004) Functional separation of languages in the bilingual brain: a comparison of electrical stimulation language mapping in 25 bilingual patients and 117 monolingual control patients. J Neurosurg 101:449-57 66. Fabbro F, Gran L, Basso G, Bava A (1990) Cerebral lateralization in simultaneous interpretation. Brain Lang 39:69-89 67. Bates E, MacWhinney B (1989) Functionalism and the competition model. In: The Crosslinguistic Study of Sentence Processing, MacWhinney B E Bates E (eds), pp. 3-73, Cambridge University Press 68. Proverbio AM, Adorni R, Del Zotto M et al (2005) The effect of age of acquisition and proficiency on language-related brain activation in interpreters: an ERP study. Psychophysiol 42(S1):S7
Parte II
Aspetti pragmatici della comunicazione. Indici psicofisiologici, neuropsicologici e cognitivi
Capitolo 4
Comprensione di espressioni idiomatiche: evidenze neuropsicologiche Costanza Papagno
4.1 Introduzione Le espressioni idiomatiche, una tra le forme più comuni di linguaggio figurato [1], sono espressioni convenzionali, in cui cioè il significato non può essere dedotto in base alla conoscenza che si ha del significato delle singole parole che le compongono. La convenzionalità dà un’idea di quanto sia forte l’associazione fra un’espressione e il suo significato all’interno di una certa cultura e di quanto un’espressione possa essere compresa al di là del contributo del significato letterale delle singole parole e in assenza di informazioni contestuali [2]. Le espressioni idiomatiche non sono una classe omogenea, ma differiscono fra loro per un numero rilevante di caratteristiche semantiche e sintattiche [2, 3]. In primo luogo, variano relativamente alla trasparenza semantica: con questo termine ci si riferisce alla facilità con cui il significato idiomatico può essere ricavato sulla base dell’immagine evocata. Ad esempio, un’espressione come “prendere il toro per le corna” evoca una situazione potenzialmente difficile, che viene affrontata direttamente, con coraggio: alla base di questa espressione si trova una metafora e l’espressione è definita trasparente. Al contrario, “farsene un baffo”, che non evoca alcuna immagine che permetta di risalire al significato figurato, è definita opaca. Le espressioni opache hanno anch’esse alla base una motivazione, che può essere storica o culturale e che in molti casi è andata perduta, ma che, a ogni modo, non può essere direttamente percepita dai parlanti [4]. Un’altra dimensione delle espressioni idiomatiche è costituita dalla loro decomponibilità: con questo termine si indica il fatto che in alcune espressioni il significato è distribuito tra le parti che lo compongono [5]: per esempio in “vuotare il sacco”, il termine vuotare rimanda direttamente all’azione di tirare fuori, cioè svelare, mentre il termine sacco a un contenitore; in altri casi, invece, il significato dell’espressione non può essere distribuito fra i suoi componenti, come accade, ad esempio, in “tirare le cuoia”. In questo caso è l’espressione nel suo insieme a determinarne il significato. Il grado di “congelamento sintattico” indica, invece, il livello di trasformazioni sintattiche che le espressioni idiomatiche possono subire, continuando a conservare il significato figurato [6]. Ad esempio, mentre “tenere banco” non può subire trasformazioni, “abbandonare la nave che affonda” è passibile di modificazioni (ad esempio, di numero “abbandonare le navi che affondano”, o tramite la passiM. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008
122
C. Papagno
vizzazione “è stata abbandonata la nave che affonda”), nonostante le quali mantiene il suo significato. Infine, molte espressioni, dette ambigue, possono avere anche un significato letterale, determinato dalle normali regole semantiche e morfosintattiche del linguaggio (ad esempio, “vedere le stelle”), mentre altre sono prive di significato letterale plausibile (ad esempio, “far venire il latte alle ginocchia”) e sono dette non ambigue [7, 8]. Negli ultimi dieci anni si è sviluppato un crescente interesse per lo studio del linguaggio figurato nei pazienti cerebrolesi [9-13]. Nella maggior parte dei casi si tratta di studi di gruppo, in cui si è valutata la comprensione e, più precisamente, la lateralizzazione emisferica dei processi di comprensione. Tuttavia, un errore comune è stato quello di considerare come equivalenti le diverse forme di linguaggio figurato, in particolare metafore ed espressioni idiomatiche: non è infrequente trovare lavori che, riportando esempi del materiale utilizzato, indicano espressioni idiomatiche come esempi di metafore e viceversa. Inoltre, nel caso delle espressioni idiomatiche, non si è molto spesso tenuto conto dei parametri linguistici elencati in precedenza. La comprensione di espressioni idiomatiche è stata esaminata in popolazioni diverse di pazienti, quali pazienti con lesioni focali, pazienti con probabile malattia di Alzheimer e pazienti schizofrenici. Di recente si sono utilizzate anche tecniche elettrofisiologiche, come la stimolazione magnetica transcranica ripetitiva (rTMS) e i potenziali evocati evento-correlati (ERP), nonché tecniche di neuroimmagine, come la risonanza magnetica funzionale (fMRI). Non verranno trattati, in questo capitolo, gli aspetti relativi alla produzione, in quanto non esistono, fino a ora, studi specifici sulla produzione di espressioni idiomatiche in pazienti con lesioni cerebrali. In generale i pazienti afasici producono in modo automatico locuzioni familiari, espresse con normale prosodia e normalmente articolate e tra queste sono incluse anche espressioni idiomatiche. Tale fenomeno è tradizionalmente attribuito alle capacità verbali dell’emisfero destro.
4.2 Comprensione idiomatica in pazienti con lesione focale La comprensione di espressioni idiomatiche nei pazienti con lesione focale è stata esaminata utilizzando paradigmi diversi; nella maggioranza dei casi si tratta di paradigmi offline. Il più diffuso, perché facilmente somministrabile anche a individui afasici, è quello di associazione frase/figura. Al paziente viene presentata una frase, oralmente o visivamente, e il compito è quello di scegliere la figura che corrisponde al significato figurato, fra due, tre o quattro alternative. Questa modalità ha il limite che non esiste una rappresentazione univoca di un’espressione figurata. Più raramente si sono utilizzati compiti di decisione lessicale, o si sono misurati i tempi di reazione, oppure, infine, si è testata la lettura di frasi. Nella decisione lessicale i pazienti ascoltano o leggono frasi priming e poi compiono una decisione lessicale relativamente a stimoli bersaglio (parole e non parole): le frasi priming possono essere idiomatiche e letterali e le parole bersaglio possono essere relate al significato idiomatico o a quello letterale. Nella misura dei tempi di reazione i pazienti ascoltano una frase che contiene una parola bersaglio specificata e il com-
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche
123
pito è quello di schiacciare un pulsante appena questa viene individuata; le frasi sono in genere di tre tipi: idiomatiche, letterali (la stessa frase, ma in un contesto che suggerisce una delle due possibili interpretazioni) e di controllo. Più raramente si è chiesto ai pazienti di fornire spiegazioni orali delle espressioni idiomatiche o di associare una parola, scelta fra quattro alternative, a una frase. Negli studi più recenti, le espressioni sono state selezionate accuratamente, in base a familiarità, trasparenza, ambiguità, mentre nei primi lavori non si era tenuto conto di ciò.
4.2.1 Ipotesi emisferica destra I primi studi neuropsicologici sulla comprensione delle espressioni idiomatiche hanno attribuito un ruolo determinante all’emisfero destro (per una revisione si veda [14]), ma sono spesso partiti da un equivoco nell’interpretazione dei primi risultati sul linguaggio figurato [15]. Winner e Gardner, infatti, avevano osservato che pazienti afasici erano in grado di svolgere correttamente un compito in cui dovevano associare espressioni metaforiche alla figura corrispondente, mentre i cerebrolesi destri sceglievano l’immagine che rappresentava l’interpretazione letterale. Tuttavia, quando si chiedeva agli stessi soggetti di spiegare il significato di tali frasi, i pazienti con lesione focale destra fornivano la definizione corrispondente all’interpretazione figurata, mentre cinque cerebrolesi sinistri (gli unici in grado di essere testati nella modalità orale) davano una spiegazione letterale, pur avendo scelto la figura che rappresentava il significato metaforico. L’errore nel riferire i risultati di questo lavoro è duplice: in primo luogo, lo studio viene citato come prova a favore dell’ipotesi emisferica destra per le espressioni idiomatiche, mentre invece sono state utilizzate metafore e, in secondo luogo, l’unico elemento certo è che i pazienti cerebrolesi destri hanno una prestazione scadente in un compito di associazione frase/figura, ma sembrano in grado di cogliere il significato figurato, come dimostrato dalle definizioni orali prodotte. Del resto una maggiore difficoltà con materiale pittorico è stata costantemente riportata negli studi successivi. I primi a utilizzare effettivamente espressioni idiomatiche sono stati Van Lancker e collaboratori [16, 17], che riferiscono la presenza di una doppia dissociazione fra comprensione di espressioni idiomatiche e comprensione di frasi letterali in pazienti cerebrolesi destri e sinistri: mentre i primi ottenevano una prestazione normale con le frasi letterali e una prestazione patologica con le espressioni idiomatiche, i pazienti afasici mostravano un comportamento opposto. Tuttavia questi lavori non sono esenti da critiche. Innanzitutto, anche se le frasi letterali e non letterali sono comparabili per struttura, gli stimoli, in numero limitato, non sono stati selezionati sulla base delle caratteristiche linguistiche intrinseche (trasparenza/opacità, decomponibilità ecc.), e soprattutto lo stesso test comprende, oltre alle espressioni idiomatiche, proverbi e frasi di cortesia, considerati insieme come “linguaggio familiare” [16, 17]. In secondo luogo, non sono riportate informazioni sulla gravità dell’afasia, sulla sede e sulle dimensioni della lesione, né sull’intervallo trascorso dall’esordio; inoltre, non sono esaminate altre funzioni cognitive, quali l’attenzione, la percezione, la cognizione spaziale, che potrebbero aver peggiorato la prestazione dei cerebrolesi destri,
124
C. Papagno
considerando la modalità di esame (prova di associazione figura/frase): infatti, abilità visuopercettive e visuospaziali deficitarie, che forse non compromettono l’esecuzione del compito con le frasi letterali di cui è possibile una sola rappresentazione potrebbero non essere sufficienti per esaminare una figura che corrisponde a un significato astratto, per il quale vi sono più rappresentazioni plausibili o comunque possibili. Quando deficit cognitivi o sensoriali associati a un deficit emisferico destro provocano un’elaborazione subottimale degli elementi cruciali dell’immagine o esauriscono le risorse disponibili per un’analisi ulteriore, i soggetti potrebbero scegliere l’opzione più semplice che corrisponde al significato concreto dell’immagine stessa. Questa possibilità è confermata dalla presenza nei pazienti eminattenti di una correlazione fra l’accuratezza nel compito di comprensione di frasi, testato con modalità di associazione frase/figura, e la prestazione in prove che valutano l’eminattenzione, quali la cancellazione di stelle e la bisezione di linee [18]. Tornando allo studio di Van Lancker e Kempler del 1987, la prestazione dei pazienti afasici è considerata normale, ma in realtà il punteggio medio di risposte corrette risulta essere 72% per le espressioni idiomatiche, rispetto a un valore di 97,3% ottenuto dai controlli. Gli stessi afasici presentavano un deficit molto lieve (90% di risposte corrette) in una prova di comprensione di singole parole. A Van Lancker e Kempler si deve, comunque, la creazione del primo test standardizzato in lingua inglese, anche se non tarato, il Familiar and Novel Language Comprehension Test (FANL-C). Questo test valuta la capacità dei soggetti di associare frasi letterali e non letterali a figure. Comprende 44 frasi, di cui 2 esempi e 20 prove per tipo di frase. I soggetti ascoltano la frase pronunciata dall’esaminatore e devono indicare uno fra 4 disegni alternativi. Le alternative sono rappresentate, oltre che dalla figura corretta, da due distrattori, ciascuno dei quali include la rappresentazione di una parola contenuta nell’espressione, e da un terzo distrattore che rappresenta l’opposto del significato figurato. Non è, invece, presente, al contrario della versione precedente usata dagli stessi autori, una figura corrispondente al significato letterale, eliminata perché la scelta di tale figura sarebbe tecnicamente corretta. L’esaminatore annota la risposta su un foglio predisposto e registra il tempo impiegato per portare a termine ciascun subtest. La prestazione è valutata come numero totale di risposte corrette e tempo totale impiegato per ciascun subtest. Esistono valori medi e relative deviazioni standard ottenute su un campione di 335 soggetti, neurologicamente indenni, di età compresa fra i 3 e gli 80 anni, che però non tengono conto della scolarità. Oltre a non essere disponibile una taratura, gli stimoli per le frasi familiari comprendono espressioni idiomatiche, ma anche espressioni familiari in generale (ad esempio, uno stimolo è rappresentato dall’espressione inglese “I’ll get back to you later”), e quindi la sua utilità è molto discutibile, se non per una valutazione clinica di base. Il problema relativo al ruolo che la modalità di esame può avere sul risultato è stato sollevato da Tompkins e colleghi [19]. Infatti, a ragione, essi sostengono che dare una definizione di una frase idiomatica o scegliere una figura non rappresenta altro che il prodotto finale di un lavoro mentale complesso, cosicché l’origine degli errori in questi compiti non è del tutto chiara. In altre parole, i compiti offline sono distanti nel tempo (e parallelamente in termini di operazioni cognitive) dal richiamo o dall’elaborazione iniziale del significato. Al contrario, i compiti online richiedono una risposta
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche
125
durante, e non dopo, il processo di comprensione. Per verificare questa possibile differenza nel risultato dovuta al tipo di compito (offline o online), Tompkins e colleghi hanno sottoposto venti pazienti cerebrolesi destri (40% con sintomi di eminattenzione), venti cerebrolesi sinistri (di cui il 65% afasico) e venti soggetti neurologicamente indenni a due compiti di comprensione di espressioni idiomatiche. Il compito online consisteva nel misurare i tempi di reazione dei partecipanti quando dovevano identificare parole bersaglio di frasi idiomatiche familiari ambigue (ad esempio, “tagliare la corda”) che erano inserite all’interno di due diversi contesti: uno spingeva verso l’interpretazione figurata abituale della frase, mentre l’altro facilitava l’interpretazione in senso letterale. In una terza condizione, la stessa parola bersaglio doveva essere identificata all’interno di contesti di controllo, cioè in frasi non idiomatiche (ad esempio, “stringere la corda”), strutturalmente simili ai contesti idiomatico e letterale. I risultati in questo compito non hanno evidenziato differenze fra pazienti cerebrolesi e soggetti neurologicamente indenni: in particolare, tutti i partecipanti rispondevano più velocemente alle parole bersaglio nel contesto idiomatico e letterale senza differenza fra i due. Nel compito offline, invece, in cui i partecipanti dovevano dare una definizione dell’espressione idiomatica, i due gruppi di pazienti sono risultati ugualmente compromessi rispetto ai controlli. Sembra, pertanto, che pazienti con lesione cerebrale focale siano in grado di attivare e richiamare frasi idiomatiche e che i deficit di interpretazione riflettano verosimilmente una compromissione in qualche stadio tardivo del processo. Tuttavia, solo il 65% dei cerebrolesi sinistri di questo studio era afasico, e le deviazioni standard dei tempi di reazione al compito online suggeriscono un’estrema variabilità di prestazione all’interno del gruppo. Non è esclusa quindi la possibilità che i pazienti afasici fossero selettivamente compromessi, se esaminati come gruppo a parte. Inoltre, anche in questo studio, non vengono specificate né la sede esatta della lesione, né la dimensione, ad eccezione del lato e di una grossolana distinzione fra anteriori, posteriori, miste e prevalentemente sottocorticali.
4.2.2 Comprensione delle espressioni idiomatiche nei pazienti afasici Se in un primo tempo si è attribuito all’emisfero destro il compito di elaborare il linguaggio figurato in generale, studi più recenti hanno rivalutato il contributo essenziale dell’emisfero sinistro e in particolare del lobo temporale. Infatti, utilizzando una prova di associazione frase/figura con tre alternative (figura bersaglio che rappresenta il significato figurato, due distrattori di cui uno rappresenta il significato letterale e l’altro è una figura non correlata), i pazienti afasici risultano gravemente compromessi nella comprensione di espressioni idiomatiche altamente familiari, opache, non ambigue (in cui, cioè, il significato letterale non è plausibile), indipendentemente dal tipo di afasia. Quando, malgrado i deficit di produzione, è possibile utilizzare una prova di definizione delle stesse espressioni, la prestazione migliora, ma rimane significativamente inferiore rispetto a quella dei controlli. È evidente che la modalità di associazione frase/figura sottostima la capacità del paziente di comprendere le espressioni idiomatiche. Un’analisi delle risposte date da pazienti afasici con distur-
126
C. Papagno
bi semantici ha mostrato che queste erano guidate dalle informazioni sintattiche: una frase sintatticamente inappropriata spingeva a rifiutare l’interpretazione letterale e a cercare l’alternativa figurata; il numero di risposte corrette era, infatti, significativamente superiore per questo tipo di frase. Gli afasici, quindi, per eseguire il compito, si servono delle componenti linguistiche preservate: i pazienti con deficit semanticolessicali [12], ma competenza sintattica relativamente intatta, sfruttano quest’ultima e, se una frase risulta inappropriata dal punto di vista sintattico (ad esempio, “tenere banco”), la interpretano più facilmente in modo figurato. Al contrario, per le frasi sintatticamente ben formate (come “far cadere le braccia”) viene fornita l’interpretazione letterale, anche se implausibile, dato che il paziente con deficit semantici non riconosce la non plausibilità. Nei pazienti con disturbi sintattici e semantica indenne [11], invece, la prestazione correla inversamente con la plausibilità dell’interpretazione letterale: quanto meno questa è plausibile, tanto più facilmente il paziente produrrà una risposta corretta. La prestazione dei pazienti afasici risulta deficitaria non soltanto rispetto a soggetti neurologicamente indenni della stessa età e scolarità, ma anche rispetto a pazienti cerebrolesi destri [18]. Questi dati sembrano indicare che i parlanti utilizzano sia le competenze semantico-lessicali sia le componenti morfosintattiche per comprendere le espressioni idiomatiche e quindi l’elaborazione di queste segue lo stesso processo utilizzato per l’elaborazione delle frasi letterali; ciò confuta l’ipotesi lessicale [20], che considera le espressioni idiomatiche come parole lunghe, complesse, e pertanto non passibili di analisi sintattica. Come già detto, le espressioni idiomatiche non costituiscono un gruppo omogeneo. Negli studi descritti finora con pazienti afasici sono state utilizzate frasi idiomatiche opache non ambigue. È possibile che altri tipi di espressioni vadano incontro a un’elaborazione diversa. Informazioni sono disponibili anche per le espressioni ambigue, in cui, cioè, il significato letterale è plausibile [21]. In questo caso è stata più spesso utilizzata una diversa modalità di esame, l’associazione frase/parola: si sono presentate frasi sintatticamente semplici e quattro parole alternative tra le quali il paziente doveva scegliere quella che esprimeva il significato della frase stessa; le alternative consistevano in una parola associata al significato figurato della frase e tre distrattori, questi ultimi rappresentati da una parola semanticamente associata con l’ultima parola della frase e due parole non correlate, una che avrebbe potuto seguire il verbo nel sintagma verbale, l’altra che era una parola astratta o concreta, a seconda che la parola bersaglio fosse rispettivamente o astratta o concreta. Ad esempio, per l’espressione “alzare il gomito” le alternative erano vino (corretta), gamba (associata semanticamente), albero (distrattore concreto della stessa frequenza del bersaglio), cassa (parola che può seguire il verbo e ha la stessa frequenza delle altre alternative). Il razionale era il seguente: la scelta della parola bersaglio riflette la conoscenza e l’accessibilità del significato idiomatico, la scelta semanticamente associata indicherebbe un tentativo di interpretare letteralmente la frase quando il paziente non conosce il significato idiomatico o è incapace di accedere a esso; le altre due scelte indicherebbero una prestazione alterata sia dell’elaborazione figurata sia letterale. Anche con questo tipo di espressione i pazienti afasici commettevano un numero significativo di errori, soprattutto di tipo semantico. Tale risultato può avere una duplice interpretazione: la prima possibilità è che non venga riconosciuta la natura idiomatica della frase, o alternativamente, che non venga inibito (o sia attivato più rapidamente)
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche
127
il significato della parola associata semanticamente all’ultima parola della frase. Se così fosse, allora il richiamo del significato figurato verrebbe bloccato da una sorta di circuito a causa del quale il paziente non riesce a liberarsi del significato letterale della frase. Potrebbe anche essere, semplicemente, che questi errori riflettano una mancata elaborazione globale della frase, anche se tutti i risultati precedentemente descritti fanno pensare che i pazienti vadano oltre l’analisi di una singola parola. In generale, comunque, sia che si adotti un paradigma con figure sia uno con parole, i pazienti mostrano una tendenza a fornire la risposta letterale, anche quando questa è implausibile. Una possibile spiegazione è che, dal momento che le risorse verbali sono compromesse, l’esecutivo centrale è coinvolto in misura maggiore nel compito, con il risultato che le risorse attentive vengono esaurite e quindi non sono disponibili per l’inibizione/soppressione del significato alternativo (letterale) attivato, anche se meno saliente rispetto a quello figurato. I compiti utilizzati sono compiti offline e, quindi, come già ricordato, non abbiamo la certezza di cosa esattamente misurino. È quindi necessario ottenere risultati convergenti, con diverse metodologie e compiti: non è un singolo esperimento a essere definitivo, ma un insieme di dati sufficientemente ricco e coerente a dare maggior forza a un’ipotesi, permettendo di escluderne altre. Mettendo a confronto la prestazione di 15 pazienti afasici in tre compiti di comprensione di espressioni idiomatiche non ambigue (definizione orale, associazione frase/figura, associazione frase/parola), si è osservata una grande variabilità fra soggetti: alcuni pazienti risultano gravemente compromessi e altri invece mostrano una prestazione sovrapponibile a quella dei soggetti di controllo [22]. La prestazione in generale non è necessariamente correlata alla gravità del deficit di linguaggio, tranne nel caso della spiegazione orale, che, come intuibile, i pazienti non fluenti non riescono a produrre. Molti fattori, non solo linguistici, sembrano giocare un ruolo. Il tipo di compito ha un effetto rilevante sulla prestazione dei pazienti, ma non su quella dei soggetti di controllo: nel caso dei pazienti afasici, la presenza di una figura corrispondente al significato letterale di espressioni non ambigue, anche se bizzarra, esercita un forte effetto di interferenza, simile all’effetto Stroop. I pazienti non sono in grado di inibire la risposta letterale quando se ne mostra esplicitamente la rappresentazione pittorica; ciò suggerisce che l’interpretazione letterale rimane in qualche modo attiva mentre la frase viene elaborata, anche quando la plausibilità è molto bassa. Se fra le alternative è presente una figura che contiene semplicemente una parola dell’espressione idiomatica (per esempio nel caso di “far cadere le braccia”, una figura descritta da una frase che include la parola braccio, come un bambino con un braccio rotto), questa viene scelta molto raramente (Fig. 4.1). Ciò suggerisce che tutta la frase viene sottoposta a un tentativo di elaborazione e che la scelta non è condizionata da un effetto lessicale, cioè dalla presenza di una singola parola. Nel compito di accoppiamento frase/parola, in cui non vi è un’alternativa letterale ma solo un distrattore semantico (per l’espressione precedente dito), si riduce l’interferenza dell’interpretazione letterale, ma permangono errori di tipo non correlato, che dimostrano un mancato riconoscimento del significato dell’espressione. Quindi, evidentemente, il significato figurato è perso e, quando è presente l’alternativa letterale, quest’ultima viene individuata come possibile interpretazione, altrimenti si commette un errore non correlato, che preserva la classe semantica (astratto/concreto). Questa è
128
C. Papagno
Fig. 4.1 Esempio di alternative per l’espressione non ambigua far cadere le braccia. 1. alternativa figurata; 2. alternativa letterale; 3. alternativa non correlata; 4. alternativa singola parola
una dimostrazione ulteriore che il paziente esegue un tentativo di analisi di tutta la frase e non si limita a elaborare una singola parola. Infine, i pazienti con il paradigma di associazione frase/parola producono un diverso pattern di errori a seconda che le espressioni siano non ambigue o ambigue: con questo secondo tipo di espressioni, infatti, gli errori sono soprattutto risposte associate semanticamente; inoltre, vi sono pazienti gravemente compromessi con un tipo di espressioni e non con l’altro e viceversa, a prova che esiste una doppia dissociazione. È, quindi, probabile che l’elaborazione differisca, forse in relazione alla maggiore o minore salienza del significato letterale. I pazienti afasici mostrano in maniera inaspettata una prestazione migliore con le espressioni ambigue, come se il significato letterale plausibile “aiutasse” l’attivazione di quello figurato: questo risultato inatteso merita, tuttavia, ulteriori indagini. Un paradigma diverso, che ha dimostrato come le espressioni idiomatiche non siano tutte elaborate allo stesso modo e in particolare in maniera olistica, come se fossero parole lunghe, è stato utilizzato nel caso di un dislessico profondo, al quale sono state fatte leggere espressioni idiomatiche costituite da un verbo e da un complemento (sintagma verbale) o, alternativamente, da aggettivo e nome o da nome + nome flesso (sintagma nominale) [10]: le espressioni idiomatiche che erano sintagmi verbali venivano elaborate come le frasi letterali di controllo e comportavano errori morfologici nel verbo, mentre i sintagmi nominali erano letti meglio, ma con errori a livello dei nomi flessi. Accanto a numerose evidenze di pazienti afasici compromessi nell’elaborazione di espressioni idiomatiche, vanno, tuttavia, ricordati anche pazienti che mostrano una prestazione normale in compiti che utilizzano queste forme di linguaggio [23], come nel caso di due pazienti descrittti in letteratura, uno con afasia di Wernicke e
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche
129
uno con afasia globale, sottoposti a una prova di decisione lessicale: questo risultato non contraddice, però, quanto riportato in precedenza, dal momento che gli stimoli utilizzati erano espressioni idiomatiche composte da due nomi con significato ambiguo. Abbiamo appena osservato come i sintagmi nominali si comportino diversamente dai sintagmi verbali, che sono la forma più spesso utilizzata negli studi citati con pazienti afasici. Dal punto di vista anatomico, i pazienti afasici con deficit nella comprensione di espressioni idiomatiche mostrano due sedi lesionali cruciali: una a livello corticale o sottocorticale, riscontrata soprattutto nel caso delle espressioni ambigue, e l’altra temporale cortico-sottocorticale. Quest’ultima è costantemente coinvolta nel caso della mancata comprensione di espressioni non ambigue. Tali risultati trovano conferma in molteplici esperimenti di rTMS con paradigmi sia offline [24] sia online. La stimolazione offline a livello dell’area 22 dell’emisfero di sinistra riduce significativamente l’accuratezza e aumenta i tempi di reazione, senza differenze significative tra frasi letterali e frasi idiomatiche. Se si studia la dinamica temporale della comprensione con un paradigma online, si osserva un’interferenza sull’accuratezza quando la stimolazione viene effettuata sull’area 22 di sinistra dopo 80 msec dalla presentazione dell’espressione e sull’area 9 di sinistra non solo dopo 80 msec, ma anche dopo 120 msec, a indicare che l’attivazione frontale persiste anche quando è cessata quella temporale [25].
4.2.3 Corteccia prefrontale Da quanto descritto finora appare chiaro che nell’elaborazione delle espressioni idiomatiche intervengono anche processi extralinguistici. Infatti, una compromissione è evidente non soltanto nei pazienti afasici, ma è stata descritta, per esempio, anche in una paziente con sindrome di Down [26], che presentava un deficit marcato delle funzioni esecutive, ma non del linguaggio proposizionale. Del resto, i pazienti con lesione unilaterale destra sono compromessi solo se la lesione è in sede prefrontale: i pazienti con lesione focale destra mostrano infatti una prestazione comparabile a quella dei soggetti neurologicamente indenni, a eccezione di un sottogruppo con lesione frontale, anche solo sottocorticale. Questi ultimi sono altrettanto compromessi quanto i pazienti afasici con lesione temporale. Esperimenti di rTMS e di attivazione confermano i risultati ottenuti con soggetti cerebrolesi. A parte il già citato studio cronometrico, la stimolazione dell’area 9 sia di destra sia di sinistra [27] riduce i tempi di reazione e incrementa il numero degli errori in un compito di comprensione di espressioni idiomatiche (paradigma frase/figura). Una risposta più rapida associata a una minore accuratezza suggerisce un rilascio dall’inibizione. Il riscontro di un intervento della corteccia (ma anche della sostanza bianca sottostante) prefrontale destra, oltre che sinistra, spiegherebbe perché i primi studi neuropsicologici abbiano attribuito all’emisfero destro l’elaborazione delle espressioni idiomatiche: dal momento che non è riportata la sede esatta della lesione, un certo numero di pazienti potrebbe aver presentato una lesione prefrontale. Un coinvolgimento prefrontale bilaterale è confermato anche da studi di attivazione che
130
C. Papagno
hanno impiegato paradigmi distinti, quali decidere se vi era congruenza fra un’immagine e una frase letterale o idiomatica [28] o se una parola avesse una relazione con la frase (idiomatica o letterale) letta precedentemente [29]. Nella comprensione di frasi letterali e non letterali risulta coinvolta una rete comune di attività corticale che include le aree del linguaggio tradizionali; tuttavia l’attivazione è maggiore sia in termini di estensione spaziale sia in termini di intensità per le forme idiomatiche. Inoltre, vi sono aree selettivamente attivate nel caso delle espressioni idiomatiche che comprendono, tra l’altro, il giro frontale superiore mediale sinistro e il giro frontale inferiore bilaterale, oltre al giro temporale medio bilaterale. Il ruolo delle strutture frontali potrebbe essere duplice: una volta che l’analisi linguistica della stringa di parole ha avuto luogo, la scelta della risposta corretta richiede un processo di selezione associato a un monitoraggio; selezione e monitoraggio sono verosimilmente compiti dell’esecutivo centrale, i cui correlati neurali sono localizzati a livello del lobo frontale. I pazienti con lesione frontale sono, infatti, quelli che producono il maggior numero di risposte letterali rispetto ai pazienti con lesione in sede non frontale. In secondo luogo, il ruolo della corteccia prefrontale nel controllo del linguaggio è dimostrato da diversi studi di attivazione, ad esempio, in compiti che coinvolgono l’elaborazione di frasi, in cui l’ascoltatore (o il lettore) deve mantenere l’informazione per un periodo prolungato. Più in generale, la corteccia prefrontale dorsolaterale si attiva maggiormente quando il compito richiede che l’elaborazione semantica includa un livello astratto; infine, essa permette la messa in atto di inferenze nella comprensione di un testo. Questi sono tutti compiti che hanno risorse e meccanismi comuni alla comprensione di espressioni idiomatiche.
4.2.4 Corpo calloso Da quanto esposto finora, appare chiaro che una netta dicotomia fra i due emisferi è da escludere e soprattutto che il linguaggio idiomatico segue la stessa procedura di elaborazione di quello letterale; a ciò si aggiunge la necessità di scegliere fra significati alternativi, attività che sembra essere sottesa dal giro frontale inferiore bilateralmente; infine un processo cognitivo di livello superiore, mediato dalla corteccia prefrontale anteriore, verosimilmente serve a monitorare e a integrare i risultati dell’analisi linguistica e della selezione fra significati in competizione. Dal momento che in questo articolato processo intervengono, come si è visto, entrambi gli emisferi, è ipotizzabile che anche il corpo calloso svolga un compito rilevante. Questo è quanto è stato studiato in bambini con spina bifida e ipoplasia e agenesia del corpo calloso [30] con un paradigma di accoppiamento frase/figura, che ha utilizzato espressioni controllate per ambiguità e decomponibilità: i bambini con questa anomalia sono risultati più lenti e meno accurati dei controlli della stessa età nell’accettare l’interpretazione figurata delle espressioni idiomatiche non decomponibili. Il corpo calloso potrebbe essere importante nel risolvere il conflitto fra i due significati, letterale e idiomatico, al termine del quale uno dei due viene respinto. Una prova a sostegno di quanto appena esposto sarebbe rappresentata dal fatto che la difficoltà dei soggetti con agenesia del corpo calloso è maggiore quando l’espressione ha un
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche
131
significato letterale molto forte: se il trasferimento dell’informazione fra i due emisferi è degradato o comunque più lento, l’informazione figurata potrebbe essere meno accessibile. Le difficoltà riguardano soprattutto le espressioni non decomponibili che richiederebbero una maggior integrazione interemisferica con l’informazione contestuale.
4.3 Comprensione di espressioni idiomatiche in pazienti affetti da malattia di Alzheimer L’inibizione/soppressione del significato letterale sembra, quindi, necessaria alla corretta interpretazione di espressioni idiomatiche. Questa funzione, come si è suggerito, è sottesa dalle strutture prefrontali bilaterali che comunicano grazie al corpo calloso. La corteccia prefrontale è una corteccia associativa; le cortecce associative vanno incontro ad atrofia nei processi degenerativi, sebbene nella malattia di Alzheimer (AD) l’interessamento frontale si verifica tardivamente. Il linguaggio dei pazienti con AD è frequentemente compromesso e i disturbi della comunicazione verbale sono descritti come precoci. Si tratta, soprattutto, di una compromissione dell’eloquio spontaneo con deficit semantici, mentre gli aspetti fonologici sono preservati; tuttavia, anche il linguaggio figurato è descritto come deficitario. Kempler, Van Lancker e Read [31] in uno studio su 29 pazienti AD con diversa gravità di deterioramento, valutato con il Mini Mental State Examination (MMSE), hanno evidenziato che questi pazienti, messi di fronte a frasi familiari da interpretare, scelgono la risposta concreta (ad esempio, la figura descritta da una frase in cui è presente l’elemento chiave dell’espressione idiomatica), il che suggerirebbe, secondo gli autori, che questi pazienti utilizzano significati referenziali lessicali (singole parole) per interpretare la frase. Tuttavia il MMSE dei pazienti esaminati variava fra 2 e 28, comprendendo, quindi, soggetti apparentemente non dementi (punteggio 28) per arrivare a pazienti in cui le prestazioni cognitive erano pressoché nulle (punteggio 2)! Inoltre, come già ricordato a proposito degli studi condotti da questi autori con i cerebrolesi focali, sono utilizzate frasi familiari di vario tipo e non esclusivamente espressioni idiomatiche. In uno studio più recente [32], condotto su un gruppo di 39 pazienti AD di grado lieve, con un punteggio al Milan Overall Dementia Assessment (MODA), compreso fra 62 e 80 (che corrisponde a un MMSE di 17-21), si è osservato che la compromissione del linguaggio figurato, testato con una prova di spiegazione orale di metafore e di espressioni idiomatiche di vario tipo (opache/trasparenti, ambigue/non ambigue), non è un sintomo precoce nella demenza. Un follow-up di 23 pazienti a 6-8 mesi non ha mostrato un significativo peggioramento del linguaggio figurato, soprattutto rispetto al linguaggio letterale, che invece andava incontro a un marcato declino (si consideravano rispettivamente la fluenza semantica e il test dei Gettoni come indici del livello di produzione e di comprensione), suggerendo che esisterebbe comunque una certa indipendenza fra le due forme di linguaggio. Infatti, undici pazienti presentavano una doppia dissociazione fra linguaggio proposizionale e figurato. Anche considerando solo le dissociazioni estreme, cioè quei
132
C. Papagno
casi in cui i punteggi equivalenti (che permettono di confrontare la prestazione ottenuta da un soggetto a un test e quella ottenuta ad altri test tarati allo stesso modo, al netto dell’influenza, potenzialmente diversa, che le variabili anagrafiche possono avere su ciascuno di essi) erano 0 in una prova e 3 o 4 nell’altra [33], restavano, comunque, otto pazienti con doppia dissociazione: sei di questi avevano una compromissione del solo linguaggio proposizionale e due il pattern opposto e cioè una compromissione nella comprensione di metafore ed espressioni idiomatiche. Quest’ultimo dato esclude la possibilità che il linguaggio letterale sia più semplice di quello figurato. Inoltre, vi sono due altri importanti risultati, che dimostrano come sia improprio utilizzare espressioni idiomatiche e metafore come se fossero aspetti identici del linguaggio figurato: da un lato, la presenza di un paziente con una dissociazione “forte” fra normale comprensione di metafore e patologica comprensione di espressioni idiomatiche, e, dall’altro, il diverso tipo di errore commesso, che nel caso delle espressioni idiomatiche è un’interpretazione letterale, mentre nel caso delle metafore consiste in un tentativo di fornire comunque un’interpretazione figurata, che però risulta solo parziale o del tutto errata. Dal punto di vista anatomico gli studi con i pazienti AD non forniscono elementi rilevanti, ma indirettamente confermano che la comprensione del linguaggio figurato dipende in parte dall’integrità della corteccia prefrontale, che, infatti, nella malattia è compromessa più tardivamente. Tuttavia, il deficit emerge precocemente se si utilizza il paradigma di associazione frase/figura, anziché la definizione orale e se si selezionano espressioni di un solo tipo, e precisamente non ambigue opache [34]. In uno studio condotto su quindici pazienti, il compito era di scegliere fra due figure, una che rappresentava il significato letterale (implausibile e rappresentato da un’immagine bizzarra) e l’altra che rappresentava il significato idiomatico di 40 espressioni non ambigue. Gli stessi pazienti sono stati sottoposti anche a una prova di comprensione di frasi letterali e a un “compito doppio” per valutare le funzioni esecutive. Mentre la comprensione letterale era normale in sette pazienti e solo lievemente compromessa negli altri, la comprensione di espressioni idiomatiche era molto scarsa in tutti i pazienti e significativamente inferiore a quella dei soggetti neurologicamente sani; inoltre, correlava con la prestazione al “compito doppio”. Quando la prova è stata ripetuta utilizzando come alternativa una figura che rappresentava una situazione non correlata, la prestazione migliorava significativamente. Questo conferma la necessità che l’interpretazione letterale sia inibita, processo che i pazienti AD non riescono a svolgere, pur non avendo perso la conoscenza del significato, come dimostrato dal fatto che scelgono il significato corretto in assenza dell’alternativa letterale. Se poi agli stessi pazienti si chiede di produrre una spiegazione orale delle frasi presentate, viene comunque prodotta qualche interpretazione letterale, se appena risulta relativamente accettabile nel mondo reale. La stessa compromissione si osserva nei pazienti AD utilizzando espressioni ambigue, in due modalità: associazione frase/figura (Fig. 4.2) e associazione frase/parola. Il compito è significativamente più compromesso nella prima modalità, ma la prestazione nella prova di associazione frase/parola correla con l’effetto di interferenza misurato con il test di Stroop, con il compito doppio, e non con prove di comprensione del linguaggio, come il test dei Gettoni e la comprensione di singole parole. Gli errori più frequentemente commessi sono quelli seman-
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche
133
Fig. 4.2 Esempio di alternative per l’espressione ambigua “alzare il gomito”. 1. alternativa in cui il verbo è seguito da una parola congruente; 2. alternativa in cui l’ultima parola della frase che descrive la figura è concreta come l’ultima parola della frase idiomatica; 3. alternativa “semantica”: l’ultima parola che descrive la figura appartiene alla stessa classe semantica dell’ultima parola della frase idiomatica; 4. alternativa figurata
tici: i pazienti AD scelgono la parola o la figura associata semanticamente all’ultima parola della frase idiomatica e vi sono alcune espressioni per le quali nessun paziente fornisce la risposta corretta (ad esempio, “cambiare pagina”). È da notare il fatto che mentre le due forme del test (associazione frase/figura e associazione parola/figura) correlano fra loro nei soggetti neurologicamente indenni, non succede altrettanto per le prestazioni dei pazienti.
4.4. Comprensione di espressioni idiomatiche nei pazienti schizofrenici I deficit neuropsicologici, presenti nell’85% dei pazienti schizofrenici, sono ormai considerati centrali della patologia. Numerosi autori hanno sostenuto la presenza di profili cognitivi diversi, indicanti alternativamente disfunzioni a carico del lobo frontale, del lobo temporale, degli interi emisferi destro o sinistro oppure dei gangli della base. L’ipotesi di un deficit dell’esecutivo centrale nei pazienti schizofrenici riscuote maggior consenso, per varie ragioni, tra cui il fatto che questi individui mostrano scarse prestazioni in compiti esecutivi, in cui è richiesta l’inibizione di informazioni irrilevanti, il monitoraggio di nuove informazioni provenienti dall’ambiente, la gestione di più compiti simultaneamente. Inoltre, studi di neuroimmagine funzionale riportano
134
C. Papagno
anomalie di attivazione a livello della corteccia prefrontale dorsolaterale (DLPFC), struttura cerebrale coinvolta nelle funzioni esecutive, e tra le aree che mostrano, in questi pazienti, una significativa riduzione della sostanza grigia in studi morfologici. Inoltre, gli schizofrenici hanno difficoltà ad adottare un’attitudine astratta; è quindi lecito pensare che la comprensione del linguaggio figurato in generale e delle espressioni idiomatiche in particolare possa essere compromesso in questa popolazione, dato il già citato ruolo della corteccia prefrontale. In tali pazienti risulta deficitaria l’interpretazione di espressioni ambigue. I pazienti schizofrenici sono in grado di utilizzare il contesto per facilitare l’attivazione di significati appropriati e apprezzano la relazione fra il contesto e le parole incontrate successivamente. Non sono, invece, in grado di inibire l’attivazione di materiale contestualmente inappropriato. Di conseguenza, in un compito di decisione lessicale in cui una parola relativa all’espressione idiomatica o al significato letterale era preceduta da un priming idiomatico o di controllo, l’effetto priming compariva soltanto per le espressioni idiomatiche prive di significato letterale plausibile, indicando pertanto che la mancanza di un’attitudine astratta non interessa globalmente tutti gli aspetti linguistici [35]. Risultati simili sono stati ottenuti utilizzando un compito analogo a quello impiegato per studiare la comprensione delle espressioni ambigue in pazienti afasici: si presentavano ai pazienti schizofrenici espressioni fuori contesto e quattro alternative fra cui scegliere il significato, rappresentate dal significato letterale, da quello figurato, dall’alternativa cosiddetta concreta (cioè una parola semanticamente correlata all’ultima parola della frase idiomatica) e da una alternativa non correlata [36]. Anche se la risposta scelta più frequentemente era quella figurata, i pazienti schizofrenici fornivano un maggior numero di risposte letterali e anche concrete, che invece erano assenti nel caso dei partecipanti senza deficit psichiatrici. La scelta dell’alternativa concreta suggerisce che i pazienti non necessariamente mostrano un’attitudine all’interpretazione concreta del significato globale, bensì sembra indicare che essi si focalizzino su un dettaglio prima di cercare di interpretare globalmente il significato.
4.5. Conclusioni In conclusione, i punti fondamentali emersi dallo studio delle espressioni idiomatiche in popolazioni di pazienti con patologie neurologiche o psichiatriche sono di seguito elencati. 1. Non esiste una netta lateralizzazione emisferica, ma un’ampia rete neurale distribuita nei due emisferi contribuisce all’elaborazione idiomatica. Tuttavia, due strutture principali sono coinvolte: la regione temporale sinistra appare cruciale per una prima analisi del significato; successivamente intervengono strutture prefrontali a inibire il significato meno saliente della frase, cioè quello letterale, e ad attivare quello astratto. Dal momento che in questo processo intervengono entrambi gli emisferi, anche una compromissione del corpo calloso, attraverso cui avvengono gli scambi interemisferici, può impedire una normale elaborazione.
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche
135
2. La modalità di esame influisce sul risultato, solo nel caso dei soggetti con deficit neurologici o psichiatrici, mentre non ha alcuna influenza nel caso di soggetti neurologicamente sani. Inoltre, se la modalità di associazione frase/figura è la più semplice da utilizzare con i pazienti afasici, non è esente da problemi, in quanto ne sottostima la prestazione. Nel caso di pazienti con lesioni emisferiche destre e conseguenti deficit attenzionali, spaziali o percettivi correla con la prestazione a test che indagano queste funzioni. D’altro canto compiti verbali, come la definizione orale, ma anche l’associazione frase/parola, possono essere di difficile esecuzione rispettivamente in un paziente con disturbi nella produzione o nella comprensione di singole parole. Altre modalità, quali la decisione lessicale o la lettura, non sono di facile utilizzo in pazienti afasici. È quindi consigliabile utilizzare più di una modalità di esame per ottenere informazioni convergenti. 3. Il tipo di espressione e la sua struttura hanno altrettanta rilevanza. I pazienti si comportano differentemente con frasi ambigue e non ambigue, frasi decomponibili e non decomponibili, sintagmi verbali o nominali. In generale, tutti i pazienti con deficit neurologici o psichiatrici hanno difficoltà nell’interpretare queste espressioni, anche se il livello di compromissione può essere vario e almeno due fattori contribuiscono: i pazienti afasici hanno difficoltà nel completare l’analisi linguistica e, quindi, esauriscono le loro risorse cognitive, con conseguente deficit nell’inibizione dei significati alternativi; i pazienti con danno prefrontale elaborano la frase, ma il deficit è presente nello stadio successivo, quando si deve inibire uno dei significati alternativi o attivare quello figurato. I dati raccolti contraddicono l’ipotesi emisferica destra e l’ipotesi psicolinguistica secondo cui le espressioni idiomatiche sono parole estremamente lunghe, ma suggeriscono invece che la loro comprensione necessita di tutte le abilità linguistiche ed extralinguistiche coinvolte nella comprensione del linguaggio letterale. Infine indicano in maniera inequivocabile che non solo è sbagliato considerare indifferentemente metafore ed espressioni idiomatiche, ma che, all’interno di questa categoria, è indispensabile distinguere fra varie forme, per ciascuna delle quali sembrano essere messi in atto processi per lo meno parzialmente distinti.
Bibliografia 1. Gibbs RW (1999) Figurative language. In: Wilson R, Keil F (eds) The MIT Encyclopedia of the cognitive science. MIT Press, Cambridge, pp. 314-315 2. Nunberg G, Sag IA, Wasow T (1994) Idioms. Language 70:491-538 3. Cacciari C, Glucksberg S (1995) Understanding idioms: do visual images reflect figurative meanings? Eur J Cogn Psychol 7:283-305 4. Glucksberg S (2001) Understanding figurative language. Oxford University Press, Oxford 5. Gibbs RW, Nayak NP, Cutting C (1989) How to kick the bucket and not decompose: analyzability and idiom processing. J Mem Lang 28:576-593 6. Gibbs RW, Gonzales GP (1985) Syntactic frozenness in processing and remembering idioms. Cognition 20:243-259
136
C. Papagno
7. Colombo L (1993) The comprehension of ambiguous idioms in context. In: Cacciari C, Tabossi P (eds) Idioms: processing, structure, and interpretation. Lawrence Erlbaum, Hillsdale, pp. 163-200 8. Colombo L (1998) Role of context in the comprehension of ambiguous Italian idioms. In: Hillert D (ed) Syntax and semantics, vol 31. Academic Press, New York, pp. 379-404 9. Giora R, Zaidel E, Soroker N et al (2000) Differential effects of right- and left-hemisphere damage on understanding sarcasm and metaphor. Metaphor & Symbol 15:63-83 10. Nenonen M, Niemi J, Laine M (2002) Representation and processing of idioms: evidence from aphasia. J Neuroling 15:43-58 11. Papagno C, Genoni A (2004) The role of syntactic competence in idiom comprehension: a study on aphasic patients. J Neuroling 17:371-382 12. Papagno C, Tabossi P, Colombo M et al (2004) Idiom comprehension in aphasic patients. Brain Lang 89:226-234 13. Rinaldi MC, Marangolo P, Baldassarri F (2004) Metaphor comprehension in right braindamaged patients with visuo-verbal material: a dissociation (re)considered. Cortex 40:479-490 14. Burgess C, Chiarello C (1996) Neurocognitive mechanisms underlying metaphor comprehension and other figurative language. Metaphor Symbolic Activity 11:67-84 15. Winner E, Gardner H (1977) The comprehension of metaphor in brain-damaged patients. Brain 100:717-729 16. Van Lancker D, Kempler D (1987) Comprehension of familiar phrases by left but not by right hemisphere damaged patients. Brain Lang 32:265-277 17. Kempler D, Van Lancker D, Marchman V et al (1999) Idiom comprehension in children and adults with unilateral brain damage. Dev Neuropsychol 15:327-349 18. Papagno C, Curti R, Rizzo S et al (2006) Is the right hemisphere involved in idiom comprehension? A neuropsychological study. Neuropsychology 20:598-606 19. Tompkins CA, Boada R, McGarry K (1992) The access and processing of familiar idioms by brain-damaged and normally aging adults. J Speech Hear Res 35:626-637 20. Swinney DA, Cutler A (1979) The access and processing of idiomatic expressions. J Verb Learn Verb Behav 18:523-534 21. Cacciari C, Reati F, Colombo M-R et al (2006) The comprehension of ambiguous idioms in aphasic patients. Neuropsychologia 44:1305-1314 22. Papagno C, Caporali A (2007) Testing idiom comprehension in aphasic patients: the effects of task and idiom type. Brain Lang 100:208-220 23. Hillert D (2004) Spared access to idiomatic and literal meanings: a single-case approach. Brain Lang 89:207-215 24. Oliveri M, Romero L, Papagno C (2004) Left but not right temporal lobe involvement in opaque idiom comprehension: a repetitive transcranial magnetic stimulation study. J Cogn Neuroscie 16:848-855 25. Fogliata A, Rizzo S, Reati F et al (2007) The time course of idiom processing. Neuropsychologia 45:3215-3222 26. Papagno C, Vallar G (2001) Understanding metaphor and idioms: a single case neuropsychological study in a subject with Down syndrome. J Int Neuropsych Soc 7:516-528 27. Rizzo S, Sandrini M, Papagno C (2007) The dorsolateral prefrontal cortex in idiom interpretation: an rTMS study. Brain Res Bull 71:523-528 28. Romero Lauro LJ, Tettamanti M, Cappa SF, Papagno C (2007) Idiom comprehension: a prefrontal task? Cereb Cortex, doi:10.1093/cercor/bhm042 29. Zempleni MZ, Haverkort M, Renken R et al (2007) Evidence for bilateral involvement in idiom comprehension: an fMRI study. Neuroimage 34:1280-1291 30. Huber-Okrainec J, Blaser, SE, Dennis M (2005) Idiom comprehension deficits in relation to corpus calosum agenesis and hypoplasia in children with spina bifida meningomyelocele. Brain Lang 93:349-368 31. Kempler D, Van Lancker D, Read S (1988) Proverb and idiom comprehension in Alzheimer disease. Alzheimer Dis Assoc Disord 2:38-49
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche
137
32. Papagno C (2001) Comprehension of metaphors and idioms in patients with Alzheimer’s disease: a longitudinal study. Brain 124:1450-1460 33. Papagno C, Cappa SF, Garavaglia P et al (1995) La comprensione non letterale del linguaggio: taratura su soggetti normali. Archivio di Psicologia, Neurologia e Psichiatria 56:402-420 34. Papagno C, Lucchelli F, Muggia S et al (2003) Idiom comprehension in Alzheimer’s disease: the role of the central executive. Brain 126:2419-2430 35. Titone, D, Holzman PS, Levy DL (2002) Idiom processing in schizophrenia: literal implausibility saves the day for idiom priming. J Abnorm Psychol 111:313-320 36. Iakimova G, Passerieux C, Hardy-Baylé M-C (2006) Interpretation of ambiguous idiomatic statements in schizophrenic and depressive patients. Evidence for common and differential cognitive patterns. Psychopathol 39:277-285
Capitolo 5
Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici ed evidenze elettrofisiologiche Cristina Cacciari, Francesco Vespignani, Nicola Molinaro, Sergio Fonda, Paolo Canal
5.1 Introduzione In questo capitolo indagheremo il ruolo dei meccanismi di anticipazione semantica nella comprensione di espressioni i costituenti delle quali sono tipicamente legati fra loro in una sequenza più o meno fissa, cioè le espressioni idiomatiche.1 Per molti di noi è difficile resistere alla tentazione di completare All you need is… con una parola diversa da love. La memoria semantica, infatti, è un complesso deposito che contiene non solo parole e concetti, ma anche stringhe di parole a cui siamo stati ripetutamente esposti nel corso della nostra vita, siano essi versi di poesia, frammenti di canzoni, slogan pubblicitari, titoli di libri e di film, espressioni idiomatiche, proverbi, frasi fatte e così via [1, 2]. Secondo Jackendoff [3], in American English ci sarebbero almeno tante parole quante sono le espressioni multiparole o fisse2 (cioè stringhe il cui significato è listato in qualche parte della memoria semantica, ad esempio, frasi fatte, cliché, idiomi, phrasal verbs ecc.): cioè circa 80.000. Calcoli di frequenza abbastanza approssimativi stimano che le persone usino 6 espressioni non letterali per minuto di parlato, in particolare 1,8 metafore nuove e 4,08 metafore congelate, cioè convenzionalizzate dall’uso. Calcolando una media di 2 ore di conversazione giornaliera e una vita media di 60 anni, produrremmo 4,7 milioni di metafore nuove e 21,4 milioni di metafore congelate [4]. Se le espressioni fisse3 (siano essere letterali come Molte grazie o In riferimento a, quasi-letterali come Più o meno o Così così o decisamente figurate come Essere al set-
1
In questo capitolo useremo espressione idiomatica e idioma come sinonimi, benché non lo siano.
In realtà, come vedremo, moltissime di queste espressioni non sono assolutamente fisse, ma ammettono trasformazioni sintattiche, omissione di parti, varianti e così via.
2
Una parte della linguistica chiamerebbe alcune di queste espressioni collocazioni: vi è infatti una consistentissima letteratura che ha affrontato da molti punti di vista il confine fra collocazioni, idiomi, light verbs e così via. Per i lettori interessati, rimandiamo, ad esempio, a Fellbaum [9], Nenonen e Niemi [10].
3
M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008
140
C. Cacciari et al.
timo cielo, Tanto va la gatta al lardo che ci lascia lo zampino) sono così pervasive nel linguaggio quotidiano, è chiaro che nessuna teoria dell’elaborazione del linguaggio può ignorarle. In effetti, negli ultimi trent’anni la ricerca sulla comprensione e produzione di espressioni non letterali è stata piuttosto cospicua sia in psicolinguistica [5, 6] sia, più recentemente, nelle neuroscienze cognitive (si veda anche il Capitolo 4; [7, 8]). In questo capitolo, ci concentreremo soprattutto sulle aspettative semantiche che sono generate in una frase da una classe particolare di espressioni non letterali: gli idiomi.
5.2 Cosa sono (e non sono) le espressioni idiomatiche Le espressioni idiomatiche sono stringhe di parole il cui significato globale non è generalmente deducibile dalle unità che le costituiscono, anche se i costituenti impongono vincoli di tipo sintattico e talvolta semantico. Gli idiomi sono un subset di quelle espressioni convenzionalizzate che i parlanti scambiano all’interno di una comunità linguistica, probabilmente il più numeroso: secondo il filosofo del linguaggio John Searle, le persone implicitamente adotterebbero una strategia del tipo Parla idiomaticamente a meno che non vi sia una ragione speciale per non farlo. Sappiamo oggi che la hidden assumption,4 criticata esplicitamente per la prima volta da Wasow, Sag e Nunberg [11], secondo cui gli idiomi sarebbero arbitrary associations between forms and meaning (p. 103), è stata un ostacolo alla comprensione della variegata natura delle espressioni idiomatiche. Le espressioni idiomatiche non formano, infatti, una classe omogenea e i principi che governano la loro variabilità sintattica e semantica debbono essere ancora formalizzati, se mai lo saranno, sebbene i primi lavori sulle caratteristiche sintattiche e semantiche degli idiomi risalgano all’inizio degli anni Sessanta del Novecento. Tale disomogeneità si esplica nel fatto che alcune espressioni idiomatiche esprimono azioni semanticamente plausibili (ad esempio, Alzare il gomito, Sporcarsi le mani), mentre altre azioni del tutto implausibili (Capire fischi per fiaschi, Fare un buco nell’acqua); alcune sfruttano costruzioni non grammaticali o poco frequenti (Volere o volare, Prendere cappello, Darsela a gambe), mentre altre sono ben formate (Rompere il ghiaccio, Perdere la testa); alcune sono semanticamente ambigue essendo interpretabili tanto idiomaticamente quanto letteralmente (Alzare il gomito, Perdere il treno)5, mentre altre hanno una sola interpretazione plausibile, quella figurata (Essere al settimo cielo, Farsi di nebbia); alcune sono sintatticamente flessibili, permettendo modificazioni (ad esempio, il passivo in Il ghiaccio fu finalmente rotto dalla ragazza quando si decise a chiedergli il numero di telefono, la nominalizzazione in Quelle castagne dal fuoco, questa volta te le levi tu, l’inserzione come in Tirava la pesante carretta familiare), mentre altre sono blocchi coesi cui l’inserzione di elementi esterni fa perdere il significato idiomatico (Giovanni alzava il
4
Essa è presente nei primi modelli della comprensione di idiomi [12-14].
Benché in queste espressioni ambigue vi sia quasi sempre un significato dominante, in molti casi quello idiomatico. 5
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici
141
dolorante gomito). L’introduzione di un aggettivo in un’espressione idiomatica può produrre effetti diversi rispetto a quanto accade in espressioni letterali, in quanto nell’idioma l’aggettivo può modificare non il costituente a destra o a sinistra ma l’intera stringa agendo come commento metalinguistico sull’espressione idiomatica (come in Tirava la ben nota carretta o Ruppe il proverbiale ghiaccio). Esistono, tuttavia, anche casi in cui l’inserzione modifica localmente uno o più costituenti dell’idioma, come nelle frasi letterali (il significato di Leave no legal stone unturned, grossomodo equivalente a Non lasciare niente di legale intentato, è, infatti, diverso da quello di Legally, leave no stone unturned, Legalmente, non lasciare niente di intentato, come discusso da [11, 15]. Infine, anche il contributo della semantica dei costituenti6 al significato idiomatico globale è tutt’altro che omogeneo: vi sono, infatti, espressioni del tutto opache semanticamente7 (Tirare le cuoia, Fare di ogni erba un fascio) e altre che sembrano invece trasparenti (Arrampicarsi sugli specchi, Camminare su un terreno minato): il fatto che conosciamo il significato di un’espressione può illusoriamente farci pensare che sia semanticamente trasparente anche per chi ne ignori il significato figurato, cioè che esista un mapping sistematico fra significati letterali e significato idiomatico, ma si tratta, appunto, di un fenomeno in molti casi illusorio, come dimostrato elegantemente da Keysar e Bly [16] (sul problema, si veda [17]). L’origine metonimica o metaforica di alcuni idiomi può essere ancora percepibile (ad esempio, in Arrampicarsi sugli specchi, Camminare su un terreno minato; per una discussione su questi idiomi quasi-metaforici si vedano Cacciari e Glucksberg [18]) e avere effetti in compiti di tipo interpretativo, ma l’evidenza a favore del fatto che la trasparenza semantica di un idioma (cioè quanto il significato globale di un idioma abbia a che vedere coi significati dei singoli costituenti) incida in tempo reale sul tempo necessario a riconoscerlo e ad attivarne il significato è, in realtà, assai scarsa. Ciò non significa che le proprietà semantiche dei verbi o dei nomi presenti negli idiomi non pongano restrizioni che fanno interagire la semantica dei costituenti col significato non letterale. Ciò è vero perfino in espressioni idiomatiche del tutto opache semanticamente: come è stato notato da Wasow, Sag e Nunberg ([11]; si vedano anche [1, 19]; la ragione per cui non si può dire He lay kicking the bucket all week è che il verbo to kick denota un’azione discreta. In modo analogo, si può, invece, dire idiomaticamente He didn’t spill a single bean, perché i fagioli sono entità numerabili. L’estrema eterogeneità
6 L’assunzione di Wasow e colleghi [11], che ha poi aperto la strada alla Decomposition Hypothesis di Gibbs e collaboratori [21], è che pieces of idioms typically have identifiable meanings which combine to produce the meaning as a whole. Of course these meanings are not the literal meanings of the parts. Rather, idiomatic meanings are generally derived from literal meanings in conventionalized, but not entirely arbitrary ways (p. 109). L’idea di composizionalià delle espressioni idiomatiche in realtà non ha trovato grandi evidenze psicolinguistiche a supporto se non con compiti che rilevano processi interpretativi post-comprensione (ad esempio, giudizi di accettabilità semantica, produzione o giudizi su parafrasi).
Per semanticamente opaco vs. trasparente si intende quanto il significato globale dell’espressione idiomatica sia deducibile dal significato letterale dei costituenti e dalla struttura retorica complessiva dell’idioma (se, cioè, abbia una origine metaforica, metonimica, e così via). Questa nozione si differenzia da quella di composizionalità adottata da Gibbs e colleghi [21] secondo cui ci sono idiomi, i decomponibili appunto, in cui è possibile effettuare un mapping diretto 1:1 fra costituente letterale e corrispondente significato idiomatico (per esempio, in spill the beans: spill=reveal, beans=secrets).
7
142
C. Cacciari et al.
di comportamento sintattico e semantico delle espressioni idiomatiche ha indotto alcuni autori (ad esempio, [20]) a ipotizzare che la loro rappresentazione in memoria contenga non solo il significato, ma anche gli eventuali vincoli sulla forma semantica sintattica e sulle trasformazioni che possono subire senza perdere il significato idiomatico. In realtà, anche questa assunzione non è scevra da problemi, soprattutto alla luce della consistente letteratura linguistica che in questi ultimi trent’anni ha cercato (e talvolta trovato) qualche livello di sistematicità del rapporto fra comportamento sintattico e struttura semantica delle espressioni idiomatiche. Spesso, nella letteratura cognitiva odierna, le espressioni idiomatiche sono confuse con altre forme di linguaggio figurato: occorre, quindi, soffermarsi anche su cosa le espressioni idiomatiche non siano. Scambiare un idioma con una metafora, ad esempio, rischia di rappresentare un confound di una certa rilevanza sperimentale oltre che teorica, in quanto, le diverse tipologie di espressione non letterale possono avere differenti rappresentazioni mentali che ne modulano i processi di elaborazione, con implicazioni dirette sui correlati neurali di tali processi. Le espressioni idiomatiche si distinguono dalle metafore, pur potendo in alcuni casi diacronicamente provenire da esse, in quanto, mentre le metafore (anche le più convenzionalizzate) non hanno un significato unico e standardizzato nella comunità, potendo richiamare alla mente più di un unico riferimento [22], gli idiomi hanno, invece, un solo significato che può, tutt’al più, specializzarsi, ma non mutare a seconda della situazione discorsiva. Le metafore hanno a che vedere coi processi di categorizzazione [22, 23], mentre le espressioni idiomatiche coi processi di recupero di significati dalla memoria semantica. Le espressioni idiomatiche si differenziano, poi, dai proverbi, in quanto questi ultimi sono atti linguistici compiuti, indefiniti temporalmente, segnalati da un pattern grammaticale specifico, da marche retoriche, fonetiche o da una struttura sintattica binaria (tema/commento); inoltre, i proverbi sono spesso usati a commento di una situazione specifica condivisa dai parlanti.
5.3 Meccanismi di anticipazione semantica nella comprensione di espressioni idiomatiche Le espressioni idiomatiche, come molte altre espressioni fisse, condividono il fatto che la loro identità può essere anticipata o predetta con ragionevole certezza sulla base di un ammontare di input che varia in relazione a quanta parte della stringa debba essere percepita/letta prima che essa richiami alla mente l’idioma corrispondente. Ad esempio, se in un esperimento che utilizza una tecnica di completamento di frammenti frasali di lunghezza crescente chiediamo ai partecipanti di completare Sergio gli stava… otteniamo i completamenti più diversi, simpatico, antipatico ecc. Quando aggiungiamo un costituente (col), e cioè presentiamo Sergio gli stava col…, il 56% dei partecipanti produce il completamento idiomatico fiato sul collo. Se aggiungiamo un ulteriore costituente (fiato) arriviamo al 95% di completamenti idiomatici (sul collo). Le cose vanno assai diversamente se presentiamo frammenti come Giovanni era… /Giovanni era in… /Giovanni era in mezzo… /Giovanni era in mezzo a… /Giovanni era in mezzo a una… anche in quest’ultimo caso la percentua-
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici
143
le di completamenti idiomatici (strada)8 è bassa (24%). Secondo la terminologia proposta in Cacciari e Tabossi [24], il primo tipo di idioma è prevedibile, cioè è riconosciuto come stringa idiomatica ben prima dell’ultimo costituente, mentre il secondo tipo di idioma è non prevedibile e il suo significato idiomatico è riconosciuto solo dopo che l’ultimo costituente (cioè l’intera stringa) sia stata elaborata. Questo meccanismo di anticipazione semantica (ci ritorneremo) non è affatto specifico delle espressioni idiomatiche o delle espressioni fisse: si sa ormai da tempo che più lungo è un frammento di frase e meno sono le alternative disponibili nel linguaggio per continuarlo in modo sintatticamente ben formato e semanticamente plausibile [25]. Il concetto di cloze probability di un costituente frasale (cioè la proporzione di risposte che completano il costituente mancante con quello specifico), originato dal lavoro di Taylor sulla leggibilità dei testi [26], si basa, appunto, sull’idea che più un contesto frasale diventa informativo, nel senso della riduzione dell’incertezza su possibili completamenti alternativi [27], più l’ampiezza del range di risposte diminuisce e più l’abilità del lettore di prevedere la risposta più probabile aumenta [28]. La scoperta dell’N4009 da parte di Kutas e Hillyard [29, 30], un potenziale evento-correlato con una deflessione negativa con un picco intorno ai 400 ms dalla comparsa dello stimolo10 e una distribuzione sullo scalpo prevalentemente centrale, spesso leggermente lateralizzata a destra (si veda Capitolo 3), ha contribuito in modo decisivo al rilancio del concetto di previsione o anticipazione:11 il miglior predittore dell’ampiezza dell’N400, secondo Marta Kutas, è, infatti, proprio la cloze probability del costituente, in quanto la sua proporzione di cloze probability in un determinato contesto e l’ampiezza dell’N400 associata sono inversamente proporzionali. Il riconoscimento della natura idiomatica di un frammento più o meno lungo di costituenti è cruciale per una delle ipotesi sulla comprensione delle espressioni idiomatiche: l’ipotesi della Configurazione (Configuration Hypothesis).12 Essa è
In questo caso, come in genere negli idiomi ambigui, è buona norma essere certi che i soggetti intendano la frase idiomaticamente.
8
Nell’esperimento classico di Kutas e Hillyard [29], ai partecipanti venivano mostrate visivamente frasi che terminavano in modo semanticamente congruo (I take my coffee with cream and SUGAR) o incongruo (I take my coffee with cream and DOG). La negatività nel tracciato EEG era molto più ampia quando il costituente finale era incongruo (SUGAR) che congruo (DOG. Per una rassegna delle componenti ERP implicate nella comprensione del linguaggio, si vedano, ad esempio, [31, 2, 32; Mado Proverbio in questo volume]. 9
L’N400 è stata osservata non solo in relazione a stimoli linguistici ma anche a disegni, fotografie, voci e suoni ambientali (per i riferimenti del caso si veda [2]).
10
Per brevità, useremo i concetti di previsione e anticipazione come fossero intercambiabili: in realtà non lo sono, ma una disamina della differenza ci porterebbe lontano dallo scopo di questo capitolo. 11
Essa è nata in risposta a un’ipotesi classica, la Lexical representation hypothesis [13], che assumeva che le espressioni idiomatiche fossero rappresentate come parole lunghe, cioè unità lessicali multiple (multiword lexical entry), listate insieme a tutte le altre parole nel lessico; il loro significato sarebbe recuperato analogamente a quanto accade per le parole. Per questi autori, l’elaborazione dei due significati, letterale e idiomatico, inizierebbe simultaneamente a partire dalla prima parola della stringa. Ma il riconoscimento dell’espressione idiomatica è più veloce della computazione della corrispondente stringa letterale, in quanto si basa sul recupero del significato globale dell’espressione in quanto parola lunga, troncando, quindi, l’analisi linguistica. 12
144
C. Cacciari et al.
stata proposta originalmente da Cacciari e Tabossi [24] e postula che il significato delle parole che formano un idioma sia attivato fino al momento in cui la sequenza stessa è riconosciuta come una configurazione idiomatica. Riprendendo l’esempio precedente, in un idioma prevedibile come Sergio gli stava col fiato sul collo, il costituente che determina un significativo incremento della probabilità di un completamento idiomatico (fiato) viene definito punto di riconoscimento (PR) dell’idioma. Il punto di riconoscimento varia da idioma a idioma e può variare anche per lo stesso idioma a seconda del contesto frasale che lo precede.13 La comprensione degli idiomi sfrutta, dunque, le stesse unità lessicali attivate durante la comprensione di frasi letterali. In altre parole, vi è un solo tipo di elaborazione della sequenza idiomatica fino al momento in cui, successivamente al punto di riconoscimento dell’espressione idiomatica, il significato della configurazione viene recuperato dalla memoria semantica ed emerge; un processo che, in un contesto neutro e per stringhe non prevedibili prima dell’ultimo costituente, richiede tempo per essere concluso [24]. L’ipotesi della Configurazione ha trovato conferma in svariati lavori sulla comprensione [33-39]. Anche alcuni studi sulla produzione di espressioni idiomatiche hanno ottenuto risultati compatibili con tale ipotesi [20, 40]: ad esempio, in una serie di esperimenti che usano una tecnica di induzione di errori, Cooper Cutting e Bock hanno trovato fusioni di espressioni idiomatiche (idiom blends) che rivelano un effetto congiunto della sintassi e della semantica, in particolar modo delle somiglianze fra significati letterali e idiomatici (ad esempio, Swallow the bullet invece di Bite the bullet; oppure The road to Chicago is straight as a pancake, una fusione di Straight as an arrow e Flat as a pancake). Anche questi risultati suggeriscono che le espressioni idiomatiche non vengano prodotte come unità frasali dai costituenti semanticamente vuoti, come ipotizzato originariamente nella hidden assumption prima menzionata [13, 41], bensì possano essere analizzate semanticamente ed elaborate sintatticamente, come d’altronde era già stato proposto da Wasow e colleghi [11, 34]. Come dicevamo, il punto di riconoscimento di un’espressione idiomatica è generalmente operazionalizzato sulla base di test offline di completamento attraverso cui viene determinato un valore di cloze probability specifico per ogni idioma. Un risultato sostanzialmente condiviso nella letteratura psicolinguistica è che, in un contesto neutro, il significato degli idiomi prevedibili (cioè quelli che vengono completati idiomaticamente prima dell’ultimo costituente) sia già attivo alla fine della stringa. Al contrario, i risultati sono tutt’altro che omogenei per quanto riguarda le espressioni non prevedibili: differenze metodologiche concernenti proprio la classificazione di un idioma come prevedibile o non prevedibile possono almeno in parte spiegare tale disomogeneità (per altri fattori concorrenti si vedano [35, 33]). Infatti, la soglia utilizzata per classificare un idioma come non prevedibile è assai variabile: in alcuni studi è data dal 5% di completamenti idiomatici [24], in altri dal 10% [36, 38], 15% [33] fino al 27% [39]. Anche la Gli idiomi sono particolarmente sensibili agli effetti dell’informazione che li precede e anche un contesto minimo può anticiparne il riconoscimento, come mostrato in Peterson e colleghi [34], che non trovano attivazione dell’espressione idiomatica in The soccer player… kicked the... mentre la trovano quando lo stesso verbo è preceduto da un agente come The old man… (per risultati analoghi si vedano Fanari e colleghi, submitted [35]).
13
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici
145
soglia di cloze probability utilizzata per classificare un idioma come prevedibile varia: dal 90% di completamenti idiomatici [38], all’85% [33, 42], fino al 50% o meno [39]. Che differenza esiste, se esiste, fra anticipare in una frase una continuazione letterale e anticiparne, invece, una idiomatica? Da una parte sembrerebbe intuitivo che la frequenza di co-occorrenza dei costituenti lessicali che formano una stringa idiomatica familiare (o altri tipi di espressioni fisse) sia più alta di quella di costituenti che occorrono liberamente nel linguaggio letterale. Dunque, essendo i costituenti degli idiomi maggiormente legati fra loro, i meccanismi di anticipazione semantica all’opera negli idiomi e nel linguaggio letterale potrebbero differire. Confrontiamo, ad esempio, Giovanni si è tirato la zappa… con Giovanni ha tagliato il dolce con… Nel primo caso il frammento frasale può essere sufficiente a richiamarci alla mente l’esistenza dell’idioma tirarsi la zappa sui piedi e il significato corrispondente. In questo, come in molti altri casi, esiste un solo idioma che corrisponde a quel frammento, anche se non possono essere esclusi meno frequenti completamenti letterali (Giovanni si è tirato la zappa in fronte). Nel caso dell’esempio letterale, invece, c’è più di un costituente che può fungere da argomento del verbo tagliare, anche se certamente alcuni avranno una cloze probability più alta di altri14 (ad esempio, coltello vs. cucchiaino). Ma, come hanno elegantemente dimostrato Altman e Kamide [43] (si vedano anche [44, 45]), anche i vincoli letterali sembrano assai prepotenti e intervengono precocemente: se mentre ascoltiamo frasi come The boy will move the cake o The boy will eat the cake ci viene mostrata sullo schermo di un computer una scena in cui c’è una sola cosa edibile (una torta) insieme a oggetti distrattori spostabili (macchinina, palla, trenino elettrico), i movimenti oculari misurati 50 millisecondi (ms) dopo l’onset del verbo differiscono sostanzialmente a seconda della frase: col verbo move la prima saccade sul target (l’immagine del dolce) comincia 127 ms dopo l’onset di cake, mentre col verbo eat la prima saccade avviene 85 ms prima dell’onset del nome cake. In altre parole, l’informazione estratta dal verbo può essere usata per guidare i movimenti oculari su qualunque oggetto nella scena visiva soddisfi i requisiti selezionali del verbo. L’anticipazione della saccade mostra che il processo inizia prima dell’arrivo dell’informazione linguistica corrispondente all’oggetto diretto del verbo [43]. Gli autori, sulla scia dei recenti modelli Multiple Constraint Based della comprensione [48], propongono che nell’elaborazione frasale entrino in gioco meccanismi di tipo predittivo che originano dalla relazione fra verbi, argomenti sintattici e i contesti reali in cui i verbi occorrono (per una teoria della comprensione sintattica basata sul concetto di aspettativa, si veda [49]). Una differenza certa fra espressione idiomatica e letterale sembra comunque esserci e concerne la composizionalità del significato. In altre parole, quand’anche si trovassero due frasi, una letterale e una idiomatica, i cui costituenti post-verbali hanno la stessa probabilità 1, i meccanismi di comprensione delle due frasi restano diversi: la comprensione della stringa idiomatica si basa, infatti, solo parzialmente su una stra-
14 È tuttora oggetto di discussione quanto l’assegnazione di ruoli tematici sia guidata solo dalle informazioni grammaticali che possediamo sui verbi o anche dalla nostra conoscenza del mondo relativa agli agenti e ai pazienti tipici che si associano con l’azione che il verbo denota (per una discussione [46, 47]).
146
C. Cacciari et al.
tegia di tipo composizionale: i significati di costituenti vengono infatti incrementalmente attivati e contribuiscono a formare una rappresentazione del significato della frase solo fino al punto di riconoscimento dell’idioma dopo il quale viene recuperato dalla memoria semantica il significato idiomatico15 della stringa che deve essere poi integrato nella rappresentazione frasale. Per una frase letterale, invece, una strategia composizionale è sufficiente in linea di principio a dar conto del suo significato.
5.4 Aspettative semantiche modulano l’attività elettrofisiologica nel corso della comprensione del linguaggio La ricerca elettrofisiologica sull’elaborazione del linguaggio, a partire dai primi studi di Marta Kutas e colleghi [29] (per una rassegna si vedano [2, 50]), all’inizio degli anni Ottanta del Novecento, ha messo il luce che il cervello umano è molto sensibile alle proprietà distribuzionali degli stimoli linguistici in contesto. In particolar modo, come abbiamo già visto, l’ampiezza di una delle componenti più indagate in ambito linguistico, l’N400,16 mostra l’effetto specifico delle restrizioni semantiche poste su una parola dal segmento di frase che la precede: l’N400 è, infatti, sensibile a quanto un certo frammento frasale abbia preparato l’arrivo di una parola specifica [50]. Come hanno sottolineato Kutas e Federmeier [51], il cervello usa l’informazione contestuale data dalla frase per prevedere (cioè anticipare e preparare per) i tratti percettivi e semantici dei costituenti che è più probabile che appaiano per comprendere il significato inteso di una frase con la velocità tipica con cui di solito arriva (p. 466). Ciò risponde, tra l’altro, a un principio di economia cognitiva più generale: il sistema di comprensione del linguaggio usa tutta l’informazione che può tanto precocemente quanto riesce per restringere la ricerca nella memoria semantica e facilitare l’elaborazione della/e parola/e che è più probabile che arrivi/no. Tale strategia predittiva permette un’elaborazione più efficiente quando l’aspettativa è soddisfatta ([51], p. 467). Per esemplificare che cosa si intenda per utilizzo online delle aspettative generate dal contesto, presenteremo solo uno dei moltissimi lavori elettrofisiologici che le hanno indagate, recentemente pubblicato in Nature Neuroscience da DeLong e colleghi [52]. Gli autori hanno mostrato come i lettori usino le parole di una frase per stimare la probabilità relativa dei costituenti che verranno: in specifico, per determinare quanto i lettori preattivino specifici articoli e nomi prima della loro concreta occorrenza in una frase (e poter così rispondere all’annoso quesito se l’N400 sia associata a un effetto di sorpresa per l’arrivo di un costituente inatteso o alla difficoltà di integrazione semantica nel contesto di tale costituente), vengono mostrate frasi come, ad esempio, The day was breezy so the boy went outside to fly a kite. Il sintagma nomi-
I risultati ottenuti da Peterson e colleghi [34] dimostrerebbero che l’analisi sintattica della stringa continua, invece, anche dopo che si sia riconosciuta la sua natura idiomatica.
15
Non è certo l’unica: sono, infatti, numerosissimi i lavori che hanno indagato altre componenti associate all’elaborazione semantica (per una rassegna si veda [2]).
16
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici
147
nale a kite è quello più frequentemente ottenuto (fra il 96% e il 100%) in completamenti offline del frammento precedente, ma la frase era presentata anche con altri sintagmi nominali finali plausibili ma con valori di cloze probability decisamente più bassi (ad esempio, an airplane). La logica del lavoro è che se il meccanismo anticipatorio fa davvero parte integrante dell’elaborazione frasale, allora l’attività elettrofisiologica dovrebbe essere modulata non solo dal nome, come già si sa, ma anche dall’articolo indeterminativo a seconda che esso sia appropriato alla continuazione più attesa (a per kite) o a quella meno attesa (an per airplaine). I risultati mostrano che l’ampiezza dell’N400 diminuisce non solo all’aumentare della cloze probability del nome, come era ragionevole attendersi, ma anche in funzione del tipo di articolo. La modulazione dell’N400 sul nome (kite vs. airplaine) avrebbe potuto essere spiegata anche dalla difficoltà di integrazione del referente meno probabile (airplaine) nel contesto. Ma il fatto che una simile modulazione dell’N400 venga osservata già a livello dell’articolo corrobora l’ipotesi che il sistema di elaborazione linguistico formi online delle aspettative sulla base del contesto frasale precedente al fine di preattivare, su base probabilistica, le continuazioni possibili (The day was breezy so the boy went outside to fly → a kite). Come ben sappiamo, la capacità di anticipare stati fisiologici, eventi o comportamenti altrui è alla base della sopravvivenza e si esplica nella nostra abilità di evitare eventi pericolosi, muoverci nell’ambiente o effettuare azioni quotidiane. Come ha sostenuto recentemente Bar ([53], p. 280), il cervello umano è proattivo essendo continuamente occupato a generare previsioni che approssimano il futuro rilevante. Malgrado questo, il concetto di anticipazione ha giocato un ruolo minore nelle teorie sull’elaborazione del linguaggio [52, 54] e anzi è stato, e tuttora è, esplicitamente avversato (come in [55]). Come sintetizzano efficacemente Van Berkum e colleghi [54], l’idea che le persone possano anticipare o prevedere un contenuto specifico in un modo che vada oltre un semplice meccanismo di priming intralessicale non è mai stata molto popolare in psicolinguistica. Con l’eccezione degna di nota di Altmann (…), gli autori di tanti recenti manuali di psicolinguistica (…) non fanno alcun riferimento alla possibilità che le persone possano anticipare pezzi di linguaggio in arrivo (p. 444), mentre stanno leggendo o sentendo una frase. Le ragioni indicate da Van Berkum e colleghi sono molteplici: un bottom-up bias, presente soprattutto nei modelli di riconoscimento di parole, dovuto all’impostazione modulare che ha relegato il ruolo del contesto a una fase tardiva del processo di comprensione; l’impostazione proveniente dalla grammatica generativa che ha, con ragione, insistito sulla natura produttiva del linguaggio, producendo però anche un’iniziale diffidenza verso le ricerche ERP sul linguaggio.
5.5 Evidenze elettrofisiologiche sulla comprensione di espressioni idiomatiche Come dicevamo, le espressioni idiomatiche rappresentano candidati ideali per studiare il ruolo dei meccanismi di anticipazione semantica nella comprensione del linguaggio. Malgrado questo, a fronte delle migliaia di lavori con gli ERP che
148
C. Cacciari et al.
hanno indagato la comprensione di parole o frasi letterali nei loro diversi aspetti (fonologici, ortografici, sintattici, semantici), gli studi dedicati alle espressioni idiomatiche sono pochissimi, sostanzialmente cinque17 (su pazienti autistici ad alto funzionamento si vedano [56]; schizofrenici [57]; su volontari sani [58, 59]). I primi studi ERP sugli idiomi condotti da Strandburg e colleghi [56, 57] hanno messo in luce l’importanza del contesto idiomatico nell’elaborazione di una parola critica. In particolare, gli autori ipotizzano che popolazioni patologiche come autistici e schizofrenici soffrano di deficit cognitivi che li rendono incapaci di costruire un’adeguata rappresentazione interna del contesto (non solo linguistico) al fine di poter controllare l’azione. In questi due studi, Strandburg e collaboratori presentano coppie di parole, una successiva all’altra (per esempio, vicious dog, vicious circle). La prima parola (vicious) funge da contesto alla seconda e i pazienti debbono giudicare se la coppia di stimoli abbia o meno significato. Le coppie di parole formano una frase minima alternativamente con un chiaro significato letterale (vicious dog), con un significato idiomatico (vicious circle) o sono prive di senso. Se il paziente non è in grado di integrare la seconda parola (circle vs. dog) nel contesto precedente (vicious), giudicherà la coppia idiomatica sulla base di una strategia composizionale letterale e perciò sbaglierà giudicandola senza senso. Ma affinché il paziente identifichi correttamente il significato di queste coppie di parole, deve recuperarne dalla memoria semantica il significato figurato. Dalla letteratura sappiamo che i pazienti autistici tendono a interpretare gli idiomi letteralmente, non essendo in grado di interpretare le intenzioni comunicative altrui in enunciati ironici, doppi sensi ecc. Gli schizofrenici, d’altro canto, non riescono a integrare il contesto precedentemente immagazzinato in memoria con lo stimolo target. Infatti Strandburg e colleghi, misurando gli ERP relativi alla seconda parola, trovano una modulazione della N400 tra i differenti campioni: il gruppo di controllo dei volontari sani mostra un progressivo aumento della N400 dalla condizione idiomatica, a quella letterale e a quella priva di significato. Rispetto alla condizione letterale, la coppia idiomatica elicita una negatività ridotta attribuita al fatto che la prima parola della coppia idiomatica costituisce un contesto molto più forte rispetto a quello delle frasi letterali (gli autori non controllano però la prevedibilità del secondo costituente, dato il primo). I due gruppi di pazienti differiscono per quanto riguarda la condizione idiomatica: mentre rispetto ai controlli gli schizofrenici mostrano un’aumentata negatività per la condizione idiomatica [57], gli autistici non mostrano alcuna negatività [56]. Un aspetto critico di questi due lavori, messo in luce dagli autori stessi, riguarda l’ampiezza della P300, una classica componente ERP che insiste su una finestra temporale simile alla N400. Nei due studi sono emerse, infatti, differenze nell’ampiezza di tale componente fra i gruppi (controllo vs. patologici) che gli autori interpretano come indipendenti dalla manipolazione linguistica sperimentale (coppia letterale vs. idiomatica vs. priva di senso). Mentre i soggetti autistici mostrano una P300 di ampiezza maggiore rispetto ai controlli, tale componente è fortemente
Sono in generale pochi gli studi ERP sul linguaggio figurato: otto sono dedicati alle metafore e uno solo ai proverbi.
17
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici
149
ridotta negli schizofrenici. Tuttavia è possibile che le differenze di N400 per le condizioni idiomatiche nei due studi siano, in realtà r,iconducibili a una diversa influenza della P300 sul tracciato ERP. Le analisi PCA (Principal Component Analysis) condotte dagli autori per isolare le componenti critiche evidenziano una componente che insiste sulla finestra temporale della N400 (320-580 ms) e un’altra su una finestra temporale successiva, identificata dagli autori come una P300 (450-850 ms). La famiglia delle P300 è, tuttavia, molto ampia e variegata, e quindi tale analisi non può escludere che vi sia una componente positiva più precoce che si sovrappone additivamente alla N400 e ne modula l’ampiezza. A volontari sani di lingua cinese è dedicato lo studio di Zhou e colleghi [58] in cui vengono presentati visivamente idiomi, che in Cinese sono a sequenza fissa e immodificabile, il cui quarto ideogramma può essere congruente con l’idioma o incongruente. Ai soggetti viene chiesto di decidere se il quarto ideogramma sia o meno appropriato. Il tracciato elettrofisiologico (Fig. 5.1) mostra come rispetto alla condizione idiomatica, la condizione di violazione eliciti tre componenti principali: una componente negativa evidente sulle aree frontotemporali destre dello scalpo tra i 120 e i 150 ms; una componente negativa distribuita centralmente tra i 320 e i 380 ms; e, infine, una deflessione positiva nelle aree temporo-parietali e occipitali dello scalpo tra i 480 e i 540 ms. La prima componente (EHRN, Early Right Hemispheric Negativity) indicherebbe una fase iniziale di elaborazione sintattica associata alla forma non attesa di una parola; la seconda, una N400, un’integrazione delle analisi semantiche e sintattiche dello stimolo; infine, la terza componente, una P600, indicherebbe un processo di rianalisi per integrare la parola critica con il precedente contesto.
Fig. 5.1 ERP relativi all’elaborazione del costituente finale nella condizione di ideogramma congruente (linea sottile) e incongruente (linea intermedia). La linea grossa rappresenta la differenza tra le due condizioni (incongruente / congruente). Da [58], con autorizzazione
150
C. Cacciari et al.
In questo lavoro manca, tuttavia, una condizione letterale da confrontare con la condizione idiomatica. Infatti, da un’ispezione visiva delle onde non sottratte sembra che vi sia un picco positivo per la condizione idiomatica tra i 320 e i 380 ms, piuttosto che una deflessione negativa per la violazione. Le altre componenti elicitate dalla violazione dell’idioma sono di minore interesse, in quanto non sembrano essere legate all’elaborazione semantica della stringa idiomatica. Un recente studio condotto in francese da Laurent e colleghi [59] non ha, invece, ignorato la condizione letterale. Vengono presentate visivamente prive di contesto frasale espressioni idiomatiche che hanno tanto un significato idiomatico quanto letterale (ad esempio, Rendre les armes) nel seguente modo: nella prima schermata compare la prima parte dell’espressione (Rendre les) e nella seconda il nome finale (armes). Trecento ms dopo viene presentato un target semanticamente relato o meno al significato idiomatico di cui i soggetti debbono giudicare la relazione semantica con la stringa. Gli ERP vengono registrati in corrispondenza dell’ultima parola dell’idioma e del target. La principale manipolazione sperimentale consiste nel fatto che i significati idiomatici delle stringhe sono molto salienti (Rendre les armes) o poco salienti (Enfoncer le clou). La nozione di salienza, di provenienza pragmatica [60], è stata recentemente adattata al linguaggio figurato da Giora (per una rassegna, si veda [61]), ma è francamente di assai difficile definizione in quanto si sovrappone in parte con la nozione di familiarità, in parte con la dominanza di un significato sull’altro, con la wellformedness sintattica e semantica e, non ultimo, con la prevedibilità della stringa come idioma. Anche nello studio di Laurent e colleghi non è chiaro che cosa gli autori intendano per idiomi molto salienti o poco salienti: sembra ragionevole supporre che intendano quelli il cui significato figurato è più o meno dominante rispetto al letterale, benché vada notato come anche la prevedibilità media dell’ultimo costituente dell’idioma sia un confound rispetto alla salienza: infatti è del 45,5% per gli idiomi a bassa salienza e del 58,8% per i salienti. Dal momento che gli autori concordano con Giora nel ritenere che gli idiomi salienti siano in tutto simili al linguaggio letterale, le stringhe idiomatiche molto salienti e quelle letterali non dovrebbero essere elaborate in modo diverso e quindi dovrebbero dar luogo a tracciati ERP simili (ma, trattandosi di stringhe ambigue presentate senza contesto, non sappiamo se i soggetti attivino entrambi i significati o solo quello dominante). Dovrebbero invece emergere differenze ERP tra stringhe idiomatiche molto salienti e poco salienti (in quest’ultimo caso potrebbe essere attivato solo il significato letterale della stringa, o almeno potrebbe avere una priorità temporale su quello idiomatico, cosa che in questo studio non è dato sapere). I risultati di Laurent e colleghi mostrano solo una N400 elicitata dall’ultima parola della stringa per idiomi poco salienti rispetto ai molto salienti. La morfologia della P600 emersa sia per gli idiomi poco salienti sia per le frasi letterali di controllo appare piuttosto difforme da quella tipicamente osservata in letteratura, tanto da far dubitare che si tratti davvero di una P600, come invece sostengono gli autori. Gli studi finora condotti sugli idiomi che abbiamo schematicamente presentato hanno, purtroppo, importanti limitazioni. I potenziali evocati sono stati sempre registrati all’offset della stringa idiomatica, dove sono riportate modulazioni
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici
151
della N400. Infatti, un effetto simile all’N400, indicato con il termine di wrap-up negativity, emerge consistentemente in corrispondenza dell’ultima parola di frasi non internamente coerenti rispetto a baseline coerenti. Tali effetti sono interpretati come indice di una rielaborazione conclusiva della struttura e del significato di una frase [62]. È possibile che tali effetti emergano anche alla fine di stringhe idiomatiche, interferendo con possibili modulazioni indotte dagli stimoli sperimentali. Inoltre, come abbiamo visto, alcuni studi sono privi di una condizione letterale di controllo. Infine, in tutti gli studi sono stati utilizzati compiti sperimentali che possono indurre strategie particolari di elaborazione.
5.6 Comprensione di espressioni idiomatiche in italiano: N400 e correlati elettrofisiologici di meccanismi di aspettativa categoriale L’obiettivo del lavoro che abbiamo condotto è l’indagine dei correlati elettrofisiologici della comprensione di espressioni idiomatiche, come caso emblematico di stringhe ad altissima aspettativa contestuale. La cornice teorica di riferimento è quella proposta dalla Configuration Hypothesis secondo cui il riconoscimento della natura idiomatica di una stringa è una sorta di prerequisito per l’attivazione del significato idiomatico. Se ciò è vero, dovremmo poter rilevare differenze nei correlati elettrofisiologici prima e dopo il riconoscimento della natura idiomatica dell’espressione. A tal fine è stato identificato un insieme di idiomi familiari (n = 87) e prevedibili prima della fine della stringa. Generalmente erano privi di un corrispettivo significato letterale, o comunque il significato idiomatico era quello dominante. Per ogni idioma è stato identificato il Punto di Riconoscimento (PR), cioè il punto dopo il quale era stato dato almeno il 65% di completamenti idiomatici offline. La cloze probability media al punto di riconoscimento era dell’86% (range 68-100%). Ogni stringa idiomatica è stata inserita in una frase in cui i costituenti precedenti veicolavano un’informazione neutra e che terminava con costituenti non idiomatici per evitare effetti di wrap-up finale sull’idioma. Sono state create tre condizioni: 1. una condizione Idiomatica in cui l’espressione idiomatica veniva presentata nella sua forma canonica (Maria aveva il coltello dallaPR parte del manico quella volta); 2. una condizione di Sostituzione in cui il punto di riconoscimento dell’idioma era stato sostituito con un altro elemento lessicale della stessa classe grammaticale compatibile con il contesto frasale precedente (Maria aveva il coltello senza parte del manico quella volta); 3. una condizione di Violazione18 in cui il costituente successivo al punto di rico-
Le parole coinvolte nella manipolazione sperimentale in 2 e 3 sono state bilanciate per frequenza scritta, lunghezza, classe grammaticale, età d’acquisizione e concretezza rispetto al componente corrispondente nell’idioma.].
18
152
C. Cacciari et al.
noscimento era stato cambiato con un altro elemento lessicale della stessa classe grammaticale e anch’esso compatibile con il contesto frasale precedente (Maria aveva il coltello dalla vicina quella volta). Tanto la condizione di Sostituzione (Maria aveva il coltello senza parte del manico quella volta) quanto quella di Violazione (Maria aveva il coltello dalla vicina quella volta) erano formate da frasi del tutto letterali e ben formate. Nel corso dell’esperimento le frasi (29 per condizione più 120 filler) venivano mostrate sullo schermo, costituente per costituente, al centro dello schermo (per 300 ms con intervallo inter-stimolo di altri 300 ms); il compito dei soggetti (n = 50) era di lettura e comprensione (con domande di controllo sulla comprensione ogni 10 stimoli filler circa).19 Sulla base degli studi precedenti dovremmo aspettarci una N400 alla fine dell’espressione idiomatica (cioè in corrispondenza di manico). In questo studio eravamo tuttavia interessati al decorso temporale dei correlati ERP durante l’elaborazione dell’idioma. Infatti, sulla base della Configuration Hypothesis, ci attenderemmo che i correlati elettrofisiologici dell’elaborazione di queste frasi siano più complessi: intanto le evidenze accumulate sulle frasi letterali suggeriscono che il sistema potrebbe essere sensibile alla co-occorrenza dei costituenti anche prima di aver attivato il significato idiomatico, quindi in corrispondenza del punto di riconoscimento20 (soprattutto quando si usino idiomi lunghi come nel nostro caso); inoltre, dopo il punto di riconoscimento (cioè a PR+1), e prima che la stringa finisca, il tracciato elettrofisiologico dovrebbe mostrare indici qualitativamente diversi in funzione dell’avvenuto riconoscimento della natura idiomatica dell’input. Per chiarezza, mostreremo due diverse figure: nella Figura 5.2 il tracciato ERP in corrispondenza del punto di riconoscimento per la condizione Idiomatica (linea continua) (… il coltello dalla) e la condizione di Sostituzione (linea tratteggiata) (… il coltello senza); nella Figura 5.3, invece, ciò che accade sul costituente successivo al punto di riconoscimento per la condizione Idiomatica (linea continua) (coltello dalla parte) e di Violazione (linea tratteggiata) (coltello dalla vicina). L’effetto ERP al punto di riconoscimento dell’idioma (Fig. 5.2) mostra una distribuzione spaziale e un decorso temporale caratteristici di una modulazione dell’N400 spiegabile in termini di cloze probability dei costituenti. Analogamente a quanto si sa avvenire per frasi letterali, l’N400 è più ampia per il componente meno atteso (cioè quello sostituito). Che i soggetti a questo punto delle stringhe idiomatiche abbiano già sviluppato una certa sensibilità verso la co-occorrenza
Il segnale elettroencefalografico è stato registrato in modo continuo attraverso un sistema di 30 elettrodi attivi (BioSemi) posti sullo scalpo secondo il sistema 10-20 standard. Abbiamo analizzato i dati in un’epoca lunga che iniziava 200 ms dopo il punto di riconoscimento e durava per 2300 ms (le medie dei singoli soggetti sono state calcolate dopo esclusione degli artefatti, 13,5%, e correzione della baseline a 200 ms).
19
Ricordiamo che si tratta del punto dopo il quale i soggetti completano il frammento idiomaticamente con una altissima cloze probability (media 86%).
20
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici
153
Fig. 5.2 Tracciato ERP in corrispondenza del punto di riconoscimento (PR) per la condizione Idiomatica (linea continua) (... il coltello dalla) e di Sostituzione (linea tratteggiata) (... il coltello senza)
dei costituenti21 lo confermano i test di completamento offline: infatti, le percentuali di completamento idiomatico a questo punto sono ovviamente più basse di quanto non siano dopo il punto di riconoscimento (dove abbiamo una media dell’86% di completamenti idiomatici), ma sono comunque non irrisorie (circa del 37% in media). Dopo il punto di riconoscimento (Fig. 5.3) vi è, invece, un cambiamento nella morfologia dell’onda meglio evidenziato dalla Figura 5.4 che compara i due effetti in uno stesso sito elettroencefalografico: il pattern ha un onset più precoce ed è caratterizzato da una distribuzione topografica più posteriore, ampia anche nei siti distali e non solo in quelli mesiali tipici degli effetti N400. La morfologia dell’onda elicitata nella condizione idiomatica è, inoltre, caratterizzata da un chiaro picco positivo attorno ai 300 ms, identificabile come un’autentica P300. Per indagare il timing relativo degli effetti a PR e a PR+1 sono stati effettuati ttest su finestre contigue di 10 ms ognuna, sui dati relativi alla media di un gruppo di
Il che non significa necessariamente che i lettori abbiano già attivato a quel punto il significato idiomatico, ma che la sequenza di parole suona familiare.
21
154
C. Cacciari et al.
Fig. 5.3 Tracciato corrispondente al costituente successivo al punto di riconoscimento (PR) per la condizione Idiomatica (linea continua) (coltello dalla parte) e di Violazione (linea tratteggiata) (coltello dalla vicina)
canali (C3, Cz, C4, CP1, CP2, P3, Pz, P4). Essi mostrano che l’onset dei due effetti differisce di circa 60 ms (Fig. 5.5): i due tracciati relativi alla condizione Idiomatica e di Sostituzione al punto di riconoscimento (PR) iniziano a divergere circa a 320 ms dall’inizio del punto di riconoscimento, mentre quelli relativi alla condizione Idiomatica e di Violazione dopo il punto di riconoscimento (PR+1) circa a 260 ms. Il dato sulla latenza, assieme alle differenze nella morfologia delle onde non sottratte e alla topografia dell’effetto, convergono nel mostrare che il pattern ERP dopo il punto di riconoscimento (cioè a PR+1) è da interpretare funzionalmente in modo diverso da una mera modulazione dell’N400. Tipicamente infatti l’N400 non mostra né variazioni di latenza né differenti distribuzioni topografiche in funzione di manipolazioni linguistiche. Differenze di questo genere possono emergere confrontando differenti gruppi di soggetti o differenti modalità di presentazione del materiale (visivo vs. uditivo, frasi vs. parole isolate vs. disegni). Le manipolazioni del materiale linguistico (frequenza d’uso lessicale, posizione all’interno di una frase, cloze probability ecc.) tipicamente incidono solamente sull’ampiezza della componente ma non sulle sue caratteristiche spazio-temporali (si vedano in proposito le ampie reviews [2, 54]).
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici
155
Fig. 5.4 Confronto delle morfologie d’onda sul canale Pz fra idioma (linea continua) e sostituzione (linea tratteggiata) al PR (grafico di sinistra) e fra idioma (linea continua) e violazione (linea tratteggiata) a PR+1, ove è evidente il picco della P300. Le linee sottili verticali corrispondono a 300 ms e 500 ms
Fig. 5.5 Stima dell'onset dell’effetto con t-test in finestre contigue. A sinistra, il confronto condizione Idiomatica-Sostituzione al PR e a destra il confronto condizione Idiomatica-Violazione al PR+1
Un’eccezione, particolarmente rilevante per l’interpretazione del pattern elettrofisiologico che abbiamo osservato a PR+1, è costituita dal correlato ERP dell’elaborazione di un’antinomia (ad esempio, bianco-nero, caldo-freddo). Alcuni studi ([63, 64]; si vedano anche la Figura 1.b riportata in [51] e la Figura 7 in [50]) hanno rilevato come durante la lettura di frasi come The opposite of white is black, comparate con differenti violazioni del secondo costituente (yellow o nice, invece di black), si ottenga un pattern N400 anticipato e con una differente morfologia e distribuzione spaziale. Rohem e colleghi [64] hanno efficacemente mostrato, confrontando differenti compiti sulla coppia antinomica, come tale pattern sia da interpretare come una P300 per l’elaborazione dell’elemento predittivamente atteso all’interno della relazione antinomica, eventualmente sovrapposta a una N400 che modula in funzione delle relazioni semantiche associative e categoriali fra i due termini. La distribuzione e la morfologia degli ERP durante l’elaborazione del com-
156
C. Cacciari et al.
pletamento corretto sono differenti dalla modulazione tipica dell’N400 evidenziata dalla manipolazione semantico-categoriale. Tale componente non è presente invece (Esperimento 2) in un compito di decisione lessicale su coppie di parole (decidere se una pseudoparola sia presente all’interno della coppia), per il quale non sono rilevanti aspetti di anticipazione: qui emerge solamente l’N400 dovuta alla relazione semantica fra le parole della coppia. Il pattern evidenziato nel nostro studio a PR+1 appare molto simile a quello mostrato da Rohem e colleghi [64], quindi ciò indirettamente supporta la nostra interpretazione di una P300 per l’elaborazione dei costituenti idiomatici che emerge solo dopo il riconoscimento della stringa come idioma (cioè a PR+1). Il nostro studio mostra così due differenti indici associati a stadi diversi della comprensione di una espressione idiomatica: – al punto di riconoscimento (PR), una N400 distribuita bilateralmente per la condizione di Sostituzione del tutto congruente con gli altri casi di N400 riportati in letteratura per le frasi letterali; – al costituente successivo al punto di riconoscimento (PR+1), gli ERP divergono più precocemente (circa 70 ms prima) e l’onda relativa alla condizione Idiomatica mostra una P300 (prevalentemente distribuita centro-parietalmente) che indicizza un meccanismo diverso che entra in gioco quando il significato dell’idioma è già stato recuperato dalla memoria semantica. La P300 (P3) è una famiglia di componenti con polarità positiva e prevalente distribuzione fronto-centrale, che non è normalmente associata ai processi linguistici (ma si vedano [65] ad esempio). Si tratta forse della componente più indagata nella letteratura psicofisiologica, sensibile anche agli aspetti cognitivi dell’elaborazione di uno stimolo e in particolar modo agli aspetti percettivi e attentivi. Le interpretazioni relative al ruolo di questa famiglia di componenti sono molteplici e divergenti. Non è certo possibile sintetizzarle in poche righe e rimandiamo i lettori e le lettrici alla letteratura specifica (ad esempio, [66-71]). Kok [71] ha fornito un’interpretazione funzionale della P3 utile per interpretare i nostri dati. Kok muove dall’idea che vi sia un consenso generale circa il fatto che la P3 è evocata dopo che uno stimolo è stato valutato anche sulla base di informazioni parziali. L’ampiezza della P3 rifletterebbe la capacità attenzionale investita nella categorizzazione di eventi rilevanti per il compito: un processo che conduce alla decisione se un certo stimolo esterno corrisponda o meno alla rappresentazione internalizzata di uno specifico evento o categoria di stimoli ([71], p. 571). Questa concettualizzazione della P3 è per ammissione di Kok assai simile a quella proposta da altri autori ([72], ad esempio) che hanno associato la P3 a un meccanismo di template matching: quando i soggetti sono istruiti a cercare un certo stimolo, quanto più è forte il match fra l’informazione in arrivo e il template, tanto più ampia è la P3. Dati consistenti con questa ipotesi sono stati trovati per il linguaggio per effetti di familiarità di parole [73]. Kok conclude che la P3 rifletterebbe processi che sottostanno alla memoria di riconoscimento, cioè alla consapevolezza che uno stimolo appartiene o meno alla categoria di un certo evento target memorizzato (p. 573).
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici
157
Perché la posizione di Kok ci aiuta nell’interpretazione della P300 registrata nel nostro studio? Perché ipotizziamo che indicizzi quel processo che inizia dopo che l’idioma è stato riconosciuto e il suo significato recuperato dalla memoria: il lettore potrebbe operare un controllo fra l’espressione idiomatica rappresentata nella sua forma standard in memoria (il template) e i costituenti in entrata. Non a caso, quando dopo il punto di riconoscimento vi sono due o più costituenti idiomatici, osserviamo una P300 analoga, seppure di minor ampiezza, anche sul secondo costituente dopo il punto di riconoscimento. In questo tipo di stimoli, ma anche nel caso delle antinomie, si ha l’elicitiazione di una P300 per la parola attesa. Ciò che accomuna queste due situazioni linguistiche è che vi è in entrambi i casi un’aspettativa di tipo categoriale e non di tipo probabilistico, come nei casi dove vincoli dati dal contesto semantico-pragmatico danno luogo a modulazioni dell’N400. Il risultato di DeLong e colleghi [52] mostra che aspettative di tipo probabilistico molto alte (attorno al 90%) inducono anticipazioni del costituente dettagliate a livello lessicale e fonologico. La differenza fra questo caso e gli idiomi (e antinomie) non sta quindi tanto nel formato dell’anticipazione, ma piuttosto nella sua natura: probabilistica in un caso e categoriale nell’altro. La P300 nell’elaborazione degli idiomi potrebbe essere il correlato elettrofisiologico di una funzione di monitoraggio della congruenza fra la configurazione attivata e i costituenti successivi al punto di riconoscimento. Alternativamente, si potrebbe ipotizzare che la P3 indicizzi un meccanismo di inibizione del significato dei costituenti post punto di riconoscimento o di ricerca all’interno di uno spazio semantico-lessicale della parola percepita. Le evidenze che disponiamo allo stato attuale non ci permettono, però, di scegliere fra queste alternative. Quali sono le implicazioni di questi risultati per le ipotesi sulla comprensione degli idiomi? La più importante è che abbiamo mostrato un pattern elettrofisiologico differente quando si incontra una parola inattesa prima o dopo il punto di riconoscimento di un idioma (condizione di Sostituzione vs. condizione di Violazione), il che conferma indirettamente quanto ipotizzato dal modello della Configurazione [24]. Più in generale, questo lavoro contribuisce a chiarire un meccanismo presente in una varietà di stringhe linguistiche ben più ampia dei soli idiomi. Il fenomeno delle aspettative categoriali, infatti, si potrebbe applicare a tutti quei casi in cui vi sono rappresentazioni bound, o fisse, letterali o non letterali che siano (collocazioni, frasi fatte, titoli di poesie o di libri ecc.). Si potrebbe anche ipotizzare che le antinomie,22 come gli idiomi, siano rappresentate come configurazioni sovralessicali nella memoria semantica. Future ricerche dovranno chiarire l’elemento chiave che porta all’elicitazione di P300 all’interno di queste strutture. Più in generale, questi risultati contribuiscono a quel filone di studi sugli effetti prospettici nel parsing semantico di frasi cui la ricerca elettrofisiologica ha portato un contributo cruciale.
22 Che i termini fra loro antinomici siano rappresentati insieme nel lessico era già stato ipotizzato nella letteratura psicolinguistica ed è stato implementato anche in diversi modelli del lessico a base lessicografica (ad esempio, in WordNet).
158
C. Cacciari et al.
7. Conclusioni In questo capitolo abbiamo sostenuto la rilevanza di un fenomeno linguistico a lungo sottovalutato – le espressioni idiomatiche – per la comprensione dei meccanismi di elaborazione semantica di una frase. Ciò che le rende particolarmente appealing è proprio una caratteristica condivisa da queste altrimenti diversificate unità linguistiche dal significato figurato, e cioè che la loro identità può essere predetta sulla base di un frammento più o meno lungo e il loro significato recuperato, a quel punto, dalla memoria semantica. In altre parole, un caso specifico del meccanismo generale tipico del proactive brain descritto da Bar ([53], p. 282) che genera previsioni top down sull’identità dell’input, usando l’informazione bottom up iniziale. Lo stesso meccanismo può essere all’opera, ma a oggi non lo sappiamo, anche in altre espressioni letterali, come, ad esempio, le antinomie o le collocazioni.23 Abbiamo esaminato i meccanismi di anticipazione semantica menzionando l’importanza delle ricerche ERP condotte su questo aspetto dell’elaborazione del linguaggio e infine abbiamo illustrato i risultati di uno studio recentemente condotto dagli autori di questo capitolo che mostrano come la comprensione delle espressioni idiomatiche sia indicizzata da due diverse componenti elettrofisiologiche: una N400 sensibile alla natura bound dei costituenti all’interno di una stringa idiomatica, come era già stato mostrato per il linguaggio letterale, e una P300 che entra in gioco quando l’espressione idiomatica è già stata riconosciuta e attivata sulla base di un frammento di idioma e ne viene controllata la congruenza con i costituenti successivi. La dimostrazione che utilizzando idiomi prevedibili o antinomie [64] si siano riscontrati chiari effetti P300 nella finestra temporale tipica dell’N400 stimola l’utilizzo di tali paradigmi al fine di chiarire meglio differenze nei correlati ERP dell’elaborazione frasale in gruppi di volontari sani e in soggetti patologici [56, 57]. Ringraziamenti Ringraziamo l’ingegnere Matteo Corradini del laboratorio ELASTYC per l’aiuto fornitoci e la dottoressa Michela Slomp per la raccolta di parte dei dati normativi sugli idiomi. La scrittura di questo capitolo è stata possibile grazie a un finanziamento PRIN a Cristina Cacciari (2005119758_003).
23 Non a caso Cruse (1986, p. 40) definisce le collocazioni come sequenze di item lessicali che abitualmente co-occorrono ma che sono nondimeno semanticamente trasparenti nel senso ogni costituente lessicale è anche un costituente semantico (si tratti di collocazioni preposizionali, come ad esempio, in riferimento a, in partenza da, o verbali, come stendere un documento, parcheggiare la macchina, per citarne solo alcune).
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici
159
Bibliografia 1. Glucksberg S (1993) Idiom meaning and allusional content. In: Cacciari C, Tabossi P (eds) Idioms: processing, structure and interpretation. Erlbaum, Hillsdale, pp. 3-26 2. Kutas, Van Petten C, Kluender (2006) Psycholinguistics electrified II (1994-2006). In: Gernsbacher MA, Traxler M (eds) Handbook of Psycholinguistics. 2nd Edition. Elsevier Press, New York 3. Jackendoff R (1995) The boundaries of the lexicon. In: Everaert M, Van den Linden E, Schenk A, Schreuder R (eds) Idioms: structural and psychological perspectives. Erlbaum, Hillsdale, pp. 133-166 4. Pollio H, Barlow J, Fine H et al (1977) Metaphor and the poetics of growth: figurative language in psychology, psychotherapy and education. Erlbaum, Hillsdale 5. Cacciari C, Tabossi P (eds)(1993) Idioms: processing, structure and interpretation. Laurence Erlbaum, Hillsdale 6. Everaert M, Van der Linden EJ, Schenk A et al (eds) (1995) Idioms: structural and psychological perspectives. Laurence Erlbaum, Hillsdale 7. Katz AN (2006) Special Issue: metaphor and the brain. Metaphor Symbol 21:4 8. Giora R (2007) (ed) Is metaphor unique? Neural correlates of non-literal language. Brain Lang 100: 2 9. Fellbaum C (2007) (ed) Idioms and collocations: from corpus to electronic lexical resource. Continuum, Birmingham 10. Nenonen M, Niemi S (2007) Collocation and Idioms 1. Hoensuu University Press, Joensuu 11. Wasow T, Sag I, Nunberg G (1983) Idioms: an interim report. In: Hattori S, Inoue K (eds) Proceedings of the XIIIth International Congress of Linguistics, Tokyo, pp. 102-105 12. Bobrow S, Bell S (1973) On catching on to idiomatic expressions. Mem Cognition 1:343-346 13. Swinney D, Cutler A (1979) The access and processing of idiomatic expressions. J Verb Learn Verb Be 18:523-534 14. Gibbs RB (1980) Spilling the beans on understanding and memory for idioms. Mem Cognition 8:449-456 15. Nunberg G, Sag IA, Wasow T (1994) Idioms. Language 70:491-538 16. Keysar B, Bly B (1995) Intuitions of the transparency of idioms: can one keep a secret by spilling the beans? J Mem Lang 1:89-109 17. Cacciari C (1993) The place of idioms in a literal and metaphorical world. In: Cacciari C, Tabossi P (eds) Idioms: processing, structure and interpretation. Laurence Erlbaum, Hillsdale, pp. 27-55 18. Cacciari C, Glucksberg S (1991) Understanding idiomatic expressions: the contribution of word meanings. In: Simpson G (ed) Understanding word and sentence. Elsevier Science Publishers, Amsterdam, pp. 217-240 19. Hamblin JL, Gibbs RW (1999) Why you can’t kick the bucket as you slowly die: verbs in idiom comprehension. J Psycholinguist Res 28:25-39 20. Sprenger SA, Levelt WJ, Kempen G (2006) Lexical access during the production of idiomatic phrases. J Mem Lang 54: 161-184 21. Gibbs RW, Nayak NP, Cutting C (1989) How to kick the bucket and not decompose: analyzability and idiom processing. J Mem Lang 22:577-590 22. Glucksberg S (2001) Understanding figurative language. Oxford University Press, Oxford 23. Cacciari C, Glucksberg S (1994) Understanding figurative language. In: Gernsbacher MA (ed) Handbook of psycholinguistics. Academic Press, New York, pp. 447-477 24. Cacciari C, Tabossi P (1988) The comprehension of idioms. J Mem Lang 27:668-683 25. Miller GA, Selfridge J (1950) Verbal context and the recall of meaningful material. American J Psychol 63:176-185 26. Taylor WL (1953) “Cloze procedure”: a new tool for measuring readability. Journalism Quart 30:415-433 27. Shannon CE (1948) A mathematical theory of communication. AT&T Tech J 27:379-656
160
C. Cacciari et al.
28. Bloom PA, Fischler I (1980) Completions norms for 329 sentence contexts. Mem Cognition 8:631-642 29. Kutas M, Hillyard SA (1980) Event-related potentials to semantically inappropriate and surprisingly large words. Biol Psychol 11:99-116 30. Kutas M, Hillyard SA (1984) Brain potentials during reading reflect word expectancy and semantic association. Nature 307:161-163 31. Carreiras M, Clifton C (2005) The on-line study of sentence comprehension. Psychology Press, New York 32. De Vincenzi M, Di Matteo R (2004) Come il cervello comprende il linguaggio. Laterza, Bari 33. Cacciari C, Padovani R, Corradini P (2007) Exploring the relationship between individuals’ speed of processing and their comprehension of spoken idioms. Eur J Cogn Psychol 27:668-683 34. Peterson RR, Burgess C, Dell GS et al (2001) Dissociation between syntactic and semantic processing during idiom comprehension. J Exp Psychol Learn 90:227-234 35. Fanari R, Cacciari C, Tabossi P (submitted) Spoken idiom recognition: the role of length and context 36. Tabossi P, Zardon F (1993) The activation of idiomatic meaning in spoken language. In: Cacciari C, Tabossi P (eds) Idioms: processing, structure and interpretation. Laurence Erlbaum, Hillsdale, pp. 145-162 37. Tabossi P, Zardon F (1995) The activation of idiomatic meaning. In: Everaert M, Van den Linden E, Schenk A, Schreuder R (eds) Idioms: structural and psychological perspectives. Erlbaum, Hillsdale, pp. 273-282 38. Tabossi P, Fanari R, Wolf K (2005) Spoken idiom recognition: meaning retrieval and word expectancy. J Psycholinguist Res 34:465-495 39. Titone DA, Connine CN (1994) Comprehension of idiomatic expressions: effect of predictability and literality. J Exp Psychol Learn 20:1126-1138 40. Cutting JC, Bock K (1997) That’s the way the cookie bounces: syntactic and semantic components of experimentally elicited idiom blends. Mem Cognition 25:57-71 41. Cruse DA (1986) Lexical Semantics. Cambridge University Press, New York 42. Vespignani F, Canal P, Molinaro N, Cacciari C (2007) What ERPs tell us about the mechanisms underlying idiom comprehension. Relazione presentata al XVth Conference of the European Society for Cognitive Psychology, Marseille, France 43. Altmann GTM, Kamide Y (1999) Incremental interpretation of verbs: restricting the domain of subsequent reference. Cognition 73:247-264 44. Eberhard K, Spivey-Knowlton S, Sevivy J et al (1995) Eye movements as a window into realtime spoken language processing in natural contexts. J Psycholinguist Res 24:409-436 45. Sedivy JC, Tanenhaus MK, Chambers CG et al (1999) Achieving incremental semantic interpretation through contextual representation. Cognition 71:109-147 46. Altmann GTM (1999) The ascent of Babel: an exploration of language, mind, and understanding. Oxford University Press, Oxford 47. McRae K, Ferretti TR, Amyote L (1997) Thematic role as language specific concepts. Lang Cognitive Proc 12:137-176 48. Trueswell JC, Tanenhaus MK, Garnsey S (1994) Semantic influences on parsing: use of thematic role information in syntactic ambiguity resolution. J Mem Lang 33:285 -318 49. Levy R (in press) Expectation-based syntactic comprehension. Cognition 50. Kutas M, Van Petten C (1994) Psycholinguistic evidence electrified: event-related brain potentials investigation. In: Gernsbacher MA (ed) Handbook of psycholinguistics. Academic Press, New York, pp. 83-144 51. Kutas M, Federmeier KD (2000) Electrophysiology reveals semantic memory use in language comprehension. Trends Cogn Sci 4:463-470 52. DeLong KA, Urbach TP, Kutas M (2005) Probabilistic word pre-activation during language comprehension inferred from electrical brain activity. Nat Neuriosci 8:1117-11121 53. Bar M (2007) The proactive brain: using analogies and associations to generate predictions. Trends Cogn Sci 11:280-289 54. Van Berkum JJA, Brown CM, Zwitserlood P, Koojiman V, Hagoort, P (2005) Anticipating
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici
55. 56.
57. 58. 59. 60. 61. 62.
63. 64.
65. 66. 67. 68. 69. 70. 71. 72. 73.
161
upcoming words in discourse: evidence from ERPs and Reading Times. J Exp Psychol Learni 31:443-467 Jackendoff R (2007) A parallel architecture perspective on language processing. Brain Res 1146:2-22 Strandburg RJ, Marsh JT, Brown WS et al (1993) Event-related potentials in high-functioning adult autistics: linguistic and nonlinguistic visual information processing tasks. Neuropsychology 31:413-34 Strandburg RJ, Marsh JT, Brown WS et al (1997) Event-related potential correlates of linguistic information processing in schizophrenics. Biol Psychiat 42:596-608 Zhou S, Zhou W, Chen X (2004) Spatiotemporal analysis of ERP during Chinese idiom comprehension. Brain Topogr 17:27-37 Laurent JP, Denhieres G, Passerieux C et al (2006) On understanding idiomatic language: the salience hypothesis assessed by ERPs. Brain Res 12:151-60 Sperber D, Wilson D (1986) Relevance: communication and cognition. Blackwell, Oxford Giora R (2003) On our minds: salience, context and figurative language. Oxford University Press, Oxford Osterhout L, Holcomb PJ (1995) Event-related brain potentials and language comprehension. In: Rugg MD, Coles MGH (eds) Electrophysiology of mind: event-related brain potentials and cognition. Oxford University Press, Oxford Kutas M, Iragui V (1998) The N400 in a semantic categorization task across 6 decades. Electroen Clin Neuro 108:456-471 Roehm D, Bornkessel-Schlewiesky I, Roesler F et al (2007) To predict or not to predict: Influences of task and strategy on the processing of semantic relations. J Cognitive Neurosci 19:1259-1274 Coulson S, King JW, Kutas M (1998) Expect the unexpected: event-related brain responses to morphosyntactic violations. Lang Cognitive Proc 13:21-58 Donchin E (1981) Surprise! … Surprise? Psychophysiology 18:493-513 Donchin E, Coles MGH (1988) Is the P300 component a manifestation of context updating? Behav Brain Sci 11:357-374 Picton TW (1993) The P300 wave of the human event-related brain potentials. J Clin Neurophysiol 9:456-479 Verleger R (1988) Event-related potentials and cognition: a critique of the context updating hypothesis and an alternative interpretation of P3. Behav Brain Sci 11:343-327 Verleger R (1997) On the utility of the P3 latency as an index of mental chronometry. Psychophysiology 34:131-156 Kok A (2001) On the utility of P3 amplitude as a measure of processing capacity. Psychophysiology 38:557-577 Chao L, Nielsen-Bohlman LC, Knight RT (1995) Auditory event-related potentials dissociate early and late memory processes. Electroen Clin Neuro 96:157-168 Rugg MD, Doyle MC (1992) Event-related potentials and recognition memory for low- and high-frequency words. J Cognitive Neurosc 4:69-79
Capitolo 6
Dalla pragmatica alla prospettiva neuropragmatica Michela Balconi, Simona Amenta
6.1 Comunicazione e pragmatica Utilizzando le due metafore coniate da Reddy [1], denominate conduit metaphor e toolmakers paradigm, possiamo introdurre alcune distinzioni circa la natura della comunicazione e delle proprietà pragmatiche che la caratterizzano. Secondo la prima metafora, le espressioni linguistiche utilizzate dai parlanti in interazione sono veicoli all’interno dei quali idee e significati possono essere versati ed estratti, rimanendo immutati nel passaggio; quello che accadrebbe nella comunicazione altro non sarebbe quindi che uno scambio di informazioni tra due persone. Il paradigma della “progettualità”, al contrario, inscena una situazione molto più complessa: gli interlocutori sono individui che vivono in mondi separati; nessuno di loro conosce le caratteristiche del mondo degli altri e ignora se queste siano uguali o dissimili dal proprio. Costoro non hanno una lingua comune, ma – essendo tutti agricoltori – si scambiano progetti su strumenti che possono facilitare la coltivazione dei propri terreni. Ognuno è fiero degli strumenti che inventa e dei progetti che stende in modo da rendere possibile agli altri la realizzazione di tali strumenti. Ciononostante, coloro che progettano si sentono spesso delusi, irritati e spiacevolmente stupiti, dal fatto che i loro progetti sono spesso fraintesi. Al contrario, motivo di gioia sono le poche volte nelle quali i progetti sono accettati senza alcuna modifica, così come sono stati pensati. A partire dalle due metafore riportate poco sopra è possibile dedurre che i messaggi comunicativi, più che veicoli per pensieri, sono simili a “progetti”, la cui interpretazione da parte degli interlocutori non presenta alcuna garanzia di corrispondenza esatta tra i significati manipolati da chi realizza il progetto e quelli di chi ne è destinatario. Inoltre questa prospettiva suggerisce che la produzione di un messaggio è simile a un processo di costruzione, che implica numerose scelte e assunzioni rispetto alle credenze e alle rappresentazioni del destinatario. Quest’ultimo permette al parlante di veicolare la propria intenzione di comunicare qualcosa (intenzione comunicativa) nel modo ritenuto più efficace (per il concetto di intenzione, si veda il Capitolo 7). In questa luce prendono corpo due questioni: in primo luogo, dobbiamo chiederci che cosa intendiamo per “significato” in senso pragmatico e che rapporto esiste tra questo costrutto e i processi mentali (rappresentazione, pianificazione, intenzionalità ecc.) che ne sono all’origine. In secondo luogo, occorre domandarsi quale sia il rapporto sussistente tra la semantica, ovvero lo studio del significato, e la pragmatica, in quanto disciplina che si occupa dello studio dell’uso del linguaggio [2-4]. M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008
164
M. Balconi, S. Amenta
6.1.1 Problema del “significato pragmatico” e rapporto semantica/pragmatica Un primo problema riguarda ciò che comunemente viene considerato “significato” [5-8]. Nonostante il significato sia spesso rappresentato come una proprietà delle parole e delle frasi e quindi possa essere studiato in isolamento, la pragmatica riconosce un vasto dominio della significazione che permea la vita e le attività delle persone. Il significato è legato alle azioni e ancor di più alle intenzioni: una comunicazione di successo, o meglio, il trasferimento di successo di significati, è da vedersi come un processo volto a realizzare uno stato di mutua conoscenza relativo a un’intenzione comunicativa. Da un punto di vista pragmatico, possiamo quindi affermare che il significato di un’espressione linguistica non è da intendersi tanto come la “somma” o “composizione” dei significati delle singole parole che la costituiscono, ma sia da ricercare in ciò che il parlante intende esprimere e comunicare e in ciò che chi ascolta riesce a comprendere attraverso processi inferenziali (per un approfondimento si veda [9]). In questo senso, il significato pragmatico si costruisce nell’interazione tra due individui razionali, dotati di intenzionalità, credenze e portatori di una propria visione del mondo che può fungere da cornice (frame) interpretativa dei messaggi prodotti nello scambio comunicativo stesso. È evidente quindi che per definire il significato pragmatico sia necessario fare riferimento ai processi di intenzionalizzazione, scelta, rappresentazione e inferenza, cui si accennava poco sopra. In secondo luogo, è necessario trattare un ulteriore quesito relativo al rapporto tra semantica e pragmatica. Generalmente si sostiene che la pragmatica si occupa del significato degli enunciati, ovvero del significato del parlante; la semantica, invece, elegge come proprio campo di indagine il significato delle parole e delle frasi. Entrambe le discipline studiano il significato delle espressioni linguistiche, ma, mentre la semantica si concentra sull’espressione linguistica, la pragmatica focalizza la propria attenzione sugli interlocutori e sui processi da loro attuati nella generazione dei significati. Tuttavia, la pragmatica deve essere considerata non soltanto come la scienza che studia il modo in cui i destinatari aggiungono informazione contestuale alla struttura semantica [3]. Seppur corretta, infatti, consideriamo questa definizione troppo limitante rispetto al complesso oggetto di analisi della pragmatica, che è da intendersi come lo studio di come individui dotati di un sistema cognitivo complesso operino continue scelte, sia sul piano comunicativo sia sul piano cognitivo ed emotivo, al fine di soddisfare le esigenze di mutuo scambio e mutua condivisione dei propri significati [10].
6.2. Questioni pragmatiche 6.2.1. Alle origini della prospettiva pragmatica Come è stata elaborata la teoria pragmatica? Premettiamo innanzitutto che non è affatto facile trovare e dare una definizione univoca di “pragmatica” a causa della complessità dei fenomeni e dei processi coinvolti e del fatto che essa, in quanto
6. Dalla pragmatica alla prospettiva neuropragmatica
165
disciplina che si caratterizza per una sostanziale interdisciplinarietà, colloca il proprio oggetto di studio al crocevia di differenti domini, quali la filosofia, la linguistica, l’antropologia, la psicologia, la sociologia ecc. Comunemente sono riconosciuti come oggetti di studio della pragmatica linguistica l’agire linguistico e soprattutto l’uso del linguaggio e il linguaggio come mezzo per l’agire umano, ovvero lo studio del modo in cui gli interagenti, da un lato, producono e veicolano, e dall’altro, ricevono e comprendono il “significato” di ciò che è detto; in sintesi, possiamo definire la pragmatica come studio dei fenomeni linguistici dal punto di vista delle loro proprietà e processi d’uso [11]. Ma come si è giunti a tale rappresentazione? L’attuale utilizzo del termine pragmatica può essere fatto risalire alle teorie di Morris [12], secondo il quale oggetto di studio della pragmatica è da considerarsi la “relazione tra segni e interpreti”. Lo studio di tale relazione è da distinguersi in tre livelli: 1) sintassi, ovvero la relazione tra segni; 2) semantica, ovvero la relazione tra un segno e l’oggetto cui il segno fa riferimento; 3) pragmatica, la relazione tra segni e utenti. Ulteriori studi hanno tentato di elaborare teorie riguardanti la natura delle relazioni tra segni e interpreti. Ad esempio, Grice [13] si è occupato di come i parlanti riescano a comunicare una specifica intenzione comunicativa e di come gli interlocutori possano riconoscerla rintracciando una serie di “regole” conversazionali che rendano possibile tali processi. Dal canto loro Austin [14] e Searle [15, 16] hanno tentato di classificare sistematicamente le intenzioni comunicative partendo dal principio secondo il quale “parlare è agire” ed elaborando una teoria volta a definire gli atti linguistici fondamentali (speech act) che una persona compie simultaneamente quando parla.1
6.2.2. La pragmatica come “strategia” e come “scelta” comunicativa Questi ulteriori studi si allontanano da una prospettiva “complementarista”, che considera la pragmatica come una componente aggiuntiva del linguaggio (affiancata alle componenti fonologica, morfosintattica e semantica [12]) e si avvicinano a una prospettiva che considera la pragmatica come una competenza comunicativa dell’uso linguistico che si esplica a ogni livello della produzione comunicativa [10]. In questa nuova luce, ogni livello linguistico può essere studiato secondo un’ottica pragmatica e la “questione” fondamentale, diventa: cosa fanno le persone quando usano il linguaggio? Cosa fanno per mezzo del linguaggio? Tra gli altri, a titolo esemplificativo, consideriamo l’approccio proposto da Dascal [17], il quale suggerisce una definizione di pragmatica come teoria dell’uso del linguaggio che tenga conto delle “interrelazioni tra linguaggio e situazioni comunicative all’interno delle quali è utilizzato” (uso comunicativo del linguaggio) e di “ciò che accade nella mente dei comunicanti” (studio cognitivo della pragmatica). Infatti, produrre e
1 1) atti locutori, ovvero la produzione di una sequenza di suoni; 2) atti illocutivi o performativi, ovvero la manifestazione di intenzioni e il perseguimento di scopi; e 3) atti perlocutivi, ovvero gli effetti provocati dall’atto nell’interlocutore [16].
166
M. Balconi, S. Amenta
comprendere un messaggio vede gli individui impegnati attivamente in differenti compiti cognitivi finalizzati al raggiungimento di un obiettivo comunicativo complesso e articolato. In particolare, usare il linguaggio per comunicare consiste nell’operare scelte linguistiche, sia da parte di chi produce il messaggio sia da parte di chi lo deve interpretare. Queste scelte possono collocarsi a ogni livello della forma linguistica: fonetica, fonologica, morfologica, sintattica, lessicale, semantica. In primo luogo, dunque, le scelte sono compiute a livello di struttura del linguaggio (ad esempio, prevedere una determinata costruzione sintattica dell’enunciato); in secondo luogo, a livello delle strategie comunicative messe in atto dai parlanti. Questa prospettiva di analisi consente di riformulare la comune definizione di pragmatica della comunicazione mettendo al centro non tanto le regole comunicative, quanto i processi cognitivi che rendono possibile la comunicazione [10, 18]. La pragmatica, come abbiamo visto, può essere considerata una prospettiva di analisi della produzione/comprensione del linguaggio in un contesto interattivo complesso che non si costituisce soltanto come “situazione” contingente all’interno della quale ha luogo l’interazione, bensì come ambito potenziale in cui trovano spazio le credenze, i desideri e, più in generale, gli stati mentali ed emotivi degli interlocutori. L’analisi della pragmatica non è più solo intesa come “elemento della comunicazione” ma in quanto “abilità comunicativa” che comporta precise scelte soggettive. Intrinseci al processo di scelta sono alcuni principi che ne definiscono la natura. In particolare occorre sottolineare che il soggetto opera scelte e costruisce strategie grazie: – alla variabilità, intesa come proprietà della comunicazione che definisce il range di possibilità all’interno del quale compiere scelte comunicative; – alla negoziabilità, declinata in termini di proprietà della comunicazione che rende possibile scelte non meccaniche ma sulla base di principi e strategie altamente flessibili. Inoltre, la negoziabilità implica l’indeterminatezza dei processi di scelta, sia da parte di chi produce sia da parte di chi interpreta; – all’adattabilità, che rende possibile per gli esseri umani operare scelte linguistiche negoziabili all’interno di un vasto range di possibilità, puntando alla massima soddisfazione dei bisogni comunicativi; – al diverso grado di salienza dei processi di adattabilità, ovvero non tutte le scelte sono compiute coscientemente, alcune sono automatiche mentre altre altamente consapevoli. In sintesi, le scelte possono essere operate da parlante e ascoltatore e possono essere automatiche o elaborate coscientemente (per questo concetto si veda anche il Capitolo 7); – all’indeterminatezza, relativa al fatto che le scelte, una volta operate, possono essere permanentemente rinegoziate. È implicito nel concetto di adattabilità il riferimento al contesto comunicativo con il quale le scelte compiute devono essere interadattabili (ambiente fisico, relazioni sociali, stato mentale ed emotivo di parlante e interlocutore) e del contesto personale (componenti di personalità, emozioni, credenze, desideri, motivazioni, intenzioni ecc.); – al prerequisito della dinamicità: relativo allo sviluppo dei processi di adattamento nel tempo.
6. Dalla pragmatica alla prospettiva neuropragmatica
167
6.2.3. Pragmatica, comprensione e inferenza Un versante particolarmente complesso e di sempre maggiore interesse della prospettiva pragmatica riguarda il processo di comprensione, piuttosto che di produzione, del significato. Ciò chiama in causa una serie di meccanismi inferenziali (per un approfondimento cfr. [18]). La comprensione del linguaggio richiede, in un’ottica pragmatica, il completamento di due processi fondamentali: la comprensione del significato espresso (o semantico) e la comprensione del significato del parlante (o pragmatico) [13, 19, 20]. In generale, le teorie pragmatiche sostengono che il significato di un enunciato risulti dall’unione di una componente semantica e di una pragmatica, nonostante esse non sempre si sono trovate d’accordo sul ruolo e sull’importanza dei due suddetti processi. Le differenze più evidenti tra gli approcci sopra esposti sono da riscontrarsi nel ruolo giocato e nei tempi di intervento della componente pragmatica e contestuale. Le teorie classiche in particolare concordano nel riconoscere tre livelli di significato (significato letterale/minimo, ciò che è detto, ciò che è implicato) e offrono diverse spiegazioni riguardo alle modalità secondo le quali i comunicanti sono in grado di integrare i tre livelli [13, 20-22]. Per citare una tra le teorie più illustri, secondo Grice [13] la comunicazione umana è fondata sul Principio di Cooperazione (CP), il quale vincola i parlanti a rispettare alcune massime conversazionali (quantità, qualità, relazione, modo), così da rendere possibile la corretta comprensione delle intenzioni comunicative. A partire da questo presupposto, “ciò che è detto” sembra coincidere con il significato minimo (letterale) di una frase, mentre, solo in seguito alla violazione di una o più massime, le persone metterebbero in atto processi inferenziali volti alla comprensione di ciò che è comunicato (inteso). Secondo Grice, quindi, esisterebbero due livelli di contenuto: – ciò che è detto: il pensiero linguisticamente esplicitato (vero-condizionale, molto vicino al contenuto semantico/linguistico); – ciò che è implicato: il pensiero pragmaticamente ricostruito, inteso. Pertanto, ciò che è esplicito è il significato linguisticamente codificato, mentre ciò che resta implicito è il significato inteso che deve essere pragmaticamente inferito; in particolare, ciò che è detto è determinato dalla proposizione minima/contenuto vero-condizionale ed è ricostruito semanticamente, mentre ciò che è inteso è determinato dal significato implicato ed è ricostruito pragmaticamente. Alcuni studiosi [20, 21], seguendo la strada tracciata da Grice, hanno esteso il ruolo dei processi pragmatici alla determinazione di parte di ciò che è detto: i significati non derivanti dalla decodifica linguistica devono essere spiegati attraverso l’applicazione della conoscenza pragmatica. In altre parole, il significato vero-condizionale/letterale/minimo di una frase è solo una parte minima di ciò che è comunicato. Un’ulteriore estensione del ruolo dei processi pragmatici è stato attuato a opera dei teorici della pertinenza [19, 22]. Secondo questi autori, i medesimi processi pragmatici che intervengono per stabilire ciò che è implicato sono usati anche per comprendere ciò che è detto: la semantica vero-condizionale stabilisce le condizioni di verità di un enunciato e ne deriva il significato minimo, ma la comprensione
168
M. Balconi, S. Amenta
di ciò che è comunicato richiede una certa espansione pragmatica di tale significato. All’interno di questo quadro, obiettivo della pragmatica inferenziale diventa quindi quello di inferire le intenzioni del parlante e il significato che egli vuole comunicare. In altre parole, il codice linguistico non determina totalmente ciò che è esplicitamente espresso da un enunciato (underdeterminacy thesis) ma, al fine di ricostruire quanto comunicato dal parlante, devono intervenire processi cognitivi guidati da principi comunicativi e pragmatici. Inoltre, il processo di codifica linguistica non è orientato a essere massimamente esplicito bensì a minimizzare lo sforzo per interpretare il significato inteso. La comunicazione è guidata dai principi cognitivi e comunicativi di pertinenza (per una trattazione esaustiva di questo concetto si rimanda a [19]). Proprio su questo parametro si fonda la predizione di rilevanza di uno stimolo linguistico per un individuo: la “pertinenza” è una funzione dell’effetto cognitivo prodotto e dello sforzo di elaborazione. Secondo gli studiosi, un enunciato linguistico è, per un individuo, uno stimolo in sé rilevante e la “rilevanza” è questione di gradi: se è vero che ogni stimolo in grado di produrre un effetto cognitivo positivo è “rilevante”, è anche vero che è più “rilevante” lo stimolo in grado di produrre l’effetto cognitivo maggiormente positivo e meno rilevante lo stimolo che richiede maggiore sforzo di elaborazione.
6.2.4. Pragmatica e psicolinguistica: la salienza e la direct access view Negli ultimi anni si è assistito a una sensibilizzazione della psicolinguistica verso i temi di studio della pragmatica e, contemporaneamente, a un’attenzione della pragmatica verso i metodi di studio della psicolinguistica (per approfondimento si veda [23]). Nell’ottica psicolinguistica, le domande della pragmatica si concretizzano in ipotesi riguardo il ruolo degli elementi contestuali nella selezione dei significati e quindi nella comprensione degli enunciati [24]. Due differenti approcci possono essere considerati rappresentativi dell’interpretazione del rapporto linguaggio/contesto: un primo approccio che vede l’intervento dell’informazione contestuale come secondario rispetto all’elaborazione dell’informazione semantica, e un secondo che prevede un’elaborazione simultanea delle informazioni semantiche e contestuali (pragmatiche). Esaminiamo in particolare alcuni modelli centrali di questo secondo approccio. In primo luogo, la teoria di Giora [25] può essere vista come la risposta a due domande fondamentali: – È l’informazione contestuale o il significato linguistico a determinare il processo iniziale di comprensione? – Che ruolo gioca il contesto nella comprensione verbale? I processi iniziali di comprensione coinvolgono due meccanismi separati che operano simultaneamente senza interagire tra loro: uno sensibile all’informazione
6. Dalla pragmatica alla prospettiva neuropragmatica
169
linguistica e un altro sensibile all’informazione contestuale (linguistica e non linguistica). Il primo meccanismo, responsabile dell’accesso lessicale, risponde solo all’informazione codificata nel lessico mentale e prevede un accesso sulla base della salienza. Il secondo meccanismo, sensibile all’informazione contestuale, contribuisce alla formazione globale del messaggio. I due meccanismi sono separati e operano in parallelo come mostrato schematicamente nella Tabella 6.1. L’accesso prioritario è dato ai significati più salienti. Un significato per essere saliente deve essere codificato nel lessico mentale e deve godere di preminenza grazie ai suoi livelli di convenzionalità, frequenza, familiarità e prototipicità. Solo se i significati salienti sono contestualmente incompatibili vengono attivati processi addizionali che richiedono l’intervento dell’informazione contestuale. Il contesto, quindi, in determinate condizioni, interviene con funzione predittiva equilibrando la salienza. In base a questi parametri sono postulati diversi gradi di salienza. I significati più salienti ottengono un accesso immediato, mentre i significati meno salienti (non codificati) richiedono ulteriori processi inferenziali contestualmente supportati. Anche la domanda iniziale di Gibbs [24, 26] riguarda la relazione tra messaggio e contesto all’interno del quale il messaggio è veicolato. Secondo l’autore permane la distinzione tra ciò che il parlante dice e ciò che intende comunicare in un dato contesto, ma, contrariamente a quanto formulato dalle teorie standard, considera la componente pragmatica non come un livello ulteriore dell’elaborazione linguistica, bensì come una competenza indipendente dal linguaggio stesso. In termini pragmatici si può affermare che ciò che è detto non coincide con il significato minimo della frase, ma, già a questo livello le persone usano l’informazione pragmatica per comprendere ciò che è detto. In altre parole, secondo Gibbs la comprensione del linguaggio non avverrebbe in stadi distinti, come affermato dalle teorie standard; al contrario, vi sarebbe un unico processo di comprensione sotteso all’elaborazione di significati minimi e pragmatici (Direct Access View). Inoltre, se i contesti sono egualmente espliciti, lo stesso enunciato può essere usato in una qualsiasi modalità pragmatica (standard o non standard) senza che si verifichi alcuna difficoltà di elaborazione. La Direct Access View sostiene che, quando fornite di informazioni contestuali sufficienti, le Tabella 6.1 Meccanismi attivati nella comprensione di un enunciato. Modificata da [25] Meccanismo linguistico
– Sensibile allo stimolo – Bottom-up (dallo stimolo linguistico alla conoscenza lessicale ai fini della loro corrispondenza) – Opera localmente (word-level) – La salienza è criterio di accesso prioritario
Meccanismo contestuale
– Guidato dalle aspettative – Top-down (opera per la comprensione quando l’informazione linguistica è già stata processata) – Non interagisce con il meccanismo linguistico ma opera in parallelo
170
M. Balconi, S. Amenta
persone comprendono il significato non-letterale direttamente senza analizzare il completo significato letterale di un’espressione. Quindi: – esiste un unico meccanismo sensibile sia all’informazione linguistica sia a quella non linguistica; – l’informazione contestuale interagisce molto precocemente con il lessico e comporta l’accesso selettivo ai significati contestualmente appropriati; – i significati contestualmente inappropriati vengono inibiti e quindi non raggiungono un sufficiente livello di attivazione. I parlanti possono comprendere direttamente i significati intesi di enunciati non letterali se questi sono inseriti in contesti reali o sufficientemente ricchi. Essi non hanno pertanto bisogno di analizzare il significato letterale completo di un’espressione linguistica prima di accedere all’informazione pragmatica per capire il significato inteso dal parlante. In sintesi, tale approccio prevede l’esistenza di un unico meccanismo interattivo sensibile sia all’informazione linguistica sia all’informazione non linguistica. L’informazione contestuale interagisce con il lessico molto precocemente, conducendo a un accesso selettivo del significato contestualmente appropriato. Al contrario, i significati contestualmente inappropriati sono inibiti in quanto non ricevono un livello di attivazione sufficiente.
6.3. Neuropragmatica 6.3.1. Prospettiva neuropragmatica e neuropragmatica cognitiva Come abbiamo visto, la pragmatica si occupa principalmente dell’uso comunicativo del linguaggio. La neuropragmatica, a integrazione della precedente, si pone l’obiettivo di analizzare la relazione tra la struttura e il funzionamento cerebrale e i processi mentali di uso del linguaggio. Essa si occupa cioè del modo in cui la mente produce e comprende comportamenti pragmatici linguistici in popolazioni sane o con deficit neurologici di vario genere [27-29]. In particolare, la neuropragmatica, in quanto si prefigge di indagare l’attività mentale studiandone l’organizzazione neurale e funzionale in ottica multicomponenziale (mediante l’analisi di deficit, naturali o virtuali cognitivi ed emotivi), si colloca da un lato al crocevia tra pragmatica linguistica e cognitiva, dall’altro tra neurolinguistica, neuroscienze cognitive e neuropsicologia sperimentale. I suoi principali obiettivi sono riassumibili nei seguenti punti: – costituirsi come paradigma per testare le teorie pragmatiche attraverso metodologie avanzate; – indagare le basi neurali dei processi cognitivi coinvolti nella comunicazione umana, intesa come azione intenzionale e orientata e come processo cognitivo complesso volto alla costruzione e condivisione dei significati.
6. Dalla pragmatica alla prospettiva neuropragmatica
171
Nelle sue differenti direzioni di sviluppo è possibile individuare un primo filone fecondo definito neuropragmatica clinica, finalizzata a individuare specificamente i deficit nella produzione/comprensione di particolari componenti del processo comunicativo (ad esempio, quelle legate all’elaborazione del discorso [30-33]). In secondo luogo, all’interno del paradigma neuropragmatico, uno spazio specifico è riservato alla neuropragmatica cognitiva, secondo cui le abilità pragmatiche stesse sono concepite in termini di “sequenze di stati mentali (come credenze e intenzioni) che due agenti intrattengono nel progettare e comprendere gli atti comunicativi che formano il discorso” [29]. Lo studio neuropragmatico della comunicazione consiste quindi nell’analizzare le basi neurali sottostanti alle abilità pragmatiche e i fattori che le influenzano. In particolare, ci si chiede quali meccanismi cognitivi e quali circuiti neurali si attivano e in quali tempi ciò avvenga. In questo senso, per buona parte degli studi di neuropragmatica le unità di analisi non sono più semplicemente gli atti linguistici, come nel caso della pragmatica linguistica, ma diventano i processi cognitivi e le loro basi neurali, che compongono il processo comunicativo da intendersi come interattivo, interadattabile e inferenziale. Il comportamento comunicativo, in altri termini, è funzione di più processi cognitivi quali quelli di predisposizione di complesse sequenze di atti linguistici, extralinguistici, paralinguistici (per questi concetti, si veda il Capitolo 1) e di integrazione di questi con piani e scopi specifici del parlante. Inoltre, richiede un attento monitoraggio del processo stesso in relazione al feedback interno (ad esempio, il livello di attivazione fisiologica) ed esterno (quale la risposta dell’interlocutore e dell’ambiente) [34].
6.3.2. Problematiche aperte dell’approccio neuropragmatico Tra i principali quesiti oggetto di analisi della neuropragmatica vi è quello relativo all’esistenza di circuiti neurali specifici per le abilità pragmatiche e se questi possano essere indicati da correlati neuropsicologici e psicofisiologici particolari. Buona parte degli studi di neuropragmatica si è occupata di fornire descrizioni e spiegazioni dettagliate di come le abilità pragmatiche siano conservate o compromesse in popolazioni con danni cerebrali [35-39] o di dove e quando i significati pragmatici vengono elaborati in popolazioni normali [40-43]. Alla base di tale concetto si pone in particolare il quesito circa la rappresentazione delle funzioni pragmatiche all’interno di un determinato modulo o di moduli corticali finalizzati e specifici per determinate competenze. Gli studiosi si sono chiesti, ad esempio, se esista un modulo “dedicato”, in grado di rappresentare i sistemi cognitivi sottostanti alla comprensione degli atti linguistici indiretti, come l’ironia, o il linguaggio figurato, come nel caso di enunciati metaforici. Tuttavia, seppure a una concezione più “forte” di modulo si è affiancata nel corso del tempo anche una rappresentazione più “debole”, che presuppone la possibilità di interdipendenza e interscambio tra sistemi e sottosistemi e una rappresentazione distribuita piuttosto che localizzata degli stessi [44, 45]. A oggi non esistono studi esaustivi in grado di definire una esatta localizzazione delle principali funzioni pragmatiche a livello corticale.
172
M. Balconi, S. Amenta
In secondo luogo, l’interdisciplinarietà della neuropragmatica comporta una pluralità di strumenti di ricerca che utilizzano modelli teorici e metodologie a volte molto diversi tra loro. Nel Capitolo 2 si è fatto esplicito riferimento ai principali strumenti della ricerca neuropsicologica (compresa quella cognitiva, clinica e sperimentale). Inoltre, lo studio neuropragmatico si caratterizza anche per i diversi approcci e paradigmi di ricerca adottati al suo interno [46]. Il paradigma della neuropragmatica si è occupato sia di produzione sia di comprensione del linguaggio, ma ha privilegiato per i due ambiti diversi oggetti di studio: per la comprensione del linguaggio, si sono analizzati soprattutto fenomeni relativi al linguaggio figurato (metafore, ironia, umorismo), agli atti linguistici indiretti e ai fenomeni di inferenza (anche riguardanti implicature conversazionale); mentre nello studio della produzione è stata data particolare attenzione alle abilità (o “disabilità”) discorsive (per una breve rassegna cfr. [47]). Per quanto riguarda i “luoghi” dell’elaborazione pragmatica, si è tradizionalmente indicato l’emisfero destro come ambito privilegiato di localizzazione dei fenomeni pragmatici (per un approfondimento si veda [48-50]). Le ragioni della distinzione hanno trovato a lungo sostegno nelle teorie che affermano l’esistenza di differenze anatomiche e funzionali tra i due emisferi. In particolar modo, all’emisfero sinistro è attribuita una modalità di elaborazione delle informazioni razionale, analitica, sequenziale e locale (propri del pensiero logico); mentre l’emisfero destro si caratterizzerebbe per modalità olistiche, sintetiche, parallele e globali di funzionamento. Le differenti specializzazioni emisferiche sarebbero quindi da individuare in particolar modo nelle modalità di elaborazione delle informazioni [50, 51]. L’emisfero destro sarebbe dunque l’emisfero specializzato nell’elaborazione visuospaziale, sensibile alle variazioni prosodiche (espressive ed emotive), all’organizzazione semantico-lessicale idiosincratica e quindi “naturalmente” legato ai diversi aspetti dell’uso del linguaggio, propri della pragmatica [49, 52]. Queste teorie hanno trovato riscontro nello studio della compromissione delle abilità pragmatiche in popolazioni cliniche [53-56]. Tuttavia, studi recenti, sia clinici sia sperimentali, adottando anche strumenti di analisi differenti (come nuove batterie testistiche) [46, 57, 58] o metodologie di neuroimaging (cfr. [59]) hanno messo in discussione le precedenti teorie rilevando una complessa rete di attivazione sia coinvolge entrambi gli emisferi, in particolar modo per quanto riguarda i lobi frontali [60]. Le stesse problematiche si riscontrano nei paradigmi di ricerca che si occupano dei “tempi” necessari affinché l’elaborazione pragmatica avvenga, soprattutto utilizzando misure di natura elettrofisiologica. Quest’ultima metodologia consente infatti un monitoraggio puntuale delle modificazioni della risposta corticale del soggetto alle proprietà degli stimoli linguistici, evidenziando la natura qualitativa dei processi cognitivi implicati nella produzione e comprensione del linguaggio. All’interno di questo paradigma è stato via via consolidato, ad esempio, il ruolo della componente ERP N400 [61], rilevata in presenza di stimolazioni di differente natura, relativa ai processi di integrazione semantica o nel caso della rilevazione di un’incoerenza stimolo/contesto, o, ancora di stimolo inatteso [62-67]. In alcuni casi, tale indice è stato rilevato come sensibile alle componenti non letterali del significato, in condizioni di comprensione di signi-
6. Dalla pragmatica alla prospettiva neuropragmatica
173
ficati metaforici [68-72]. Inoltre, attuale oggetto di discussione nell’ambito dello studio con metodologia ERP è l’elaborazione di significati pragmatici, con particolare interesse verso i processi integrativi richiesti dal linguaggio figurato in fasi successive ai 400 ms [70, 73-75].
6.4. Elaborazione del linguaggio ironico: alcune evidenze empiriche Tra i fenomeni studiati più recentemente in ambito neuropragmatico è possibile includere le stringhe non composizionali (al riguardo si veda il Capitolo 5), le forme idiomatiche del discorso (esplorate nel Capitolo 4), il linguaggio figurato, come nel caso della comunicazione metaforica o ironica. Come anticipato, per quanto riguarda i processi di comprensione del linguaggio, gli studi neuropragmatici si sono focalizzati soprattutto sui fenomeni relativi al linguaggio figurato e alla comunicazione non standard. Abbiamo avuto modo di illustrare in precedenza che la distinzione tra comunicazione standard e non standard si fondi sui processi inferenziali coinvolti nella comprensione del significato del parlante (si veda il paragrafo 6.2.3). Si suppone generalmente che messaggi standard richiedano semplici regole inferenziali di default per essere compresi. Al contrario, fenomeni non standard, quali ad esempio, ironia, umorismo, inganno, violano esplicitamente o implicitamente le regole di comunicazione e per questo, per essere riconosciuti e compresi, necessitano di processi inferenziali più complessi che richiedono l’impiego di ulteriori risorse da parte del sistema cognitivo.
6.4.1. Modelli dell’ironia Seppur frequente e comune nelle nostre comunicazioni quotidiane, l’ironia è da considerarsi un fenomeno pragmatico complesso che richiede specifiche abilità linguistiche, comunicative e cognitive per essere compreso. Nel tentativo di esaminare come l’ironia possa essere impiegata dai parlanti, sono state elaborate diverse teorie. In alcuni casi, è stata considerata sia come una forma di anomalia semantica [13, 15] sia come costrutto pragmatico [76, 77]. Secondo gli approcci cognitivi è stata poi considerata come una forma del pensiero [78-80] che chiama in causa il concetto di controfattualità [81]. Infine, all’interno di un approccio comunicativo, l’ironia è stata ritenuta non tanto un’anomalia semantica o pragmatica, quanto un fenomeno di discomunicazione che coinvolge diversi livelli di rappresentazione di intenzioni comunicative complesse [82]. In generale, è possibile definire l’ironia come un fenomeno pragmatico in cui il significato inteso (figurato) è opposto al significato espresso (letterale). Per meglio comprendere tale aspetto occorre fare riferimento alla teoria degli atti linguistici [14], secondo cui, se un enunciato è letteralmente vero, allora non può essere ironico. Al contrario, se un enunciato è incongruente con uno stato di cose vero può avere differenti tipi di forza illocutoria: può essere falso, ironico oppure
174
M. Balconi, S. Amenta
un errore [83]. Inoltre, a questi fenomeni è da aggiungersi il caso di eufemismi e iperboli, ovvero quelle particolari forme di linguaggio in cui una situazione è descritta in termini intermedi tra la realtà e il suo opposto [84]. Infine, è da rilevarsi il caso di enunciati veri che possono essere appropriati ma non completamente pertinenti alla situazione cui si riferiscono [77, 85]. Per riconoscere e poter distinguere l’intenzione comunicativa veicolata da enunciati di questo tipo è necessario utilizzare conoscenze di tipo metarappresentazionale e abilità di tipo metalinguistico/pragmatico. Ciò è dovuto al fatto che la differenza tra linguaggio letterale e non letterale è posta nella relazione tra ciò che è detto e ciò che è implicato: nel linguaggio letterale/standard ciò che è detto è consistente con ciò che è implicato. Al contrario, nella comunicazione non standard possono essere riscontrati differenti gradi di incongruenza tra ciò che è espresso e ciò che è inteso. Per quanto riguarda la comprensione degli enunciati ironici il dibattito all’interno della pragmatica è ancora vivo. Tuttavia possiamo riconoscere tre ipotesi principali che tengono conto dell’interazione tra accesso lessicale e informazione contestuale: il modello sequenziale proprio della pragmatica standard [13, 15]; i modelli di accesso parallelo [86-88]; il modello dell’accesso diretto [22, 89]. Secondo la teoria pragmatica standard [13, 15], l’ironia può essere considerata, così come altre forme di linguaggio figurato, una violazione di massime conversazionali, in particolare della massima di qualità (verità). In altre parole, un enunciato ironico è considerato un enunciato letterale falsificato dal contesto definito dalla realtà vero-condizionale. Per comprendere l’ironia è quindi necessario riconoscere che il parlante sta fingendo e ricostruire il reale significato dell’enunciato, solitamente contrapposto a ciò che è detto. In altre parole, al fine di comprendere l’intenzione ironica un individuo deve in primo luogo elaborare il significato letterale di un enunciato, testandone il significato in base al contesto e, nel caso fosse riscontrata un’incongruenza attribuita alla violazione di massime conversazionali, cercare un’alternativa non letterale che ripristini il senso dell’enunciato. Il processo di recupero del significato inteso richiede processi inferenziali ulteriori, denominati “implicature conversazionali”: soltanto alla fine di tale processo l’incoerenza è risolta e il significato inteso ricostruito. Questo processo richiede uno sforzo cognitivo, come testimoniato dalla presenza di tempi di elaborazione maggiori necessari a formulare la corretta interpretazione rispetto a enunciati non ironici [86, 90]. Tuttavia, il modello standard è stato messo in discussione a più riprese da diversi studi empirici, che hanno trovato tempi di lettura, relativi a significati figurati in generale e ironici in particolare, non superiori a quelli richiesti da enunciati letterali [22]. Altri modelli pragmatici propongono l’ipotesi dell’elaborazione parallela. Tale approccio ipotizza che sia i significati letterali sia quelli non letterali siano elaborati simultaneamente, senza avanzare, tuttavia, alcuna ipotesi interpretativa rispetto all’ordine in cui ciò avviene. I due principali modelli rappresentativi di questo approccio sono da un lato la teoria dei gradi di salienza [25], dall’altro il modello di accesso parallelo (Parallel Race Model) [88, 91]. Giora [25] suggerisce che i significati compresi primariamente siano quelli salienti. In questo caso ironie familiari e convenzionali avranno due significati salienti, quello letterale e quello ironico e l’ordine di elaborazione dipende dal loro
6. Dalla pragmatica alla prospettiva neuropragmatica
175
grado di salienza. Se il significato non letterale è meno saliente di quello letterale otterrà accesso attraverso l’interpretazione letterale più saliente, attivata per prima. Al contrario, Dews e Winner, a partire dal modello proposto da Long e Graesser, ipotizzano che i significati letterali di enunciati ironici debbano essere sempre attivati al fine di comprendere il reale contenuto dell’enunciato. Tuttavia non esiste un ordine gerarchico di attivazione: entrambi i significati ottengono accesso simultaneo e sono elaborati in concomitanza. Inoltre, entrambi sono utilizzati per il processo di costruzione del significato. Tale modello ha trovato conferma da parte di studi clinici, tra i quali uno recente ha mostrato che pazienti con abilità pragmatiche compromesse a cui era stato richiesto di elaborare storie con finali ironici, seppur non riuscissero a elaborare un’interpretazione ironica, riconoscevano il significato letterale come vero, ciò a indicare che il significato letterale era comunque compreso [92]. Un terzo approccio suppone che, in casi particolari, il significato ironico possa ottenere un accesso diretto [22, 93]. Secondo Gibbs, un contesto che offre sufficienti elementi informativi per una comprensione ironica rende possibile un’interpretazione non letterale diretta e automatica senza il bisogno di passare attraverso l’interpretazione letterale incongruente. Ciò avverrebbe poiché, in un contesto dotato di indizi sufficienti, l’interpretazione ironica diventa altamente convenzionale, mentre l’elaborazione del significato letterale non appropriato e non convenzionale è opzionale e quindi non necessaria. Tali ipotesi sono state testate mediante il paradigma dei tempi di lettura, la cui assunzione base riguarda il fatto che i tempi di lettura di un enunciato possono riflettere i processi di comprensione iniziali. Tempi superiori indicano che un enunciato richiede processi di elaborazione più complessi, mentre tempi inferiori indicano un minore sforzo di elaborazione. I tempi di lettura di enunciati ironici non convenzionali hanno indicato uno sforzo cognitivo superiore per l’elaborazione rispetto alle controparti letterali, mentre ciò non accadrebbe per enunciati ironici convenzionali [86, 90, 94]. La Tabella 6.2 propone una sintesi dei modelli discussi in precedenza. Studi ERP sull’ironia sembrano propendere per l’ipotesi dell’accesso diretto. In una recente indagine [95] sono state formulate due differenti ipotesi di lavoro. Da un lato si è supposto che, in accordo con il modello pragmatico standard, l’interpretazione ironica di un enunciato passi necessariamente attraverso l’analisi linguistica e debba richiedere uno sforzo maggiore per l’integrazione del significato e che ciò debba essere segnalato da un incremento dell’effetto N400. Al contrario, in accordo con l’ipotesi dell’accesso diretto, l’informazione contestuale dovrebbe essere immediatamente disponibile per la corretta interpretazione e ciò sarebbe segnalato dalla mancanza di un incremento dell’indice N400. I risultati sperimentali hanno evidenziato una sostanziale assenza di effetto N400 relativo all’ironia, mostrando al contempo per questa condizione una negatività posteriore diffusa attorno ai 100 ms e una positività posteriore tra i 500 e i 900 ms. L’assenza dell’effetto N400 sembra non deporre a favore del modello pragmatico standard, evidenziando al contempo che non sarebbe richiesto uno sforzo di integrazione maggiore nella condizione ironica rispetto a quella letterale. Tali risultati sono confermati da un recente studio empirico [96] che, oltre a testare la modulazione dell’effetto N400 in enunciati ironici e non ironici, ha indagato il costrutto di “controfat-
176
M. Balconi, S. Amenta
Tabella 6.2 Modelli di elaborazione di enunciati ironici ed effetti ERP attesi Modelli pragmatici
Ipotesi di elaborazione di enunciati ironici
Effetto ERP atteso
Pragmatica standard [13, 16]
– Priorità dell’informazione lessico-semantica – Il significato ironico è derivato dopo che il significato letterale è stato valutato incongruente e conseguentemente scartato
– Incremento dell’effetto N400 in presenza di enunciati ironici
– I significati lessicali e contestuali sono entrambi attivati e processati concorrentemente – Il significato letterale è essenziale per la comprensione del significato inteso
– Nessun incremento dell’effetto N400, – Ipotizzati effetti ERP a latenze successive
Modelli di accesso parallelo Parallel Race Model [88]
Ipotesi del grado di salienza – Priorità della “salienza” – Nessun incremento [87] sull’appropriatezza contestuale dell’effetto N400 per ironie – Le ironie familiari hanno convenzionali un doppio significato saliente – Incremento dell’effetto (letterale e ironico): entrambi N400 per ironie non i significati sono attivati convenzionali ed elaborati – Ipotizzati effetti ERP a – Le ironie non familiari hanno latenze tardive (processi un solo significato saliente di selezione del significato (letterale): il significato ironico congruente) è derivato successivamente allo scarto del significato letterale Direct Access View [89]
– Priorità dell’informazione – Nessun incremento contestuale dell’effetto N400 – Interazione precoce delle informazioni contestuali e lessicali al fine di costruire un significato contestualmente appropriato – Il significato ironico è direttamente attivato
tualità” come condizione necessaria e sufficiente per la comprensione di enunciati ironici [97]. I risultati delle analisi non mettono in evidenza differenze significative rispetto alla N400, tra condizione ironica, condizione ironica/controfattuale (enunciato ironico falso) e condizione letterale, ciò a indicare che non è possibile considerare la controfattualità come condizione necessaria e sufficiente per la comprensione del linguaggio ironico.
6. Dalla pragmatica alla prospettiva neuropragmatica
177
6.4.2. Contributo della neuropragmatica clinica Sono soprattutto gli studi clinici che si sono occupati di rintracciare i contributi di specifiche aree cerebrali per la comprensione di enunciati ironici. La maggior parte di questi si è focalizzata sulla relazione tra comprensione e danni cerebrali con la finalità di rintracciare le abilità necessarie alla comprensione di enunciati ironici e la loro localizzazione cerebrale. Nel dominio dell’ironia è stato preso in considerazione in particolare il sarcasmo, come forma linguistica utilizzata per veicolare implicitamente critiche o atteggiamenti negativi verso il destinatario. Ricerche sulla comprensione di sarcasmo e ironia in popolazioni cliniche hanno messo in luce il ruolo rilevante dell’emisfero destro [98-100], sottolineando l’importanza particolare delle zone frontali per il decoding ironico [56, 101-103]. L’emisfero destro è infatti attivo nella mediazione di funzioni visuospaziali e non verbali. Nello specifico esso riveste un ruolo di primo piano nel dominio paralinguistico per la modulazione delle componenti acustiche e prosodiche del linguaggio [104] (per il concetto di paralinguaggio si veda il Capitolo 1). In aggiunta, pazienti RH mostrano problemi con abilità pragmatiche generali riguardanti il linguaggio non-letterale, presentando difficoltà nella comprensione di metafore, idiomi, proverbi e dell’umorismo [39, 105-107]. Pazienti con danni cerebrali destri riferiscono di avere un controllo ridotto della modulazione prosodica del parlato e manifestano deficit nell’utilizzo di indici prosodici in compiti di comprensione del linguaggio [108-110]. Tompkins e Mateers [111] hanno investigato le abilità di pazienti con lobotomia destra nella comprensione di enunciati sarcastici. Ai soggetti è stato chiesto di ascoltare coppie di stimoli (descrizione di script), una con valenza prosodica positiva e l’altra negativa. Entrambe le vignette terminavano con un commento positivo, pertanto congruente con la valenza del brano nella prima condizione e incongruente nella seconda. Gli autori hanno riportato difficoltà da parte dei soggetti nel giudicare l’appropriatezza del tono di voce e nell’integrazione del commento finale in caso di incongruenza. Pertanto, una conclusione possibile è che la difficoltà riscontrata da pazienti RBD nella comprensione dell’ironia sarcastica possa riguardare l’utilizzo di indici prosodici necessari ad attribuire un significato a stimoli linguistici sarcastici controfattuali (condizione di incongruenza). Inoltre, deficit nella comprensione dell’ironia e del sarcasmo possono indicare la compromissione dell’abilità di riconoscimento di indizi legati a credenze, intenzioni, emozioni. Infatti, l’interpretazione di ironia e sarcasmo richiede la comprensione delle intenzioni espresse, implicando l’attivazione di conoscenze circa gli stati mentali (teoria della mente) altrui. In effetti, pazienti RBD mostrano abilità ridotte nella formulazione di una teoria della mente, limitando l’interpretazione del commento ironico a una comprensione superficiale del significato esplicito dell’enunciato [99, 112, 113]. In sintesi, questi studi hanno confermato che l’elaborazione di enunciati ironici è un processo complesso, che richiede differenti competenze inferenziali e abilità cognitive. Essi suggeriscono inoltre che l’emisfero destro riveste un ruolo importante nella discriminazione di indici prosodici al fine di derimere le componenti pragmatiche e di ricostruire l’intenzione comunicativa del parlante.
178
M. Balconi, S. Amenta
Bibliografia 1. Reddy MJ (1979) The conduit metaphor – a case of frame conflict in our language about language. In: Ortony A (ed) Metaphor and thought. Cambridge University Press, London, pp. 284-324 2. Szabo ZC (2005) Semantics versus pragmatics. Oxford University Press, New York 3. Jaszczolt KM (2002) Semantics and pragmatics. Longman, London 4. Gibbs R (1999) Intentions in the experience of meaning. Cambridge University Press, Cambridge 5. Peirce CS (1894) What is a sign? In: Collected papers. Harvard University Press, Cambridge Mass, pp. 1931-1935 6. De Saussure (1916) Corso di linguistica generale. Laterza, Bari 7. Jackendoff R (1992) Languages of the mind: essays on mental representation. The MIT Press, Cambridge Mass 8. Lakoff G (1987) Women, fire and dangerous thing: what categories reveal about the mind. Chicago University Press, Chicago 9. Giannoli GI (2005) La comprensione inferenziale. In: Ferretti F, Gambarara D (eds) Comunicazione e scienza cognitiva. Laterza, Bari, pp. 73-110 10. Verschueren J (1999) Understanding Pragmatics. Arnold, London 11. Wittgenstein L (1953) Philosophische Untersuchungen. Blackwell, Oxford 12. Morris CW (1938) Foundations of the theory of signs. In: Neurath O, Carnap R, Morris CW (eds) International encyclopedia of unified science. University of Chicago Press, Chicago, pp. 77-138 13. Grice P (1975) Logic and conversation. In: Cole P, Morgan JL (eds) Syntax and semantics 3: Speech acts. Academic Press, New York, pp. 41-58 14. Austin JL (1962) How to do things with words: the William James lectures delivered in Harvard University in 1955. Clarendon, Oxford 15. Searle JR (1969) Speech acts: an essay in the philosophy of language. Cambridge University Press, Cambridge 16. Searle JR (1976) A classification of illocutionary acts. Language in Society 5:1-23 17. Dascal M (1983) Pragmatics and the philosophy of mind 1: thought in language. Pragmatics and beyond. An Interdisciplinary Series of Language Studies 4:1-207 18. Ferretti F, Gambarara D (2005) Comunicazione e scienza cognitiva. Laterza, Bari 19. Sperber D, Wilson D (1986) Relevance: communication and cognition. Blackwell, Oxford 20. Levinson S (2000) Presumptive meanings: the theory of generalized conversational implicature. The MIT Press, Cambridge Mass. 21. Récanati F (2003) Literal meaning. Cambridge University Press, Cambridge 22. Carston R (2002) Thoughts and utterances: the pragmatics of explicit communication. Blackwell, Oxford 23. Sperber D, Noveck I (2004) Experimental pragmatics. Palgrave, San Diego 24. Gibbs RW (1999) Speakers’ intuitions and pragmatic theory. Cognition 69:355-359 25. Giora R (2003) On our mind: context, salience and figurative language. Oxford University Press, New York 26. Gibbs RW (2002) A new look at literal meaning in understanding what is said and implicated. J Pragmatics 34:457-486 27. Stemmer B (1999) Pragmatics: theoretical and clinical issues. Brain Lang 68:389-391 28. Stemmer B, Shönle PW (2000) Neuropragmatics in the 21st century. Brain Lang 71:233-236 29. Bara BG, Tirassa M (2000) Neuropragmatics: brain and communication. Brain Lang 71:10-14 30. Joanette Y, Brownell HH (1990) Discourse ability and brain damage: theoretical and empirical perspectives. Springer-Verlag, New York 31. Damico JS (1985) Clinical discourse analysis: a functional approach. In: Simon CS (ed) Communication skills and classroom success. Taylor and Francis, Basingstoke, pp. 165-204
6. Dalla pragmatica alla prospettiva neuropragmatica
179
32. Hird K, Kirsner K (2003) The effect of right cerebral hemisphere damage on collaborative planning in conversation: an analysis of intentional structure. Clin Linguist Phonet 17:309-325 33. Joanette Y, Ansaldo AY (1999) Clinical note: acquired pragmatic impairments and aphasia. Brain Lang 68:529-534 34. Levelt WJM (1999) Producing spoken language: a blueprint of the speaker. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, New York, pp. 83-122 35. McDonald S (1998) Communication and language disturbances following traumatic brain injury. In: Stemmer B, Whitaker HA (eds) Handbook of neurolinguistics. Academic Press, San Diego London, pp. 485-494 36. Martin I, McDonald S (2003) Weak coherence, no theory of mind, or executive dysfunction? Solving the puzzle of pragmatic language disorders. Brain Lang 85:451-466 37. Brownell H, Stingfellow A (1999) Making requests: illustration of how right hemisphere brain damage can affect discourse production. Brain Lang 68:422-465 38. Kasher A, Batori G, Soroker N et al (1999) Effects of right-and left-hemisphere damage on understanding conversational implicatures. Brain Lang 68:566-590 39. Giora R, Zaidel E, Soroker N et al (2000) Differential effects of right- and left-hemisphere damage on understanding sarcasm and metaphor. Metaphor Symbol 15:63-83 40. Noveck IA, Posada A (2003) Characterizing the time course of an implicature: an evoked potentials study. Brain Lang 85:203-210 41. Buchanan TW, Lutz K, Mirzazade S et al (2000) Recognition of emotional prosody and verbal components of spoken language: an fMRI study. Cognitive Brain Res 9:227-238 42. Lee SS, Dapretto M (2006) Metaphorical vs. literal word meanings: fMRI evidence against a selective role of the right hemisphere. Neuroimage 15:536-544 43. Coulson S (2004) Electrophisiology and pragmatic language comprehension. In: Sperber D, Noveck IA (eds) Experimental pragmatics. Palgrave, Dan Diego, pp. 187-206 44. Keller J, Recht T (1998) Towards a modular description of the deficits in spontaneous speech in dementia. J Pragmatics 29:313-332 45. Kutas M (2006) One lesson learned: frame language processing – literal and figurative – as a human brain function. Metaphor Symbol 4:285-325 46. Caplan D (1992) Language: structure, processing and disorders. The MIT Press, Cambridge 47. Bambini V (2003) Pragmatica e cervello: guida e stato dell’arte. Quaderni del laboratorio di linguistica 4:1-29 48. Van Lanker D (1997) Rags to riches: our increasingly appreciation of cognitive and communicative abilities of human right cerebral hemisphere. Brain Lang 57:1-11 49. Joanette Y, Goulet P, Hannequin D (1990) Right hemisphere and verbal communication. Springer-Verlag, New York 50. Davidson RJ, Hughdal K (1995) Brain asymmetry. MIT Press, Cambridge Mass. 51. Hellige JB (1993) Hemispheric asymmetry: what’s right and what’s left. Harvard University Press, Cambridge Mass. 52. Beeman M, Chiarello C (1998) Right hemisphere language comprehension: perspectives from cognitive neuroscience. Erlbaum, Hillsdale 53. Cummings L (2007) Pragmatics and adult language disorders: past achievements and future directions. Seminars in Speech e Language 28:96-110 54. Feyereisen P, Berrewaerts J, Hupet M (2007) Pragmatic skills in the early stages of Alzheimer’s disease: an analysis by means of a referential communication task. Int J Lan Comm Dis 42:1-17 55. Martin I, McDonald S (2006) That can’t be right! What causes pragmatic language impairment following right hemisphere damage? Brain Impairment 7:201-211 56. Uchiyama H, Seki A, Kageyama H et al (2006) Neural substrates of sarcasm: a functional magnetic-resonance imaging study. Brain Res 1124:100-110 57. Commodari E (2002) Disturbi del linguaggio: i deficit della comunicazione orale: strumenti di valutazione e riabilitazione. Città Aperta, Enna
180
M. Balconi, S. Amenta
58. Gardner H, Brownell HH (1986) Right hemisphere communication battery. Psychology Service, Boston 59. Démonet JF, Thierry G, Cardebat D (2005) Renewal of the neurophysiology of language: functional neuroimaging. Physiol Rev 85:49-95 60. Zaidel E (1998) Language in the right hemisphere following callosal disconnection. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego, pp. 369-383 61. Kutas M, Hillyard S (1984) Brain potential during reading reflect word expectancies and semantic association. Nature 307:161-163 62. Coulson S, King JW, Kutas M (1998) Expect the unexpected: event-related brain responses to morphosyntactic violations. Lang Cognitive Proc 13:21-58 63. Balconi M, Pozzoli U (2004) N400 and P600 or the role of the ERP correlates in sentence comprehension: some applications to the Italian language. J Gen Psychol 131:268-303 64. Balconi M, Pozzoli U (2005) Comprehending semantic and grammatical violations in Italian. N400 and P600 comparison with visual and auditory stimuli. J of Psycholinguist Res 34:71-98 65. Kuperberg GR, Holcomb PJ, Sitnikova T et al (2003) Distinct patterns of neural modulation during the processing of conceptual and syntactic anomalies. J Cognitive Neurosci 15:272-293 66. Nieuwland MS, Van Berkum JJA (2006) When peanuts fall in love: N400 evidence for the power of discourse. J Cognitive Neurosci 18:1098-1111 67. Hagoort P, Halal L, Bastiaansen M et al (2004) Integration of word meaning and world knowledge in language comprehension. Science 304:438-441 68. Coulson S, van Petten C (2002) Conceptual integration and metaphor: an event-related potential study. Mem Cognit 30:958-968 69. Pynte J, Besson M, Robichon FH et al (1996) The time-course of metaphor comprehension: an event-related potential study. Brain Lang 55:293-316 70. Tartter VC, Gomes H, Dubrovsky B et al (2002) Novel metaphors appear anomalous at least momentarily: evidence from N400. Brain Lang 80:488-509 71. Balconi M, Tutino S (2006) A fighter is a lion. Neuropsychological and cognitive processes in decoding a metaphor. An analysis through ERPs. J Int Neuropsych Soc 12, Supplement 2:88 72. Balconi M, Tutino S (2007) An ERP analysis of iconic language and iconic thinking. The case of metaphor. J Int Neuropsych Soc 13, Supplement 2:74 73. Arzouan Y, Goldstein A, Faust M (2007) Dynamics of hemispheric activity during metaphor comprehension: electrophysiological measures. Neuroimage 15:222-231 74. Galina I, Christine P, Laurent JP et al (2005) ERPs of metaphoric, literal, and incongruous semantic processing in schizophrenia. Psychophisiology 42:380-390 75. Ferretti TR, Schwint CA, Katz AN (2007) Electrophysiological and behavioral measures of the influence of literal and figurative contextual constraints on proverb comprehension. Bain Lang 101:38-49 76 Kumon-Nakamura S, Glucksberg S, Brown M (1995) How about another piece of pie: the allusional pretense theory of discourse irony. J Experimental Psychol Gen 124:3-21 77. Attardo S (2000) Irony as relevant inappropriateness. J Pragmatics 32:793-826 78. Gibbs RW (1994) The poetics of mind: figurative thought and figurative language. Academic Press, San Diego 79. Kihara Y (2005) The mental space structure of verbal irony. Cognitive Linguist 16:513-530 80. Ritchie D (2005) Frame-shifting in humour and irony. Metaphor Symbol 20:275-294 81. Colston HL (2002) Contrast and assimilation in verbal irony. J Pragmatics 34:111-142 82. Anolli L, Ciceri R, Infantino MG (2002) Behind dark glasses: irony as a strategy for indirect communication. Gen Soc Gen Psych 128:76-95 83. Kreuz RJ (2000) The production and processing of verbal irony. Metaphor Symbol 15:99-107 84. Colston HL, O’Brien J (2000) Contrast and pragmatics in figurative language: anything understatement can do, irony can do better. J Pragmatics 32:1557-1583 85. Utsumi A (2000) Verbal irony as implicit display of ironic environment: distinguishing ironic utterances from nonirony. J Pragmatics 32:1777-1806 86. Giora R, Fein O, Schwartz T (1998) Irony: graded salience and indirect negation. Metaphor Symbol 13:83-101
6. Dalla pragmatica alla prospettiva neuropragmatica
181
87. Giora R, Fein O (1999) Irony: context and salience. Metaphor and Symbol 14:241-257 88. Dews S, Winner E (1999) Obligatory processing of literal and nonliteral meanings in verbal irony. J Pragmatics 31:1579-1599 89. Gibbs RW (1999) Interpreting what speakers say and implicate. Brain Lang 68:466-485 90. Ivanko SL, Pexman PM (2003) Context incongruity and irony processing. Discourse Process 35:241-279 91. Long DL, Graesser AC (1988) Wit and humour in discourse processes. Discourse Process 11:35-60 92. Shamay-Tsoory SG, Tomer R, Ahron-Peretz J (2005) The neuroanatomical basis of understanding sarcasm and its relationship to social cognition. Neuropsychology 19:288-300 93. Colston HL, Katz AN (eds) (2005) Figurative language comprehension: social and cultural influences. Lawrence Erlbaum Associates Publishers, Mahwah 94. Schwoebel J, Dews S, Winner E, et al (2000) Obligatory processing of the literal meaning of ironic utterances: further evidence. Metaphor Symbol 15:47-61 95. Regel S, Gunter TC, Friederici AD (2006) Processing of ironic and non-ironic sentences examined with ERPs. Proceedings of the 19th Annual CUNY Conference on Human Sentence Processing 96. Balconi M, Amenta S (2007) Neuropsychological processes in verbal irony comprehension: an event-related potentials (ERPs) investigation. J Int Neuropsych Soc13, Supplement 2:77 97. Colston HL (2000) On necessary conditions for verbal irony comprehension. Pragmatics Cognition 8:277-324 98. McDonald S (1999) Exploring the process of inference generation in sarcasm: a review of normal and clinical studies. Brain Lang 68:486-506 99. McDonald S (2000) Neuropsychological studies on sarcasm. Metaphor and Symbol 15:8598 100. Brownell HH, Simpson TL, Bihrle AM et al (1990) Appreciation of metaphoric alternative word meanings by left and right brain-damaged patients. Neuropsychologia 28:375-383 101. Winner E, Brownell H, Happe F et al (1998) Distinguishing lies from jokes: theory of mind deficits and discourse interpretation in right hemisphere brain-damaged patients. Brain Lang 62:89-106 102. Stuss DT, Gallup GGJr, Alexander MP (2001) The frontal lobes are necessary for theory of mind. Brain 124:279-286 103. McDonald S, Pearce S (1996) Clinical insights into pragmatic theory: frontal lobe deficits and sarcasm. Brain Lang 53:81-104 104. Ross ED (2000) Affective prosody and the aprosodias. In: Mesulam MM (ed) Principles of behavioral and cognitive neurology. Oxford University Press, New York, pp. 316-331 105. Shammi P, Stuss DT (1999) Humour appreciation: a role of the right frontal lobe. Brain 122:657-666 106. Burgess C, Chiarello C (1996) Neurocognitive mechanisms underlying metaphor comprehension and other figurative language. Metaphor Symbol 11:67-84 107. Bihrle AM, Brownell HH, Powelson JA et al (1986) Comprehension of humorous and nonhumorous materials by left and right brain-damaged patients. Brain Cognition 5:399-411 108. Pell MD (2007) Reduced sensitivity to prosodic attitudes in adults with focal right hemisphere brain damage. Brain Lang 101:64-79 109. Walker J, Fongemie K, Daigle T (2001) Prosodic facilitation in the resolution of syntactic ambiguities in subjects with left and right hemisphere damage. Brain Lang 78:169-196 110. Baum SR, Dwivedi VD (2003) Sensitivity to prosodic structure in left- and right-hemisphere-damaged individuals. Brain Lang 87:278-289 111. Tompkins CA, Mateer CA (1985) Right hemisphere appreciation of prosodic and linguistic indications of implicits attitude. Brain Lang 24:185–203 112. Channon S, Pellijeff A, Rule A (2005) Social cognition after head injury: sarcasm and theory of mind. Brain Lang 93:123-134 113. Griffin R, Friedman O, Ween J et al (2004) Theory of mind and the right cerebral hemisphere: refining the scope of impairment. Laterality 3:195-225
Capitolo 7
Intenzioni comunicative, strategie di azione e funzioni metacognitive Michela Balconi
7.1 Introduzione: la comunicazione come processo di intenzionalizzazione L’atto comunicativo coinvolge processi complessi e tra loro diversificati. Prerequisito perché esso abbia luogo è che l’individuo pianifichi intenzionalmente i significati che vuole comunicare in modo consapevole e che metta in atto strategie comportamentali adeguate alle proprie finalità. In particolare, facciamo riferimento al processo di intenzionalizzazione come meccanismo dinamico che coinvolge parlante e destinatario, in cui sono attivi sia i processi di esibizione della propria intenzione comunicativa di produrre un effetto nel destinatario (intenzionalizzazione del parlante), sia i processi di interpretazione dell’intenzione comunicativa del parlante da parte del destinatario (reintenzionalizzazione) [1, 2]. Tale processo supporta a sua volta una serie di funzioni che operano affinché l’atto comunicativo abbia luogo efficacemente: la definizione degli obiettivi comunicativi, le strategie comportamentali per l’attuazione del piano comunicativo, il monitoraggio e l’automonitoraggio del processo in sé e degli effetti prodotti dalle proprie azioni. L’intero sistema si avvale di un insieme di competenze di coordinamento che sono necessarie alla regolazione dell’intenzione. In particolare, l’articolazione dei processi intenzionali richiede l’intervento di meccanismi attentivi finalizzati alla selezione dell’informazione e alla formulazione di rappresentazioni appropriate (piano rappresentazionale comunicativo), da un lato, e all’organizzazione del sistema effettore (pianificazione delle azioni comunicative) dall’altro. Tali operazioni implicano il coinvolgimento di meccanismi di coordinamento centrale, in quanto processi controllati di metalivello che richiedono l’intervento volontario da parte del comunicante [3]. Analizziamo in particolare in questo ambito il rapporto tra intenzione e intenzionalità comunicativa, evidenziando il contributo della coscienza per la comunicazione. In secondo luogo, considereremo l’attenzione come garante delle operazioni con funzioni di controllo. Infine, focalizzeremo i processi di pianificazione dell’azione, di definizione delle strategie, delle funzioni di monitoraggio e di automonitoraggio degli effetti comunicativi. M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008
184
M. Balconi
7.1.1 Intenzione e intenzionalità comunicativa Definiamo come intenzione lo stato mentale dell’essere-orientato-verso-qualcosa e con azione intenzionale la rappresentazione di un obiettivo, che implichi la capacità di discernere la distinzione tra mezzi/fini, mediante deliberazione e sforzo mentale [4, 5]. Tale definizione include alcune proprietà peculiari: la direzionalità dell’intenzione (essere orientato verso), la dimensione mentale/rappresentazionale (avere una rappresentazione di) e la sua valenza psicologica (essere finalizzato a). Avere un’intenzione implica anche essere in grado di formulare la distinzione sé-altro-mondo. Essa costituisce la componente interazionale e relazionale dell’intenzione (intentional relations), per cui tutta l’attività intenzionale è un’attività di un agente indirizzata verso qualcosa o qualcun altro da sé [6]. L’intenzione non costituisce, inoltre, un concetto univocamente definito come condizione tutto-o-niente: è possibile, infatti, distinguerne livelli differenti. La variabilità dei gradi di intenzione appare distribuita tra l’avere un’attenzione focalizzata o non focalizzata su di uno stimolo interno o esterno, tra il possedere o non possedere una coscienza riflessiva su di sé e sulle proprie azioni mentali. Dal punto di vista ontogenetico, è rilevante la concomitanza tra sviluppo delle capacità cognitive e l’acquisizione delle funzioni di controllo che consentono la regolazione intenzionale dei piani di azione. Infatti, solo gradualmente, nel corso dello sviluppo, l’azione motoria inizia a mostrare una chiara organizzazione in termini di rappresentazione di mezzi/fini differenziati, parallelamente all’acquisizione di una competenza cognitiva di grado via via superiore sino alla rappresentazione degli stati mentali propri e altrui (metacognizione) [7, 8]. Discriminanti per distinguere l’azione intenzionale da quella non intenzionale appaiono due concetti tra loro intrinsecamente correlati: quello di coscienza e quello di attenzione per la scelta dell’azione. Nell’economia cognitiva dell’individuo, la consapevolezza della propria condotta e la regolazione intenzionale dell’azione divengono elementi discriminanti e flessibili in funzione degli scopi complessivi. Rispetto al piano comunicativo, la modulazione delle intenzioni caratterizza il flusso della produzione comunicativa lungo un continuum, che va da condizioni minime di intenzionalità (azioni automatizzate, come la risposta con un cenno del capo a un saluto) a condizioni massime (azioni metintenzionali, come il mentire). È in queste ultime, di maggiore complessità cognitiva, che si rende necessario l’intervento congiunto delle funzioni attentive e della coscienza come dispositivi indispensabili per la pianificazione intenzionale e strategica dell’azione comunicativa.
7.1.2 Intenzione e sistema di coscienza Occorre innanzitutto precisare i termini entro cui viene rappresentato il sistema di coscienza. La coscienza infatti viene intesa secondo tre accezioni prevalenti: come consapevolezza delle proprie percezioni (consapevolezza percettiva) e dei propri pensieri (consapevolezza cognitiva e metacognitiva), come facoltà cognitiva di alto ordine (coincidente, ad esempio, con le funzioni del pensiero) o, ancora, come stato di coscienza contrapposto agli stati inconsci [9]. In questo ambito adottiamo una
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive
185
definizione di coscienza come insieme delle proprietà necessarie affinché vi sia consapevolezza cognitiva delle proprie scelte. In tal senso essa costituisce un metaprocesso che interviene nel determinare il corso delle azioni e che presiede alle funzioni mnestiche. Essa è definita da un insieme limitato di capacità e caratterizzata da un grado, seppure variabile, di intenzionalità in quanto “orientata verso qualcosa” [10]. Elemento caratterizzante la condizione di coscienza è il paradosso dell’interezza nella molteplicità: l’unitarietà del processo è data come risultato e prodotto di diverse operazioni che operano all’unisono (interezza). Essa, tuttavia, è definita da una molteplicità di componenti sul piano dei contenuti, in quanto costituisce l’esito della convergenza funzionale di molteplici sistemi informativi complessi (molteplicità) [11]. Questa concezione è supportata sul piano anatomico dalla proprietà “distribuita” della coscienza, come dimostrato dall’attivazione simultanea di diversi sistemi neuronali in presenza di operazioni mentali coscienti. In particolare, il modello definito processuale distribuito [12, 13] sottolinea l’esigenza della diffusività dei sistemi strutturali supportanti la coscienza e ciò in considerazione delle funzioni discriminanti che la caratterizzano. Secondo tale modello la coscienza viene definita come: a) un sistema con ruolo di integrazione delle unità computazionali, b) un sistema che consente di incrementare l’attività cerebrale all’interno di un insieme neurale, costituito al fine di svolgere le specifiche funzioni cognitive. Tali proprietà non richiedono che le informazioni convergenti siano poste necessariamente all’interno di un’unica struttura anatomica ma piuttosto rende necessario che la struttura supportante la coscienza sia in grado di integrare informazioni provenienti da sistemi anatomicamente separati, come ipotizzato dal modello distribuito. Pertanto essa è rappresentabile come una rete neurale diffusa che prevede insiemi eterogenei di attività neurali, sottostanti all’esperienza cosciente.
7.1.3 Coscienza e attenzione: due sistemi autonomi In che modo è possibile definire il ruolo specifico della coscienza per la pianificazione dell’intenzione comunicativa? Per comprendere la peculiarità del sistema di coscienza rispetto ai processi di intenzionalizzazione comunicativa occorre tenere presente la distinzione fra processi consapevoli e processi inconsapevoli. Tale distinzione è basata sulla differenziazione dei processi cognitivi implicati, del modo con cui le informazioni sono organizzate, del livello attentivo e dello sforzo cognitivo richiesto [14]. La differenza è posta su un piano qualitativo e non solo quantitativo: innanzitutto gli stati di coscienza, poiché includenti l’intenzione, sono orientati verso uno scopo. Tale proprietà, tuttavia, non sembra esclusiva dei processi consci, ma è invece condivisibile da quelli inconsci: ad esempio, anche nella condizione di stimolazione subliminale, in cui la coscienza è assente, lo stimolo non viene elaborato consapevolmente dal soggetto percipiente, benché sia comunque presente una selezione attiva delle informazioni [15]. Tale operazione implica un orientamento finalizzato e una capacità di elaborare le caratteristiche degli stimoli. Piuttosto la distinzione cosciente/inconscio appare riferibile al sistema di relazioni che i contenuti coscienti possono stabilire con gli altri pro-
186
M. Balconi
cessi cognitivi attivati nel soggetto. Specificamente, il modello del campo integrato [16] ipotizza che un attributo distintivo dei processi consci sia la loro contestualità, definita come la relazione che il contenuto di coscienza definisce con gli altri contenuti/processi del sistema di elaborazione. Infatti, benché l’input sensoriale, elaborato al di fuori della coscienza, possa modificare la probabilità che un determinato comportamento si verifichi, tale processo appare slegato da ogni altra condizione o stato cognitivo attuale del soggetto e il dato non può essere codificato nel sistema di memoria. Un ulteriore quesito che occorre porsi è: la coscienza interviene solo nei processi attentivi controllati ed è assente in quelli automatici? In quest’ultimo caso essa coinciderebbe con le funzioni attentive tout court. Tuttavia, seppure con gradi differenti, è ipotizzabile la presenza della coscienza anche nei processi automatici. Infatti, essa può esercitare un controllo su questi ultimi indirettamente, determinando lo scopo cosciente che deve essere raggiunto; su quelli controllati, invece, esercita un’influenza diretta, poiché organizza la sequenza di esecuzione delle operazioni mentali implicate. Per tale ragione, il modello dell’indipendenza [17] ipotizza che coscienza e attenzione siano due sistemi dissociabili: tale ipotesi si fonderebbe sull’esistenza di processi attentivi che non necessitano della coscienza (ad esempio, un’azione a cui prestiamo attenzione ma di cui non siamo coscienti), e di caratteristiche o stimoli che possono divenire coscienti senza necessità di attenzione (ad esempio, nella stimolazione dicotica, in cui l’attenzione è assente, uno stimolo rilevante può divenire cosciente). La doppia dissociazione tra operazioni mediate dall’attenzione e dal sistema di coscienza rende plausibile l’esistenza di due sistemi autonomi seppure interagenti l’uno con l’altro. Anche sul piano anatomo-strutturale alcuni riscontri empirici depongono a favore dell’autonomia dei due sistemi [18, 19]. Due differenti network strutturali supporterebbero infatti le funzioni della coscienza e dell’attenzione: nel primo caso un sistema anteriore (corteccia prefrontale) sarebbe legato sia all’elaborazione consapevole degli stimoli sia alla loro selezione, mentre le aree posteriori presiederebbero alle funzioni attentive di base, tra cui l’orientamento sensoriale, la collocazione spaziale degli stimoli. Dai precedenti sarebbe, inoltre, distinto un sistema di vigilanza, deputato alla regolazione dei processi di allertamento dell’individuo nel caso di situazioni in cui è richiesta l’elaborazione di stimoli nuovi o insoliti. L’organizzazione strutturale del sistema anteriore prefrontale consentirebbe l’integrazione tra diversi sistemi che agiscono su di un dato input: tale sistema presenta infatti legami diretti sul piano anatomico sia con il sistema motorio sia con i sistemi di memoria, indispensabili all’azione intenzionale. In particolare, esso può disporre di un sistema di memoria necessario al mantenimento di uno stato intenzionale (azione finalizzata) mentre vengono attivati i processi integrativi necessari all’esecuzione dell’azione. Inoltre, le fasi di sviluppo delle facoltà presiedute dalla coscienza rispetto alle capacità attentive evidenziano una chiara differenziazione temporale, per cui, a fronte di una maturazione precedente delle più generali funzioni attentive, l’acquisizione di capacità di coordinazione e di programmazione delle azioni intenzionali non compare prima dei nove mesi di età. Tale acquisizione implica lo sviluppo di una mente propria, intesa come capacità di rappresentare se stessi e l’altro, condi-
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive
187
zione necessaria alla formulazione di una teoria della mente, nonché alla capacità di organizzare e pianificare intenzionalmente il corso dell’interazione [20]. Complessivamente, diversamente dal semplice sistema attenzionale, la coscienza non solo interviene come funzione di selezione per l’azione ma anche, parallelamente, di selezione per il pensiero, in quanto fornisce le basi per l’azione volontaria nell’uomo e diviene indispensabile per la scelta attiva del corso delle proprie azioni in un dato contesto comunicativo.
7.1.4 Funzioni della coscienza per la comunicazione Ma quali sono le funzioni precipue del sistema di coscienza per la regolazione della comunicazione? In primo luogo, la coscienza consente il controllo dell’accesso delle informazioni prioritarie. Esempi di tali meccanismi sono le funzioni di selezione e controllo delle componenti rappresentazionali destinate a divenire consce. Mediante un’azione di sintesi e di selezione delle priorità è possibile infatti definire il criterio di accesso delle informazioni. In questo senso, il passaggio di alcuni contenuti al sistema di coscienza consente un migliore adattamento dell’organismo all’ambiente, alla luce delle esigenze e delle finalità del processo comunicativo. La coscienza opera, inoltre, in risposta alle richieste di flessibilità nell’organizzazione dell’insieme di conoscenze. Più in generale, un sistema pensante necessita di intervenire nell’ottimizzazione dei propri processi alternando strutture rigide e automatizzate di risposta a modalità flessibili. Queste ultime sarebbero chiamate in causa in situazioni nuove e non prevedibili, al contrario delle strutture automatizzate adatte a rispondere a stimoli e situazioni note. A un livello successivo, la coscienza interverrebbe direttamente nell’attivazione di azioni mentali e fisiche e nella regolazione delle funzioni esecutive di presa di decisione (si veda al proposito il paragrafo 7.2). Un esempio di tale funzione è costituito dalla definizione di obiettivi consci che consentono di organizzare l’intervento sui sistemi motori per l’esecuzione di azioni comunicative volontarie del sistema gestuale. Infine, una funzione di più alto ordine nella gerarchia funzionale è costituita dalla funzione riflessiva e di automonitoraggio esercitata dalla coscienza (si veda il paragrafo 7.3). Complessivamente, la coscienza consente di attivare l’accesso a fonti rappresentazionali indipendenti e multiple. L’organizzazione di informazioni coerenti e le funzioni di controllo dell’azione volontaria appaiono essere componenti prioritarie nelle prime fasi di regolazione del rapporto coscienza/comunicazione, mentre le funzioni dell’automonitoraggio e dell’autoriflessività consentono un adattamento successivo dell’individuo al contesto interattivo comunicativo. La coscienza fornirebbe in questo caso un contributo rilevante nel processo di gestione flessibile delle conoscenze e nella configurazione di sistemi multipli, specializzati nella rappresentazione di sé all’interno del più complesso sistema di rappresentazioni mentali: nell’economia cognitiva dell’individuo, la consapevolezza del proprio agire e la ricalibrazione dell’azione divengono elementi discriminanti. Lo schema seguente (Fig. 7.1) ripropone le principali funzioni della coscienza per la pianificazione dell’azione e la comunicazione, in relazione ai diversi livelli implicati.
188
M. Balconi
Fig. 7.1 Rappresentazione dei livelli e delle funzioni della coscienza. In particolare sono evidenziate le funzioni di pianificazione e controllo dell’azione
7.2 Pianificazione e controllo dell’azione comunicativa 7.2.1 Funzioni esecutive Un secondo obiettivo complessivo è quello di discernere il ruolo e il contributo dei sistemi attenzionali e delle funzioni di memoria, in particolare della memoria di lavoro, nella definizione dell’azione intenzionale per la comunicazione. È necessario innanzitutto individuare un sistema che non sia direttamente implicato nella rappresentazione degli stati cognitivi ma che operi per la loro organizzazione e per il loro coordinamento, al fine di raggiungere gli obiettivi comunicativi prefissati. Le funzioni esecutive costituiscono il riferimento privilegiato per la comprensione delle operazioni eseguite sotto il controllo attentivo [21]. Tra i differenti modelli esistenti, prendiamo in considerazione quello proposto da Shallice [22], che evidenzia le tre principali funzioni esecutive di orientamento attentivo, discriminazione e mantenimento del sistema di allerta. In particolare, la funzione di discriminazione viene rappresentata come unità esecutiva che include la consapevolezza, l’elaborazione semantica e l’allocazione intenzionale delle risorse attentive. Inoltre, un sistema di controllo “centrale” sarebbe separato da una moltitudine di processi “periferici” che esso controlla. Il sistema centrale, in contrapposizione alle operazioni automatiche, necessita di risorse attentive e dello sforzo intenzionale: in quanto tale, esso possiede una capacità limitata di elaborare informazioni e un insieme finito di risorse. Il sistema così delineato ha pertanto competenze sia rappresentazionali sia strategiche. Complessivamente, il modello di Shallice preve-
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive
189
de la compresenza di due distinti sistemi di regolazione del comportamento: il sistema cognitivo legato al processamento automatico delle informazioni e alla regolazione intenzionale del comportamento, detto Sistema di Selezione Competitiva (SSC), che opera al fine di attivare automaticamente una catena di azioni/comportamenti senza investimento di risorse attentive, almeno fino all’intervento di processi inbitori che possono porre fine al suo funzionamento; il Sistema Attenzionale Supervisore (SAS), sistema cognitivo che richiede una direzione dell’attenzione per i processi decisionali consapevoli. Esso è attivo solo in certe condizioni, nel caso in cui non siano utilizzabili schemi di processamento automatici attivati dal SSC, in presenza di compiti complessi che richiedono il controllo diretto del soggetto. Il SAS avrebbe accesso alle rappresentazioni dell’ambiente, alle intenzioni dell’organismo e non opererebbe mediante il controllo diretto del comportamento, bensì modulando i livelli più bassi del SSC, che ha a sua volta il compito di attivare e di inibire automaticamente specifici schemi di comportamento. Rispetto al piano comunicativo, il sistema di controllo attenzionale ha accesso a una rappresentazione “completa” del mondo esterno e delle intenzioni dell’individuo ed è al contempo un sistema strategico, in quanto determina e orienta le scelte comunicative all’interno di uno specifico contesto: esso consente la rappresentazione delle gerarchie di azioni/piani, dal momento che esercita un controllo attentivo non sulle operazioni mentali (o schemi) ma direttamente sul meccanismo di selezione, modulando il livello di attivazione delle diverse operazioni. L’intervento di processi automatizzati, che non richiedono attenzione e sforzo, o di quelli controllati, viene calibrato di volta in volta, nell’intento di utilizzare funzionalmente le risorse da parte del sistema cognitivo. Infatti, la presenza di una maggiore complessità dei fattori cognitivi ed emotivi internamente ed esternamente all’individuo rende necessario l’intervento di un meccanismo di scelta intenzionale, a fronte di un utilizzo di energie maggiore rispetto alla condizione automatica. Una serie di studi ha consentito di rilevare l’inattivazione parziale o totale delle funzioni di controllo svolte dal SAS in presenza di un danno cerebrale al lobo frontale, con conseguente deficit della programmazione volontaria a favore delle funzioni automatiche presiedute dal SSC. La presenza di lesioni nell’area frontale può indurre deficit nel coordinamento intenzionale, nella gestione del cambiamento dei piani strategici e complessivamente nella flessibilità del comportamento, o, più in generale, può comportare la perdita della capacità di programmare l’azione. Inoltre, il mancato intervento del meccanismo di supervisione attenzionale implica la manipolazione diretta del comportamento da parte dell’ambiente esterno, che attiva specifici repertori comportamentali (automatismi) in assenza di un controllo intenzionale di questi ultimi.
7.2.2 Funzioni esecutive per la comunicazione intenzionale Il rapporto tra le funzioni esecutive e i processi comunicativi appare complesso. Da un lato, infatti, le operazioni controllate e gestite dal sistema esecutivo interessano le funzioni di rappresentazione dell’atto comunicativo, in quanto azione intenzionale
190
M. Balconi
finalizzata. Dall’altro, esse intervengono direttamente sulla pianificazione e sul controllo dell’esecuzione dell’azione. In questo caso, le funzioni esecutive divengono un fattore rilevante per la supervisione dell’azione, con un’incidenza diretta sul processo comunicativo. Tali funzioni sono intese come l’insieme dei processi finalizzati a regolare e a dirigere la condotta, mediante la gestione di alcune operazioni sovraordinate, quali la definizione delle strategie e dei piani, l’organizzazione delle gerarchie e delle sequenze delle azioni, nonché l’adattamento delle strategie al contesto. Analizziamo più specificamente da un punto di vista neuropsicologico e cognitivo l’applicazione delle funzioni di controllo centrale al processo di programmazione, monitoraggio e valutazione dell’azione che caratterizzano la comunicazione. Infatti per la programmazione dell’azione intenzionale è richiesto un insieme di competenze presiedute dalle funzioni centrali, che includono l’abilità di pianificare l’azione in funzione di un obiettivo, di utilizzare flessibilmente le strategie comunicative, di attivare una serie di processi di inferenza, nonché di implementare un comportamento complesso. Dal punto di vista anatomo-strutturale, specifiche aree (la corteccia frontale e prefrontale) costituiscono il substrato anatomico per le funzioni esecutive, come rilevato dall’analisi delle lesioni cerebrali che interessano tali regioni corticali, analisi che hanno consentito di rilevare la presenza di una sostanziale incapacità di gestire la programmazione e la realizzazione delle azioni finalizzate nell’uomo. In particolare, i lobi frontali, collocati anteriormente alla scissura centrale, possono essere suddivisi in quattro sezioni principali: l’area motoria, l’area premotoria, l’area prefrontale e la porzione basomediale dei lobi. Queste ultime due sezioni sono indicate generalmente come area prefrontale, che presiede in generale alle facoltà intellettive superiori, tra cui le funzioni mnestiche, il ragionamento e l’azione intenzionale. La possibilità per tale area di supportare i processi cognitivi superiori è giustificata sul piano anatomico dal fatto che essa possiede un numero assai elevato di connessioni con le altre aree corticali, così come con le altre strutture sottocorticali, quali, ad esempio, i gangli della base e il talamo [23]. Il dato filogenetico relativo allo sviluppo di tali strutture anatomiche ha consentito di porre in luce la distintività delle funzioni di controllo nella specie umana rispetto a quelle dei primati non umani. In particolare, l’area prefrontale umana ha raggiunto notevoli dimensioni rispetto ad altre regioni cerebrali (circa un terzo dell’intero volume encefalico) in tempi evolutivamente recenti. Tale estensione è più grande di quella registrata in qualsiasi altra specie: proporzionalmente essa occupa più del 200% nell’uomo rispetto ai primati non umani. Questo dato anatomico supporta la potenziale differenziazione tra gli umani e i primati non umani rispetto allo sviluppo della capacità di riflessione sui piani di azione e all’acquisizione, in uno stadio successivo, delle funzioni autoriflessive e metacognitive. Tuttavia, permane quale problema ancora irrisolto, la questione relativa all’unitarietà del sistema di controllo centrale, contrapposta all’esistenza di differenti sistemi processuali distinti. La compromissione di alcune funzioni esecutive e non di altre in caso di deficit prefrontali localizzati rende plausibile l’ipotesi dell’esistenza di più sistemi di controllo responsabili di specifiche operazioni, che sarebbero compromesse a fronte di altre comunque funzionanti. In particolare, i soggetti con deficit frontali sono caratterizzati dalla mancanza di adattamento flessibile delle scelte comunicative strategiche alla situazione e
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive
191
dalla complessiva difficoltà nel passaggio da un’ipotesi cognitiva all’altra. Questi soggetti evidenziano la prevalenza di ipotesi scorrette, anche nel caso in cui dispongano di informazioni utili al rilevamento dell’errore (perseverazione del comportamento erroneo). Un deficit correlato al precedente, connesso ai disturbi del sistema esecutivo nella pianificazione dell’azione intenzionale, riguarda l’inabilità di utilizzare informazioni salienti per formulare previsioni o per esprimere giudizi sulle situazioni (deficit di valutazione cognitiva). L’incapacità di produrre piani di azione complessi include anche altre funzioni cognitive, come l’organizzazione di sequenze gerarchiche che definiscano la priorità nell’esecuzione delle azioni. Deficit nell’organizzazione della sequenza complessiva sono stati rilevati in soggetti con lesioni frontali, che presentano un profilo complessivo di incapacità nell’organizzazione della condotta intenzionale (deficit dell’organizzazione in sequenze). Tuttavia, occorre evidenziare che il sistema preposto alle funzioni esecutive e quello che coordina i processi comunicativi appaiono distinti e caratterizzati da meccanismi autonomi. Infatti, un deficit nel sistema esecutivo centrale non implica un concomitante deficit nelle capacità di rappresentazione del linguaggio, ma soltanto la compromissione delle funzioni di pianificazione dell’azione intenzionale. Soggetti afasici, con o senza lesioni estese alla regione dorsolaterale nell’area prefrontale sinistra, non presentano differenze nelle loro prestazioni linguistiche; tuttavia, i soggetti con una lesione estesa appaiono maggiormente compromessi nell’esecuzione di azioni controllate [24].
7.2.3 Working memory In relazione all’attivazione delle funzioni di controllo intenzionale, un ruolo prioritario specificamente per compiti di tipo linguistico è svolto dal sistema della memoria di lavoro. Innanzitutto, essa coincide con un sistema a capacità limitata, responsabile dell’elaborazione e dell’immagazzinamento temporaneo delle informazioni durante l’esecuzione dei compiti cognitivi. Secondo il modello proposto da Baddeley [25] componenti costitutive della memoria di lavoro sono il sistema esecutivo centrale modalità-indipendente e alcune componenti di supporto, quali il loop fonologico e il taccuino visuospaziale. In particolare, abbiamo già sottolineato come l’esecutivo centrale sia un sistema di controllo attenzionale a capacità limitata, responsabile della selezione strategica, del controllo e del coordinamento di una serie di processi implicati in compiti verbali e non-verbali. Sul piano anatomo-strutturale si ritiene che la memoria di lavoro sia attivata nella corteccia prefrontale laterale, nella corteccia orbitale e nella corteccia anteriore cingolata. La specificità funzionale e i correlati anatomo-strutturali della memoria di lavoro, specificamente l’area dorsolaterale prefrontale, rendono plausibile l’accostamento del concetto di esecutivo centrale a quello di sistema attenzionale supervisore formulato da Shallice. Entrambi, infatti, consentono precise previsioni in caso di lesioni che coinvolgono l’area prefrontale, con particolare attenzione alle funzioni di controllo relative alla rappresentazione degli obiettivi, alla formulazione di piani strategici e alla definizione di rapporti di priorità temporali nella sequenza delle
192
M. Balconi
azioni intenzionali. In particolare, quest’ultima proprietà appare distintiva della memoria di lavoro, che svolgerebbe più direttamente il monitoraggio sequenziale delle azioni con priorità di realizzazione. Una serie di dati empirici consente, infatti, di affermare che la codifica delle proprietà temporali di un evento avviene distintamente dalla codifica del suo contenuto ed è legata alle aree prefrontali: specificamente pazienti con lesioni del sistema di memoria a breve termine presentano notevole difficoltà nella codifica dell’esatto ordine in cui gli stimoli debbono essere organizzati, benché appaia preservato il loro riconoscimento e il loro ricordo [26]. Si ritiene che la memoria di lavoro faccia riferimento a diverse memorie tampone, depositi temporanei in grado di trattenere gli stimoli elaborati in sistemi specializzati (come i sistemi sensoriali, spaziali o del linguaggio). Si pensa che le memorie tampone siano numerose (una per ogni sistema sensoriale) e indipendenti l’una dall’altra, che lavorino in parallelo e che si pongano in contatto con la memoria di lavoro una per volta. Si creano in tal modo le condizioni per uno spazio di lavoro polivalente, in cui l’informazione proveniente dalle memorie tampone sosta temporaneamente, le informazioni (ricordi) a lungo termine sono attivate contemporaneamente e un insieme di funzioni esecutive controlla le operazioni compiute congiuntamente con tali informazioni. Si tratta di processi che hanno precise implicazioni nella produzione e nell’esecuzione dell’atto comunicativo.
7.2.4 Working memory e funzioni comunicative Oltre alle funzioni di controllo attribuite all’esecutivo centrale per la pianificazione, la memoria di lavoro è coinvolta direttamente nei processi linguistici e comunicativi, quali la produzione e la comprensione linguistica, nonché l’acquisizione del vocabolario. L’ipotesi introdotta da recenti modelli [27] è che tale sistema di memoria possieda un magazzino per il consolidamento delle informazioni semantiche e sintattiche, oltre che componenti fonologiche. Nello specifico, il contributo della WM sarebbe relativo alla produzione di rappresentazioni mediante buffer specializzati e tali operazioni chiamerebbero in causa sia processi inferiori (magazzini con accesso alle differenti rappresentazioni) sia superiori (esecutivo centrale). In modo specifico, risulta essenziale il contributo del circuito fonologico nella comprensione del significato, in quanto attivo nella rappresentazione di stimoli linguistici, come è stato dimostrato dalla connessione tra le lesioni focali del circuito fonologico e la capacità di rappresentare il significato di parole [28]. Deficit selettivi della working memory appaiono condizionare la comprensione del linguaggio. Focalizziamo in particolare il rapporto tra disfunzioni del loop fonologico e compromissione dell’elaborazione di frasi. È stato rilevato che pazienti con deficit del loop fonologico mostrano una ridotta performance nel ricordo immediato delle stringhe di materiale verbale-uditivo (numeri, lettere, parole). Alcuni pazienti hanno mostrato deficit nella memoria a breve termine in concomitanza con un deficit nel magazzino fonologico [29], mentre altri mostrano un deficit nel processo di riattivazione (rehearsal) [30]. Tali dati rendono evidente una connessione diretta tra compromissioni del loop fonologico e comprensione del linguaggio.
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive
193
Una possibile ipotesi interpretativa pone in evidenza che l’immagazzinamento fonologico è necessario come supporto di un processo linguistico iniziale in cui il soggetto attiva una prima analisi sintattica della frase, in particolare nel caso in cui il decoding corretto di quest’ultima risulti essere di particolare difficoltà. Difficoltà di comprensione sono state rilevate in soggetti con deficit della memoria a breve termine nel caso di frasi lunghe, semanticamente reversibili e al cui interno sono presenti molte parole/contenuto [31]. Il magazzino fonologico può essere visto come “finestra mnestica” [28], che preserva l’ordine delle parole mediante il verbatim fonologico. Una seconda interpretazione riguarda il ruolo della memoria fonologica in un’analisi di secondo livello, successiva a quella sintattica ma in una fase che precede l’interpretazione completa della struttura della frase. Ad esempio, il secondo livello riguarderebbe il controllo post-sintattico dell’attribuzione dei nomi al proprio dominio tematico [32, 33]. Un’interpretazione più complessa suppone che, piuttosto che un legame tra specifiche componenti linguistiche e loop fonologico, è possibile che intercorra un rapporto diretto tra il tipo di compito linguistico previsto e componenti fonologiche, sintattiche o semantiche. Ad esempio, in un compito di ricordo verbale le componenti sintattiche e lessicali-semantiche possono essere legate alle informazioni fonologiche. Tale concezione differisce da quella adottata inizialmente da Baddeley, che considera la working memory come non legata ad alcuno specifico sistema cognitivo e che prevede, pertanto, l’esistenza di un magazzino specializzato per informazioni semantiche e sintattiche [34].
7.3 Strategie di azione per la comunicazione Tra le funzioni esecutive superiori che intervengono nella comunicazione, la pianificazione strategica, il monitoraggio e l’automonitoraggio della condotta richiedono specifiche competenze cognitive. Tali operazioni, infatti, implicano la capacità del soggetto di pianificare le azioni secondo i propri scopi strategici, di valutare gli effetti della propria azione comunicativa, confrontandoli con le ipotesi formulate in partenza, nonché la capacità di rappresentarsi la situazione tenendo conto delle molteplici variabili intervenienti. Il riferimento è ai processi di programmazione delle strategie di comunicazione da un lato, e alle competenze metacognitive dall’altro. Si tratta di competenze con marcata valenza “sociale” che interessano tutto il processo comunicativo, dalla fase iniziale della pianificazione all’analisi della risposta per la successiva ricalibrazione dell’interazione [35, 36].
7.3.1 Modello gerarchico dell’azione di Stuss e Benson Secondo il modello gerarchico proposto da Stuss e Benson [37], il controllo della condotta avviene secondo un processo gerarchico. A livello più basso le informazioni sensoriali e le conoscenze elementari sono elaborate in modo pressoché automatico, in quanto legate a un meccanismo non controllabile consapevolmente. Le regioni
194
M. Balconi
Fig. 7.2 Schema riassuntivo del rapporto tra sistemi comportamentali, meccanismi di azione e mediazione della coscienza (autoconsapevolezza) nella produzione di comportamenti comunicativi
anatomiche posteriori del cervello costituiscono il substrato di tali processi elementari, in relazione alla specificità delle operazioni sensoriali implicate (le aree occipitali per le informazioni visive, quelle temporali per gli stimoli uditivi ecc.). Al contrario, il livello successivo è associato alle funzioni esecutive di supervisione, strettamente connesse con il lobo frontale. Quattro tipi di processi caratterizzano questo secondo livello: l’anticipazione dell’azione, la selezione dell’obiettivo, la pianificazione e il monitoraggio. Al terzo livello, compaiono le funzioni di autoriflessione, che consentono all’individuo di sviluppare l’autoconsapevolezza delle proprie scelte intenzionali, come pure l’acquisizione della conoscenza dei propri processi cognitivi (metacognizione). In particolare, le funzioni legate all’autoriflessione consentono al soggetto di regolare consapevolmente il proprio rapporto con l’ambiente esterno: quest’ultimo livello presiede alla formulazione delle rappresentazioni astratte per la scelta delle azioni e per la comprensione del mondo, ovvero consente la formulazione di una mappa complessiva del significato dei comportamenti cognitivi proprio e altrui, intervenendo al contempo alla regolazione delle funzioni metacognitive (Fig. 7.2).
7.3.2 Implementazione delle strategie Abbiamo sottolineato come la pianificazione strategica e la rappresentazione dell’azione costituiscano un ambito articolato e complesso, in quanto chiamano in causa una serie di differenti capacità cognitive. Tra queste vi sono la definizione di un piano, che include la scelta della sequenza di azioni che devono essere eseguite e l’attribuzione di priorità di scelta all’interno delle gerarchie di azioni, l’esplicitazione di previsioni e ipotesi circa il contesto interattivo e i possibili effetti dell’azione e la capacità di adattamento flessibile del proprio piano strategico in funzione dei
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive
195
cambiamenti rilevabili. Analizziamo nello specifico le componenti atomiche del processo di pianificazione e di definizione strategica dell’azione, considerandole come fasi consequenziali, seppure non necessariamente distinte sul piano temporale: la definizione della strategia complessiva, la rappresentazione degli script di azione e la preparazione all’azione. Definizione di strategie di azione – L’impianto strategico richiede la realizzazione di differenti compiti, che devono essere organizzati secondo un ordine sequenziale e funzionale. La genesi di piani strategici per l’azione intenzionale prevede innanzitutto la formulazione di uno scopo complessivo dell’azione. Tale operazione richiede a sua volta la capacità di utilizzare più elementi informativi derivati dal contesto al fine di formulare la selezione del piano di azione più adeguato al contesto. È richiesto, in secondo luogo, di saper valutare preventivamente gli effetti delle azioni incluse nel proprio piano strategico, parallelamente alla capacità di introdurre variazioni e integrazioni della strategia in relazione ai cambiamenti rilevati nell’ambiente. A livello analitico, la pianificazione strategica prevede la scelta di una sequenza di azioni appropriate agli scopi e un loro costante coordinamento nel corso dell’interazione. Rappresentazione di piani schematici di azione – La definizione di un piano strategico chiama in causa la più ampia competenza della generazione di script. Tale competenza è sottesa alla nostra abilità di pianificare, definire le azioni e concettualizzare le situazioni per quanto esse siano complesse e articolate. A questo proposito è necessario esplicitare la complessa architettura cognitiva sottostante la rappresentazione della conoscenza. Il concetto di script include, infatti, innanzitutto, la rappresentazione di un insieme di concetti, eventi, o azioni tra loro collegate all’interno di una rete: esso rappresenta unità di conoscenza globali che includono un insieme eterogeneo di informazioni. In secondo luogo, tale unità è scomponibile in sottocomponenti microanalitiche articolabili su differenti livelli cognitivi. Ciò consente di definirle come unità di conoscenza manageriale (MKU, Managerial Knowledge Unit), poiché intese come sistemi di conoscenza che contengono non solo specifici contenuti (livello delle informazioni) ma anche indicazioni su come eseguire, usare o manipolare singole azioni che possiedono un “tema” singolo unificante (livello delle operazioni). Complessivamente, si tratta di rappresentazioni di network di conoscenza di livelli di complessità distinti, dal controllo delle azioni alla rappresentazione delle azioni stesse. Vi è inoltre la possibilità che tali MKU siano supportati da differenti moduli rappresentazionali, ovvero mediante proprietà primariamente linguistiche, o, al contrario, mediante rappresentazione per immagini. Grafman [38] ha proposto una rappresentazione dei MKU mediante tre livelli rappresentazionali, distinti in funzione della complessità e del grado di astrattezza che li caratterizza: il livello più astratto contiene eventi non specifici, come la definizione degli scopi complessivi di un’intera sequenza, di azioni, le intenzioni del soggetto ecc. Il secondo livello, svincolato dal riferimento stretto al contesto attivante (context-free), consente una maggiore specificazione degli eventi/azioni che devono essere realizzati. Il terzo livello, contesto-dipendente, la cui validità appare limitata a situazioni specifiche e circoscritte, contiene l’insieme di istruzioni su
196
M. Balconi
come eseguire uno specifico compito in una determinata situazione. Ad esempio, in cima alla gerarchia dello script viene rappresentata una serie di eventi schematizzabili nella pianificazione dello scopo, nella predisposizione della sequenza di inizio, nella realizzazione della sequenza e nella definizione del termine della stessa; il livello successivo può includere la rappresentazione di un comportamento generale, come proporre un invito; a livello inferiore vengono invece rappresentate le istruzioni con cui compiere l’azione specifica. La capacità di immagazzinare complesse unità di memoria che rappresentano proprietà tematiche (informazioni e operazioni) e temporali (sequenze) attribuiscono un indubbio vantaggio per il sistema cognitivo. Infatti, l’analisi in termini evoluzionistici dell’acquisizione della conoscenza schematica consente di rilevare la specificità di utilizzo delle unità di rappresentazione organizzate in sequenze complesse per le sole specie più evolute. Dal momento che tali unità di memoria tematica sembrano essere immagazzinate nella corteccia prefrontale, in quanto rappresentazioni di conoscenza di alto livello, lo sviluppo “anomalo” di tali aree nell’uomo rispetto a tutte le altre specie viventi giustificherebbe la differenza e il vantaggio della mente umana nella rappresentazione del comportamento finalizzato. Inoltre, dal punto di vista ontogenetico, la maturazione delle aree prefrontali appare più lenta rispetto alla corteccia delle aree associative, non raggiungendo la maturità fino al quindicesimo anno di età. Tale dato consentirebbe di spiegare il graduale passaggio nella gerarchia cognitiva dell’uomo da modelli più semplici di rappresentazione a modelli più complessi (quali appunto i MKU), cosicché, solo dopo un lungo processo evolutivo, egli sarebbe in grado di produrre e comprendere conoscenze schematiche o serie di eventi complessi. Preparazione all’azione – Il concetto di preparazione all’azione include due componenti sottostanti: la definizione del comportamento finalizzato e la preparazione motoria. La rappresentazione del comportamento finalizzato chiama in causa il processo responsabile della selezione, dal flusso di eventi sensoriali dell’ambiente, degli stimoli per la risposta (selezione dello stimolo) e della valutazione del significato che lo stimolo possiede per l’individuo (valutazione dello stimolo). Il comportamento finalizzato svolge un ruolo adattativo nella scelta strategica, in quanto prevede il coordinamento e la mediazione tra esigenze interne (individuo) e richieste esterne (ambiente). Il concetto di incertezza è utile per comprendere il comportamento finalizzato. Infatti, la specificità temporale e le caratteristiche dell’evento-comportamento (gli effetti della propria azione) rimangono indefinite finche l’evento stesso non si realizza. Di conseguenza, il comportamento finalizzato può essere considerato come una strategia comportamentale per far fronte all’incertezza. Il grado di incertezza è massimo nel caso in cui la situazione sia nuova (ad esempio, attivare uno scambio comunicativo con un individuo sconosciuto) ed è in questa circostanza che il soggetto mobilita la maggiore quantità di risorse. Rispetto alla seconda componente, diversi sottoprocessi caratterizzano la preparazione motoria, intesa come sistema effettore nella produzione di una risposta. Possiamo definire la preparazione motoria come quell’insieme di operazioni che intervengono dopo che lo stimolo/evento significativo è stato identificato e prima che la risposta venga eseguita: essa è intesa come la selezione in memoria della
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive
197
risposta associata allo stimolo e la pianificazione dell’output motorio attraverso cui la riposta si realizza. In particolare, si ipotizza che, durante le fasi iniziali di adattamento a un insieme di contingenze ambientali, le strutture cognitive instaurino un meccanismo di reciproco influenzamento di tipo feed-forward per la regolazione in tempo reale dell’allocazione delle energie impiegate. Al contrario, nelle fasi successive dell’adattamento, quando i fattori di incertezza e di complessità appaiono ridotti, il processo di investimento di energie sarà guidato principalmente da processi automatici autoregolatori.
7.3.3 Automonitoraggio e metacognizione Tra le funzioni esecutive di alto ordine che intervengono nel processo comunicativo, quelle di monitoraggio e di automonitoraggio del piano di azione chiamano in causa ulteriori funzioni cognitive. Tali operazioni richiedono, infatti, la capacità dell’individuo di valutare gli effetti della propria azione comunicativa, confrontandoli con le ipotesi formulate in partenza, nonché la capacità di rappresentarsi la situazione tenendo conto delle molteplici variabili presenti. In particolare, è necessario che il soggetto sappia rappresentare le proprie competenze e quelle del destinatario dell’azione identificandole con proprietà tipiche di sistemi ritenuti cognitivamente competenti. Il riferimento diretto è alle implicazioni pragmatiche della comunicazione, da un lato, e all’interpretazione dei processi cognitivi e metacognitivi, dall’altro. Nel primo caso, le abilità inferenziali impiegate riguardano la valutazione degli esiti della propria azione mediante raccordo tra previsioni degli effetti e valutazione dello standard rispetto alla situazione reale (funzioni di automonitoraggio): tale competenza passa attraverso processi inferenziali sugli effetti cognitivi, emotivi e comportamentali del corso delle azioni [1]. Nel secondo caso, vengono presi in considerazione i processi inferenziali di più alto ordine, che si riferiscono alle operazioni mentali che guidano le nostre azioni (metacognizione autodiretta), nonché l’interpretazione degli stati mentali altrui, ovvero l’attribuzione di stati epistemici all’altro come pensieri, credenze ecc. (metacognizione eterodiretta) (per un confronto tra le due si veda [39]). Le competenze sottese a tali operazioni sono dunque da ritenersi componenti trasversali del processo comunicativo, poiché interessano l’intera dinamica, dalla fase iniziale della pianificazione all’analisi della risposta per la successiva ricalibrazione dell’interazione. Esse sono altresì da intendersi come competenze “sociali” delle quali i modelli neuropsicologici devono rendere conto. Consideriamo, in particolare, l’impatto della riflessione metacognitiva autodiretta sul corso delle azioni e del comportamento, ovvero il rapporto tra competenza metacognitiva e comportamento. È indispensabile distinguere tra la più ampia conoscenza metacognitiva e la concettualizzazione metacognitiva attivata in relazione allo svolgimento di un compito specifico. Infatti, la concettualizzazione è da intendersi come attualizzazione della conoscenza metacognitiva in un dato contesto (ad esempio, la consapevolezza che una determinata azione non può essere eseguita prima che ne venga compiuta un’altra). Al contrario, la conoscenza metacognitiva viene intesa come insieme di conoscenze e credenze, preesistenti alla situazione specifica, e di più
198
M. Balconi
ampia estensione rispetto alla sua applicazione contingente. Essa consta anche delle attitudini emotive, oltre che cognitive, e delle inclinazioni di pensiero, acquisite nel corso dello sviluppo ed è fondante l’implementazione di qualsiasi strategia cognitiva, benché solo parzialmente attualizzata nella situazione specifica [40]. Esiste un comune substrato delle competenze metacognitive sia di tipo autodiretto sia eterodiretto? Recenti studi evidenziano l’implicazione dei lobi frontali nell’impiego di competenze metacognitive e specificamente nelle formulazione di teorie della mente. Inoltre, sembra sussistere un rapporto stretto tra deficit specifici del sistema attenzionale e delle funzioni esecutive e la capacità di formulare ipotesi circa i propri pensieri e i pensieri altrui. Lo studio di soggetti con lesioni nelle aree prefrontali, specificamente destre, sembra infatti evidenziare la compromissione della corretta rappresentazione delle credenze di primo e di secondo ordine. Un contributo esplicativo proviene dallo studio della sindrome autistica: soggetti affetti da autismo presentano una comune incapacità di applicare inferenze relative a stati metacognitivi anche elementari contemporaneamente al funzionamento deficitario di alcune funzioni esecutive, quali l’impiego di strategie e di piani di azione guidati da uno scopo. Sembra pertanto che le due competenze abbiano proprietà comuni, almeno per quanto concerne il comune substrato anatomo-funzionale [41, 42].
7.4 Conclusioni Il processo comunicativo intrattiene un rapporto diretto con una serie di funzioni di alto ordine come la coscienza, i meccanismi attentivi, la programmazione e l’esecuzione dei piani di azione. In particolare, in quanto azione intenzionale, la comunicazione costituisce un tipo particolare di azione orientata-verso-qualcosa (finalizzata) e co-regolata con il proprio interlocutore (relazionale). In essa intervengono sia meccanismi di primo ordine, come la focalizzazione dell’attenzione sugli elementi informativi più salienti o di pianificazione intenzionale dei significati da comunicare con intervento diretto della coscienza, sia di secondo ordine, di monitoraggio del corso dell’azione e degli effetti che l’atto comunicativo produce, nonché dell’automonitoraggio della propria condotta comunicativa in relazione alle richieste del contesto di interazione che esigono una ricalibrazione flessibile del corso dell’azione. L’organizzazione di piani gerarchici di funzioni di alto ordine contraddistingue l’intero processo, che si caratterizza come multicomponenziale e multifunzionale. Per alcune delle funzioni precedentemente considerate è possibile individuare specifici correlati neurobiologici. In particolare le aree prefrontali sono considerate di notevole importanza per la regolazione dell’azione comunicativa intenzionale, sia rispetto alla pianificazione sia all’esecuzione e al monitoraggio delle strategie di azione. Da ultimo le funzioni metacognitive di concettualizzazione delle componenti mentali ed emotive che caratterizzano l’interazione appaiono di rilievo per la comprensione del processo complessivo di regolazione dell’atto comunicativo. Anche in questo caso un ruolo di primo piano sarebbe svolto delle aree frontali, in virtù della loro funzione di coordinamento e di regolazione delle rappresentazioni di sé e dell’altro.
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive
199
Bibliografia 1. Green GM (1996) Pragmatics and natural language understanding. Erlbaum, Mahwah 2. Sperber D, Wilson D (1986) Relevance: communication and cognition. Oxford University Press, Oxford 3. Marraffa M, Meini C (2005) La mente sociale: le basi cognitive della comunicazione. Laterza, Bari-Roma 4. Csibra G (2004) Teleological and referential understanding of action in infancy. In: Frith CD, Wolpert DM (eds) The neuroscience of social interaction: decoding, imitating and influencing the actions of others. Oxford University Press, Oxford, pp. 23-44 5. Tomasello M (1999) The cultural origins of human cognition. Harvard University Press, Cambridge Mass. 6. Balconi M (2002) Neuropsicologia della comunicazione. In: Anolli L (ed) Psicologia della comunicazione. Il Mulino, Bologna 7. Frith U, Frith CD (2004) Development and neurophysiology of mentalizing. In: Frith CD, Wolpert DM (eds) The neuroscience of social interaction: decoding, imitating and influencing the actions of others. Oxford University Press, Oxford, pp. 45-75 8. Gallese V (2004) The manifold nature of interpersonal relations: the quest for a common mechanism. In: Frith CD, Wolpert DM (eds) The neuroscience of social interaction: decoding, imitating and influencing the actions of others. Oxford University Press, Oxford, pp. 159-182 9. Dennett D (2001) Are we explaining consciousness yet? Cognition 79:221-237 10. Zelazo PD (1999) Language, levels of consciousness, and the development of intentional action. In: Zelazo PD, Astington JW, Olson DR (eds) Developing theories of intention: social understanding and self control. Erlbaum, Mahwah, pp. 95-118 11. Balconi M (2006) Psicologia degli stati di coscienza: dalla coscienza percettiva alla consapevolezza di sé. LED, Milano 12. Edelman M (1992) Bright air, brilliant fire: on the matter of the mind. Basic Books, New York 13. Edelman M, Tononi G (2000) A universe of consciousness: How matter becomes imagination. Basic Books, New York 14. Kinsbourne M (1996) What qualifies a representation for a role in consciousness? In: Cohen JD, Schooler JW (eds) Scientific approaches to consciousness: the twentyfifth annual Carnegie symposium on cognition. Lawrence Erlbaum Associates, Hillsdale 15. Spence DP, Smith GW (1977) Experimenter bias against subliminal perception? Comments on a replication. Brit J Psychol 68:279-280 16. Kinsbourne M (1988) Integrated field theory of consciousness. In: Marcel AE, Bisiach E (eds) Consciousness in contemporary science. Clarendon Press, Oxford 17. Gazzaniga MS (1998) The mind’s past. University of California Press, Berkeley 18. Baars BJ (2003) How does a serial, integrated, and very limited stream of consciousness emerge from a nervous system that is mostly unconscious, distributed, parallel, and of enormous capacity? In: Baars BJ, Banks WP, Newman JB (eds) Essential sources in the scientific study of consciousness. The MIT Press, Cambridge Mass, pp. 1123-1130 19. Gazzaniga MS (1996) The cognitive neuroscience. The MIT Press, Cambridge Mass 20. Povinelli DJ, Bering JM (2002) The mentality of apes revisited. Curr Dir Psychol Sci 11:115-119 21. Umiltà C (1995) Manuale di neuroscienze. Il Mulino, Bologna 22. Shallice T (1988) From neuropsychology to mental structure. Cambridge University Press, Cambridge 23. Bottini G, Paulesu E, Sterzi R et al (1995) Modulation of conscious experience in peripheral sensory stimuli. Nature 376:778-780 24. Feyereisen P (1988) Non verbal communication. In: Rose FC, Whurr R, Wyke MA (eds) Aphasia. Whurr, London, pp. 46-81 25. Baddeley A (1996) Exploring the central executive. Q J Exp Psychol-A 49:5-28
200
M. Balconi
26. Van der Linden M, Poncelet M (1998) The role of working memory in language and communication disorders. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego, pp. 289-300 27. Gazzaniga MS (1997) Conversations in the cognitive neurosciences. The MIT Press, Cambridge Mass 28. Vallar G, Baddeley AD (1987) Phonological short-term store and sentence processing. Cogn Neuropsychol 4:417-438 29. Vallar G, Baddeley AD (1984) Fractionation of working memory: neuropsychological evidence for a phonological short-term store. J Verbl Learn Verb Be 23:151-161 30. Belleville S, Peretz I, Arguin H (1992) Contribution of articulatory reharsal to short-term memory: evidence from a selective disruption. Brain Lang 43:713-746 31. Martin RC, Feher E (1990) The consequences of reduced memory span for the comprehension of semantic versus syntactic information. Brain Lan 38:1-20 32. McCarthy RA, Warrington EK (1990) Cognitive neuropsychology: a clinical introduction. Academic Press, San Diego 33. Waters GS, Caplan D, Hildebrandt N (1991) On the structure of verbal short-term memory and its functional role in sentence comprehension: evidence from neuropsychology. Cogn Neuropsychol 8:82-126 34. Martin RC (1993) Short-term memory and sentence processing: evidence from neuropsychology. Mem Cognition 21:176-183 35. Damasio AR (2000) The feeling of what happens: body and emotion in the making of consciousness. Vintage, London 36. Sommerhoff G (2000) Understanding consciousness. Its function and brain processes. Sage, London 37. Stuss DT, Alexander MP, Benson DF (1997) Frontal lobe functions. In: Trimble MR, Cummings JL (eds) Contemporary Behavioral Neurology. Butterworth-Heineman, Boston, pp. 169-187 38. Grafman J (1995) Similarities and distinctions among current models of prefrontal cortical functions. Annals of the New York Academy of Sciences 769:337-368 39. Frith CD, Wolpert DM (2004) The neuroscience of social interaction: decoding, imitating and influencing the actions of others. Oxford University Press, New York 40. Mazzoni G, Nelson TO (1999) Metacognition and cognitive neuropsychology: monitoring and control processes. Erlbaum, Mahwah 41. Baron-Cohen S (1995) Mindblindness: an essay on autism and theory of mind. The MIT Press, Cambridge Mass. 42. Frith CD (2003) Neural hermeneutics: how brains interpret minds. Keynote lecture, 9th Annual Meeting of the Organization of Human Brain Mapping, New York
Parte III
Comunicazione non-verbale delle emozioni
Capitolo 8
Sistemi di comunicazione non-verbale Michela Balconi
8.1 Introduzione Tra le componenti di maggiore interesse nell’analisi del processo comunicativo occorre considerare i sistemi di comunicazione non verbali. Questi ultimi costituiscono, infatti, assieme al verbale, l’intero dominio della significazione, in quanto elementi che contribuiscono a definire la semiosi di un messaggio [1]. Al fine di caratterizzare il ruolo delle componenti non verbali per la comunicazione occorre domandarsi innanzitutto quale sia l’origine della comunicazione non-verbale e, in secondo luogo, il rapporto di reciproca influenza che verbale e non-verbale hanno avuto nel percorso evolutivo (filogenesi). Un aspetto di notevole interesse riguarda, inoltre, la natura della relazione sussistente tra i differenti sistemi di comunicazione non-verbale, alla luce della loro autonomia funzionale e al contempo della relativa interdipendenza sul piano semiotico [2]. Tra le componenti di comunicazione non-verbale (sistema vocale, gestuale, mimico, prossemico e aptico) nel presente capitolo focalizzeremo in particolare due sistemi comunicativi, quello gestuale e quello vocale. Rispetto a quest’ultimo, più specificamente verrà analizzato il contributo delle componenti vocali per l’espressione (encoding) e il riconoscimento (decoding) dei correlati emotivi, poiché le modificazioni vocali costituiscono elementi prioritari nel processo di comunicazione delle emozioni. Infine, sarà oggetto di riflessione il problema della lateralizzazione delle funzioni comunicative non verbali. Recenti acquisizioni in ambito sperimentale hanno consentito infatti di superare la dicotomia tra funzioni verbali ed emisfero sinistro e funzioni non verbali ed emisfero destro.
8.2 Origine della comunicazione non-verbale I differenti sistemi di comunicazione non-verbale sono stati collocati all’interno della categoria della comunicazione extralinguistica, intesa come insieme di sistemi di segnalazione che, in aggiunta al verbale, contribuiscono a definire il significato “modale” della comunicazione, qualificandola [3]. Alcuni dei sistemi di comunicazione non-verbale sono stati più ampliamente esplorati, costituendo un ambito di indagine avanzato, come nel caso della comunicazione mimica, soprattutto in relazione alle funzioni di comunicazione delle emozioni a essa connaturate [4]; M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008
204
M. Balconi
altri, al contrario, presentano un insieme di conoscenze ridotte e alquanto frammentate, come nel caso dei sistemi cinesici, che sono stati perlopiù studiati in relazione alle funzioni di motilità manuale piuttosto che al loro valore comunicativo. Una seconda considerazione che occorre fare riguarda la difficoltà che si riscontra nell’individuare in modo univoco le unità di analisi dei sistemi coinvolti, ovvero per alcuni dei sistemi di comunicazione non-verbale non vi è accordo circa il livello di analiticità con cui segmentare le componenti costitutive (ad esempio, le unità gestuali microanalitiche o piuttosto pattern complessivi di configurazioni). Un terzo elemento cui occorre prestare attenzione riguarda l’origine della comunicazione nonverbale nel corso dello sviluppo filogenetico e, problema connesso al precedente, il rapporto tra aspetti verbali e non verbali della comunicazione lungo il percorso evolutivo. Affrontiamo dapprima quest’ultimo aspetto per riservare alle questioni precedenti uno spazio apposito nei paragrafi successivi. Circa il significato e il decorso evolutivo della comunicazione non-verbale si sono succedute prospettive interpretative differenti. In particolare consideriamo tre approcci distinti. Modelli neuroculturali – Tali modelli sono fondamentalmente ancorati alla concezione darwiniana dell’innatismo (la comunicazione è presente sin dalla nascita e scarsamente appresa) e dell’universalità (a parte casi ridotti di differenziazioni, è presente con modalità simili tra le culture) della comunicazione non-verbale [5]. In quanto eredità ancestrale dei primati, essa preserverebbe solo alcune delle funzioni svolte in origine, non essendo attualmente più legata alle funzioni di mantenimento della sopravvivenza, ma sarebbe piuttosto deputata alla regolazione dei rapporti tra individui della stessa specie. Di particolare importanza è la funzione ancora attiva di espressione e comprensione delle emozioni, in quanto elementi che fungono da regolatori della condotta sociale [6]. Secondo tali modelli le componenti culturali e di natura appresa svolgerebbero un ruolo significativo unicamente nella fase di regolazione del comportamento per la sua manifestazione in un contesto pubblico, attraverso l’applicazione di regole di esibizione. Ne costituiscono un esempio le display rules (regole di esibizione) applicate al sistema di comunicazione mimica [4]. Tuttavia elemento critico di tale approccio è costituito dall’eccessiva importanza attribuita alle componenti innate, fatto che ne limita grandemente il potenziale esplicativo, data l’estrema varietà di modalità specifiche di produzione e di comprensione dei significati attribuiti al non-verbale tra gli individui e tra le culture. Modelli culturali – In contrapposizione ai modelli neuroculturali appena presentati, tra i modelli di natura culturale vi è ampia condivisione circa il contributo rilevante dell’apprendimento. Elemento comune a questi modelli è la sostanziale differenziazione dei sistemi di comunicazione non-verbale in termini di processi di acquisizione e in stretta relazione alle culture di riferimento [1]. La forte valenza culturalista assunta da tale prospettiva impedisce tuttavia in molti casi di cogliere l’aspetto universale di molti significati condivisi anche tra culture differenti. Modelli cognitivi – Secondo tale approccio solo una parte delle competenze comunicative sarebbe di origine innata. Si tratta dell’insieme di competenze che contri-
8. Sistemi di comunicazione non-verbale
205
buiscono alla costruzione del piano intenzionale e della capacità di formulare rappresentazioni circa le credenze, mentre le altre competenze di alto ordine (come la capacità di interpretare la mente altrui) sarebbero acquisite solo successivamente nel corso dello sviluppo [7]. Inoltre, è possibile rilevare come la compromissione di alcune componenti linguistiche non influenzi la capacità di utilizzare la comunicazione rispetto ai sottosistemi comunicativi che la caratterizzano, segnalando una sostanziale indipendenza dei due livelli. In termini evolutivi ciò sarebbe supportato da differenti fasi di acquisizione delle competenze linguistiche ed extralinguistiche. Tuttavia, anche in questo caso è possibile individuare elementi di criticità nella prospettiva teorica, in particolare per quanto concerne il processo di “sintesi” (si veda anche il Capitolo 11) dei sistemi verbale e non verbali a favore di una sostanziale autonomia e indipendenza dei due domini. Infatti, la rilevazione di una differenziazione tra i sistemi neurali sottesi alle componenti linguistiche ed extralinguistiche appare non sufficiente per ipotizzare l’esistenza di un percorso evolutivo totalmente indipendente tra i due sistemi. Un problema collegato alla questione dell’evoluzione dei sistemi di comunicazione non-verbale è inoltre relativo alla continuità/discontinuità nell’acquisizione delle competenze non verbali rispetto alle forme comunicative presenti nei primati. Nel corso del tempo si sono succedute ipotesi alternative. Di particolare interesse è il modello proposto da Burling [8] che suppone una forma di continuità evolutiva tra specie umana e primati per le componenti extralingusitiche e, al contrario, una discontinuità sul piano linguistico. In altri termini, la comunicazione non-verbale umana avrebbe molte caratteristiche comuni con quella dei primati, in particolare per quanto concerne: – la gradualità dei segnali, con una conversione sistematica senza continuità (sorriso e smorfia, ad esempio); – lo scarso apporto dell’apprendimento (determinazione genetica di alcuni comportamenti come il sorridere); – la condivisione informativa (ovvero l’equivalenza semiotica di buona parte dei sistemi di comunicazione non-verbale tra uomo e primate); – la ridotta controllabilità volontaria di alcuni segnali non verbali (come, ad esempio, le componenti vocali). Complessivamente, a fronte di una unicità e specificità delle caratteristiche comunicative tra le specie, soprattutto nell’ambito delle componenti linguistiche, è possibile individuare elementi di continuità rispetto al non-verbale, con particolare riferimento alle funzioni di espressione e regolazione delle emozioni e, più in generale, della struttura sociale [9]. A favore di una sostanziale discontinuità si pongono, invece, i modelli di Chomsky [10], secondo cui il linguaggio è una forma di comunicazione evoluta e specifica della sola specie umana e di Lieberman [11], che fonda la non comparabilità delle due comunicazioni sulla base delle differenze sostanziali esistenti tra apparato fonatorio dell’uomo e quello di altre specie. Una discontinuità cognitiva viene postulata dal modello di Bara [7], secondo cui le evidenti differenziazioni
206
M. Balconi
rispetto al contributo e allo sviluppo corticale (in particolare la neocorteccia) impedirebbero di stabilire una continuità effettiva tra comunicazione umana e dei primati. Un salto qualitativo finalizzato nella comunicazione umana condurrebbe, infatti, allo sviluppo di un protolinguaggio mantenuto e sviluppato per fini comunicativi ma anche come supporto al sistema cognitivo. L’intervento e la reciprocità di influenzamento tra pensiero e linguaggio permettendone un ulteriore sviluppo delle competenze comunicative, permettendone la riorganizzazione in processi centrali. Inoltre, lo sviluppo contemporaneo delle competenze manuali supporterebbe l’acquisizione della scrittura, definendo un’ulteriore competenza distintiva della comunicazione umana. In questa prospettiva le funzioni linguistiche ed extralinguistiche opererebbero indipendentemente l’una dall’altra con fasi di apprendimento differenziate. Queste ultime, in particolare, sarebbero istanziate per prime e supportate da aree cerebrali distinte da quelle sottostanti al linguaggio.
8.3 Sistemi di comunicazione non-verbale: funzioni e componenti 8.3.1 Indipendenza semiotica dei sistemi di comunicazione non-verbale Il sistema di comunicazione non-verbale risulta costituito da un insieme di sottosistemi tra loro indipendenti, sia sul piano strutturale sia funzionale. Infatti, rispetto alle componenti strutturali, i sottosistemi sono supportati da strutture biologiche differenti (il sistema gestuale, ad esempio, rispetto a quello vocale o mimico). In merito alle componenti funzionali abbiamo già sottolineato come sia possibile ricondurre tutti i sistemi non verbali al ruolo di compartecipi alla significazione insieme al sistema verbale [12]. Tuttavia, ciascuno di essi appare caratterizzato da alcune funzioni precipue: si pensi al ruolo del vocale e della mimica facciale per la comunicazione delle emozioni (si veda il paragrafo 8.4), o al sistema cinesico associato al verbale nell’organizzazione del linguaggio. È utile precisare, inoltre, che diversi autori hanno riconosciuto alla comunicazione non-verbale un ruolo non ausiliario al verbale rispetto alla possibilità di comunicare significati, in quanto dotata di una propria semiosi [2]. Precedentemente relegata a veicolo del significato modale [13], sempre più ampiamente essa viene considerata come elemento costitutivo della complessa costruzione dei significati condivisi tra i parlanti, poiché verbale e non-verbale insieme concorrono a determinare ciò che viene comunicato. Più in generale, occorre tenere presente che l’analisi del piano semiotico della comunicazione è solo fittiziamente suddiviso in porzioni o segmenti di significato. Piuttosto la comunicazione non-verbale costituisce una semiosi complessa e articolata che tiene conto delle diverse componenti per definire sinteticamente significati comunicativi. Pur non disponendo di una struttura simbolica articolata al pari di quella verbale, la comunicazione non-verbale, infatti, dispone di una enciclopedia di sistemi di significati in grado di confluire in una semiosi compiuta. Al fine di derimere il contributo del non-verbale per il processo comunicativo, è stata attuata una distinzione rilevante in relazione al carattere volontario o involonta-
8. Sistemi di comunicazione non-verbale
207
rio dei sistemi non verbali. Occorre, infatti, prestare attenzione alla distinzione tra i cosiddetti comportamenti automatici (automatismi e riflessi), con funzioni prettamente non comunicative, e azioni finalizzate a produrre effetti comunicativi sugli altri individui, che caratterizzano il non-verbale come comportamento comunicativo. Ad esempio, è possibile riconoscere una chiara distinzione tra gli automatismi dei gesti non controllati intenzionalmente per la comunicazione da parte del soggetto (come il riflesso di startle) e i gesti intenzionalmente programmati come atti comunicativi (si pensi, ad esempio, al comportamento gestuale di saluto in risposta alla richiesta del proprio interlocutore). Come sottolineato da diversi modelli, l’elemento distintivo del valore comunicativo di qualsiasi comportamento prodotto è costituto dalla presenza di un’intenzionalità del voler comunicare qualcosa (informatività) a qualcuno (direzionalità), ovvero l’intenzione del parlante di produrre un effetto comunicativo sul proprio interlocutore [14]. A questo riguardo, il processo di pianificazione intenzionale costituisce per la comunicazione non-verbale, al pari di quella verbale, un carattere distintivo del proprio valore semiotico (si veda anche il Capitolo 7). L’intervento di sistemi di regolazione, quali i meccanismi di focalizzazione dell’attenzione e il controllo dell’azione, contraddistinguono il coinvolgimento dei piani di intenzionalizzazione dell’azione per la comunicazione. Nel complesso dominio non-verbale occorre riconoscere, tuttavia, una gradualità intenzionale, ovvero l’intervento dei processi attentivi appare modulabile in funzione del contesto (maggiore o minore focalizzazione attenzionale) e dello specifico sottosistema coinvolto (ad esempio, il sistema vocale o quello mimico), poiché ciascuno di essi presenta peculiarità proprie in relazione al grado di manipolabilità intenzionale da parte del parlante.
8.3.2 Sistemi e componenti non-verbali Tenendo conto dell’eterogeneità dei sistemi di comunicazione non-verbale coinvolti, presentiamo sinteticamente il quadro sinottico delle principali componenti. – Le componenti vocali di tipo non-verbale pertengono propriamente alle proprietà soprasegmentali dell’eloquio, che caratterizzano qualitativamente la voce, e prosodici (profilo di intonazione), che conferiscono un’“impronta” specifica al parlato. In particolare, è possibile distinguere tra componenti legate al tono, all’intensità, alle variazioni temporali (come il ritmo, la durata, la velocità di eloquio, le pause). Esse, assieme al verbale, costituiscono l’intera produzione vocale dell’individuo e sono funzionalmente legate alla manifestazione delle emozioni (si veda il paragrafo 8.4). – Il sistema cinesico-gestuale include sia i gesti sia le componenti mimiche del volto e lo sguardo. Nella complessa categoria gestuale distinguiamo una prima sottocategoria definita dai gesti iconici [15] (o illustratori secondo la definizione di Ekman), in genere legati alla produzione verbale del soggetto, scarsamente convenzionalizzati e dal valore semiotico ridotto, determinato contestualmente allo scambio. Accanto a questi vi sono i gesti simbolici (o emblemi), altamente convenzionalizzati (come il gesto di autostop) e i gesti deittici, utilizzati
208
M. Balconi
per indicare, che in genere invitano l’interlocutore a dirigere la propria attenzione verso un elemento terzo. Ulteriori sottocategorie sono rappresentate dai gesti motori (o manipolatori), legati perlopiù all’espressione della condizione emotiva del parlante (come i gesti di autocontatto) e dalle pantomime, che in genere riproducono azioni mimandone le caratteristiche percettive. Uno spazio a sé è dedicato al sistema mimico, che, pur facendo parte della cinesi generale, occupa un ruolo privilegiato nel processo comunicativo. Il volto costituisce, infatti, un veicolo prioritario per la comunicazione delle emozioni. – Il sistema prossemico e aptico riguardano, rispettivamente, la regolazione dello spazio interpersonale e i comportamenti finalizzati a co-regolare il contato corporeo. Di particolare interesse per la psicologia, esso è alla base della definizione delle relazioni tra gli individui, rappresentandone il principale marcatore (per un approfondimento di questo argomento, si veda [16,17]).
8.4 Componenti neuropsicologiche nella regolazione dei sistemi non-verbali: il sistema cinesico-gestuale 8.4.1 Produzione gestuale e comunicazione Nella produzione delle unità cinesico-gestuali sono coinvolti sia il sistema nervoso centrale sia quello periferico. In particolare, occorre precisare che specifici circuiti neurali intervengono nella regolazione degli atti motori sottesi alla produzione della comunicazione non-verbale, dal momento che sono coinvolti i sistemi piramidale (area motoria e premotoria) ed extrapiramidale (striato e tronco encefalico). A tali componenti occorre aggiungere alcuni sistemi sovraordinati deputati alla regolazione, al coordinamento e alla sincronizzazione delle diverse unità gestuali non verbali. Tali processi coinvolgono in primis le funzioni cognitive, che comprendono il controllo dell’azione mediante la trasformazione di informazioni visive in istruzioni per i muscoli delle gambe e delle braccia. Rientrano, inoltre, come componenti ausiliarie nella produzione gestuale la rappresentazione dello spazio personale (spazio egocentrico) e dello spazio in cui sono collocati gli altri individui e gli oggetti (spazio extrapersonale) [17, 18]. Due elementi centrali dei modelli teorici relativi alla gestualità riguardano il fatto che i movimenti sono guidati da rappresentazioni mentali del movimento prima della loro esecuzione e che i parametri spaziotemporali sono largamente predefiniti durante la fase di pianificazione e solo parzialmente essi vengono corretti da adattamenti locali. Inoltre, gli individui possono anche immaginare i gesti senza eseguirli, grazie all’immaginazione motoria [19]. I movimenti finalizzati risultano quindi da una serie di complesse trasformazioni delle informazioni disponibili prima che un comando sia trasmesso agli organi effettori. In secondo luogo, anche la finalità del gesto e la sua dipendenza dal compito sono legate a specifiche rappresentazioni. Le coordinate spaziali, di direzionalità e di intensità sono pertanto direttamente legate alla rappresentazione finalizzata a specifiche azioni da compiere.
8. Sistemi di comunicazione non-verbale
209
Studi su soggetti con lesioni in aree specifiche (ad esempio, aree ventrali o dorsali) hanno evidenziato l’indipendenza di alcuni percorsi corticali nella produzione dei gesti in relazione al tipo di compito eseguito. Lesioni in aree deputate a rappresentare determinate funzioni cognitive e motorie possono compromettere alcune specifiche categorie di gesti (come le pantomime e l’imitazione delle azioni motorie) [20]. Sistemi neurali differenti supporterebbero, ad esempio, le funzioni di comprensione e di imitazione dei gesti. Nello specifico, un deficit selettivo per il processo di imitazione è stato definito come aprassia da conduzione, in analogia con la sindrome di afasia da conduzione in cui i pazienti non sono in grado di ripetere parole che tuttavia possono comprendere [21]. Al riguardo, Goldenberg, e Hagmann [22] propongono il termine aprassia visuoimitativa. Di converso, sono stati documentati due casi di agnosia per le pantomime [23] per pazienti in grado di riprodurre i movimenti eseguiti da altri ma incapaci di discriminare gesti presentati in modalità visiva o di accoppiare gesti a immagini di oggetti. Rispetto alla produzione e alla comprensione dei gesti in funzione delle proprietà comunicative che li caratterizzano, la regolazione di tali sistemi motori è finalizzata a elicitare specifiche risposte dal proprio interlocutore e, in generale, a produrre effetti significativi sul suo stato mentale. Gesti differenti possono comunicare significati pressoché simili, sebbene essi possano in parte differire rispetto alle modalità di esibizione. In generale, l’individuazione di specifici significati associati alle singole unità gestuali costituisce un quesito rilevante per lo studio delle funzioni cinesiche. Nel corso degli ultimi anni sono state assunte differenti posizioni al riguardo: da un lato, alcuni autori sostengono la ridotta significatività dei gesti come sistema semiotico autonomo [24], altri invece ne sottolineano l’elevato valore comunicativo [25]. Il modello proposto da Feyereisen [3] rende evidente come i gesti (in particolare quelli prodotti in associazione alla comunicazione verbale) e la produzione linguistica implichino una precisa coordinazione di componenti molteplici che costituiscono la muscolatura delle mani, del volto, dell’apparato vocale. È stato infatti rilevato come i sistemi neurali coinvolti nel controllo della produzione vocale e dell’attività manuale siano strettamente legati. Nello specifico, Kimura [26] ha sottolineato come la conoscenza dei meccanismi neurali di controllo dei movimenti degli arti e delle mani possa chiarire alcune caratteristiche del sistema comunicativo umano. Infatti, alcune regioni dell’emisfero sinistro, specializzate per la selezione motoria, intervengono anche nella ripetizione di sillabe prive di significato e nell’imitazione di gesti della mano privi di senso. In linea con questa prospettiva, Lieberman [27] ha suggerito che le competenze sintattiche si siano evolute a partire dalla capacità di combinare una serie di movimenti non verbali in sequenze complesse. Un modello omnicomprensivo della rappresentazione dei gesti e delle funzioni da essi svolte in congiunzione o in assenza di parlato è stato proposto da Roy e Hall [28]. Il modello prevede che alcuni deficit possano compromettere selettivamente determinate funzioni della comunicazione gestuale e non altre. Ad esempio, è stato rilevato che può esistere una dissociazione tra la conoscenza concettuale e la produzione gestuale [29]. Inoltre, deficit delle pantomime possono accompagnarsi a un funzionamento normale dei gesti di imitazione: la distinzione è analoga a quella riscontrata per deficit specifici del linguaggio nel caso di soggetti che presentano un’anomia in risposta a immagini che raffigurano una parola ma sono
210
M. Balconi
Fig. 8.1 Lo schema riproduce i percorsi che caratterizzano le fasi di produzione di specifiche categorie gestuali
in grado di ripetere la parola stessa. È importante sottolineare che alcuni gesti, come le pantomime, possono essere elicitati sia da comandi verbali sia da elaborazione di oggetti presenti, mentre l’imitazione richiede un’analisi visiva delle informazioni fornite. Anche i processi cognitivi cui essi si rifanno differiscono: nel caso delle pantomime occorre che vengano attivate conoscenze presenti nella memoria semantica al fine di selezionare una specifica risposta e di generare un’immagine mentale adeguata, mentre l’imitazione gestuale bypassa tale attivazione poiché l’input visivo può attivare direttamente il programma motorio. Lo schema (Fig. 8.1) riproduce i percorsi che caratterizzano le fasi di produzione di specifiche categorie gestuali.
8.4.2 Dipendenza e indipendenza dei sistemi gestuale e linguistico Un’importante questione attualmente dibattuta in ambito scientifico verte sul rapporto tra i cosiddetti gesti iconici e il linguaggio. Come sottolineato, è stata rilevata infatti una compromissione parallela di tale categoria gestuale e di alcune funzioni del linguaggio per la produzione orale in concomitanza a lesioni sinistre. Tuttavia, occorre in primo luogo verificare se tale concomitanza riguardi una comune compromissione delle strutture atte a produrre i movimenti necessari alla produzione gestuale e verbale o, piuttosto, riguardi il processo simbolico di rappresentazione di gesti e parole. Inoltre, è necessario distinguere tra deficit di produzione orale che riguardano la struttura fonologica l’aggregazione delle componenti fonologiche in una parola e la costruzione di frasi. È stato rilevato infatti che la produzione di frasi può essere deficitaria a differenti livelli e non è chiaro come i diffe-
8. Sistemi di comunicazione non-verbale
211
Fig. 8.2 Principali fasi di produzione gestuale, dalla pianificazione all’esecuzione, in relazione alla produzione verbale
renti disturbi afasici siano legati al disturbo aprassico concomitante [30]. Occorre sottolineare inoltre che in molti casi aprassia e afasia appaiono disturbi distinti e dissociati, come rilevato da studi empirici [31, 32]. Un ulteriore aspetto degno di nota, al fine di comprendere il rapporto tra gesti e linguaggio, riguarda il possibile rapporto tra sistema gestuale e verbale nella comunicazione ordinaria. Occorre innanzitutto precisare la funzione del gestuale in relazione al verbale. Alcuni autori ne hanno sottolineato il ruolo di “attivatore” della produzione verbale [33]. Recenti risultati empirici andrebbero in questa direzione, dal momento che soggetti con disordini verbali afasici tendono a produrre più gesti dei normali [34]. Kraus e Radar [35] hanno ipotizzato che i gesti possono svolgere anche una funzione di stimolazione e di facilitazione per la riattivazione dei concetti. Nel modello da essi introdotto la produzione gestuale precederebbe la concettualizzazione e la costruzione del messaggio preverbale così come esso è stato formalizzato da Levelt (si veda il Capitolo 1). Lo schema riproduce le principali fasi di produzione gestuale, dalla pianificazione all’esecuzione. Ciascun gesto può rappresentare una o più caratteristiche spaziali/dinamiche riportate nella fase iniziale dello schema (Fig. 8.2). Complessivamente, il sistema gestuale opererebbe in termini di facilitatore per la riattivazione del lessico. Il rapporto tra i due sistemi appare caratterizzato da uno “sbilanciamento”, poiché il sistema gestuale avrebbe un ruolo di supporto al verbale e non viceversa. Si sottolinea, inoltre, quale ulteriore elemento di rilievo nel modello, il contributo della working memory per la produzione del sistema gestuale.
212
M. Balconi
L’indipendenza del sistema di gesti dai sistemi che supportano la produzione e la comprensione della comunicazione verbale è ulteriormente sostanziata da una serie di considerazioni critiche. In primo luogo, un’ampia categoria di gesti può sussistere in assenza di parlato (ad esempio, le pantomime o i gesti simbolici). Inoltre, l’indipendenza del sistema gestuale da quello del linguaggio è testimoniata dalla possibilità di apprendere a utilizzare i gesti prima dell’acquisizione delle competenze linguistiche da parte del bambino. In aggiunta, la comunicazione gestuale può rappresentare una componente sostitutiva della lingua, come accade nelle funzioni vicarianti del linguaggio verbale per bambini sordi. Abbiamo già evidenziato come differenti sindromi afasiche presentino una dissociazione rispetto ai disturbi aprassici, fatto che ci induce a ritenere complessivamente non funzionale una rappresentazione univoca dei sistemi linguistico e gestuale (per un’analisi approfondita dal rapporto afasie/aprassie si rimanda a [36]).
8.5 Sistema vocale: esprimere le emozioni mediante la voce Tra le funzioni comunicative di maggiore interesse proprie del sistema non-verbale, la manifestazione delle emozioni costituisce un dominio pressoché esclusivo, sia in termini di produzione sia di riconoscimento. Gesti, postura, mimica e componenti vocali concorrono nell’espressione dei correlati emotivi in concomitanza agli aspetti linguistici. Più in particolare, quale indicatore privilegiato dello stato emotivo dell’individuo, accanto alle variazioni del sistema mimico, occorre annoverare il canale vocale. In particolare, quest’ultimo riveste un ruolo di primo piano nell’espressione e nel riconoscimento delle emozioni. L’approfondimento del ruolo della voce nell’espressione delle emozioni è tuttavia ancora agli esordi. Tra gli altri modelli, quello proposto da Scherer [37] ipotizza che il sistema vocale svolga due principali funzioni, da un lato la funzione comunicativa, che veicola il contenuto del messaggio verbale, dall’altro esso presiede a un sistema di segnalazione che comprende le componenti emotive in senso stretto. In particolare, nell’espressione delle emozioni la voce svolge due compiti principali: – è definita come segnale dello stato emotivo di chi lo emette; – è un segnale volto a elicitare una risposta da parte di un ricevente. Tali funzioni sarebbero tra loro interdipendenti, preservando tuttavia una specifica autonomia. Le variazioni dell’apparato vocale in relazione agli stati emotivi del soggetto possono essere rilevate mediante una serie di parametri acustici, che includono sia cambiamenti fisiologici in diverse parti del sistema di produzione vocale sia la valutazione delle qualità vocali. Al fine di fornire un quadro complessivo delle variazioni dei parametri fisiologici implicati all’espressione vocale delle emozioni sia nelle fasi di encoding sia di decoding, analizziamo gli indici acustici che si sono rivelati particolarmente significativi. In particolare, prendiamo in considerazione quattro categorie di parametri: le variazioni temporali, l’intensità, la frequenza fon-
8. Sistemi di comunicazione non-verbale
213
damentale e una misura più articolata che include pattern di variazioni concorrenti tempo-frequenza-energia. Le prime tre categorie sono strettamente legate ai parametri percettivi della velocità, dell’intensità e dell’acutezza della voce, mentre l’ultima pertiene maggiormente alle proprietà del timbro e delle qualità vocali. Analizziamo in maggiore dettaglio i parametri elencati in precedenza. In particolare, rispetto alle variazioni relative al tempo, sono state esplorate sia la velocità sia la durata del suono e delle pause. Rispetto ai parametri dell’intensità, si è analizzata l’energia dello stimolo sonoro, rilevabile a livello percettivo come variazione di intensità. Essa è espressa come quantità di energia presente nel segnale ed è misurata in dB. Per quanto concerne i parametri relativi alla frequenza fondamentale (misurata in cicli/sec o Hz), la F0 è la velocità con cui le corde vocali si aprono e si chiudono attraverso la glottide e determina il tono con cui la voce è percepita. Tuttavia, nell’ambito dell’analisi dell’emozioni è necessario prevedere misure di più lunga latenza, che riguardino non semplici segmenti della produzione vocale ma indici che consentano di rilevare variazioni stabili e di maggiore durata. Alcune misure più complesse considerano la distribuzione dell’energia lungo una banda di frequenza, detta spettro medio di lungo termine (LTA, Long Term Average Spectrum). Tale misura esprime le caratteristiche di lungo termine correlate alla voce del parlante, tra cui, appunto, le componenti emotive.
8.5.1 Variazioni fisiologiche e parametri vocali Diversamente dal sistema mimico, il sistema vocale si caratterizza come veicolo comunicativo che agisce su una lunga distanza. Le principali determinanti delle variazioni vocali legate alle emozioni sono costituite dai cambiamenti fisiologici che accompagnano i diversi domini emotivi, in grado di produrre a loro volta cambiamenti nel sistema di produzione vocale. In sostanza, i cambiamenti prodotti nel sistema nervoso autonomico e somatico inducono cambiamenti nel funzionamento di parti del sistema di produzione vocale, come la respirazione, la vibrazione delle corde vocali e l’articolazione del suono [38-40]. Ad esempio, nel caso di un’emozione che comporti un innalzamento dell’arousal del soggetto, come la collera, l’aumento della tensione della muscolatura della laringe induce un aumento della pressione della glottide che produce a sua volta un cambiamento del suono e delle qualità vocali. Utilizzando il modello di rappresentazione delle emozioni mediato da meccanismi di valutazione (o appraisal, (si veda al riguardo [41]) che inducono a definire lo stato emotivo del soggetto come risposta a specifici bisogni di adattamento dell’organismo, è possibile osservare, in risposta a differenti profili valutativi, variazioni fisiologiche e concomitanti modificazioni vocali. Secondo il modello di Scherer possiamo, infatti, prevedere gli effetti della valutazione attuata dal soggetto sul sistema nervoso, facendo riferimento a un insieme di criteri, tra cui la novità, la piacevolezza, la rilevanza per gli scopi, il coping, nonché la compatibilità della situazione con le norme sociali. In particolare, tra i differenti parametri elencati, il coping risulta particolarmente rilevante nella valutazione che il soggetto compie rispetto alle proprie risorse per far fronte allo stimolo. Nello specifico, nel caso di una maggiore controllabilità percepita da
214
M. Balconi
parte del soggetto si è rilevata una maggiore attivazione ergotropica, mentre, al contrario, la percezione di impossibilità nel far fronte allo stimolo produce una maggiore azione del sistema trofotropico [42]. Infine, nel caso di una valutazione complessiva di totale mancanza di controllabilità dello stimolo (come per le emozioni della tristezza o della disperazione) si rileva ipotensione della muscolatura striata. A loro volta, le modificazione del sistema nervoso centrale (SNC) producono effetti diretti sulla tensione delle fibre muscolari attive nell’apparato fonatorio. Al riguardo è necessario fare una distinzione tra effetti isometrici, con aumento del tono dei muscoli, e rilassamenti fasici, che producono posture o movimenti coordinati. I due effetti tonici e fasici costituiscono un rapporto caleidoscopico del tipo figura/sfondo. In particolare, gli effetti tonici costituiscono la base per le modificazioni muscolari fasiche. I primi non sarebbero controllati volontariamente, mentre i secondi esprimerebbero l’intenzione dell’organismo di controllare l’espressione vocale delle emozioni. Altre unità muscolari implicate nell’emissione della voce sono influenzate dal sistema nervoso autonomo simpatico e parasimpatico che partecipa alla regolazione del ritmo respiratorio e della secrezione di saliva. È interessante, al riguardo, introdurre un’ulteriore distinzione tra “tipi” di voce, che rendono conto di differenti atteggiamenti del soggetto verso la situazione emotiva. In particolare, distinguiamo tra voce piena e voce sottile [43]. Nel primo caso si rileva come l’organismo confidi nelle proprie risorse e si prepari all’attacco, manifestando una tensione modesta e una respirazione profonda. Nel secondo caso, la voce sottile è caratteristica di un organismo che si prepara alla fuga, con tipici correlati come una respirazione non profonda, un aumento della frequenza fondamentale (F0) e una riduzione dell’ampiezza del parametro vocale.
8.5.2 Correlati acustici emozione-specifici L’analisi dei parametri acustici emozione-specifici ha consentito di rilevare una consistenza nelle variazioni vocali in relazione alle singole emozioni. In particolare, come vedremo, le variazioni di arousal rendono conto delle principali variazioni acustiche rilevate sperimentalmente. Tale dato è stato confermato sia da studi applicati ai processi di encoding delle emozioni sia da studi sul decoding vocale [44]. La voce dello stress – Benché lo stress non sia un’unica emozione, è utile analizzare innanzitutto gli indicatori acustici dello stress fisiologico e psicologico. Una condizione di stress elevato comporta una serie di modificazioni sistematiche delle proprietà vocali, quali l’aumento del valore della F0, una maggiore intensità vocale, nonché un aumento della velocità di eloquio. Tali risultati appaiono difficilmente interpretabili in modo univoco, dal momento che i cambiamenti di tali parametri risultano dipendere da fattori tra loro eterogenei, quali i livelli di sensibilità allo stress del soggetto e le strategie di coping adottate. Inoltre, ricerche empiriche applicate alla voce dello stress hanno rilevato un rapporto diretto con le variazioni di arousal, così come è stata osservata una stret-
8. Sistemi di comunicazione non-verbale
215
ta correlazione tra aumento dello stress, aumento della tensione muscolare e innalzamento della frequenza della voce. La voce della rabbia e della paura – In generale nella voce della rabbia è stato rilevato un aumento nel valore medio della F0 e dell’intensità della voce: studi hanno sottolineato un aumento della variabilità della F0, con frequenti escursioni vocali; in secondo luogo, la rabbia appare caratterizzata da un aumento dell’intensità della voce. Un profilo per certi aspetti analogo è correlato alla voce della paura. Infatti, è stato osservato sia un aumento della media del parametro F0, sia della intensità vocale. Inoltre, anche la velocità di articolazione appare maggiore rispetto a quanto rilevato per altre emozioni, quali, ad esempio, la tristezza. Tali variazioni sarebbero strettamente correlate all’aumento dei livelli di arousal, parametro che, come abbiamo già sottolineato, risulta particolarmente rilevante nell’analisi delle caratteristiche acustiche della voce delle emozioni. La voce della tristezza e della gioia – Gli studi applicati alla tristezza hanno mostrato risultati convergenti rispetto ai parametri vocali analizzati. In particolare, è stata osservata una diminuzione della F0 e dell’intensità vocale. A livello percettivo, la voce della tristezza appare sottile e debole, con un ritmo di articolazione rallentato. Anche in questo caso i parametri di arousal mostrano una stretta correlazione con le variazioni vocali, per cui il quadro sopra delineato sarebbe correlato a una consistente diminuzione dell’attivazione dell’organismo. L’emozione della gioia costituisce una delle emozioni positive più studiate. In concordanza a un aumento dei livelli di arousal, gli studi sperimentali hanno rilevato l’incremento della media di F0, nonché dei parametri dell’intensità e del ritmo di articolazione. Inoltre, la voce della gioia è caratterizzata da un setting vocale di tipo rilassato e non teso, come invece rilevato per alcune emozioni ad alto arousal, ma con valenza edonica negativa (ad esempio, la paura).
8.5.3 Integrazione dei codici comunicativi: l’esempio del volto e della voce nella comunicazione delle emozioni Alla luce dei recenti risultati sulla neuroanatomia delle emozioni e sul coinvolgimento di centri multipli nella codifica delle esperienze emotive, alcuni studi hanno cercato di analizzare in primo luogo il rapporto esistente tra correlati corticali delle componenti vocali e mimiche e, in secondo luogo, si sono prefissi di analizzare più specificamente la convergenza o divergenza tra i due canali sensoriali. Sono stati analizzati in particolare pazienti con deficit delle componenti prosodiche della comunicazione veicolate dal sistema vocale, al fine di rilevare eventuali compromissioni concomitanti nella percezione/produzione delle componenti mimiche. Al contrario, altre ricerche hanno considerato deficit manifesti delle componenti espressive, al fine di rilevare eventuali correlazioni con deficit vocali [45]. In generale, in condizioni normali un osservatore percepisce le informazioni fornite dalla voce, dal volto e dal corpo non come unità indipen-
216
M. Balconi
denti ma come una gestalt complessiva dotata di significato unitario. Elemento decisivo per la valutazione complessiva del significato dello stimolo è costituito dal giudizio di congruenza o discrepanza delle informazioni veicolate dai diversi codici e, nel caso in cui uno dei canali fornisca informazioni discrepanti, è il canale mimico a essere privilegiato per l’attribuzione di uno stato emotivo. Un insieme sistematico di risultati sperimentali ha consentito di confermare che il volto è analizzato e identificato più accuratamente, dal momento che produce un maggiore accordo tra i giudici [46]. Una serie di modelli teorici ha cercato di spiegare come possa avvenire l’integrazione tra i due sistemi. In particolare, il modello dell’indipendenza ha sottolineato l’autonomia dei processi di produzione delle componenti mimiche e vocali, poiché essi avrebbero luogo separatamente e sarebbero supportati, a livello fisiologico, da sistemi strutturalmente distinti. Al contrario, il modello della dipendenza sottolinea l’integrazione dei due percorsi di codifica, ipotizzando la convergenza fisiologica, oltre che funzionale, dei processi sottostanti. In entrambi i casi, occorre fornire dati che consentano di spiegare i meccanismi sottostanti l’integrazione dei due codici, sia che essi operino da principio in consonanza, sia che vengano fatti convergere successivamente [47, 48]. Come è possibile analizzare tale processo di convergenza a livello neuropsicologico? Il metodo della rilevazione elettroencefalografica e in particolare dei potenziali evocati corticali (ERP) consente di rendere conto non solo delle proprietà del processo in questione ma anche delle sue caratteristiche temporali. Inoltre, studi con risonanza magnetica hanno consentito di analizzare più in dettaglio i possibili percorsi anatomici della convergenza intermodale. Le informazioni di integrazione possono essere fornite mediante una via diretta (corticale) o indiretta (sottocorticale). In quest’ultimo caso, è possibile ipotizzare il ruolo centrale dell’amigdala, che funge da sistema di convergenza di input provenienti da regioni corticali differenti (ad esempio, l’area temporale e quella parietale), deputate a elaborare informazioni di diversa natura.
8.6 Rappresentazione dei sistemi verbale e non-verbale nei due emisferi 8.6.1 Verbale/non-verbale: un’asimmetria di “funzioni”? Un obiettivo generale posto alla neuropsicologia rispetto alla distinzione tra comunicazione verbale e comunicazione non-verbale riguarda la formulazione della complessa architettura cognitiva e dei singoli processi sottesi a questi sistemi di segnalazione. All’attuale stato delle conoscenze la localizzazione di specifiche funzioni implicate dai sistemi non verbali appare prematura. Infatti, l’obiettivo di individuare una corrispondenza biunivoca tra le funzioni psicologiche di input e di output e i dispositivi nervosi risulta poco praticabile a fronte della complessità dei processi in oggetto. Inoltre, è opportuno sottolineare la varietà dei
8. Sistemi di comunicazione non-verbale
217
sistemi non verbali di segnalazione. Sono state rilevate, infatti, compromissioni “eterogenee” relative a differenti sistemi non verbali, tra cui deficit relativi alla capacità di identificare componenti vocali, di articolare complesse sequenze di gesti e di riconoscere configurazioni di volti [36]. Abbiamo già sottolineato come differenti aree corticali e subcorticali di entrambi gli emisferi siano implicate nella produzione di gesti simbolici, così come nella comprensione degli aspetti vocali (o paralinguistici). Una spiegazione univoca per tale insieme eterogeneo di fenomeni appare, al momento, poco funzionale. Una serie di studi con pazienti destri e sinistri ha rilevato la presenza di una specializzazione destra per le componenti non verbali (extralinguistiche) della comunicazione [49]. Focalizzando in particolare le componenti mimiche è stata rilevata una maggiore capacità di riconoscimento di queste ultime per i soggetti con lesioni sinistre piuttosto che destre. Ciò andrebbe nella direzione di una chiara specializzazione emisferica destra per le componenti non verbali. Tuttavia, è legittimo chiedersi se abbia fondamento la rappresentazione dell’asimmetria emisferica fra le funzioni verbali e quelle non verbali. Il modello tradizionale, basato sull’equazione “verbale = emisfero sinistro” e “non-verbale = emisfero destro”, appare oggi in parte superato. Da un lato, è possibile rilevare che l’emisfero sinistro può supportare alcune funzioni non verbali, e, d’altro lato è stato osservato che l’emisfero destro è in grado di svolgere anche funzioni eminentemente linguistiche. A livello neuropsicologico lo studio del linguaggio dei segni (LS) ha consentito di superare l’equazione classicamente riproposta. Esso, al pari del linguaggio verbale, possiede una complessa struttura formale, sia morfologica sia grammaticale, che consente di modulare gli aspetti di significato e di manipolare la forma dei segni in concomitanza alle necessità sintattiche. Un aspetto particolare del LS concerne la funzione grammaticale delle espressioni facciali, che consentono di introdurre marcatori avverbiali alla struttura frasale, distinguendosi nettamente dalle espressioni emotive [50]. La rilevazione di una compromissione delle funzioni di comprensione e di produzione del LS, in seguito a lesioni delle aree corticali dell’emisfero sinistro deputate al linguaggio, induce a ritenere che tale emisfero sia idoneo altresì a svolgere il controllo di alcune funzioni non verbali che abbiano un preciso valore simbolico. La presenza di una doppia dissociazione tra disturbi aprassici (relativi alla pianificazione e all’esecuzione di atti motori complessi implicati nel LS) in cui l’emisfero sinistro è dominante e disturbi afasici (relativi esclusivamente alle funzioni linguistiche) confermerebbe ulteriormente la specificità dell’emisfero sinistro per i sistemi non verbali (almeno per quello cinesico). D’altro canto, una serie di ricerche ha sottolineato la funzione linguistica svolta dall’emisfero destro rispetto all’elaborazione di parole [51]. Attraverso un’indagine PET è stata rilevata l’attivazione della corteccia posteriore destra per la lettura di stringhe di lettere non parole e stimoli simili a lettere rispetto alla condizione di controllo (visione di un punto) [52]. Più in generale l’emisfero destro sarebbe deputato all’elaborazione della forma delle parole [53]. Interessanti risultati hanno sottolineato il ruolo dell’emisfero destro a livello sovraordinato, rispetto al riconoscimento di parole all’interno di contesti frasali, o ancora nella rilevazione di vincoli imposti dal contesto enunciativo [54] (per le funzioni linguistiche dell’emisfero destro si veda [55]).
218
M. Balconi
8.6.2 Modelli di indipendenza funzionale Inoltre, se, da un lato, la superiorità dell’emisfero sinistro per i compiti verbali costituisce un dato più volte confermato in ambito neuropsicologico, dall’altro occorre chiarire se la specializzazione sinistra sia legata esclusivamente a specifici processi linguistici (come la rappresentazione unilaterale della fonologia e delle proprietà sintattiche) o se, al contrario, la dicotomia “verbale/non-verbale” sia connessa con una specializzazione più profonda e più estesa, attribuibile alle competenze “simboliche” dell’emisfero sinistro rispetto a quello destro. Tre ipotesi hanno cercato di illustrare tale distintività [56]. – Innanzitutto, si è ritenuto che la superiorità dell’emisfero sinistro sia generale, in quanto sistema di elaborazione simbolica. Il modello del sistema simbolico ipotizza che il complesso insieme di comportamenti non verbali non sia presieduto da un sistema separato, ma piuttosto sia originato, assieme alle parole, da un unico sistema che opererebbe in parallelo [57]. Da questo punto di vista, la specializzazione emisferica sinistra per i processi simbolici non è ristretta ai simboli verbali ma riguarderebbe anche l’uso di quelli non verbali. Il sistema simbolico chiamato in causa può essere considerato pertanto come un sistema di controllo centrale più generale, in grado di gestire cambiamenti in parallelo nella comunicazione verbale e non-verbale. – La seconda ipotesi prevede una dominanza dell’emisfero sinistro per quanto concerne l’organizzazione dei movimenti sequenziali. Entrambe le forme verbale e non-verbale di comunicazione comportano la presenza di azioni motorie, per cui una generale incapacità di controllare sequenze di movimenti produrrebbe deficit a entrambe le forme. I processi sottesi a questo sistema di controllo sono intesi come dispositivi effettori nella gestione dei cambiamenti rapidi durante la conversazione e nell’attivazione degli apparati visivo-cinesici per sequenze di movimenti complessi. – La terza ipotesi sottolinea il ruolo centrale della dicotomia fra emotivo e cognitivo, che sottende competenze distinte, attribuibili rispettivamente all’emisfero destro e a quello sinistro. La specializzazione destra per le proprietà emotive non consente, tuttavia, di rendere conto più in generale delle competenze non verbali di natura non emotiva, che caratterizzano la comunicazione non-verbale. Inoltre, dato il carattere poliedrico dei sistemi non verbali di significazione e di segnalazione, e considerando la multifunzionalità dei comportamenti sottesi, occorre fare ricorso al processo di frazionamento neuropsicologico (si veda anche il Capitolo 1) per spiegare l’indipendenza delle funzioni presiedute dall’emisfero destro. L’ipotesi dell’esistenza di funzioni autonome, almeno per quanto riguarda le componenti visive e vocali, appare confermata dai risultati ottenuti dall’analisi di lesioni cerebrali specifiche. La rilevazione di una doppia dissociazione per l’elaborazione di informazioni emotive visive ma non del sistema prosodico fa supporre che esistano sistemi di elaborazione almeno parzialmente autonomi, supportati da moduli cerebrali distinti [58].
8. Sistemi di comunicazione non-verbale
219
8.6.3 Interdipendenza e coordinamento interemisferico fra il sistema verbale e i sistemi non-verbali Nello studio della rappresentazione dei sistemi verbale e non-verbale di segnalazione merita attenzione il quesito circa la loro indipendenza funzionale in relazione alle modalità di rappresentazione delle informazioni. L’ipotesi classica relativa a tale autonomia appare fondata sulla distinzione tra differenti modalità di rappresentazione del significato. Vi sarebbe una modalità linguistica, propria dell’emisfero sinistro e una modalità non linguistica (ad esempio, il formato visivo-spaziale delle immagini), specifica dell’emisfero destro. Ciascuno dei due percorsi consentirebbe l’attribuzione del significato grazie a un processo dipendente dallo specifico formato con cui l’informazione è rappresentata. Il risultato di tale processo è una rappresentazione del significato sufficiente a specificare l’identità semantica dello stimolo affinché possa essere archiviato in memoria. La distintività dei due emisferi per informazioni modalità-specifiche non esclude, tuttavia, che l’emisfero destro possieda competenze per la comprensione di parole o, al contrario, che quello sinistro non possa elaborare informazioni non linguistiche, quali immagini o scene. Entrambi gli emisferi hanno infatti la possibilità di attribuire significato agli stimoli, indipendentemente dal formato rappresentazionale di partenza [56]. Una rappresentazione modalitàindipendente si affianca, infatti, a un percorso più convenzionale, prioritario e immediato, modalità-dipendente. Da un lato, quest’ultimo garantisce una rapida selezione del significato pertinente, una rappresentazione semantica più precisa e circoscritta; al contrario, la rappresentazione modalità-indipendente, più generica e indefinita, appare idonea alla comprensione degli aspetti indiretti, vaghi e ambigui della comunicazione, che coprono un’estesa gamma di fenomeni comunicativi (dai termini polisemici al significato figurato e metaforico). Complessivamente, i due emisferi avrebbero la possibilità di cooperare nell’attribuzione del significato, benché sia l’emisfero dominante per la specifica modalità rappresentazionale a svolgere un ruolo prioritario rispetto a quello non dominante. In tal modo diventa possibile illustrare a livello neuropsicologico il fenomeno dell’interdipendenza essenziale fra i sistemi verbali e non verbali di segnalazione nella produzione e nella definizione dei significati di un atto comunicativo. Una seconda questione correlata alla precedente riguarda l’effettiva possibilità di organizzazione e di coordinamento tra i due emisferi. Infatti, benché gli emisferi cerebrali siano specializzati per differenti processi, le nostre azioni e la nostra esperienza quotidiana riflettono l’operato unitario di una sola mente piuttosto che il risultato di due menti distinte. Pertanto, se l’emisfero sinistro è preposto principalmente a elaborare le informazioni in una modalità verbale (analitico e temporale) mentre quello destro informazioni non verbali (olistiche e spaziali), come è possibile che si realizzi la comunicazione come processo unitario? E in che modo possono essere coordinate le azioni di risposta? In generale, gli emisferi possono interagire in modo multiforme e flessibile secondo un processo dinamico e variabile. Innanzitutto, l’interazione tra gli emisferi, supportata dalle strutture del corpo calloso, non avviene solo in qualità di semplice trasferimento delle informazioni da un emisfero all’altro. Tale interazione può aumentare la complessiva capacità di ela-
220
M. Balconi
borazione soprattutto nel caso in cui il processo sia particolarmente complesso e debbano essere trattate simultaneamente molte informazioni in breve tempo. Inoltre, la presenza di subprocessi separati ma tra loro integrabili può costituire un’alternativa funzionale all’attivazione di un unico processo complessivo [59]. Ma come operano effettivamente i sistemi di coordinamento delle informazioni? Sono state proposte tre ipotesi disposte lungo un continuum [60]. A un estremo, il modello della dominanza emisferica ipotizza che, di volta in volta, in funzione dei diversi compiti, uno dei due emisferi divenga dominante e operi come un sistema atto alle funzioni di metacontrollo. In sostanza, uno solo dei due presiederebbe alla regolazione dell’attività complessiva, mentre l’altro svolgerebbe le operazioni per cui è preposto. Il modello dell’alternanza, al contrario, suppone che vi sia un “miscelamento” nell’attività dei due emisferi, ovvero che essi operino con funzioni di metacontrollo simultaneamente, per cui ciascun emisfero dominerebbe un aspetto distintivo del processo. Infine, all’altro estremo del continuum, si colloca il modello dell’unicità interemisferica, secondo cui entrambi contribuirebbero alla realizzazione dell’intera prestazione, seppure in misura differente. Pertanto, non si può prevedere a priori il prodotto finale dell’integrazione interemisferica come la somma di due singoli prodotti intraemisferici, ma esso deriverebbe dalla calibrazione delle operazioni mentali gestite in parallelo dall’emisfero sinistro e da quello destro. Questa condizione contribuisce a illustrare a livello neuropsicologico gli aspetti ricorrenti di indeterminatezza e di “gestione locale” dei processi comunicativi in funzione della situazione contingente.
8.7 Conclusioni Il significato e il ruolo della comunicazione non-verbale è stato ampiamente analizzato in primo luogo in relazione alle sue origini e, in secondo luogo, rispetto al rapporto che esso intrattiene con il sistema verbale. Benché le teorie neuropsicologiche di riferimento appaiano diversificate, rispettivamente a favore o contro la continuità evolutiva dei due sistemi, gli studi recenti hanno posto in evidenza la stretta relazione che sussiste tra strutture finalizzate alla regolazione della produzione verbale e strutture di supporto dei sistemi non verbali (quale ad esempio, quello gestuale). Inoltre, al suo interno, il panorama dei sistemi di comunicazione non-verbale appare eterogeneo. In particolare, i differenti sistemi di comunicazione concorrono nella definizione del più ampio significato del messaggio assieme al sistema di comunicazione verbale. Tra le principali funzioni comunicative svolte dal non-verbale, l’espressione delle emozioni si caratterizza come sua proprietà precipua, di diretta competenza dei due sistemi mimico e vocale. Quest’ultimo si caratterizza per la diretta correlazione che stabilisce tra modificazione di specifici parametri (quali intensità e tono) e comunicazione di determinati pattern emotivi. La mediazione del fattore di arousal, variabile lungo un continuum alto-basso, consente di spiegare l’ampia gamma di modificazioni vocali in concomitanza alla comunicazione delle diverse emozioni. In aggiunta, la sincronia tra sistemi di comunicazione non-verbale (ad esempio, quello mimico e vocale) garantisce la regolazione del
8. Sistemi di comunicazione non-verbale
221
processo comunicativo come multicomponenziale e integrato, risultante dalla convergenza piuttosto che dalla divergenza delle singole unità componenti. Infine, il fattore lateralizzazione emisferica consente di spiegare il contributo destro e sinistro nella regolazione delle funzioni verbali e non verbali, nell’ottica dell’integrazione emisferica piuttosto che della dominanza o dell’alternanza emisferica.
Bibliografia 1. Birdwhistell RL (1970) Kinesis and context: essay on body-motion communication. Pennsylvania University Press, Philadelphia 2. Anolli L (2002) Psicologia della comunicazione. Il Mulino, Bologna 3. Feldman RS, Rimé B (1991) Fundamentals of nonverbal behavior. Cambridge University Press, Cambridge 4. Ekman P (1994) Strong evidence for universals in facial expressions: a reply to Russell’s mistaken critique. Psychol Bull 115:268-287 5. Ekman P (1984) Expression and the nature of emotion. In: Scherer KR, Ekman P (eds) Approaches to emotion. Erlbaum, Hillsdale, pp. 176-198 6. Izard CE (1994) Innate and universal facial expressions: evidence from developmental crosscultural research. Psychol Bull 115:288-299 7. Bara BG (1999) Pragmatica cognitiva: i processi mentali della comunicazione. Bollati Boringhieri, Torino 8. Burling R (1993) Primate calls, human language, and nonverbal communication. Curr Anthropol 343:25-53 9. Tomasello M, Call J (1997) Primate cognition. Oxford University Press, New York 10. Chomsky N (1986) Knowledge of language: its nature, origin and use. Praeger, New York 11. Lieberman P (1991) Uniquely human: the evolution of speech, thought and selfless behavior. Harvard University Press, Cambridge Mass. 12. Siegman AW, Feldstein S (1987) Nonverbal behavior and communication. Erlbaum, Hillsdale 13. Rimé B (1984) Langage et communication. In: Moscovici S (ed) Psychologie sociale. PUF, Paris 14. Green GM (1996) Pragmatics and natural language understanding. Erlbaum, Mahwah 15. McNeill D (2000) Language and gestures. Oxford University Press, New York 16. Maravita A (2006) La rappresentazione del corpo. In: Cacciari C, Papagno C (eds) Psicologia generale e neuroscienze cognitive. Il Mulino, Bologna 17. Serino A, Farnè A, Làdavas E (1996) Visual peripersonal space. In: Vecchi T, Bottini G (eds) Imagery and spatial cognition: Methods, models and cognitive assessment. John Benjamins Publishing Company, Amsterdam, pp. 325-337 18. Degos JD, Bachoud-Levi AC, Ergis AM et al (1997) Selective inability to point to extrapersonal targets after left posterior parietal lesion: an objectivisation disorder? Neurocase 3:31-39 19. Decety J (1996) Do imagined and executed actions share the same neural substrate? Cognitive Brain Res 3:87-93 20. Rizzolatti G, Luppino G, Matelli M (1998) The organization of the motor cortical system: new concepts. Electroen Clin Neuro 106:283-296 21. Ochipa C, Rothi LJ, Heilman KM (1994) Conduction apraxia. J Neurol Neurosur Ps 57:1241-1244 22. Goldenberg G, Hagmann S (1997) The meaning of meaningless gestures: a study of visuoimitative apraxia. Neuropsychologia 35:333-341 23. Rothi LJ, Mack L, Heilman KM (1986) Pantomime agnosia. J Neurol Neurosur Ps 49:451-454 24. Krauss RM, Morrel-Samuels P, Colasante C (1991) Do conversational hand gestures communicate? J Pers Soc Psychol 61:743-754
222
M. Balconi
25. Kendon A (1994) Do gestures communicate? A review. Res Lang Soc Interac 27:175-200 26. Kimura D (1993) Neuromotor mechanisms in human communication. Oxford University Press, New York 27. Lieberman P (1992) Could an autonomous syntax module have evolved? Brain Lang 43:768-774 28. Roy EA, Hall C (1997) Limb apraxia: a process approach. In: Proteau L, Elliott D (eds) Advances in psychology: Vision and motor control. North-Holland, Amsterdam, pp. 261-282 29. Buxbaum LJ, Schwartz MF, Carew TG (1997) The role of semantic memory in object use. Cognitive Neuropsyc 14:219-254 30. Caplan D (1992) Language: structure, processing and disorders. The MIT Press, Cambridge Mass 31. Papagno C, Della Sala S, Basso A (1993) Ideomotor apraxia without aphasia and aphasia without apraxia: the anatomical support for a double dissociation. J Neurol Neurosur Ps 56:286-289 32. Cubelli R, Trentini P, Montagna CG (1991) Re-education of gestural communication in a case of chronic global aphasia and limb apraxia. Cogn Neuropsychol 8:369-380 33. Rauscher FH, Krauss R M, Chen Y (1996) Gesture, speech and lexical access: The role of lexical movements in speech production. Psychol Sci 7:226-231 34. Hadar U, Wenkert-Olenik D, Krauss R et al (1998) Gesture and the processing of Speech: neuropsychological evidence. Brain Lang 62:107-126 35. Krauss RM, Hadar U (1999) The role of speech-related gestures in word retrieval. In: Messing LS, Campbell R (eds) Gesture, speech, and sign. Oxford University Press, Oxford 36. Feyereisen P, Delannoy J-D (1991) Gestures and speech: psychological investigations. Cambridge University Press, Cambridge 37. Scherer KR (1986) Vocal affect expression: a review and a model for future research. Psychol Bull 99: 143-165 38. Fonagy I (1971) The functions of vocal style. In: Chatman S (ed) Literary style: a symposium. Oxford University Press, London 39. Scherer KR (1982) Methods of research on vocal communication: paradigms and parameters. In: Scherer KR, Ekman P (eds) Handbook of methods in nonverbal behavior research. Cambridge University Press, Cambridge, pp. 136-198 40. Van Bezooyen (1984) Characteristics and recognizability of vocal expressions of emotion. Foris Publications, Dordrecht 41. Scherer KR (2001) The nature and study of appraisal: a review of the issues. In: Scherer KR, Schorr A, Johnstone T (eds) Appraisal processes in emotion: Theory, methods, research. Oxford University Press, New York, pp. 369-391 42. Lazarus RS (1982) Thoughts on the relationship between emotion and cognition. Am Psychol 37:1019-1024 43. Laver J (1980) The phonetic description of voice quality. Cambridge University Press, Cambridge 44. Scherer KR, Johnstone T, Klasmeyer G (2003) Vocal expression of Emotion. In: Davidson RJ, Scherer KR, Goldsmith HH (eds) Handbook of affective science. Oxford University Press, New York 45. Schroeder CE, Foxe JJ (2005) The case for feedforward multisensory convergence during early cortical processing. Neuroreport 16:419-423 46. De Gelder B, Vroomen J, Bertelson P (1998) Upright but not inverted faces modify the perception of emotion in the voice. Cah Psychol Cogn 17:1021-1031 47. Calvert GA, Hansen P, Iversen S et al (2000) Crossmodal integration of non-speech audiovisual stimuli. Neuroimage 11:suppl. 27 48. Giard MH, Peronnet F (1999) Auditory-visual integration during multimodal object recognition in humans: a behavioral and electrophysiological study. J Cognitive Neurosci 11:473-490 49. Cutica I, Bucciarelli M, Bara BG (2006) Neuropragmatics: extralinguistic pragmatic ability is better preserved in left-hemisphere-damaged patients than in right-hemisphere-damaged patients. Brain Lang 98:12-25
8. Sistemi di comunicazione non-verbale
223
50. Marschark M, Siple P, Lillo-Martin M et al (1997) Relations of language and thought: the view from sign language and deaf children. Oxford University Press, New York 51. Rayman J, Zaidel E (1991) Rhyming and the right hemisphere. Brain Lang 40:89-105 52. Peterson SE, Fox PT, Poster MI et al (1988) Positron emission tomographic studies of the cortical analysis of single-word processing. Nature 331:585-589 53. Marsolek CJ (1995) Abstract visual-form representations in the left cerebral hemisphere. J Exp Psychol Human 21:375-386 54. Faust M (1998) Obtaining evidence of language comprehension from sentence priming. In: Beeman M, Chiarello C (eds) Right hemisphere language comprehension: Perspectives from cognitive neuroscience. Erlbaum, Hillsdale, pp. 161-186 55. Borod JC, Bloom RL, Santschi-Haywood C (1998) Verbal aspects of emotional communication. In: Beeman M, Chiarello C (eds) Right hemisphere language comprehension: perspectives from cognitive neuroscience. Erlbaum, Hillsdale, pp. 285-308 56. Chiarello C (1998) On codes of meaning and the meaning of codes: semantic access and retrieval within and between hemispheres. In: Beeman M, Chiarello C (eds) Right hemisphere language comprehension: perspectives from cognitive neuroscience. Erlbaum, Hillsdale, pp. 141-160 57. Glosser G, Wiener M, Kaplan E (1986) Communicative gestures in aphasia. Brain Lang 27:345-359 58. Varney NR, Damasio H, Adler S (1989) The role of individual difference in determining the nature of comprehension defects in aphasia. Cortex 25:47-55 59. Banich MT (1997) Neuropsychology: the neural bases of mental function. Houghton Miffin Company, New York 60. Banich MT, Nicholas CD (1998) Neuropsychology: the neural basis of mental function. Houghton-Mifflin, Boston
Capitolo 9
Neuropsicologia delle espressioni facciali Michela Balconi
9.1 Funzioni della mimica facciale Indagini relative all’espressione facciale delle emozioni da una prospettiva neuropsicologica e cognitiva sono state condotte a partire dai lavori pionieristici di Darwin [1], che ha caratterizzato l’ambito di studio delle emozioni tenendo conto contemporaneamente di un approccio etologico, evolutivo e genetico. Secondo Darwin l’espressione delle emozioni è basata su alcuni principi di base, per cui alcune espressioni facciali sarebbero innate e avrebbero la funzione di riflettere uno stato motivazionale o un’intenzione, utili alla sopravvivenza e all’evoluzione della specie. Proponiamo quattro differenti prospettive di analisi della mimica facciale, al fine di evidenziare il significato eminentemente comunicativo di quest’ultima. La teoria neuroculturale di Ekman [2] ha proposto un modello cerebrale di produzione delle espressioni facciali, su base innata. Il programma delle espressioni facciali prevede alcuni aspetti centrali, tra cui la presenza di un numero ristretto di emozioni di base, determinate geneticamente, diffuse universalmente e distinte le une dalle altre sul piano fisiologico e psicologico. Ciascuna avrebbe in particolare un pattern coerente di proprietà in relazione ai diversi livelli dell’esperienza emotiva, ovvero un comportamento facciale caratteristico, una differente esperienza cosciente, specifiche basi fisiologiche, nonché funzioni cognitive e psicologiche distintive. Ekman ha sottolineato, inoltre, come ciascuna di esse attivi differenti percorsi di codifica a livello neurale, in quanto pattern di risposta emozione-specifici del SNC (sistema nervoso centrale) e del SNA (sistema nervoso autonomico). Più in generale, i sistemi di produzione e di riconoscimento delle espressioni facciali garantirebbero l’esistenza di un meccanismo di segnalazione con funzioni di adattamento, acquisito attraverso l’evoluzione specie-specifica: è per tale ragione che il significato dell’espressione facciale non muterebbe in funzione del contesto in cui essa è percepita. Specificamente, l’universalità delle espressioni facciali è dimostrata dal fatto che, da un lato, in differenti gruppi di soggetti appartenenti anche ad ambiti culturali molto diversi tra loro sono presenti gli stessi pattern mimici per l’espressione delle emozioni; dall’altro, il processo di decoding presenta un ampio margine di omogeneità nelle diverse culture. Tuttavia, a fronte di una complessiva omogeneità nelle due direzioni della produzione e del riconoscimento dei correlati emotivi, studi sistematici hanno consentito di evidenziare alcune divergenze nel sistema di valutazione e di produzione dei correlati mimici [3]. Tali differenze nella produzione e nel riconoscimento sono state successivamente giustificate introducendo una distinzione tra programmi espresM. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008
226
M. Balconi
sivi innati universalmente presenti e meccanismi appresi di regolazione delle espressioni facciali stesse, che garantirebbero alla specie la possibilità di manipolare la manifestazione dei propri vissuti in funzione del contesto relazionale. Al contrario, l’approccio dimensionale suppone che le emozioni non siano realtà discrete e separate, ma piuttosto concettualizza queste ultime come diversificate in funzione di variazioni di un gradiente di intensità rispetto ad alcune “dimensioni”. Nella prospettiva dimensionale le espressioni facciali non rappresentano unicamente segnali di specifiche emozioni, ma piuttosto il focus dell’analisi è rivolto al più ampio potenziale comunicativo che esse possiedono. In secondo luogo, l’approccio dimensionale sottolinea il ruolo svolto dal decoder che inferisce informazioni su quanto un individuo esprime, dal livello di attenzione richiesto, dal grado di piacevolezza espresso, nonché dal livello di arousal presente [4]. Collegato al precedente, l’approccio componenziale [5] ipotizza che almeno alcune componenti della mimica facciale possiedano un significato intrinseco, piuttosto che essere arbitrariamente codificate e prive di valore semiotico autonomo. Ovvero, le espressioni emotive possiedono una struttura sistematica, coerente e dotata di significato. Tale approccio svolge più in generale una funzione ponte tra i modelli categoriali neuroculturali e quelli dimensionali: infatti, mentre esso appare porsi in una posizione più “neutrale” rispetto all’esistenza di un insieme ristretto di emozioni di base, introduce la concettualizzazione di insieme “sfocato” o “famiglia” di emozioni. Elemento costitutivo di tale approccio è l’intento di considerare la mimica facciale come un indicatore dei processi di valutazione (o appraisal). Specificamente, tra gli altri Smith e Scott [5] hanno individuato quattro dimensioni di significato lungo le quali si organizzano le componenti mimiche, tenendo in particolare considerazione il loro ruolo adattivo: la piacevolezza dello stato emotivo, l’attività attenzionale associata a quest’ultimo, l’attivazione o arousal e il controllo del soggetto sulla propria condizione (o agency). Ad esempio, la dimensione edonica risulta essere associata alla rilevazione di eventuali ostacoli o allo sforzo soggettivo richiesto, mentre le componenti attenzionali riflettono la valutazione della novità della situazione e il grado di incertezza percepita dal soggetto circa la situazione emotiva. Da questa prospettiva, i correlati emotivi appaiono organizzarsi all’interno di uno spazio a struttura dimensionale, in grado di configurare famiglie emotive, ciascuna delle quali si caratterizza grazie a un insieme di componenti tra loro in parte sovrapponentesi. All’interno dello specifico approccio comunicativo la mimica facciale è rappresentata in qualità di messaggio che si esplica all’interno di un contesto interattivo, grazie alla propria valenza comunicativa. Essa possiederebbe cioè una funzione comunicativa in sé, manifestandosi in congiunzione ad altre componenti comunicative, come la gestualità, le componenti vocali, ecc. Specificamente Chovil [6] si è prefisso di sintetizzare, all’interno di un modello teorico fortemente ancorato al piano empirico, il ruolo sociale comunicativo della mimica facciale. Un assunto centrale della prospettiva comunicativa stabilisce che la mimica facciale si verifica generalmente e con maggiore frequenza in situazioni sociali rispetto a situazioni non sociali. Ad esempio, la presenza di un ricevente aumenta la probabilità che abbia luogo una modificazione del display facciale, o, ancora, l’esibizione facciale è maggiormente presente nelle interazioni faccia-a-faccia rispetto alle interazioni a
9. Neuropsicologia delle espressioni facciali
227
distanza [7]. Più specificamente, il display facciale è più facilmente prodotto in presenza di un ricevente, nel caso in cui sia utile comunicare particolari informazioni e nel caso in cui l’informazione sia pertinente o appropriata all’interazione sociale. Tra gli altri, Dimberg e Öhman [8] hanno rilevato come il display dell’emozione della rabbia sia in grado di generare paura nel decoder, così come la manifestazione di stress in un emittente produca preoccupazione ed evochi un atteggiamento di supporto in chi lo osserva, già a partire dagli otto mesi di età.
9.2 Processi di codifica e riconoscimento del volto La produzione e la percezione delle configurazioni mimiche costituiscono una parte essenziale delle competenze sociali degli essere umani. Introduciamo, innanzitutto, alcune premesse circa le funzioni del volto come canale comunicativo e come fondante gli scambi interattivi tra gli individui, per caratterizzarne successivamente il significato emotivo. Il volto costituisce uno stimolo specifico e altamente prioritario rispetto all’elaborazione di altri oggetti, dal momento che possiede caratteristiche distintive e uniche se confrontato con altre configurazioni visive. Esso è definito, infatti, come una gestalt unitaria, non ulteriormente scomponibile in sottocomponenti.
9.2.1 Modelli di riconoscimento del volto Come avviene il riconoscimento di pattern facciali? Il modello recente di Goldman e colleghi [9] ha proposto una chiave di lettura cognitiva alla comprensione di volti emotivi. Il modello prevede che gli individui tipicamente mettano in moto un’attività di simulazione mentale per l’attribuzione di un’emozione al volto: il decoder attiva un processo di attribuzione mentale simulando, replicando o riproducendo nella propria mente lo stato emotivo di un altro individuo. Attraverso un modello simulativo è possibile ipotizzare che il decoder selezioni uno stato mentale da attribuire all’espressione dopo aver riprodotto o riattivato al suo interno lo stato in questione. In altri termini, egli opererebbe al fine di replicare lo stato mentale altrui attivando un processo mentale simile a quello ipotizzato essere presente negli altri. Ciò presuppone che nella mimica emotiva vi siano informazioni sufficienti a selezionare uno stato emotivo corrispondente appropriato: basandosi su un procedimento euristico (un’euristica di generazione di test) il decoder inizia con l’ipotizzare il ruolo causale di certe emozioni nel display facciale e procede nel ricostruire un’emozione, ovvero a produrne un facsimile nel proprio sistema rappresentazionale. Le fasi di costruzione di un modello dell’emozione includono in particolare la produzione dell’espressione facciale. Un successivo confronto tra espressione osservata ed espressione simulata può condurre, in caso di diretta comparabilità, alla conferma del correlato emotivo con la conseguente attribuzione di quell’emozione al target. La figura seguente (Fig. 9.1) riproduce le principali componenti del modello.
228
M. Balconi
Fig. 9.1 Rappresentazione del modello euristico di riconoscimento delle espressioni facciali delle emozioni mediante simulazione
Secondo il modello gerarchico funzionale di produzione e comprensione dei volti proposto da Bruce e Young [10], il processo di encoding e di decoding di volti prevede il contributo di molteplici livelli informativi, tra cui, ad esempio, il livello di elaborazione della struttura del volto, di identificazione del grado di familiarità dello stimolo o di analisi dell’espressione e della mimica facciale. Nel modello cognitivo di riconoscimento del volto proposto da Bruce e Young il processo di riconoscimento è rappresentabile mediante percorsi di elaborazione e moduli dedicati alla rilevazione delle informazioni veicolate dalla mimica. Per certi aspetti il riconoscimento del volto può essere descritto come un accesso sequenziale a differenti codici. Tali codici non sono essi stessi componenti funzionali del sistema di elaborazione del volto, ma piuttosto risultano essere, a loro volta, prodotti delle operazioni di componenti funzionali. Esiste cioè una distinzione tra i prodotti di un processo e i processi in sé, poiché è necessario considerare le procedure che sono in grado di generare e di accedere ai codici descritti. In altri termini, occorre focalizzare i processi funzionali che consentono di attivare e collegare tra loro codici differenti. Ovvero, così come siamo in grado di riconoscere passivamente le espressioni facciali, l’identità ecc., a partire dal volto, è possibile codificare alcuni tipi di informazioni selettivamente e strategicamente. Nello specifico, nell’elaborazione del volto sono presenti sette differenti tipologie di codici: il codice pittorico, strutturale, visivo, semantico, identità-specifico, relativo al nome e relativo all’espressione. L’immagine della Figura 9.2 sintetizza il modello proposto da Bruce e Young. Tra gli altri, il codice pittorico fornisce informazioni circa la luminosità dello stimolo, gli elementi di contrasto ecc. Esso quindi restituisce un’immagine bidimensionale del volto. Al contrario, il codice strutturale è in grado di rappresentare gli aspetti configurazionali del volto che lo distinguono dagli altri. Rispetto al primo codice, esso costituisce la descrizione di un’immagine che non tiene conto delle informazioni prospettiva-specifiche. Inoltre, il codice pittorico da solo non
9. Neuropsicologia delle espressioni facciali
229
Fig. 9.2 Il modello di Bruce e Young per la rappresentazione dei volti. Modificata da [10]
può consentire il riconoscimento del volto indipendentemente dai cambiamenti prodotti dalle modificazioni posturali (come l’angolo di rotazione), della mimica, definiti dall’età e così via. Pertanto, a partire dall’immagine del volto deve poter essere stabilita una rappresentazione visiva più astratta che possa mediarne il riconoscimento. Per tale ragione è necessario procedere a estrapolarne un codice strutturale, che possa caratterizzare gli aspetti della struttura mimica essenziali per distinguerlo da altri volti. Occorre anche precisare che il codice strutturale contribuisce in misura differente al riconoscimento di volti familiari rispetto a volti non familiari. Ad esempio, le caratteristiche interne dei volti familiari assumono un ruolo privilegiato per il riconoscimento, mentre per i volti non familiari sia le caratteristiche interne sia quelle esterne risultano essere rilevanti in misura eguale. Il codice strutturale per stimoli familiari enfatizza infatti le regioni del volto più informative e meno soggette al cambiamento. Solo successivamente viene prodotta una descrizione più astratta, espressione-indipendente, che costituirà a sua volta un’unità di riconoscimento per le fase successive del decoding. A partire da entrambe le tipologie di volti, familiari e non familiari, possiamo derivare non solo informazioni concernenti l’età e il genere, ma possiamo anche interpretare il significato delle espressioni facciali. Analizzando infatti la forma o la postura delle caratteristiche mimiche possiamo giungere a definire un individuo come felice, triste o arrabbiato. In relazione all’espressione emotiva, occorre sottolineare che il modello non considera il codice dell’espressione indispensabile per il riconoscimento: l’espressione facciale è considerata una descrizione prospettivaspecifica, variabile in funzione dei differenti contesti e, pertanto, elaborata da parte
230
M. Balconi
del sistema cognitivo separatamente da altri livelli rappresentazionali, al fine di estrapolarne il contenuto emotivo. Il modello assume pertanto un’indipendenza funzionale tra il processo di elaborazione dell’espressione e gli altri processi, quale quello di definizione dell’identità. Al fine di sintetizzare in un’ottica neuropsicologica le principali caratteristiche dell’elaborazione del volto secondo l’approccio del codice, è possibile sottolinearne alcuni elementi distintivi, primo fra tutti il presupposto dell’indipendenza funzionale di ciascun codice, grazie al contributo di evidenze neuropsicologiche rilevate in soggetti con lesioni corticali. I risultati sperimentali pongono in luce infatti una chiara dissociazione tra riconoscimento del pattern visivo, dell’espressione e dell’identità [11, 12]. Tale distinzione poggia sulla differenziazione tra un insieme di componenti stabili relative alla struttura dello stimolo quali, ad esempio, le caratteristiche che definiscono l’identità dell’individuo, rispetto al riconoscimento dell’espressione specifica, quale quella emotiva, come elemento variabile della struttura. Entrambe le componenti implicano l’attivazione dell’emisfero destro, seppure esse siano rappresentate in aree differenti dell’encefalo. Un esperimento realizzato da Etcoff [13] ha consentito di rilevare la distintività di alcune aree corticali in relazione a compiti di riconoscimento differenziati (volti vs. emozioni). Nello specifico, i soggetti sperimentali sono stati suddivisi in tre sottogruppi: due gruppi di soggetti cerebrolesi destri e sinistri con specifico quadro clinico e specifica localizzazione della lesione, e soggetti normali (gruppo di controllo). Gli stimoli utilizzati includevano volti femminili esprimenti due distinte emozioni: gioia o tristezza. Il compito attribuito ai soggetti prevedeva la classificazione delle immagini in funzione del tipo di espressione (allegra o triste) o dell’identità del soggetto indipendentemente dall’espressione. I risultati sperimentali hanno consentito di rilevare la presenza di abilità cognitive e di percorsi cerebrali distinti per le due componenti, seppure entrambi mediati dall’emisfero destro. Di converso, alcuni studi di particolare interesse sul piano neuropsicologico hanno rilevato la presenza di uno specifico deficit correlato all’analisi di volti. Il disturbo prosopagnosico prevede, infatti, che pur essendo, preservata l’abilità di identificare gli oggetti in generale, risulti compromessa l’incapacità di elaborare caratteristiche specifiche dei volti familiari. Analisi più approfondite hanno consentito di rilevare, tuttavia, come alcuni aspetti del riconoscimento siano preservati, in quanto processi automatici che avvengono indipendentemente dal contributo della coscienza. Ciò che andrebbe perduto sarebbe piuttosto la consapevolezza del riconoscimento delle proprietà dei volti. La distinzione tra le componenti consapevoli e inconsce nell’elaborazione dei volti viene regolata a livello anatomico da due differenti vie cortico-limbiche, deputate a supportare distinti processi di analisi. Una prima via, la via ventrale, danneggiata nei soggetti prosopagnosici, sarebbe deputata al riconoscimento conscio ed esplicito delle informazioni del volto, mentre una seconda via, quella dorsale, preservata nel disturbo prosopagnosico, garantisce l’attribuzione inconsapevole del significato (specificamente quello emotivo) al volto. Nel riconoscimento implicito è probabile che il sistema di identificazione dei volti sia disconnesso dal sistema cognitivo consapevole, ma sia in grado di interagire, seppure in modo limitato, con altri sistemi di riconoscimento degli input.
9. Neuropsicologia delle espressioni facciali
231
Occorre tuttavia sottolineare la presenza di elementi critici nell’approccio funzionale proposto da Bruce e Young. Recenti ricerche hanno rilevato infatti elementi che risultano contrastare con alcune assunzioni del modello, poiché le variabili che contribuiscono al riconoscimento del volto appaiono essere più complesse di quelle previste dagli autori. Questi ultimi hanno ipotizzato, ad esempio, che cambiamenti contenuti dell’angolo visivo e dell’espressione facciale non condizionano l’accuratezza del riconoscimento in sé. Al contrario, ulteriori contributi empirici sottolineano come tali cambiamenti possano influenzare in particolare il riconoscimento di volti non familiari, mentre quelli familiari non appaiono esserne influenzati in misura consistente [14]. In aggiunta, rispetto all’espressione delle emozioni, esperimenti che prevedevano la presenza di volti familiari o non familiari esprimenti differenti emozioni (neutro, gioia e rabbia) hanno fatto rilevare una maggiore velocità di risposta del soggetto per volti familiari con espressione neutra rispetto a volti esprimenti gioia o rabbia. Ciò suggerisce il coinvolgimento di processi differenti nel riconoscimento delle diverse emozioni, in contrapposizione a quanto supposto dal modello di Bruce e Young. Infine, il riconoscimento di volti non familiari appare condizionato da fattori di natura pittorica, come la rotazione, mentre non è stato rilevato tale effetto per i volti familiari.
9.2.2 Meccanismi strutturali e semantici dell’elaborazione della mimica. Evidenze empiriche mediante rilevazioni ERP È possibile che differenti componenti ERP volto-specifiche riflettano fasi successive della comprensione del volto, a partire dall’analisi percettiva e dalla codifica strutturale delle componenti dello stesso fino alla classificazione e all’identificazione degli stimoli facciali individuali. Al fine di comprendere come tali componenti ERP possano essere legate alle fasi di elaborazione volto-specifiche, è essenziale considerare come esse siano influenzate dalle manipolazioni sperimentali che hanno un impatto sulla qualità della percezione e del riconoscimento del volto. Tra le fasi di elaborazione che caratterizzano la comprensione del volto, quella strutturale e quella semantica sono state ampiamente esplorate. È emerso che le regioni cerebrali implicate in aspetti distinti dell’elaborazione dei volti sono topograficamente separate [15] ed è stata supportata empiricamente la specificità funzionale dei meccanismi cerebrali responsabili dell’elaborazione del volto, grazie a studi psicofisiologici che hanno impiegato potenziali evento-correlati a lunga latenza [16, 17]. Il processo di codifica strutturale è probabilmente la fase finale dell’analisi visiva e il suo prodotto è una rappresentazione sensoriale astratta del volto, indipendente dal contesto o dalla prospettiva. Uno specifico marcatore ERP di tale elaborazione è l’effetto N170. Esso non risulta essere influenzato dalla familiarità del volto presentato ed è considerato un marcatore dell’analisi visiva dello stimolo piuttosto che del processo di riconoscimento in sé. Ad esempio, l’orientamento dello stimolo può influenzare l’ampiezza della N170, come rilevato in precedenza [18]. Inoltre, alcune recenti ricerche hanno mostrato che la N170 elicitata da volti capovolti appare più ampia rispetto a quella elicitata da volti orientati correttamente.
232
M. Balconi
Una possibile interpretazione di tale effetto è che l’aumento di ampiezza, nonché una maggiore latenza di comparsa dell’indice N170, sia dovuto a una maggiore difficoltà di codifica di volti invertiti. Ciò è ipotizzabile in primo luogo sulla base dell’assunzione che la codifica del volto sia basata su un processo olistico di estrapolazione della gestalt complessiva, che risulta essere distorta nel caso di inversione e, in secondo luogo, in ragione del fatto che gli stimoli non orientati normalmente sono più complessi da elaborare rispetto a quelli normalmente orientati. Ovvero, procedure che modificano i pattern facciali rispetto ai loro dettagli percettivi dovrebbero influenzare la comprensione degli stimoli facciali, con un aumento dell’ampiezza di picco della N170 [19]. A tale proposito, sono state condotte alcune manipolazioni sperimentali al fine di comprendere come avvenga la decodifica strutturale del volto. Ad esempio, stimoli isolati (come gli occhi) o la combinazione di componenti primarie presentate in assenza dei contorni del volto producono una N170 più ampia rispetto a quella elicitata da volti completi. In accordo alla prospettiva di Bruce e Young, il decoding facciale possiede una struttura gerarchica che distingue un sistema nucleare per l’analisi visiva dei volti e un sistema esteso che elabora il significato delle informazioni ottenute dal volto. Pertanto, il riconoscimento di un volto individuale è ottenuto grazie alla comparazione della descrizione strutturale ricavata dall’analisi percettiva con le rappresentazioni precedentemente immagazzinate dei singoli volti (unità di riconoscimento del volto). Quando tali unità sono attivate grazie alla loro convergenza con la descrizione strutturale, è possibile accedere ai nodi dell’identità personale presenti nella memoria semantica, producendo l’identificazione del volto. Per tale processo è stata rilevata la modulazione di un effetto ERP a lunga latenza in risposta alla codifica semantica del volto. In uno studio in cui sono stati rilevati ERP in risposta a volti familiari e a volti e altri oggetti non familiari, si è rilevato come i volti non familiari possano produrre una maggiore negatività tra i 300 e i 500 ms (definito come effetto N400), seguita da una maggiore positività circa 500 ms dopo la stimolazione (effetto P600) [20]. Tali effetti apparivano nella loro massima ampiezza dopo la prima presentazione di volti non familiari individuali, mentre mostravano un decremento per stimolazioni successive alla prima. In virtù della loro responsività alla familiarità del volto, gli effetti N400 e la P600 possono essere rappresentativi di processi coinvolti nel riconoscimento e nell’identificazione dei volti. Nello specifico, essi rifletterebbero i meccanismi cerebrali coinvolti nell’attivazione delle rappresentazioni dei volti immagazzinati e la successiva attivazione della memoria semantica, contrariamente all’effetto N170 che sarebbe legato all’analisi percettiva precategoriale dello stimolo facciale. Variazioni simili alla N400 sono state osservate per volti non familiari rispetto a quelli familiari [11, 17], volti sconosciuti rispetto a quelli noti, confronti semantici rispetto a quelli non semantici, congruenti rispetto a non congruenti [21, 22]. La ricerca di uno specifico ERP per il volto è stata sostenuta da disegni sperimentali che hanno consentito di attuare un confronto diretto tra un paradigma di studio proprio del dominio linguistico (anomalia semantica) e quello del riconoscimento di volti. Il potenziale evocato elicitato dal volto in condizione di incongruenza è rappresentato da una deflessione negativa, paragonabile alla componente N400 prodotta in risposta a stimoli linguistici (parole) e modulato dall’anomalia seman-
9. Neuropsicologia delle espressioni facciali
233
tica, dal momento che tale potenziale si manifesta alla medesima latenza. Un’ipotesi circa il significato funzionale della N400 per stimoli linguistici è relativa all’effetto di incongruenza semantica, poiché tale componente indicherebbe l’attivazione di network semantici. Koyama e colleghi [23] hanno proposto un’ulteriore ipotesi che associa la N400 al processo di inibizione di conoscenze non compatibili, attivate dagli stimoli elicitanti a causa di rappresentazioni non attese e non congruenti con le aspettative del soggetto. Per gli studi sulla mimica, si è assunto che volti sconosciuti richiedano una maggiore inibizione delle conoscenze e ciò eliciterebbe un effetto N400 più ampio di quello prodotto per volti conosciuti. Pertanto, l’effetto N400, evocato da frasi semanticamente incongruenti nel linguaggio [24, 25], rifletterebbe l’elaborazione delle informazioni “anomale” non solo in ambito linguistico, ma, più in generale, nel caso di un accesso ai sistemi rappresentazionali semantici in condizione di anomalia [26]. Pertanto, la N400 sarebbe modulabile non solo da termini semanticamente incongruenti, ma anche nel caso in cui uno stimolo attivi il sistema rappresentazionale semantico in memoria. La N400 rifletterebbe l’accesso e l’attività di un sistema di memoria semantica e potrebbe evidenziare la risposta neurale addizionale alle informazioni semanticamente incongruenti di stimoli complessi.
9.3 Vie corticali del riconoscimento di volti Allo stato attuale sono stati condotti importanti studi per esplorare l’architettura funzionale dei meccanismi neurali che mediano la codifica strutturale del volto nel sistema visivo. La ricerca dei sistemi che governano il riconoscimento del volto si è focalizzata principalmente sul ruolo della codifica strutturale nell’identificazione (si veda il paragrafo 9.2). Alcuni studi hanno rilevato come variazioni nelle condizioni visive possano influenzare il riconoscimento del volto o la configurazione dello stimolo. I risultati empirici suggeriscono che una singola visione del volto possa contenere sufficienti informazioni invarianti per consentire il riconoscimento anche in presenza di cambiamenti modesti della posa o dell’espressione assunta. Precisamente è stata rilevata una specifica area, il giro fusiforme, attivata da stimoli facciali rispetto a stimoli non facciali. È stato ipotizzato che tale regione sia coinvolta selettivamente in alcuni aspetti dell’analisi percettiva del volto, come la codifica strutturale delle informazioni necessarie al suo riconoscimento. Recentemente Kanwisher e colleghi [27] hanno supposto che tale area possa essere interpretata come un modulo specializzato per la percezione del volto e per tale ragione è stata denominata area fusiforme del volto (FFA, Fusiform Face Area). In alcuni esperimenti è stato rilevato che la FFA risponde in modo più consistente alla vista di volti intatti piuttosto che non intatti e alla visione frontale dei volti rispetto a quella dell’immagine di una casa. L’attivazione della FFA sembra anche dipendere dal livello di attenzione rivolto agli stimoli facciali. Infatti, quando i volti cadono al di fuori del fuoco attentivo, la sua attività risulta essere ridotta. Prendiamo in considerazione in questo paragrafo alcuni modelli recenti relativi ai network corticali implicati nell’elaborazione dei volti. La figura seguente (Fig. 9.3)
234
M. Balconi
riporta una rappresentazione del sistema neurale distribuito implicato nell’elaborazione del volto negli esseri umani, secondo il modello di Haxby e colleghi [28]. All’interno del modello, si ipotizza che gli individui elaborino due differenti componenti a partire dal volto: da un lato, l’insieme delle caratteristiche invarianti, dall’altro, gli aspetti modificabili del volto, come l’espressione facciale, lo sguardo, i movimenti delle labbra ecc. A livello corticale, il modello appare essere di natura gerarchica ed è suddiviso in un sistema nucleare e in un sistema esteso. In particolare, il sistema nucleare è composto da tre regioni bilaterali della corteccia extrastriata visiva occipitotemporale, che includono il giro occipitale inferiore, il giro fusiforme laterale e il solco temporale superiore. Un ulteriore aspetto analizzato dal modello di Haxby (mediante l’impiego di rilevazioni PET) è costituito dalla distinzione tra le aree di attivazione in risposta alla codifica e al riconoscimento di volti. I pattern di attivazione rilevati durante i due processi mostrano una dissociazione dei sistemi neurali coinvolti. Il riconoscimento in particolare ha fatto rilevare l’attivazione della corteccia frontale destra, della corteccia cingolata anteriore, della corteccia parietale bilaterale inferiore e del cervelletto. Specificamente, la corteccia prefrontale destra risulta essere attivata unicamente per compiti di riconoscimento e non per compiti di codifica.
Fig. 9.3 Rappresentazione del network corticale implicato nella percezione del volto. Modificata da [28]
9. Neuropsicologia delle espressioni facciali
235
Un’area particolarmente rilevante nell’elaborazione del volto è la corteccia orbitofrontale. Due differenti fonti confermano tale ruolo. Da un lato, ricerche condotte su soggetti con lesioni corticali hanno rilevato che danni orbitofrontali sono associati alla compromissione della capacità di identificare la mimica emotiva. Dall’altro, alcuni studi PET hanno posto in evidenza che la corteccia orbitofrontale è attivata in risposta alla presentazione di volti emotivi rispetto a volti neutri [29]. Gli studi sulla mimica facciale generalmente si sono focalizzati sulla percezione statica del volto, mediante fotografie o riproduzioni dell’espressione stessa. Al contrario, altri approcci hanno supposto che una rappresentazione dinamica incrementi la possibilità di riconoscimento e di discriminazione rispetto a una rappresentazione statica. In aggiunta, la rilevazione di una dissociazione di effetti prodotti da danni cerebrali o psicopatologie sull’abilità di riconoscere le emozioni nelle espressioni facciali dinamiche o statiche suggerisce il coinvolgimento di correlati neurali distinti. Alcune ricerche hanno analizzato come pattern codificati in modo dinamico o statico attivino network corticali differenti nel riconoscimento. Un’ampia differenza di attivazione è stata rilevata non solo a partire dai sistemi neurali, ma anche in relazione alle strategie mentali implicate nel decoding. La differenziazione di correlati corticali nel decoding di espressioni statiche e dinamiche è stata rilevata anche in una recente ricerca di Kilts e colleghi [30]. Specificamente l’area visiva V5 e il solco temporale superiore mostrano differenziazioni di risposta in relazione al tipo di stimolo prodotto. Parallelamente, in ambito clinico Adolphs e colleghi [31] hanno riportato il caso di un soggetto incapace di riconoscere le emozioni primarie, a eccezione della gioia, quando le espressioni venivano presentate in modalità statica o come singole etichette verbali. Al contrario, egli era in grado di riconoscere correttamente tutte le emozioni primarie a partire da stimoli dinamici.
9.4 Specificità corticale nel decoding delle espressioni facciali delle emozioni Evidenze sperimentali hanno sottolineato la presenza di singole cellule volto-specifiche in primati non umani. Da tali studi è stato possibile rilevare un quadro sintetico dei pattern di attivazione neurale in risposta ai volti nelle regioni temporali del cervello, sottolineando come cellule specifiche appaiano particolarmente responsive dell’identità e dell’espressione del volto. In aggiunta, la rilevazione dell’attività di singole cellule ha posto in luce l’indipendenza delle due componenti. Più specificamente, Hasselmo, Rolls e Baylis [32] hanno esplorato il ruolo dell’identità e dell’espressione nella risposta volto-selettiva dei neuroni nella corteccia visiva temporale delle scimmie: alcuni neuroni appaiono rispondere all’identità indipendentemente dall’espressione del volto, mentre altri rispondono all’espressione del volto indipendentemente dall’identità. È possibile osservare pattern di attivazione simili nella popolazione umana? Risultati empirici specifici sono stati individuati anche per il volto umano. Inoltre, un numero crescente di ricerche ha esplorato le caratteristiche cognitive e neuropsicologiche della comprensione dei volti [33]. In particolare, alcuni studi PET [28, 34], con risonanza magnetica fun-
236
M. Balconi
zionale [27, 35, 36] e mediante potenziali evocati evento-correlati (ERP) [37, 38] hanno evidenziato una specificità corticale nella decodifica delle diverse emozioni. Un ulteriore esempio di selettività del riconoscimento è evidenziato dai deficit nel decoding di espressioni emotive. Nello specifico, un soggetto con un danno bilaterale all’amigdala, struttura mediale temporale che è coinvolta nell’esperienza emotiva, presentava un deficit nel riconoscimento di alcune espressioni emotive, tra cui la rabbia e la paura, mantenendo inalterata la capacità di riconoscerne altre [39]. La paura presenta un percorso privilegiato di codifica grazie al supporto dell’amigdala, in quanto emozione che possiede una specificità evolutiva e una funzione più generale di salvaguardia dell’organismo. Specificamente, lesioni dell’amigdala sembrano compromettere l’abilità di riconoscere le espressioni facciali della paura e le vocalizzazioni connesse a tale emozione, ma non l’abilità di riconoscere le espressioni della tristezza. Una serie di studi volti a indagare gli effetti della decodifica di stimoli emotivi in condizioni di deficit ha focalizzato la propria attenzione sugli indici elettrodermici, quali la conduttanza cutanea, mediante la tecnica della stimolazione subliminale [40]. I risultati ottenuti hanno permesso di osservare un incremento della conduttanza cutanea in risposta a particolari pattern emotivi rispetto ad altri, parallelamente a quanto accade nel caso di somministrazione di stimoli sovraliminali.
9.4.1 Deficit nell’elaborazione delle espressioni emotive e della familiarità. Il caso della prosopagnosia Molti pazienti prosopagnosici, nonostante l’impossibilità di identificare volti familiari, possiedono una capacità parziale di riconoscimento delle espressioni facciali delle emozioni. Il profilo è comune in pazienti che presentano una forma relativamente pura di agnosia per i volti, ovvero nel caso in cui il deficit di riconoscimento della identità del volto si verifichi in assenza di altri deficit principali nella percezione visiva e sia strettamente associato a danni bilaterali della corteccia associativa visiva di alto ordine nelle regioni occipitotemporali. È stata rilevata anche una dissociazione inversa, ovvero il mancato riconoscimento delle espressioni facciali delle emozioni parallelamente a un riconoscimento normale dell’identità del volto. Tale dissociazione è legata a differenti correlati neuroatomici (ad esempio, danni all’amigdala bilaterale) [41]. Studi di laboratorio hanno fornito evidenze consistenti circa il fatto che l’amigdala sia rilevante nel comportamento sociale, specialmente quello legato alla paura e all’aggressività. È pertanto probabile che l’amigdala abbia la funzione di segnalare le informazioni emotivamente e socialmente rilevanti in risposta a stimoli visivi. Tali risultati suggeriscono che il sistema neurale sottostante l’elaborazione dell’identità del volto e dell’espressione facciale delle emozioni siano, almeno in parte, anatomicamente distinti. Alcuni esperimenti hanno impiegato indici psicofisiologici (quale, ad esempio, la conduttanza cutanea) al fine di verificare se pazienti prosopagnosici possano produrre qualche evidenza della capacità di discriminare volti noti da volti di estranei [42]. Soggetti prosopagnosici producono una risposta cutanea significativamente maggio-
9. Neuropsicologia delle espressioni facciali
237
re per volti target rispetto a volti non target. Pertanto, i soggetti prosopagnosici segnalano, seppure indirettamente e in modo non conscio, la propria capacità di attuare una discriminazione degli stimoli facciali che non sono in grado di riconoscere consapevolmente. I risultati suggeriscono che una parte del processo fisiologico del riconoscimento di volti permanga intatto, benché i risultati di tale processo non siano utilizzabili dalla coscienza. La presenza della compromissione del riconoscimento cosciente dei volti, a fronte di un riconoscimento normale a livello non conscio, supporta una doppia dissociazione sia anatomica sia comportamentale tra il riconoscimento esplicito e implicito degli stessi. In altri termini, il fatto che i soggetti siano in grado di produrre una discriminazione del volto mediante variazioni della conduttanza cutanea nel caso in cui siano esposti a stimoli visivi suggerisce che le operazioni neurali responsabili della formazione e del mantenimento delle informazioni relative ai volti può procedere indipendentemente dall’intervento della coscienza. Stimoli con elevata valenza affettiva producono un’intensificazione della risposta cutanea anche in soggetti normali. L’ipotesi del marcatore somatico suppone che l’attivazione di tale indice possa verificarsi in risposta alla percezione di volti altamente familiari, dato che tali stimoli possiedono un grado elevato di rilevanza personale, di familiarità e complessivamente di significatività per il soggetto [42].
9.4.2 Analisi della mimica emotiva mediante ERP Le rilevazioni elettroencefalografiche costituiscono una promessa in qualità di strumenti impiegati per lo studio dei processi cognitivi sottostanti la comprensione dei volti. Dal momento che alcune componenti ERP endogene appaiono essere altamente sensibili a specifici mutamenti nello stato cognitivo del soggetto, esse consentono un’analisi delle differenze funzionali nella cognizione mediante rilevazione delle variazioni nel profilo d’onda dell’ERP (per una disamina della tecnica ERP si veda [43]). Gli studi ERP negli umani hanno fornito evidenze rispetto alla specificità del volto, sottolineando l’emergenza precoce dell’elaborazione, nonché la sua distintività rispetto ad altri processi cognitivi. In linea con studi precedenti, alcune ricerche che hanno impiegato misure ERP hanno consentito di individuare correlati neurali specifici per l’identificazione del volto, ovvero indicatori che mostrano una maggiore ampiezza (intensità di picco) per il volto rispetto a molti altri stimoli, come case, macchine, occhi ecc. [11, 44]. Rispetto alle componenti emotive, il fatto che i volti esprimenti emozioni elicitino specifici pattern di attività corticale fornisce supporto all’ipotesi dell’esistenza di un meccanismo cognitivo dedicato e specifico per il volto. Benché molti studi ERP abbiano preso in considerazione componenti endogene a lunga latenza [45, 46] è possibile affermare che il processo emotivo abbia luogo in tempi brevi. Ad esempio, è stata rilevata una variazione d’onda (picco) positiva circa 100 ms dopo la presentazione dello stimolo (P1) [47], strettamente legata alla valenza emotiva della mimica facciale. Tale picco precoce pone in luce il fatto che la percezione emotiva può aver luogo preattentivamente e automaticamente. In aggiunta, alcuni recenti studi hanno rilevato una negatività distribuita posteriormente (con picco intorno ai
238
M. Balconi
260-280 ms) che riflette un processo emozione-specifico [48]. Complessivamente, alcune variazioni elettroencefalografiche di segno positivo (P300 e P200) e negativo (N220, N300 ed N400) circoscrivono l’insieme di fenomeni corticali associati al decoding di volti esprimenti emozioni. Una specificità è attribuibile alle due variazioni di polarità negativa N220 e N400, in quanto correlati corticali delle espressioni emotive, rispettivamente, alla mimica emotiva e al valore semantico delle espressioni facciali. È stato dimostrato infatti che i volti esprimenti emozioni (in particolare paura e gioia) producono una variazione negativa più ampia, intorno ai 270 ms, rispetto a volti neutri nelle aree corticali temporali posteriori [49-51]. Inoltre, la variazione N220 appare sensibile e responsiva a differenti tipologie di emozioni. Specificamente, la maggiore o minore ampiezza di picco sarebbe correlata alle componenti di arousal dell’emozione espressa (maggiore ampiezza nel caso di emozioni a elevato arousal) [52, 53].
9.4.3 Un network cerebrale emozione-specifico? Una questione centrale posta dalla ricerca attuale riguarda l’osservazione di eventuali differenziazioni nei correlati neurofisiologici dei volti in funzione delle diverse emozioni. Una serie di modelli ha cercato di rendere conto della mappa eterogenea di correlati fisiologici delle singole emozioni (modelli categoriali), sottolineando la presenza di pattern autonomici distinti per l’espressione delle emozioni [54]. Al contrario, altri approcci hanno rilevato l’incidenza di due criteri distintivi nella differenziazione delle risposte autonomiche, ovvero i livelli di arousal e la valenza edonica, che consentirebbero di sintetizzare la variabilità di risposte fisiologiche dell’intero universo emotivo (modelli dimensionali) [55-57]. Mediante l’applicazione della risonanza magnetica è stato rilevato che il decoding di differenti espressioni facciali produce l’attivazioni di regioni cerebrali tra loro eterogenee. Ad esempio, la decodifica di volti che esprimono paura produce un’attivazione nell’amigdala sinistra, il volto della tristezza elicita risposte nell’amigdala destra e nel lobo temporale destro, mentre la percezione della rabbia attiva maggiormente la corteccia orbitofrontale destra e la corteccia cingolata anteriore. Infine, è stato rilevato come il disgusto produca una maggiore attivazione nell’insula anteriore. Individui affetti dalla corea di Huntington (che comporta un deficit localizzato nell’insula), mostrano di non essere in grado di analizzare le espressioni del disgusto ma contemporaneamente presentano una buona accuratezza nel riconoscimento di altre emozioni con valenza negative. L’attivazione dell’amigdala appare altamente correlata alla valenza emotiva dello stimolo. Ad esempio, è stato rilevato un incremento di attività nell’amigdala sinistra associato a espressioni negative come la tristezza e il grado di cambiamento della valenza negativa percepita appare proporzionale al grado di attivazione dell’amigdala sinistra [58, 59]. In particolare, è stato evidenziato come la percezione di volti esprimenti paura attivi regioni sinistre dell’amigdala. In secondo luogo, anche studi su lesioni corticali hanno fatto rilevare che la percezione di emozioni di diversa natura è associata a differenti regioni corticali. Lesioni bilaterali del-
9. Neuropsicologia delle espressioni facciali
239
l’amigdala compromettono la capacità di riconoscere le espressioni facciali della paura, mentre mantengono inalterate le abilità di decoding delle espressioni facciali della gioia, del disgusto e della tristezza. Alcuni dati empirici, infatti, forniscono dettagli rilevanti circa una compromissione nel riconoscimento della mimica emotiva della rabbia in soggetti con danno bilaterale dell’amigdala. Tale danno non comporta un deficit totale delle conoscenze relative all’emozione della paura, ma, piuttosto, implica una compromissione circa la consapevolezza che la paura abbia un valore di primo piano tra le emozioni, fatto che può costituire un fattore rilevante nell’abilità di prevedere un danno potenziale, poiché la presenza di una risposta automatica di fronte a situazioni di minaccia può costituire un vantaggio rilevante per la salvaguardia dell’individuo. Gli studi consentono di porre in rilievo il ruolo cruciale dell’amigdala nel mettere in atto comportamenti di risposta specifici in situazioni di minaccia. Più in generale, alcune ricerche hanno dimostrato che l’amigdala gioca un ruolo importante nel riconoscimento delle emozioni a partire dall’espressione facciale [60]. In aggiunta, è stata riconosciuta una funzione prioritaria all’amigdala nell’elaborazione diretta dell’arousal emotivo e della valenza dello stimolo. Infatti l’amigdala possiede una collocazione anatomica funzionale all’integrazione di stimoli esterocettivi ed enterocettivi ed è in grado di modulare i processi di elaborazione sensoriale, motoria e autonomica. Essa inoltre riceve input olfattivi, gustativi e viscerali: questi ultimi forniscono informazioni rispetto alle proprietà positive e negative degli stimoli e circa il loro valore biologico [35-61].
9.5 Asimmetrie emisferiche nell’elaborazione della mimica emotiva Esistono diverse incongruenze tra i risultati ottenuti dagli studi sull’effetto della lateralizzazione sul processo di elaborazione della mimica facciale. Il problema principale è costituito dal fatto che l’elaborazione del volto è considerato un processo univoco e non, piuttosto, multicomponenziale. Ad esempio, non è stata attuata una adeguata distinzione tra stimolazione mediante volti familiari e non familiari. In generale, molti studi coinvolgono la presentazione di volti non familiari piuttosto che familiari. Sulla base dei risultati delle ricerche sulla comprensione di volti con campo visivo diviso, appare giustificato concludere che entrambi gli emisferi siano dotati delle strutture necessarie per operare la discriminazione e il riconoscimento dei volti, così come l’elaborazione delle proprietà semantiche ottenute visivamente dai volti. Tale conclusione deriva dal fatto che differenti studi hanno rilevato che l’emisfero destro o quello sinistro sono di volta in volta competenti per alcune operazione e non per altre. Ad esempio, alcuni studi hanno rilevato che l’emisfero destro è migliore del sinistro nell’effettuare la comparazione dei volti, mentre molti altri hanno evidenziato una migliore abilità sinistra nell’identificazione di volti famosi o noti [62]. Ciò può far ipotizzare un ruolo speciale dell’emisfero destro nella fase iniziale di immagazzinamento delle informazioni facciali, ma un’abilità equipollente degli emisferi cerebrali nell’accedere alle informazioni mimiche precedentemente imma-
240
M. Balconi
gazzinate. Molti esperimenti che hanno impiegato i livelli di accuratezza di riconoscimento come variabile dipendente principale hanno evidenziato una superiorità emisferica destra. D’altro canto, alcuni risultati suggeriscono un ruolo significativo per l’emisfero sinistro nell’elaborazione dei volti per quanto concerne gli indici di latenza delle risposte. Rispetto alle componenti emotive è possibile sintetizzare i principali modelli sull’asimmetria del riconoscimento emotivo, utilizzando quattro categorie esplicative generali: – l’emisfero destro possiede una superiorità generale (o dominanza) su quello sinistro per differenti aspetti del comportamento emotivo; – l’emisfero destro è dominante per le espressioni emotive in modo parallelo alla dominanza sinistra per le funzioni del linguaggio; – l’emisfero destro è dominante per la percezione degli indici emotivi, come le sfumature della mimica emotiva, la postura, la prosodia ecc.; – i due emisferi possiedono una specializzazione complementare per il controllo di differenti aspetti della modalità emotiva. In particolare, l’emisfero sinistro è considerato dominante per le emozioni positive, il destro per quelle negative. Possiamo constatare che gli studi precedenti non hanno dato origine a una chiara risoluzione circa la possibilità di sintetizzare in modo sistematico i dati empirici a disposizione. Da un lato, Kolb e Taylor [63] hanno sostenuto che sia poco probabile che il cervello abbia sviluppato un controllo asimmetrico del comportamento emotivo. Piuttosto, appare possibile che, sebbene esistano alcune asimmetrie nel controllo neurale delle emozioni, tali asimmetrie siano un prodotto del controllo asimmetrico di altre funzioni, come il controllo del movimento, del linguaggio ecc. Dall’altro, l’ipotesi della valenza ha supposto, nella sua versione di partenza, una specializzazione destra e sinistra rispettivamente per le emozioni negative e positive, indipendentemente dalla modalità di elaborazione. La dimensione della piacevolezza sarebbe particolarmente critica rispetto al coinvolgimento emisferico per le emozioni: comportamenti di allontanamento sarebbero connessi con l’emisfero destro, comportamenti di avvicinamento a quello sinistro [64]. Successivamente è stato proposto che la specializzazione emisferica rispetto alla valenza sia rilevabile unicamente per le espressioni delle emozioni, mentre la percezione delle emozioni sarebbe localizzata nelle regioni posteriori destre. Infine, alcune ricerche hanno proposto che l’emisfero destro sia dominante nell’espressione e nella percezione delle emozioni, indipendentemente dalla valenza. Cosa è possibile concludere da tali evidenze? Una prima osservazione è che l’elaborazione di informazioni emotive implica strategie (non-verbali, integrative, olistiche) e funzioni (percezione di pattern, organizzazione visuospaziale) specifiche dell’emisfero destro, mentre l’emisfero sinistro sarebbe maggiormente implicato nella focalizzazione attentiva e analitica degli stimoli (al riguardo si veda anche il Capitolo 1). Un secondo aspetto è relativo al fatto che l’emisfero destro, grazie alle sue caratteristiche di elaborazione, risulta essere più adatto all’elaborazione delle componenti non-verbali (ad esempio, le emozioni) e quello sinistro per l’elaborazione verbale (il linguaggio) [65]. Focalizzeremo tale aspetto nel paragrafo successivo.
9. Neuropsicologia delle espressioni facciali
241
9.5.1 Una specializzazione destra per la comprensione dell’espressione facciale delle emozioni? Abbiamo già sottolineato come differenti canali siano impiegati nell’espressione di segnali non-verbali. Tali canali includono, tra gli altri, le espressioni facciali, il tono di voce e i gesti. Le ricerche empiriche normalmente sostengono che l’emisfero destro è specializzato nel comportamento non-verbale. Ad esempio, pazienti con lesioni destre nelle regioni parietali mostrano una generale compromissione nel decoding del tono vocale emotivo. Più in generale i pazienti con danni cerebrali dell’emisfero destro mostrano una performance peggiore rispetto ai soggetti con lesioni sinistre in tre ambiti specifici: – nel caso in cui debbano distinguere tra volti esprimenti emozioni o debbano attribuire un nome a scene emotive; – nel caso di confronto tra espressioni emotive; – quando devono raggruppare sia scene sia volti presentati in formato pittorico o in formato scritto. L’emisfero destro svolge un ruolo prioritario nella comprensione delle informazioni emotive, come evidenziato da molti studi con pazienti neurologicamente intatti. Ad esempio, mediante la tecnica del campo visivo diviso, i ricercatori hanno rilevato una facilitazione del campo visivo sinistro (emisfero destro) per compiti che richiedono ai soggetti di discriminare espressioni emotive dei volti; di ricordare espressioni facciali emotive; di confrontare volti emotivi a parole scritte [66]. In aggiunta, altri studi hanno utilizzato un paradigma con stimoli emotivi chimerici, composto da volti combinati insieme a formare un pattern complessivo irreale. Ad esempio, una parte del volto esprimeva un’emozione (gioia) e una seconda parte un’emozione diversa (tristezza). Generalmente i soggetti destrimani giudicano il volto come più felice quando il sorriso compare nel loro emicampo sinistro, fatto che suggerisce che l’informazione sia emotivamente più saliente quando è elaborata dall’emisfero destro. In secondo luogo, una serie di studi sui tracciati EEG ha preso in considerazione variazioni nelle bande di frequenza del tracciato in concomitanza a specifici stimoli emotivi. Come abbiamo sottolineato in precedenza, l’esecuzione di una specifica attività cognitiva comporta una maggiore attivazione cerebrale, (con conseguente diminuzione della banda di frequenza α; si veda anche il Capitolo 2). Nel caso specifico della mimica emotiva, è stata rilevata una diminuzione nella banda α per stimoli emotigeni negativi proiettati nell’emisfero destro rispetto a proiezioni nell’emisfero sinistro. Tali risultati supporterebbero ulteriormente i modelli della lateralizzazione emisferica nella comprensione della mimica emotiva, in particolare in funzione della valenza edonica dello stimolo. Un ulteriore aspetto da considerare è se la comprensione delle informazioni emotive sia solo un esempio specifico di un compito percettivo complesso che coinvolge le informazioni relazionali, piuttosto che un processo distinto per il quale l’emisfero destro sarebbe specializzato. Infatti, la percezione dei volti è un compi-
242
M. Balconi
to visuospaziale che implica una configurazione di caratteristiche organizzate in un pattern specifico, l’una messa in relazione all’altra. È comunque possibile che non esista un unico meccanismo emisferico destro finalizzato a elaborare le espressioni emotive: probabilmente tale emisfero è in grado di attivare il medesimo processo chiamato in causa nel riconoscimento dei volti anche nell’organizzazione di un pattern spaziale in un insieme dotato di significato. Con un intento di sintesi è possibile rilevare che esistono molti esempi di dissociazione tra l’abilità di riconoscere un volto e l’abilità di interpretare un volto per le proprie caratteristiche emotive. Avendo sottolineato come sia possibile attribuire la presenza di sistemi funzionali separati o moduli attraverso la rilevazione di una dissociazione funzionale [67], se due compiti dipendono da una regione comune del cervello, un danno a tale regione probabilmente interferirà nella performance di entrambi i compiti. Ancora più interessante è il caso in cui si verifichino dissociazioni opposte (doppia dissociazione). Tali risultati suggeriscono che l’emisfero destro possiede una specializzazione per l’elaborazione delle informazioni emotive del volto, a partire dalla quale le emozioni sono comunicate. Sono stati riportati casi di pazienti prosopagnosici che possono identificare volti esprimenti emozioni. Al contrario, altri pazienti possono riconoscere i volti ma non sono in grado di identificare l’espressione emotiva. Ricerche che hanno esaminato la percezione dei volti vs. delle emozioni in soggetti neurologicamente intatti hanno ottenuto risultati a favore di una dissociazione funzionale di sistemi. Inoltre, quando vengono presentati volti emotivi o non emotivi mediante campo visivo diviso, i soggetti mostrano un maggiore vantaggio del campo visivo sinistro (emisfero destro) per volti emotivi rispetto a volti non emotivi [52].
9.5.2 Lateralizzazione nella produzione e comprensione di volti emotivi Un ulteriore elemento da considerare nella definizione dell’effetto di lateralizzazione è la distinzione tra i processi di codifica (produzione) e di decodifica (comprensione) delle espressioni facciali delle emozioni. Innanzitutto, come rilevato dalla figura seguente, dal punto di vista della produzione mimica è possibile rilevare un’asimmetria facciale nel volto (Fig. 9.4). Una tecnica utilizzata frequentemente al fine di esplorare l’asimmetria facciale è quella di dividere l’immagine del volto e di comporre due metà in un’unica configurazione artificiale. In genere il lato sinistro del volto risulta essere più espressivo di quello destro, in particolare per le emozioni negative. Al contrario, i due lati del volto sono giudicati essere più simmetrici per le espressioni positive. Complessivamente, è possibile ritenere che l’emisfero destro giochi un ruolo di primo piano nell’espressione facciale. In secondo luogo, evidenze empiriche suggeriscono che esprimere un’emozione possa costituire un fenomeno distinto dal riconoscere quell’emozione.
9. Neuropsicologia delle espressioni facciali
243
Fig. 9.4 Lateralizzazione della mimica emotiva nell’espressione delle emozioni, con predominanza dell’espressione di correlati negativi nel lato sinistro del volto (emisfero destro) rispetto a quello destro (emisfero sinistro)
C’è infatti concordanza nel ritenere che, nonostante la valutazione dell’emozione e l’espressione emotiva possano non essere indipendenti l’una dall’altra, esse devono essere mantenute distinte. In aggiunta, esse appaiono dipendere primariamente da regioni differenti del cervello. In particolare, la valutazione delle emozioni risulta essere una specializzazione posteriore dell’emisfero destro, mentre l’espressione delle emozioni appare essere maggiormente associata alle regioni anteriori. Un’altra area rilevante implicata nell’elaborazione del volto è il lobo temporale. Esso include il tessuto neocorticale così come la corteccia limbica e le strutture sottocorticali (amigdala e ippocampo). La corteccia temporale è ricca di connessioni con i sistemi sensoriali, specialmente quello visivo e uditivo, e con il lobo frontale. In aggiunta, essa possiede ricche connessioni con l’amigdala, che si ipotizza avere un ruolo centrale nel comportamento emotivo (si veda il paragrafo 9.4.3). Un’ovvia differenza tra la corteccia temporale sinistra e destra è che la prima è coinvolta nell’elaborazione del linguaggio, mentre quella destra risulta principalmente legata all’elaborazione dei volti. Infine, differenti emozioni sono accompagnate da differenti pattern di attività nell’emisfero destro e sinistro. Emozioni negative, come il disgusto, la paura e la tristezza tendono a essere associate a una maggiore attivazione destra frontale rispetto a quella sinistra, mentre emozioni positive risultano associate a una maggiore attivazione del lobo frontale sinistro. Davidson e Hugdhal [68] hanno supposto che le regioni frontali sinistre dispongano di un sistema implicato nei comportamenti di avvicinamento e che l’aumento di attività dell’area frontale sinistra sia associato alle emozioni che tendono a essere accompagnate da una tendenza ad accettare la situazione/stimolo. Al contrario, le regioni frontali destre ospitano un sistema che dà origine a comportamenti di allontanamento, come per le emozioni della paura e del disgusto. Alla base di tale ipotesi è posta la concettualizzazione che avvicinamento e allontanamento siano i sistemi di azione di base adottati dall’organismo nel rispondere adattivamente all’ambiente. In aggiunta, il lobo frontale è considerato come zona di convergenza in cui le informazioni dalle regioni di elaborazione percettiva posteriori (il lobo parietale) sono congiunte con le informazioni provenienti dalle regioni sottocorticali (come l’amigdala), coinvolte nell’attribuzione del significato emotivo agli input sensoriali.
244
M. Balconi
9.6 Conclusioni La ricerca in ambio neuropsicologico ha sottolineato la peculiarità della mimica facciale per la comunicazione, individuando specifici correlati neurali per la produzione e il riconoscimento dei pattern mimici. Tra le altre, l’area fusiforme per il volto (FFA) risulta essere specificamente deputata a elaborare informazioni mimiche. Inoltre, è stata evidenziata la presenza di un’organizzazione modulare dei processi di produzione/comprensione rispetto alle componenti strutturali-percettive, di identità del volto e semantiche, anche grazie all’ausilio di numerose ricerche con applicazioni ERP. L’universo emotivo, eterogeneo al suo interno, appare essere caratterizzato da una chiara differenziazione di correlati emozione-specifici. Infatti, deficit per il decoding di pattern mimici sono stati individuati per alcune emozioni e non per altre. Nello specifico, lesioni dell’amigdala sembrano compromettere la capacità di identificare espressioni negative come la rabbia e la paura ma non espressioni positive, come la gioia. Al contempo, è stata rilavata una chiara specializzazione destra per il decoding dei volti e in particolare per l’espressione delle emozioni. Pur in assenza di un modello esaustivo circa la piena dominanza destra per il riconoscimento mimico o, al contrario, per una prevalenza solo parziale dello stesso, il contributo principale dell’emisfero destro è stato evidenziato da numerose ricerche empiriche. Inoltre, lo specifico contenuto emotivo dei pattern facciali (con valenza positiva vs. negativa) avrebbe un ruolo determinante nell’attivazione di determinate aree corticali, con una dominanza emisferica frontale destra per pattern negativi (come rabbia e paura).
Bibliografia 1. Darwin C (1872) The expression of the emotions in man and animals. Chicago University Press, Chicago 2. Ekman P (1982) Emotion in the human face. Cambridge University Press, New York 3. Russell JA, Fernández-Dols JM (1997) The psychology of facial expression. Cambridge University Press, Cambridge 4. Russell JA (1997) Reading emotions from and into faces: resurrecting a dimensional-contextual perspective. In: Russell JA, Fernández-Dols JM (1997) The psychology of facial expression. Cambridge University Press, Cambridge, pp. 295-320 5. Smith CA, Scott HS (1997) A Componential approach to the meaning of facial expressions. In: Russell JA, Fernández-Dols JM (eds) The psychology of facial expression. Cambridge University Press, Cambridge, pp. 229-254 6. Chovil N (1997) Faces in dialogue. In: Russell JA, Fernández-Dols JM (eds) The psychology of facial expression. Cambridge University Press, Cambridge, pp. 321-333 7. Blair RJR (2004) Facial expressions, their communicatory functions and neuro-cognitive substrates. In: Frith CD, Wolpert DM (eds) The neuroscience of social interaction: decoding, imitating and influencing the actions of others. Oxford University Press, New York 8. Dimberg U, Öhman A (1996) Behold the wrath: psychophysiological responses to facial stimuli. Motiv Emotion 20:149-182 9. Goldman IA, Sekhar Sripada C (2004) Simulationist models of face-based emotion recognition. Cognition 94:193-213
9. Neuropsicologia delle espressioni facciali
245
10. Bruce AW, Young AW (1986) Undestanding face recognition. Brit J Psychol 77:305-327 11. Bentin S, Deouell LY (2000) Structural encoding and identification in face processing: ERP evidence for separate mechanisms. Cognitive Neuropsych 17:35-54 12. Lane RD, Chua PM-L, Dolan RJ (1998) Common effects of emotional valence, arousal and attention on neural activation during visual processing of pictures. Neuropsychologia 37:989-997 13. Etcoff NL (1986) The neuropsychology of emotional expression. In: Goldstein G, Tarter RE (eds) Advances in clinical neuropsychology. Plenum Press, New York, pp. 49-76 14. Wiser AK, Andreasen NC, O’Leary DS et al ( 2000) Novel vs. well-learned memory for faces: a positron emission tomography study. J Cognitive Neurosci 12:255-266 15. Holmes A, Vuilleumier P, Eimer M (2003) The processing of emotional facial expressions is gated by spatial attention: evidence from event-related brain potentials. Cognitive Brain Res 16:174-184 16. Caldara R, Thut G, Servoir P et al (2003) Face versus non-face object perception and the “other-race” effect: a spatio-temporal event-related potential study. Clinical Neurophysiol 114:515-528 17. Eimer M (2000) Attentional modulations of event-related brain potentials sensitive to faces. Cognitive Neuropsych 17:103-116 18. Rossion B, Delvenne JF, Debatisse D et al (1999) Spatio-temporal localization of the face inversion effect: an event-related potentials study. Biol Psychol 50:173-189 19. Jemel B, George N, Olivares E et al (1999) Event-related potentials to structural familiar face incongruity processing. Psychophysiology 36:437-452 20. Balconi M, Lucchiari C (2006) Indici psicofisiologici (potenziali corticali evento-correlati) del decoding dell’espressione facciale delle emozioni. Effetto della stimolazione sovraliminale e subliminale sull’indice N200. GIP 4:95-127 21. Balconi M, Lucchiari C (2005) ERP (event-related potentials) related to normal and morphed emotional faces. The Journal of Psychology. Interdisciplinary and Applied 2:176-192 22. Olivares EI, Iglesias J, Bobes MA (1998) Searching for face-specific long latency ERPs: a topographic study of effects associated with mismatching features. Cognitive Brain Res 7:343-356 23. Koyama S, Nageishi Y, Shimokochi M (1992) Effects of semantic context and event-related potentials: N400 correlates with inhibition effect. Brain Lang 43:668-681 24. Balconi M, Pozzoli U (2005) Comprehending semantic and grammatical violations in Italian. N400 and P600 comparison with visual and auditory stimuli. J Psycholinguist Res 34:71-99 25. Kutas M, Federmeier KD (2001) Electrophysiology reveals semantic memory use in language comprehension. Trends Cogn Sci 4:463-470 26. Balconi M, Pozzoli U (2004) Elaborazione di anomalie semantiche e sintattiche con stimolazione visiva e uditiva: un’analisi mediante correlati ERPs. GIP 3:585-614 27. Kanwisher N, McDermott J, Chun MM (1997) The fusiform face area: a module in human extrastriate cortex specialized for face perception. J Neurosci 17:4302-4311 28. Haxby JV, Hoffman EA, Gobbini MI (2000) The distributed human neural system for face perception. Trends Cogn Sci 4:223-233 29. Adolphs R, Schulz R, Tranel D (1998) Intact recognition of facial emotion in Parkinson’s disease. Neuropsychology 12:253-258 30. Kilts CD, Egan G, Gideon GA et al (2003) Dissociable neural pathways are involved in the recognition of emotion in static and dynamic facial expressions. Neuroimage 18:156-168. 31. Adolphs R, Tranel D, Damasio AR (2003) Dissociable neural systems for recognizing emotions. Brain Cogn 52:61-69 32. Hasselmo ME, Rolls ET, Baylis CG (1989) The role of expression and identity in face-selective responses of neurones in the temporal visual cortex of the monkey. Behav Brain Res 32:203-221 33. Posamentier MT, Abdi H (2003) Processing faces and facial expressions. Neuropsychol Rev 13:113-143 34. Bernstein LJ, Beig S, Siegenthaler AL et al (2002) The effect of encoding strategy of the neural correlates of memory for faces. Neuropsychologia 40:86-98
246
M. Balconi
35. Adolphs R, Tranel D, Damasio AR (1998) The human amygdala in social judgment. Nature 393:470-474 36. Grelotti DG, Gauthier I, Schultz RT (2002) Social interest and the development of cortical face specialization: what autism teaches us about face processing. Dev Psychobiol 40:213-225 37. Eimer M, McCarthy RA (1999) Prosopagnosia and structural encoding of faces: evidence from event-related potentials. Neuroreport 10:255-259 38. Herrmann MJ, Aranda D, Ellgring H et al (2002) Face-specific event-related potential in humans is independent from facial expression. Int J Psychophysiol 45:241-244 39. Davidson RJ (1999) Neuropsychological perspectives on affective styles and their cognitive consequences. In: Dalgleish T, Power MJ (eds) Handbook of cognition and emotion. Wiley, New York, pp. 103-125 40. Balconi M, Lucchiari C (2005) In the face of emotions: event-related potentials in supraliminal and subliminal facial expression recognition. Genet Soc Gen Psychol Monogr 131:41-69 41. Adolphs R, Tranel D, Damasio H et al (1995) Fear and the human amygdala. J Neurosci 15:5879-5891 42. Tranel D, Damasio AR (1988) Non conscious face recognition in patients with face agnosia. Behav Brain Res 30:235-249 43. Rugg MD, Coles MGH (1995) Electrophysiology of mind. Oxford University Press, Oxford 44. Rossion B, GauthierI, Tarr MJ et al (2000) The N170 occipito-temporal component is delayed and enhanced to inverted faces but not to inverted objects: an electrophysiological account of face-specific processes in the human brain. Neuroreport 11:69-74 45. Holmes A, Vuilleumier P, Eimer M (2003) The processing of emotional facial expressions is gated by spatial attention: evidence from event-related brain potentials. Cognitive Brain Res 16:174-184 46. Streit M, Wölwer W, Brinkmeyer J et al (2000) Electrophysiological correlates of emotional and structural face processing in humans. Neurosci Lett 278:13-16 47. Pizzagalli D, Koenig T, Regard M et al (1999) Affective attitudes to face images associated with intracerebral EEG source location before face viewing. Brain Research and Cognitive Brain Res 7:371-377 48. Schupp HT, Junghöfer M, Weike AI et al (2003) Attention and emotion: an ERP analysis of facilitated emotional stimulus processing. Neuroreport 14:1107-1110 49. Balconi M, Pozzoli U (2003) Face-selective processing and the effect of pleasant and unpleasant emotional expressions on ERP correlates. Int J Psychophysiol 49:67-74 50. Balconi M, Pozzoli U (2003) ERPs (event-related potentials), semantic attribution, and facial expressions of emotions. Conscious Emotion 4:63-80 51. Sato W, Takanori K, Sakiko Y et al (2001) Emotional expression boosts early visual processing of the face: ERP recording and its decomposition by independent component analysis. Neuroreport 12:709-714 52. Balconi M (2003) Neuropsicologia delle emozioni. Carocci, Roma 53. Balconi M (in stampa) Emotional face comprehension. Neuropsychological perspectives. Nova Science Publishers, New York 54. Rossignol M, Campanella S (2006) Emotional facial expressions processing in anxious disorders: behavioural and electrophysiological evidences. In: Balconi M (ed) Neuropsychology and cognition of emotional face comprehension. Research Sign Post, Kerala 55. Balconi M (2006) Neuropsychology and cognition of emotional face comprehension. Research Sign Post, Kerala 56. Balconi M, Lucchiari C (2005) Consciousness, emotion and face: an event-related potentials study. In: Ellis RD, Newton N (eds) Consciousness & Emotion. John Benjamins, Amsterdam, pp. 121-135 57. Balconi M, Lucchiari C (2006) Eeg correlates (evet-related desynchronization) of emotional face elaboration. Neurosci Lett 392:118-123 58. Vuilleumier P, Schwartz S (2001) Emotional facial expressions capture attention. Neurology 56:153-158
9. Neuropsicologia delle espressioni facciali
247
59. Gurr B, Moffat N (2001) Psychological consequences of vertigo and the effectiveness of vestibular rehabilitation for brain injury patients. Brain Injury 15:387-400 60. Adolphs R (1999) Social cognition and the human brain. Trends Cogn Sci:469-479 61. Calder AJ, Burton AM, Miller P et al (2001) A principal component analysis of facial expressions. Vision Res 41:1179-1208 62. Eimer M (1998) Does the face specific N170 component reflect the activity of a specialized eye processor? Neuroreport 9:2945-2948 63. Kolb B, Taylor L (1990) Neocortical substrates of emotional behavior. In: Stein NL, Lewenthal B, Trabasso T (eds), Psychological and biological approaches to emotion. Lawrence Erlbaum, Hillsdale Associates, pp. 115-144 64. Pizzagalli D (1998) Face, word, and emotional processing: Electrophysiological (EEG and ERP) studies on emotion with a focus on personality. University of Zurich, Zurich 65. Beeman M, Chiarello C (1998) Right hemisphere language comprehension: perspectives from cognitive neuroscience. Erlbaum, Hillsdale 66. Làdavas E, Umiltà C, Ricci-Bitti PE (1980) Evidence for sex differences in right-hemisphere dominance for emotions. GIP 7:121-127 67. Etcoff N (1989) Asymmetries in recognition of emotion. In: Boller F, Grafman J (eds), Handbook of neuropsychology. Elsevier, New York, pp. 363-382 68. Davidson RJ, Hugdahl K (1995) Brain asymmetry. The MIT Press, Cambridge Mass
Capitolo 10
Emozioni, temperamento e personalità: aspetti psicofisiologici Vilfredo De Pascalis
10.1 Introduzione Un aspetto generalmente osservato della risposta a stimoli emozionali è la grande variabilità interindividuale. Questa variabilità ha portato i ricercatori a studiare quanto la struttura delle risposte individuali a eventi che inducono emozioni sia in qualche modo modulata da caratteristiche di personalità. A tal scopo, è stata ampiamente indagata la relazione tra personalità e affetto o, più specificamente, tra personalità e risposte emozionali. Comune a questi studi è l’idea che il confronto tra risposte emozionali positive e negative possa far luce sui meccanismi responsabili delle emozioni, così come sulle differenze individuali nelle reazioni affettive. Gli studi sulla struttura della personalità hanno evidenziato cinque dimensioni principali (Big Five) [1]. Le cinque dimensioni di personalità proposte [2, 3] sono: (1) Estroversione (E), (2) Amicalità (A), (3) Coscienziosità, (4) Nevroticismo (N), (5) Apertura mentale (O). Secondo Revelle [4] e Gilboa e Revelle [5], sebbene vi sia un accordo generale sul contenuto descrittivo di queste cinque dimensioni, vi è talvolta disaccordo circa la loro capacità di fornire un valore predittivo sulla modalità e sulla causalità del comportamento. Alcuni tra i più intriganti tentativi di fornire una teoria causale delle differenze individuali sono stati quelli di Eysenck, Gray e Zuckerman. Tali tentativi, di solito, hanno considerato le dimensioni Estroversione (E), Nevroticismo (N) e, in minor misura, Psicoticismo (P) del modello Eysenckiano, e Ansia (An) e Impulsività (Imp) del modello di Gray. Queste ultime due dimensioni formano quelle che alcuni studiosi considerano le dimensioni primarie della personalità (Big-Two). Sia la teoria di Eysenck che quella di Gray attribuiscono molta importanza alle dimensioni E e N o Impulsività e Ansia per il ruolo a esse attribuito nella modulazione dell’attività cognitiva, comportamentale e affettiva. Particolarmente interessanti, in questo contesto, sono i risultati di Tellegen [6] che ha posto in relazione queste dimensioni con una delle tipiche categorie degli stati affettivi definita come umore. Il più recente modello Alternative Five di Zuckerman e collaboratori ha portato alla concettualizzazione e allo sviluppo del questionario Zuckerman-Kuhlman Personality Questionnaire (ZKPQ) per la misura di cinque fattori [7]: Impulsive Sensation Seeking (ImpSS); Neuroticism-Anxiety (N-An); Aggression-Hostility (Agg-Host); Sociability (Soc); Activity (Act). M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008
250
V. De Pascalis
In uno studio di Zuckerman e colleghi [7], sono stati confrontati tre modelli strutturali: il modello Big-Three di Eysenck (E, N, P), quello dei Big-Five di Costa e McCrae e quello degli Alternative Five di Zuckerman e Kuhlman. È stato evidenziato che quattro dei cinque fattori di entrambi i questionari Revised NEO Personality Inventory (NEO PI-R) mostrano una sostanziale identità fattoriale. In questo capitolo verranno esaminate le relazioni tra le dimensioni di personalità E e N, oppure Imp e An e un’altra categoria di fenomeni affettivi, vale a dire le emozioni. Esse possono essere analizzate da diverse prospettive: neurologica, fisiologica, fenomenologica, cognitiva e sociologica. Un denominatore comune a tutti questi approcci è il tentativo di trovare uno schema di classificazione delle emozioni. Tra i tentativi di differenziare le emozioni vi sono quelli che hanno utilizzato i pattern cognitivi, la tendenza all’azione, le espressioni del volto e le risposte fisiologiche. La distinzione tra personalità ed emozione è, in un certo senso, artificiale poiché nella maggior parte dei lavori di ricerca viene studiato come le differenze individuali nella personalità sono mediate dallo stato emozionale dell’individuo. Non è possibile fare ricerca sulla personalità senza alcuna considerazione dello stato emozionale dell’individuo e viceversa. Molti studi sull’umore, ad esempio, cercano di trovare quale relazione lega le dimensioni E e N all’intensità o alla durata delle emozioni positive e negative, oppure cercano di verificare se differenze individuali nell’umore possano essere dipendenti da differenze individuali nella sensitività dei sistemi di ricompensa e punizione che sono considerati alla base dei tratti E e N [8] o della Imp e An [9]. Tale approccio, tuttavia, non considerando l’interazione individuo-ambiente, può portare a conclusioni tautologiche di determinismo genetico. L’approccio interazionista, al contrario, assume che le differenze individuali nella risposta emozionale non dipendano solo dalla personalità, ma dalla complessa interazione individuo-ambiente. Oggi si rileva un grande interesse verso lo studio della relazione tra emozioni e personalità, poiché il considerare l’esperienza emozionale non può che arricchire le teorie della personalità. Dal momento che le emozioni hanno una lunga storia evolutiva, queste possono fornire una base evolutiva per la struttura della personalità e per lo sviluppo delle differenze individuali. Tale approccio può essere considerato entro il continuum della linea di ricerca iniziata da Gray e da Eysenck, volta a spiegare le dimensioni fondamentali della personalità utilizzando i meccanismi fisiologici, affettivi e cognitivi. Secondo Revelle [4] l’inclusione dell’esperienza emozionale nei modelli di personalità li rende con una base più solida e meno descrittivi.
10.2 Elementi di base della teoria di J.A. Gray La versione originale della Reinforcement Sensitivity Theory (RST) [9-11] postula che nel cervello dei mammiferi il controllo del comportamento sia regolato dall’attività di tre sistemi separati e interagenti: (1) il sistema di attivazione del comportamento (BAS, Behavioural Approach System) che media l’approccio ai segnali di ricompensa o il comportamento che riduce la probabilità di punizione; (2) il sistema di inibizione comportamentale (BIS, Behavioural Inhibition System) che corrisponde allo stato soggettivo di ansia: esso organizza le risposte ai segnali condizio-
10. Emozioni, temperamento e personalità: aspetti psicofisiologici
251
nati di punizione e i suoi principali effetti sono l’inibizione del comportamento in corso; (3) il sistema di attacco/fuga (FFS, fight/flight) che modula gli effetti comportamentali degli eventi avversivi incondizionati quali l’attacco difensivo (fight) o l’immediato evitamento della stimolazione punitiva (flight). Il BAS è considerato un semplice sistema a feedback positivo, sensibile agli stimoli associati al premio o all’omissione della punizione. Tale sistema è responsabile delle emozioni positive e del movimento dell’organismo secondo il gradiente spazio-temporale verso il luogo in cui viene fornito il premio. Esso è ritenuto strettamente dipendente dall’attività delle vie dopaminergiche ascendenti e dei circuiti cortico-striato-pallido-talamici [12]. Il BIS è definito dall’inibizione dei programmi di comportamento in risposta a stimoli condizionati associati alla punizione o al non premio (frustrazione) o a stimoli nuovi. La dinamica del BIS è quella di confrontare continuamente gli eventi ambientali attuali con quelli predetti e, se la differenza tra questi è troppo grande rispetto alle attese, esso è in grado di arrestare l’attività motoria programmata. Il sistema, inoltre, modula il controllo del comportamento esplorativo indirizzando l’attenzione verso uno stimolo nuovo o minaccioso (checking mode). Quando si verifica incompatibilità (mismatch) tra eventi attesi ed eventi in corso, il programma motorio si arresta e il BIS si attiva per ricercare maggiori informazioni dall’ambiente aumentando il livello di attenzione focalizzata o l’arousal (control mode). Il funzionamento di questo sistema dipenderebbe principalmente dall’attività dei sistemi noradrenergico e serotoninergico che interessano il sistema setto-ippocampale, il circuito di Papez e la corteccia orbitofrontale. Il terzo sistema, FFS, è stato originariamente descritto da Gray come sensibile agli stimoli avversivi incondizionati (ad esempio, lo stimolo dolorifico innato) e ai comportamenti di aggressione o evitamento in situazioni emozionali di rabbia o di panico. Sebbene sia stato postulato che questo sistema controlli le espressioni del comportamento di collera e panico, la relazione del FFS con gli altri due sistemi del modello non è stata descritta chiaramente anche perché in letteratura le ricerche sull’attività di questo sistema sono scarse. L’attività del FFS è principalmente mediata dalle strutture ipotalamiche e amigdaloidee. Recentemente, vi è stato un considerevole numero di importanti revisioni sulle funzioni dei tre sistemi BAS, BIS e FFS [13]. In particolare, McNaughton e Corr [14] hanno evidenziato che, nell’ultima revisione della teoria, il BAS è sensibile a entrambi gli stimoli appetitivi, sia condizionati sia incondizionati, e vi è una netta distinzione tra la componente motivazionale dell’incentivo e la componente consumatoria delle risposte agli stimoli appetitivi incondizionati. Il BAS è impegnato a muovere l’animale per ridurre la distanza spazio-temporale tra il luogo in cui si trova e quello probabile del rinforzo primario. Il BAS non dovrebbe mediare l’atto finale del comportamento consumatorio. Nella versione più recente della RST, alla formulazione originale del FFS è stata aggiunta la funzione di congelamento (freezing) e rinominata come Fight-Flight Freezing System (FFFS). Il comportamento di freezing appare nei casi in cui gli stimoli minacciosi sono inevitabili, mentre quelli evitabili inducono flight legati a stati di collera o di paura. Il FFFS media tutte le stimolazioni avversive, cioè gli stimoli innati condizionati e incondizionati.
252
V. De Pascalis
La revisione della RST postula che il BIS entri in funzione solo quando sono attivati entrambi il FFFS e il BAS, cioè quando l’animale è investito da un conflitto approccio/evitamento che elicita uno stato d’ansia. Secondo Gray, le differenze individuali dipendono dalla relazione tra stimolo e organismo che lo riceve. Noi possiamo misurare, tuttavia, solo la risposta dell’organismo allo stimolo. Un obiettivo da raggiungere nella ricerca futura è quello di riuscire a separare la sensibilità individuale allo stimolo dalla grandezza della risposta.
10.3 Confronto tra i modelli di Eysenck e Gray Hans Eysenck e Jeffrey Gray hanno elaborato due tra le più note teorie che sostengono l’esistenza di un substrato biologico dei tratti di personalità. Eysenck [15] ritiene che i tratti stabili del comportamento individuale siano descrivibili mediante le dimensioni di personalità E, N e P, mentre Gray [16, 17] propone l’uso delle dimensioni temperamentali An e Imp (ottenute per rotazione di circa 30° degli assi N ed E) quali migliori descrittori della personalità umana. Le teorie di Eysenck e Gray differiscono sia nella scelta del costrutto fisiologico sia per i circuiti neuronali ritenuti specificamente connessi alla personalità dell’individuo. Eysenck [18] identifica due principali sistemi cerebrali come componenti chiave per descrivere il comportamento: il circuito reticolo-corticale e il circuito reticolo-limbico. Il primo controlla l’arousal corticale generato dagli stimoli in entrata, mentre il secondo controlla la risposta agli stimoli emozionali. La dimensione E nei suoi poli introversione-estroversione è associata all’arousability del circuito reticolo corticale, con il risultato che le persone introverse sono più attivate di quelle estroverse in una condizione di stimolazione moderata. La dimensione N è associata all’arousability del circuito reticolo-limbico, così che le persone con alti livelli di N presentano attivazioni più elevate indotte da stimolazioni emozionali rispetto alle persone con bassi livelli di N. Le differenze individuali nella dimensione N possono essere maggiormente evidenziate in situazioni emozionali o stressanti. Relativamente alla dimensione P, Eysenck inizialmente ha ipotizzato che fosse inversamente correlata all’attività del sistema serotoninergico ma, più recentemente, ha ritenuto tale dimensione dipendente dal livello di dopamina [19, 20]. Nella teoria di Gray, a differenza di quella di Eysenck, il nucleo regolatore del comportamento risiede nel comparatore setto-ippocampale che, lavorando in congiunzione con la corteccia prefrontale, rileva le discrepanze tra lo stato del mondo esterno atteso e quello effettivo. La rilevazione di tali discrepanze produce l’inibizione del comportamento in corso che comporta un aumento del livello di arousal e attenzione. Il sistema regolatore dell’arousal, per Gray, si riferisce al fascio di fibre noradrenergiche dorsali che ascendono dal locus coeruleus per innervare molte strutture del prosencefalo. L’attività di tale sistema è stata associata ai meccanismi compensatori che servono a mantenere un’attenzione selettiva efficiente e altre funzioni in condizioni di stress. L’attività di tale sistema di arousal non tiene conto delle differenze individuali nella responsività motoria (sistema dopaminergico) e nelle funzioni attentive e sensoriali (sistema colinergico ascendente).
10. Emozioni, temperamento e personalità: aspetti psicofisiologici
253
Fig. 10.1 Rappresentazione geometrica della versione semplificata a due fattori della Reinforcement Sensitivity Theory, in cui gli assi di personalità fondamentali (Ansia e Impulsività) sono mostrati a un angolo di 30° rispetto alle dimensioni Estroversione (asse orizzontale) e Nevroticismo (asse verticale) di Eysenk. Modificata da [21]
La teoria di Eysenck, attribuendo un ruolo centrale alla funzione dell’arousal come mediatore principale del comportamento, consente alle dimensioni di personalità di essere legate a molti indici di risposta qualitativamente differenti. La teoria di Gray, al contrario, risulta più finemente costruita dal punto di vista neuropsicofisiologico ed è, quindi, più specifica, ma predittiva di una gamma più ristretta di comportamenti. Risulta spesso difficile stabilire le corrispondenze tra risposte comportamentali e/o fisiologiche con l’attività dei sistemi evidenziati dalla teoria di Gray. Talvolta, negli studi in cui le ipotesi derivate dalla teoria di Gray non risultano verificate, la teoria di Eysenck può essere una valida via per spiegare i risultati ottenuti. Può, tuttavia, accadere che i risultati entrano in conflitto con entrambe le teorie, oppure che siano in accordo con entrambe a differenti livelli di descrizione. Secondo questa teoria, l’An identifica la sensibilità individuale ai segnali di punizione ed è dipendente dall’attività del BIS, mentre l’Imp identifica la sensibilità individuale ai segnali di ricompensa ed è dipendente dall’attività del BAS (Fig. 10.1). In termini di spazio Eysenckiano, bassi livelli di An si trovano nel quadrante caratterizzato da bassi livelli di N e da alti livelli di E (N-, E+), mentre alti livelli di An si trovano nel quadrante con alti livelli di N e bassi livelli di E (N+, E-). La dimensione impulsività è compresa tra bassi livelli di impulsività (quadrante con bassi valori di N e di E: N-, E-) e alti livelli di impulsività (quadrante con alti valori di N e di E: N+, E+). Secondo questo modello, la dimensione attacco/fuga dovrebbe correlare positivamente con la dimensione P (Fig. 10.1). Relativamente alla relazione che lega le dimensioni di Eysenck con quelle di Gray, Pickering e colleghi [21] hanno derivato le seguenti espressioni algebriche: 1) BAS ° (E+N), BIS ° (N-E); dove ° rappresenta il simbolo di proporzionalità. Sommando e sottraendo entrambi i membri di questa espressione si ottiene rispettivamente: 2)
N ° (BAS+BIS), E ° (BAS+BIS).
254
V. De Pascalis
Considerando i coefficienti di saturazione (loadings) di E e N sull’Ansia, Gray [16] ha assunto che l’angolo tra l’asse dell’Ansia e quello di N era vicino a 30° e, per mantenere l’ortogonalità tra Ansia e Impulsività, l’angolo tra quest’ultima ed E doveva essere anch’esso di 30°. Se si traduce questa assunzione in termini algebrici, si può scrivere che: 3)
BAS ° (k.E+N), BIS ° (k.N-E), dove k=2 per generare angoli di circa 30°.
In termini di affetto positivo (AP) o negativo (AN) l’equazione sopra riportata diventa: 4)
AP = 2*E + N; AN = 2*N – E
Da questa espressione si può chiaramente concludere che, secondo la teoria di Gray, l’affetto positivo e negativo dipende da entrambe le dimensioni E e N, sebbene con differenti pesi di queste dimensioni. Questa assunzione differisce da quella di Eysenck che vede l’affetto positivo legato solo a E e l’affetto negativo solo a N: 5)
AP = E; AN = N
La teoria di Gray, pur nascendo come un’estensione di quella di Eysenck, differisce da questa sia a livello del costrutto fisiologico, sia per i circuiti neuronali specifici utilizzati per descrivere la personalità. Il legame postulato tra E e N e i differenti stati dell’affetto differisce dalla visione proposta da alcuni studiosi secondo cui l’affetto positivo è legato solo a E e l’affetto negativo solo a N [6, 22-25]. Una delle linee di ricerca più promettente per il confronto delle due teorie è quella relativa agli studi sulle differenze individuali nelle risposte comportamentali e fisiologiche a stimolazioni emozionali positive e negative. Lo studio delle differenze individuali nelle risposte emozionali ci può aiutare a capire meglio i meccanismi alla base delle emozioni. La teoria di Gray predice che (a) gli individui con alti livelli di impulsività (Imp+, individui con BAS forte) dovrebbero essere più sensibili ai segnali di ricompensa rispetto agli individui con bassi livelli di impulsività (Imp-, individui con BAS debole); (b) gli individui con alti livelli di ansia (An+, individui con BIS forte), dovrebbero essere più sensibili ai segnali di punizione rispetto agli individui con bassi livelli di ansia (An-, individui con BIS debole). L’ortogonalità delle dimensioni An/BIS e Imp/BAS implica che le risposte al segnale di ricompensa dovrebbero essere le stesse per tutti i livelli di An/BIS e che le risposte ai segnali di punizione dovrebbero essere le stesse per tutti i livelli Imp/BAS. Questa è denominata da Corr [26] come ipotesi dei sistemi separabili (Separable Subsystems Hypothesis). Nel tentativo di spiegare la pletora di differenti risultati riportati in letteratura [27], Corr [26] ha proposto una nuova revisione della teoria di Gray ipotizzando che i sistemi An/BIS e Imp/BAS non siano indipendenti, bensì interdipendenti poiché si influenzano tra loro (Joint Subsystems Hypothesis). Secondo tale ipotesi, entrambi i sistemi BIS e BAS hanno la capacità di influenzare sia il comportamento mediato dalla punizione sia quello mediato dalla ricompensa. BIS e BAS esercitano effetti che sono uno facilitatorio e l’altro antagonista. Nei comportamenti principalmente governati dal BIS, l’ansia facilita e l’impulsività contrappone, e viceversa per i
10. Emozioni, temperamento e personalità: aspetti psicofisiologici
255
comportamenti principalmente governati dal BAS. In particolare, (1) gli individui Imp+/An- dovrebbero mostrare i livelli più elevati di risposte appetitive e di emozioni positive; (2) gli individui An+/Imp- dovrebbero mostrare i livelli più elevati di risposte avversative e di emozioni negative. Secondo Corr [26], la Joint Subsystems Hypothesis non deve essere intesa in contrapposizione alla teoria originale di Gray, ma, piuttosto, complementare a essa entro un modello bidimensionale delle funzioni dei sistemi BIS e BAS.
10.4 Emozioni e umore nel modello di Gray: aspetti psicofisiologici Le misure psicofisiologiche utilizzate per lo studio delle emozioni nel contesto della RST possono essere utilmente suddivise in misure del sistema nervoso centrale (SNC) e autonomo (SNA). Misure di risposte elettroencefalografiche (EEG) e dei potenziali evento-correlati associati (ERP) sono state utilizzate come indicatori dell’attività del SNC, mentre altre misure della conduttanza cutanea e della frequenza cardiaca (FC) sono state utilizzate come indicatori dell’attività del SNA. In entrambi i casi, non vi è stato un numero sufficiente di ricerche volte a valutare la validità della RST dal punto di vista psicofisiologico. Sebbene gli scarsi risultati ottenuti con queste variabili possano essere dovuti alla difficoltà a stabilire misure di laboratorio valide e attendibili, Stelmack e Geen [28], Matthews e Gilliland [27] e Zuckerman [29] hanno sottolineato che non necessariamente debba esserci una chiara relazione tra le basi neurologiche del RST e le misure fisiologiche che si presume indichino la loro attività. Corr [30] e Pickering e colleghi [31] hanno evidenziato che il set sperimentale in sé può influenzare l’attivazione del BIS e del BAS basata sulle aspettative e sull’esperienza precedente del partecipante. Ci si potrebbe aspettare che per molti partecipanti l’applicazione degli elettrodi e la connessione di essi ad apparati di registrazione producano aumenti nei livelli di ansia (attivazione del BIS) semplicemente sulla base della percezione della situazione sperimentale in sé. Ciò può influenzare l’attivazione del BIS o del BAS che successivamente è richiesta dalla prova sperimentale.
10.5 RST e attività elettrocorticale Nello studio sulle differenze individuali, i potenziali evento-correlati (ERP) sono risultati sensibili nel rilevare differenze tra estroversi e introversi e tra persone con alti e bassi livelli di impulsività [32-34]. Come è noto, una risposta evocata, o evento-correlata, viene ottenuta mediante media correlata con l’onset dello stimolo (rispetto al quale si vuole analizzare la risposta elettrocorticale) di campioni elettroencefalografici (EEG). Le componenti principali degli ERP sono di solito associate al processamento cognitivo nel seguente modo: la componente negativa, osservata a circa 100 millisecondi (ms), e quella positiva, osservata a circa 200 ms dall’onset dello stimolo (N100 e P200), sono maggiormente dipendenti dalle proprietà sensoriali degli stimoli e dall’attenzione selettiva. Le componenti più tardi-
256
V. De Pascalis
ve sono considerate maggiormente dipendenti dai processi cognitivi. In particolare, la P300 è stata associata ai processi di classificazione degli stimoli, dell’organizzazione della risposta, di aggiornamento della rappresentazione dello stimolo in memoria [35, 36]. L’ampiezza della P300 aumenta in funzione del significato e della rilevanza che l’evento ha per il soggetto e in funzione delle risorse cognitive richieste [37, 38]. La latenza del picco della P300 è stata trovata correlata al tempo necessario per categorizzare e valutare lo stimolo e risulta essere indipendente dal tempo richiesto dai processi di elaborazione della risposta motoria. La maggior parte degli studi sulla componente P300 considera l’influenza dei processi cognitivi sull’ampiezza e sulla latenza della P300 [39]. Pochi sono, tuttavia, gli studi che hanno valutato l’influenza delle componenti affettive dello stimolo (parole, immagini) sulla P300. Alcune ricerche hanno evidenziato un aumento delle componenti ERP tardive positive quando evocate dalla presentazione di filmati o da immagini a valenza emozionale [40-42]. Naumann e colleghi [43] hanno valutato l’influenza dell’elaborazione (processing) di aggettivi a valenza emozionale positiva, negativa e neutra. Gli autori hanno riportato che gli aggettivi con valenza positiva e negativa, rispetto a quelli con valenza neutra, elicitavano una componente P300 fronto-centrale (250-500 ms) più ampia che risultava essere presente solo se l’attenzione del soggetto era orientata verso il contenuto emozionale dello stimolo. Nella letteratura che riguarda l’uso delle tecniche di neuroimaging, risulta che parole a valenza positiva e negativa possono attivare differenti strutture neuronali nel sistema limbico. In particolare, Maddock e Buonocore [44], utilizzando la tecnica di risonanza magnetica funzionale per immagini (fMRI), hanno evidenziato che l’ascolto di una parola minacciosa, rispetto ad una parola neutra, attiva il giro cingolato posteriore sinistro. Più recentemente, Maratos e colleghi [45] hanno riscontrato che il riconoscimento di parole entro frasi a valenza emozionale positiva è associato all’attivazione bilaterale delle cortecce prefrontali, orbitofrontali e del lobo temporale anteriore sinistro. Gli studi che hanno utilizzato gli ERP per validare le teorie di Eysenck e Gray non sono numerosi. In particolare, Bartussek e collaboratori hanno intrapreso una linea di ricerca, iniziata nei primi anni novanta, orientata specificamente alla validazione della teoria di Gray Bartussek e colleghi [46] hanno registrato gli ERP in soggetti introversi ed estroversi, evocati sia da toni neutri sia da toni indicanti vincita (premio) o perdita (punizione) di denaro in una prova simile al gioco d’azzardo. I soggetti introversi presentavano ERP di ampiezza più grande nella condizione di stimolazione neutra. In accordo con le previsioni derivate dalla teoria di Gray, i toni che segnalavano vincita di denaro elicitavano P200 e N200 più ampie negli estroversi, mentre nei soggetti introversi veniva osservato un andamento opposto. Per la componente P300 vi era una significativa interazione N e E che stava a indicare che i soggetti estroversi con alto nevroticismo (soggetti classificati impulsivi secondo il modello di Gray) avevano P300 più elevate per gli stimoli indicanti vincita di denaro. In uno studio successivo [47], prendendo come riferimento lo studio di Bartussek e colleghi [46], vennero registrati gli ERP e le risposte anticipatorie della frequenza cardiaca (FC) a segnali visivi, ciascuno indicante una quota fissa di denaro vinto o perso in un compito in cui il soggetto doveva indicare se una parola presentata brevemente sul monitor di un computer fosse una parola con o senza senso.
10. Emozioni, temperamento e personalità: aspetti psicofisiologici
257
Uno dei principali scopi di questo studio era verificare in che modo le dimensioni di personalità di Gray, misurate con il Gray-Wilson Personality Questionnaire (GWPQ) [48] e quelle di Eysenck fossero in relazione alla risposta anticipatoria di decelerazione della FC e alle ampiezze delle componenti degli ERP elicitate dai segnali di vincita o perdita di denaro. Gli ERP registrati in questo studio presentavano stabilmente le componenti N200, P300, N400, P600, N800. I risultati evidenziarono, in accordo con la teoria di Gray, che nei soggetti con alto livello di approccio vi erano ampiezze più elevate della componente P600 degli ERP ai segnali di premio, mentre nei soggetti con basso livello di approccio l’ampiezza della P600 era più grande per i segnali di punizione. Questa componente tardiva (a 600 ms dall’onset dello stimolo) appartiene alla famiglia delle componenti positive tardive e può essere considerata come una delle possibili espressioni della P300b. I soggetti classificati come N+ producevano ampiezze più grandi della componente N800 agli stimoli di punizione rispetto a quelli di premio. Al contrario, i soggetti con livello medio di N non mostravano differenze tra la N800 degli stimoli premio e punizione. Questo risultato può essere visto in accordo con le predizioni di entrambe le teorie di Eysenck e Gray se si considera che tale componente, come per i potenziali lenti negativi, sia un indice dell’eccitabilità corticale. Tuttavia, non essendo noto il significato funzionale di questa componente, non è stato possibile, agli autori, trarre conclusioni dettagliate. Matthews e Gilliland [27], nella loro rassegna comparativa delle teorie di Eysenck e Gray relativamente ai correlati elettrocorticali della personalità, concludono che i risultati ottenuti sia nello studio di Bartussek e colleghi [46] sia in quello di De Pascalis e colleghi [47] non appaiono a sostegno della teoria di Gray, ma, al contrario, sembrano essere meglio in accordo con la teoria dell’arousal di Eysenck, la quale ipotizza l’effetto dell’inibizione transmarginale negli introversi. Relativamente ai risultati ottenuti nel nostro studio per la dimensione N e la risposta di decelerazione della FC, Matthews e Gilliland [27], interessati dal risultato che gli introversi e non i soggetti con alto nevroticismo fossero più sensibili ai segnali di punizione, hanno espresso la necessità di ulteriori ricerche per chiarire la non semplice relazione tra le dimensioni E, N e le attività dei sistemi BIS e BAS. In un successivo lavoro di ricerca, Bartussek e colleghi [49] riportarono due studi nei quali vennero registrati gli ERP al fine di testare la relazione tra E e stimolazioni emozionali. Nel primo studio veniva richiesto il processing di parole con differente valenza emozionale, nel secondo veniva evocata una risposta emozionale utilizzando il riflesso di allarme o di sobbalzo (Startle Reflex, che consiste nella rilevazione dell’intensa e rapida chiusura delle palpebre, detto anche riflesso di ammiccamento [50]) durante la presentazione di immagini a contenuto emozionale positivo, negativo e neutro. Nel primo studio venne evidenziata una complessa interazione tra E, valenza emozionale dello stimolo e sito di registrazione per l’ampiezza della P300. Nel secondo studio, la stessa interazione venne riscontrata per l’ampiezza della componente P200. Gli autori conclusero che i soggetti estroversi tendono a sviluppare più elevati livelli di arousal sui siti frontali, indipendentemente dal tipo di valenza emozionale degli stimoli. I risultati di questi studi non hanno consentito agli autori l’attesa validazione della teoria di Gray, ma hanno portato loro a sostenere la validità del modello dell’arousal di Eysenck se si assumeva che la stimolazione sen-
258
V. De Pascalis
soriale avesse indotto uno stato di inibizione transmarginale. Gli studi di Bartussek e collaboratori hanno fornito una scarsa evidenza sperimentale a favore di un aumento delle risposte agli stimoli emozionali nei soggetti con alti livelli di N, sebbene la dimensione N avesse mostrato interazioni complesse in questi studi. Secondo la teoria di Eysenck, N, piuttosto che E, dovrebbe essere il fattore principale a moderare la risposta agli stimoli emozionali. Sebbene ogni conclusione definitiva basata sui risultati di questi studi rimanga elusiva, essi rappresentano gli sforzi sperimentali per comprendere i pregi e/o i limiti di una o di entrambe le teorie. Sulla stessa linea di ricerca di Bartussek e collaboratori si colloca un nostro studio [51]. In quest’ultimo, oltre al questionario di Eysenck (EPQ-R), venne somministrata anche la Sensation Seeking Scale-Form V di Zuckerman [52]. I soggetti vennero impegnati in una prova di attenzione spaziale elaborata da Posner [53], e successivamente modificata da Stormark e colleghi [54], che permette di valutare come parole a differente valenza emozionale (positiva, negativa e neutra) influenzino la detezione, da parte dei soggetti, di uno stimolo neutro (un asterisco ‘*’) presentato in uno dei due emicampi circa un secondo dopo la somministrazione delle parole emozionali. Le parole venivano presentate nell’emicampo (sinistro o destro) in cui sarebbe successivamente apparso lo stimolo target (cue valide), oppure nell’emicampo opposto (cue non valide). Compito del soggetto era di rispondere il più velocemente possibile, pigiando un pulsante, quando lo stimolo target veniva presentato in uno dei due emicampi. Sono stati registrati gli ERP e le modificazioni della FC alla presentazione dello stimolo target. La componente dominante negli ERP era una chiara P300 il cui picco risultava alla latenza media di circa 420 ms. La risposta evidenziata nella FC era una accelerazione cardiaca che anticipava l’emissione dello stimolo target e raggiungeva il suo massimo dopo circa 0,5 secondi dalla presentazione dello stesso. Considerando che le dimensioni di Eysenck N, E, e P erano correlate con le subdimensioni della Sensation Seeking (SS) nel modo indicato da Zuckerman e colleghi [7, 55], i fattori analizzati in questo studio vennero estratti mediante analisi fattoriale delle dimensioni di Eysenck e Zuckerman. Questa analisi ha messo in evidenza tre fattori così denominati: (1) Estroversione-Sensation Seeking (E-SS); (2) Psicoticismo-Sensation Seeking (P-SS); (3) Ansia (An). In sostanza, quest’analisi ha evidenziato i tre superfattori di Eysenck, indicando però il peso che le dimensioni temperamentali della Sensation Seeking aveva in questi superfattori. Come ipotizzato da Zuckerman, il fattore N era indipendente dalle subdimensioni della SS. Tra le dimensioni di Eysenck, lo psicoticismo è stato il fattore meno studiato, ma il suo legame con la condizionabilità suggerisce che può essere correlato all’arousal emozionale. Gli individui con alti livelli di P sono descritti come individui impulsivi e antisociali che presentano una bassa sensitività alle emozioni positive e un’alta sensitività a quelle negative [6, 20, 22, 56]. Secondo il modello di Zuckerman [57], la dimensione Impulsive Sensation Seeking (ImpSS) è associata a bassi livelli di aspettativa per il premio. Alla luce dei risultati sperimentali (ottenuti mediante fMRI) che hanno evidenziato l’attivazione di differenti strutture del sistema limbico per le parole minacciose [44, 45], in questo studio, gli effetti delle parole emozionali positive e negative sono stati ragionevolmente considerati rispettivamente come valore di premio e punizione. Inoltre, il livello di attivazio-
10. Emozioni, temperamento e personalità: aspetti psicofisiologici
259
ne corticale, espresso dall’ampiezza della P300 e dalla risposta anticipatoria di accelerazione cardiaca, sono stati esaminati alla luce delle ipotesi di Gray ed Eysenck. In particolare, per i fattori An ed E-SS, le ipotesi erano quelle sopra riportate per il nostro studio precedente [47]. Per la dimensione P-SS, in accordo con Eysenck, gli individui con alti livelli di P dovrebbero mostrare ampiezze maggiori della P300 e accelerazioni FC per gli stimoli a valenza emozionale negativa rispetto a quelli con valenza positiva. I risultati di questo studio hanno evidenziato che i soggetti con alti livelli di ESS, rispetto a quelli con bassi livelli, sperimentavano sensazioni emotive più intense per le parole piacevoli rispetto a quelle spiacevoli. Questo andamento era collegato alle più grandi ampiezze della P300 sui siti frontali e parietali dell’emisfero destro, quando gli stimoli erano presentati nell’emicampo sinistro, per i soggetti con alti livelli di E-SS rispetto a quelli con bassi livelli. Questi risultati sono stati considerati in accordo con la teoria dell’arousal di Eysenck piuttosto che con quella di Gray, a causa della mancanza di un effetto di interazione significativa del fattore E-SS con il tipo di valenza emozionale per i tempi di reazione e per le misure fisiologiche. I risultati sopra indicati, ottenuti per la P300, possono essere spiegati con la teoria dell’arousal se si assume che gli stimoli emozionali, indipendentemente dalla loro valenza, inducono un’inibizione transmarginale nei soggetti introversi con bassi livelli di Sensation Seeking. Per i soggetti con bassi livelli P-SS, rispetto a quelli con alti livelli di questo fattore, vennero evidenziati picchi più grandi della P300 per i target positivi e neutri e più marcate accelerazioni FC in tutte le prove sperimentali. Questi risultati sostengono l’ipotesi secondo cui lo psicoticismo è negativamente correlato con l’intensità delle emozioni positive. L’andamento della P300, riscontrato per il fattore P-SS, può essere interpretato come un indice di un più elevato livello di arousal nei soggetti con bassi livelli di P-SS alle stimolazioni emozionali positive. Inoltre, le più marcate accelerazioni FC, trovate nei soggetti con bassi livelli di P-SS, sono state spiegate con la teoria di Eysenck. Secondo Eysenck, infatti, al diminuire dell’arousal corticale, l’attività delle strutture cerebrali di ordine gerarchico inferiore viene ad aumentare e, con essa, la probabilità di emissione di comportamenti impulsivi. Al contrario, quando l’arousal corticale aumenta, l’attività delle strutture più arcaiche è ridotta e, con essa, la probabilità di emissione di comportamenti impulsivi o psicotici. Questi risultati sono a favore dell’assunzione secondo cui i farmaci stimolanti riducono l’impulsività [58, 59] e aumentano l’ampiezza del picco P300 [34, 60]. Altri studi indicano che l’impulsività è correlata alle dimensioni P ed E e che queste due dimensioni sono a loro volta correlate a livelli più bassi di arousal [61]. Infine, per la FC, il fattore Ansia ha evidenziato una significativa interazione con il tipo di stimolazione emozionale mostrando più ampie accelerazioni cardiache alle parole spiacevoli nei soggetti con alta ansia rispetto a quelli con bassa ansia. I soggetti con alta ansia mostravano anche tempi di reazione più brevi per le parole positive e negative. Quest’ultimo risultato è stato considerato in accordo con la teoria di Gray. Applicando questa teoria, la più elevata accelerazione cardiaca nei soggetti ansiosi può essere considerata come il prodotto dell’attivazione compensatoria del sistema di arousal per mantenere efficiente l’attenzione selettiva e la responsività motoria ai segnali di punizione in condizione di stress.
260
V. De Pascalis
In uno studio recente [62], sono state nuovamente validate le teorie di Eysenck e di Gray utilizzando alcune parole emozionali che nello studio precedente [51] avevano elicitato le risposte ERP e di FC più ampie. L’attivazione emozionale veniva indotta impegnando i soggetti in quattro prove di riconoscimento di parole emozionali offensive (negative) e gratificanti (positive), utilizzando il paradigma odd-ball. Le parole standard (std) e target (tg) erano combinate in modo da formare quattro condizioni sperimentali rispetto alla valenza emozionale: std-positive/tg-positive, std-positive/tg-negative, std-negative/tgpositive, std-negative/tg-negative. Per le parole target vennero misurate (1) l’ampiezza e la latenza della componente P300; (2) la risposta di decelerazione della FC; (3) il tempo di reazione; (4) l’autovalutazione della sensazione emozionale. Ai soggetti vennero somministrati numerosi questionari di personalità e sui tratti di temperamento. Da un’analisi fattoriale confermativa vennero derivati due fattori ortogonali: Ansia e Impulsività. Le parole positive erano considerate come segnali di premio e le parole negative come segnali di punizione. Nei soggetti con alta ansia, rispetto a quelli con bassa ansia, erano ipotizzate, per le parole negative, sensazioni emozionali più elevate, picchi più ampi della componente P300 e decelerazioni più pronunciate della FC. Per i soggetti con alta impulsività, era ipotizzata una sensitività maggiore per le parole positive che doveva essere accompagnata da una più grande P300 e decelerazione cardiaca, poiché questi soggetti, secondo la teoria di Gray, dovrebbero essere più sensibili al premio. I risultati evidenziarono, per le parole target negative, nei soggetti con alta ansia, rispetto a quelli con bassa ansia, picchi della componente P300 più ampi sui siti parietali e occipitali dello scalpo, sensazioni emozionali più intense e decelerazioni della FC più marcate. Questi risultati confermano le ipotesi derivate dalla teoria di Gray. Relativamente al fattore Impulsività, vennero osservate più piccole ampiezze della P300 principalmente sui siti parietali e occipitali nei soggetti con alta impulsività rispetto a quelli con bassa impulsività per le parole target negative. I primi, rispetto ai secondi, evidenziarono anche, per le parole target negative, latenze del picco P300 più lunghe in tutti i siti di registrazione. Questi risultati non vennero considerati in linea con l’ipotesi derivata dalla teoria di Gray, secondo cui i soggetti con alta impulsività dovrebbero avere una più grande sensitività per le emozioni positive. Riguardo al fattore Impulsività, i risultati di questo studio sono da considerarsi in accordo con quelli riportati in studi precedenti [34, 51, 63]. La ridotta sensitività agli stimoli negativi nei soggetti con alta impulsività, riscontrata nell’ampiezza e nella latenza della componente P300, può indicare la presenza, in questi soggetti, di una ridotta allocazione delle risorse attentive per l’elaborazione degli stimoli a valenza emozionale negativa [64], oppure può evidenziare il fatto che questi soggetti, come conseguenza dello stato emozionale degli stimoli negativi, allocano minori risorse per affrontare lo sforzo (inibizione corticale, [65]). In uno studio di Wang e colleghi [66], l’ampiezza della Mismatch Negativity (MMN) frontale fu trovata positivamente correlata con la dimensione N-An dello ZKPQ e negativamente correlata con la Experience Seeking (ES), misurata con la Sensation Seeking Scale (SSS) di Zuckerman [52]. Tali risultati confermano l’ipotizzata relazione positiva tra N-An e attività del BIS e tra ES e attività del
10. Emozioni, temperamento e personalità: aspetti psicofisiologici
261
BAS. In uno studio successivo, Hansenne e colleghi [67] hanno studiato la relazione tra MMN e dimensioni di personalità misurate con il Tridimensional Personality Questionnaire [68]. La dimensione Harm Avoidance (HA), che è nota dipendere dall’attività del BIS, venne trovata significativamente correlata con l’ampiezza della MMN, la quale risultava crescere in maniera direttamente proporzionale all’aumentare dei livelli di HA. Questa associazione era più pronunciata nelle donne rispetto agli uomini e indicava che ad alti livelli di inibizione corrispondevano più elevate ampiezze della MMN. In uno studio successivo, De Pascalis e colleghi [62] hanno verificato l’ipotesi dei due sistemi interagenti (Joint Subsystem Hypothesis) di Corr [69], utilizzando la modulazione affettiva indotta nella MMN uditiva da presentazioni di immagini a differente contenuto emozionale (positive, neutre, e negative). I soggetti avevano alti e bassi livelli di sensibilità alla ricompensa (SR+ e SR-) e alla punizione (SP+ o SP-), come misurato dal questionario di Torrubia, Sensitivity to Punishment and Sensitivity to Reward Questionnaire (SPSRQ, [70]). I risultati ottenuti sull’ampiezza della MMN per le immagini spiacevoli hanno confermato la Joint Subsystem Hypothesis. Tali risultati sono presentati in Figura 10.2. I soggetti SP+ mostravano picchi della MMN più ampi sui siti frontali e centrali dello scalpo per le immagini spiacevoli rispetto a quelle piacevoli e neutre. Questo effetto era più pronunciato per i soggetti SP+SR- rispetto ai soggetti SP+SR+. I soggetti SP-SR+ avevano una MMN minore rispetto ai soggetti classificati come SP-SR- (Fig. 10.2). Tali differenze non sono in accordo con la teoria di Gray, la quale assume che i due sistemi funzionino separatamente: secondo questa teoria, i soggetti SP+, per le immagini negative, dovrebbero avere un simile livello di attivazione indipendentemente dai loro punteggi di SR. Sebbene i pattern dei picchi di MMN per le immagini positive fossero nella direzione delle risposte predette dalla Joint Subsystem Hypothesis, le differenze tra i gruppi non erano significative e, quindi, venne concluso che, per gli stimoli positivi, i risultati non confermavano tale ipotesi. Questo risultato può essere dipeso dalla natura o dall’intensità delle emozioni indotte dagli stimoli utilizzati. È noto, infatti, che noi usualmente percepiamo gli stimoli negativi come più intensi di quelli positivi. È stato, inoltre, suggerito da Pickering e colleghi [31] che, per la valutazione effettiva delle stimolazioni emozionali, il contesto sperimentale deve essere esclusivamente premiante o punente. Secondo questi autori, quando l’ordine di presentazione degli stimoli positivi e negativi cambia continuamente, come accadeva in questo studio, i risultati sono meno predittivi (Fig. 10.2). Recenti ricerche sugli ERP come correlati della prestazione in corso, hanno scoperto una risposta neurale agli errori, la quale è stata denominata come Error-Related Negativity (ERN) o ERN/Ne. Questa componente degli ERP è osservata sui siti frontocentrali dello scalpo e consiste in un’ampia deflessione negativa negli ERP mediati in fase alla risposta. Tale componente si verifica entro la finestra temporale di 50-100 millisecondi dopo che il soggetto ha emesso una risposta sbagliata [71, 72]. L’applicazione dei recenti algoritmi di localizzazione dei dipoli generatori ha portato a una conclusione ampiamente accettata: la ERN/Ne è generata nella corteccia cingolata anteriore (ACC) [73, 74]), una struttura neurale nella parete mediale della corteccia prefrontale. Queste osservazioni sono state validate dai risultati ottenuti negli studi che hanno utilizzato la fMRI, in cui è stato osservato un aumento dell’attivazione della ACC duran-
262
a
V. De Pascalis
b
Fig. 10.2 a, b Confronto fra l’ipotesi dei due sistemi interagenti (BIS/BAS) di Corr [69] (a) e risultati ottenuti nello studio di De Pascalis et al. [62] per l’ampiezza della MMN uditiva (b) in soggetti, rispettivamente, con alti e bassi livelli di intensità alla punizione (SP+, SP-) e di sensitività alla ricompensa (SR+, SR-)
te le prove errate rispetto a quelle corrette. Altri studi recenti hanno evidenziato che il livello di dopamina è coinvolto nella generazione della ERN/Ne. Infatti, è stato riportato che la somministrazione di farmaci che aumentano i livelli di dopamina, come l’anfetamina o la caffeina, aumentano anche l’ampiezza della ERN/Ne [75, 76], mentre la somministrazione di alcol o la fatica mentale, che producono riduzione di dopamina, portano alla riduzione dell’ampiezza della ERN/Ne [77]. I recenti studi sugli ERP sostengono che l’ampiezza della ERN/Ne sia modulata dalle risposte alla punizione o non-ricompensa. Nei disegni sperimentali che utilizzano segnali di feedback per informare i soggetti sulle vincite e perdite, il segnale di feedback che indica una perdita (punizione) produce ERN/Ne più ampi [78, 79]. Vi è evidenza sperimentale consistente con l’assunzione che la ERN/Ne rifletta un sistema di apprendimento basato sul rinforzo negativo (punizione o riduzione del premio) che coinvolge la ACC rostrale [80, 81]. Dikman e Allen [82] hanno esaminato la ERN/Ne in relazione alla sensibilità alla punizione (bassa socializzazione). Questi autori hanno trovato che i soggetti con bassi punteggi nella scala di socializzazione producevano minori ERN/Ne in una prova nella quale venivano puniti per le risposte sbagliate, rispetto a una prova nella quale venivano premiati per le risposte esatte; mentre i soggetti con alti punteggi di socializzazione (cioè presumibilmente più suscettibili al premio) producevano simili ERN/Ne in entrambe le condizioni. Inoltre, la preoccupazione e l’ansia [83] sono state associate a pronunciate ERN/Ne, e un aumento della ERN/Ne per i segnali di feedback negativo è stato osservato nei soggetti diagnosticati con depressione clinica [84]. Hajcak e colleghi [85] hanno argomentato che questo aumento dell’ampiezza dell’ERN/Ne non è una funzione specifica dell’ansia o della depressione, ma si collega alle caratteristiche sottostan-
10. Emozioni, temperamento e personalità: aspetti psicofisiologici
263
ti gli affetti altamente negativi comuni alle due sindromi [86, 87]. L’affetto negativo, a sua volta, è considerato strettamente correlato alla sensibilità alla punizione [25], fornendo supporti aggiuntivi alla nozione per la quale l’ERN/Ne riflette le risposte neuronali alla punizione. Rispetto alla ERN/Ne, il significato funzionale della positività d’errore (Pe) è fortemente meno sostanziale [88]. Questa componente dell’ERP segue tipicamente l’ERN/Ne e consiste in una lenta deflessione con andamento positivo che raggiunge il suo massimo tra i 200 e i 400 ms dopo che il soggetto emette un errore. La sua distribuzione è alquanto diffusa, ma appare lievemente più posteriore rispetto alla ERN/Ne [89]. È stato proposto che la Pe rifletta la consapevolezza individuale dell’errore [90] o la salienza dello stesso [91] e può essere associata alla performance di aggiustamento che segue un errore [90, 92]. Risultati sulle relazioni tra Pe e stile affettivo sono scarsi; tuttavia, Hajcak e colleghi [85] riportano che l’affetto negativo era associato a una Pe ridotta. In un recente lavoro di Boksem e colleghi [77], è stata valutata la relazione tra stile affettivo e componenti ERN/Ne e Pe. Gli autori hanno evidenziato che i soggetti con alti punteggi alle scale BIS del questionario di Carver e White [93] mostravano più ampie ERN/Ne, mentre i soggetti con alti punteggi alla scala BAS dello stesso questionario mostravano maggiori ampiezze Pe. Questo lavoro è probabilmente il primo a dimostrare l’esistenza di una relazione tra sensibilità del BAS e Pe. Tali risultati indicano che la sensibilità individuale alle emozioni negative o alla punizione e la sensibilità individuale alle emozioni positive o alla ricompensa sono legate rispettivamente a bassi e ad alti livelli di dopamina alla ACC. Inoltre, l’aumento nel valore dell’errore è riflesso nell’aumento d’ampiezza della ERN/Ne (colinergica) e l’aumento nell’impegno proattivo verso le emozioni positive o ricompensa è riflesso nell’aumento d’ampiezza della compente Pe (dopaminergica). In uno studio molto recente, Knyazev e colleghi [94] hanno verificato l’ipotesi che individui con alti livelli di attività del BAS, rispetto a quelli con bassi livelli BAS, in una situazione di ricompensa dovrebbero esperire alti livelli di arousal emozionale, mentre in una situazione di punizione dovrebbero esperire bassi livelli di arousal emozionale. Come variabili EEG dipendenti dall’arousal emozionale vennero scelte le potenze spettrali delle oscillazioni theta e ad alta frequenza (bande dei ritmi beta e gamma). I soggetti con alti livelli nella dimensione Drive, misurata con le scale BIS/BAS di Carver e White [93], rispetto a quelli con bassi livelli di Drive, mostravano più elevate attività theta e oscillazioni ad alta frequenza sulle regioni frontali nella condizione di ricompensa, mentre venne osservato un trend opposto tra i gruppi per queste attività EEG nella condizione di punizione. Venne osservato, inoltre, un incremento dell’accoppiamento tra i ritmi theta-gamma nella condizione di punizione per i soggetti con bassi livelli di Drive e nella condizione di ricompensa per i soggetti con alti livelli di Drive. Tali risultati sono stati visti dagli autori a sostegno dell’esistenza di un’interconnessione tra i sistemi BIS e BAS (Joint Subsystem Hypothesis) [69]), poiché i soggetti con alto Drive non solo presentavano più elevate attivazioni EEG alla ricompensa, ma anche più basse attivazioni in risposta alla punizione. Sebbene l’attività EEG non sia un buon indice per differenziare differenti stati emozionali, lo studio dell’accoppiamento, insieme all’ampiezza, dei ritmi theta e gamma EEG può essere considerato un valido strumento per studiare le differenze individuali nel processo di elaborazione delle emozioni.
264
V. De Pascalis
10.6 RST e Sistema Nervoso Autonomo (SNA) Vi sono state molte ricerche sul rapporto tra RST e misure del SNA. In particolare, molte di queste ricerche si sono focalizzate sull’attività elettrodermica (EDA) e sulla FC. Fowles [12, 95, 96], nei suoi lavori, ha argomentato un aspetto oscuro della teoria, cioè, come l’attività dei sistemi BIS e BAS possa essere in relazione con le attività EDA e FC. Fowles [12] ha suggerito che la FC è un indice dell’attività del BAS, sebbene abbia operato un’importante distinzione tra la FC associata semplicemente con l’attività somatica e la FC legata a incentivi motivazionali. Passando in rassegna i principali studi sul comportamento animale nei quali si è tentato di separare la componente somatomotoria dagli incentivi, Fowles ha riscontrato che, anche nei casi in cui è stata operata tale separazione, è stato trovato un legame tra aumento della FC e aumento dell’attivazione dell’incentivo (BAS). Fowles ha anche ipotizzato che la FC può essere un indice del comportamento di evitamento attivo (mediato dal BAS), questo per sottolineare ulteriormente che tale attività è associata all’attivazione dell’incentivo [95]. Fowles [12] suggerisce che le risposte a stimoli avversivi producono aumenti nell’EDA, sebbene tali aumenti possano variare a seconda del tipo di misura utilizzato per l’EDA (fluttuazione non specifica della risposta di conduttanza cutanea, NS-SCR; livello di conduttanza cutanea, SCL; risposta specifica della conduttanza cutanea, SCR) e dell’esatta natura degli stimoli avversi. In particolare, Fowles ha notato che il livello di conduttanza cutanea come indice della punizione anticipatoria può essere problematico per molte ragioni. Primo, perché, nel corso delle stimolazioni, può raggiungere un livello prestimolo talmente elevato che presentazioni successive di stimoli punitivi produrranno variazioni SCR minori e, secondo, perché la conduttanza cutanea, indipendentemente dai processi psicologici, è sensibile all’idratazione della pelle. Come osserva Sosnowski [97], è importante ricordare che aumenti dell’EDA non si osservano solo in reazione a stimoli che attivano il BIS, ma anche in reazione a stimoli con valenza emozionale positiva e a stimolazioni avversive incondizionate. È importante notare che nelle reazioni fisiologiche a stimoli minacciosi o a stimoli condizionati da punizione ci deve essere un frazionamento direzionale della FC e dell’EDA. Questo significa che quando l’EDA tende ad aumentare, la FC tende a diminuire. Tuttavia, Fowles [12] suggerisce che la FC tende a essere indipendente dall’EDA a eccezione dei casi in cui essa sia accompagnata da un livello di attività somatica. Il frazionamento direzionale è anche dipendente in qualche modo dal livello di attivazione del BAS che media l’informazione della punizione. Non vi saranno modificazioni della FC se non vi è possibilità di evitamento attivo o se il rispondere porterà solo a future punizioni. Secondo Sosnowski [97], la correlazione negativa, riscontrata talvolta tra le attività FC e SC, dipende dalle caratteristiche della prova. Egli suggerisce che la correlazione negativa è osservata con maggiore probabilità nelle prove che contengono stimoli ambigui che possono attivare sia il BIS sia BAS. In una serie di studi, Sosnowski, all’inizio della performance di una prova stressante, ha osservato una significativa riduzione della FC parallelamente a un aumento del SCL, che indicava una significativa inibizione recipro-
10. Emozioni, temperamento e personalità: aspetti psicofisiologici
265
ca tra le due attività. De Pascalis e colleghi [62], durante prove di riconoscimento di parole a differente contenuto emozionale, utilizzando un paradigma di odd-ball visivo, hanno registrato l’attività elettrocorticale e la decelerazione della FC antecedente e conseguente la parola target e prima della risposta motoria alla parola target. Questi autori hanno trovato che i partecipanti con tratti di ansia alti avevano una maggiore decelerazione della FC rispetto ai soggetti con bassi tratti di ansia. Non vi erano differenze tra i tratti di impulsività. Questi studi hanno mostrato un ragionevole supporto alla RST e all’associazione tra indici del SNA con l’attivazione del BIS e del BAS [12]. Solo pochi studi hanno esaminato contemporaneamente entrambe le misure di FC e SC. Gomez e McLaren [98] hanno esaminato gli effetti del premio e della punizione sulla risposta di disinibizione, sulle misure degli umori di felicità e nervosismo, e sui livelli di FC e SC durante la prestazione in una prova di apprendimento strumentale. Le attività FC e SCL sono state registrate in due gruppi separati di partecipanti: un gruppo completava una prova di solo premio go/no-go (vincita di una piccola quantità di denaro), e l’altro completava una prova di sola punizione go/no-go (perdita di una piccola quantità di denaro). Il gruppo che riceveva il rinforzo positivo riportò più elevati livelli di felicità durante la prestazione rispetto al gruppo che riceveva la punizione. In entrambe le prove non vi era un cambiamento significativo tra i livelli della FC e di SCL registrati prima della prova; i partecipanti che completavano la prova di sola punizione avevano livelli di SCL significativamente più elevati per tre delle quattro fasi della prova. La SCL aumentava significativamente anche tra le quattro fasi per il gruppo della sola punizione. Non vi erano differenze significative tra i due gruppi per la FC. Per le misure di personalità vi era solo un’inattesa correlazione positiva tra il fattore BAS-Drive, misurato con il questionario di Carver e White [93] e la SCL, mentre tutte le altre correlazioni con i livelli FC e SCL non erano significative. In un lavoro successivo, Arnett e Newman [99] hanno evidenziato alcuni possibili motivi per i quali nello studio di Gomez e McLaren [98] non sono stati trovati, per alcune misure del SNA, risultati in linea con la teoria di Gray. In particolare, questi autori suggeriscono che le due prove go/no-go possono semplicemente non aver attivato il BIS o il BAS, poiché la prova di sola punizione richiedeva l’evitamento attivo che, essendo mediato dal BAS, può aver nascosto le differenze tra i gruppi. La prova di sola ricompensa può aver anche contenuto qualche frustrazione da non ricompensa che può aver prodotto attivazione del BIS. In questo modo, entrambe le prove possono aver prodotto attivazione del BIS e del BAS. Tuttavia questo è un problema presente in ogni prova di laboratorio, poiché i tentativi di elicitare una pura attivazione del BIS o del BAS non riguardano sola la prova go/no-go. È difficile valutare l’importanza di questo problema fino a che le aspettative di ricompensa e punizione dei partecipanti non siano misurate prima e dopo la loro partecipazione allo studio [30]. Arnett e Newman [99] hanno suggerito che per evidenziare l’attivazione del BAS con la FC è necessaria una prova che richieda una notevole componente motoria. Questo può essere vero se si sostiene l’ipotesi dell’accoppiamento cardiaco-somatico, sebbene Fowles [12], nel sostenere che la FC sia un buon indice dell’attività del BAS, abbia indicato la componente incentivante, piuttosto che la componente somatica, come modulatore della FC.
266
V. De Pascalis
Una critica pertinente può essere che la misura tonica della conduttanza cutanea utilizzata da Gomez e McLaren [98] non è la migliore scelta per indicare l’attività del BIS. Misure quali la risposta elettrodermica (EDR) non specifica (NS-SCR) o la SCR potrebbero essere più appropriate e/o accurate nell’indicare l’attività del BIS. Nel lavoro di Arnett e Newman [99], infatti, è stata utilizzata quest’ultima misura di conduttanza cutanea ed è stato trovato che la FC aumentava nelle situazioni di premio e di evitamento attivo. Tuttavia, così come nello studio di Gomez e McLaren, anche in questo studio la FC non correlava significativamente con il tratto di impulsività in entrambi gli esperimenti. In termini di conduttanza cutanea i loro risultati hanno evidenziato che l’ampiezza della SCL aumentava in risposta alla punizione in entrambi gli studi e che le risposte di conduttanza SCR aumentavano solo nel primo esperimento. Le risposte SCR non cambiavano significativamente nel secondo esperimento, mentre entrambe le misure dell’EDA non correlavano significativamente con il tratto ansia in entrambi gli esperimenti. Consistente con la nozione di frazionamento direzionale delle risposte, i partecipanti hanno mostrato riduzioni significative nella FC quando passavano dalle risposte di attivazione del BAS (premio ed evitamento attivo) alle condizioni miste di incentivo. Questi autori conclusero che una riduzione della FC può meglio indicare l’attività del BIS rispetto alle misure di conduttanza cutanea. Essi hanno anche suggerito che nei casi in cui il BAS fosse molto più attivato di quanto non lo fosse stato nel loro studio, gli aumenti della FC sarebbero diventati più evidenti, specialmente quando la risposta per il premio avrebbe richiesto grandi movimenti motori. In uno studio successivo, Sosnowski e colleghi [100] hanno valutato la relazione tra FC, EDR e prestazione in una prova con premio (vincita di denaro), in una senza premio, e in una prova di coping attivo e passivo. Gli autori hanno trovato un’interazione significativa riguardo la prova di coping attivo verso quella di coping passivo, evidenziando che il BIS mediava il coping passivo. In accordo con la RST, i partecipanti avevano EDR significativamente più ampie. Tuttavia, i risultati per la FC in entrambe le prove non erano consistenti con la RST. Così, anche in questo studio, vi è stato solo un supporto parziale alle ipotesi di Fowles [12]. Tale pattern di risultati in qualche modo confuso può essere meglio valutato considerando brevemente i risultati di altri studi che hanno esaminato FC e EDA. Keltikangas-Jarvinen e colleghi [101] hanno trovato che l’inibizione temperamentale era correlata a più bassi livelli di EDA e più alti livelli di FC, mentre l’attivazione temperamentale non era correlata alla FC durante la somministrazione del test di Rorschach. I risultati non erano consistenti con la RST, ma si potrebbe far notare che tale risultato poteva essere atteso visto che è difficile interpretare le esatte caratteristiche degli stimoli nel test di Rorschach in sé. Gli autori sostengono che gli stimoli usati massimizzano la varianza individuale a risposte emozionali idiografiche rispetto alla varianza situazionale [101], ma proprio la varianza individuale rende difficile stabilire se la prova coinvolga evitamento o coping passivo. Le risposte fisiologiche potrebbero dipendere principalmente da come gli stimoli vengono interpretati dai partecipanti e meno dalle richieste della prova. Questi autori, infine, hanno utilizzato lo Strelau Temperament Inventory – Revised (STI-R; [102]) per la misura della sensibilità individuale del BIS e del BAS, strumento raramente utilizzato in letteratura poiché non fornisce una misura specifica per questi tratti
10. Emozioni, temperamento e personalità: aspetti psicofisiologici
267
temperamentali e la relazione che gli autori assumono con le più comunemente utilizzate misure del BIS/BAS è in qualche modo speculativa. Heponiemi e colleghi [103] hanno esaminato la relazione tra sensibilità di BIS e BAS e livelli della FC durante un periodo di baseline e durante la prestazione. Utilizzando tre prove di induzione di stress, questi autori hanno trovato che la sensibilità del BAS era correlata all’aumento della reattività della FC, supportando così l’ipotesi di Fowles [12]. La sensibilità del BIS non era associata ad alcuna misura della FC. Tuttavia, è interessante notare che questi autori, in una prova di aritmetica mentale, hanno osservato che la sensibilità del BAS era associata all’aumento della FC, mentre Knyazev, Slobodskaya e Wilson [104] hanno trovato la sensibilità del BAS correlata a diminuzioni della FC in questa prova. I due studi hanno utilizzato differenti questionari di misura del BAS (CW BIS/BAS Scales e GWPQ, rispettivamente) e la prova di Knyazev e colleghi [104] non comprendeva incentivi e, probabilmente, l’attivazione del BIS. I risultati riportati da entrambi gli studi possono, quindi, essere interpretati come supporto al punto di vista di Fowles [12]. Beauchaine [105] ha suggerito che l’attivazione di entrambi BIS e BAS è mediata dall’aumento dell’attività del sistema nervoso simpatico. Heponiemi e colleghi [103] e Ravaja [106] hanno, tuttavia, trovato che il BAS può essere mediato dal sistema nervoso parasimpatico. Questo, probabilmente, perché entrambi questi studi hanno utilizzato l’analisi spettrale della FC. Questi studi possono essere presi come esempio su come manipolare la FC nelle future ricerche. Per avere indici separati di entrambe le attività simpatica e parasimpatica, il modo migliore è quello di effettuare l’analisi spettrale della FC (per il metodo si veda Berntson e colleghi [107]). Secondo Matthews e Gilliland [27], il tentativo di Fowles [12] di legare il funzionamento del sistema nervoso autonomo alla teoria di Gray è fallito completamente. Si può sostenere che, considerate le difficoltà nell’ottenere misure accurate degli indici del SNA e nel valutare le interazioni potenzialmente complesse tra le misure del SNA, siano necessari maggiori sforzi nella ricerca dei correlati fisiologici delle attività dei BIS e BAS prima che si possa dare una conclusione definitiva. È importante, inoltre, ricordare che, come sottolineato da Stelmack e Geen [28], le misure fisiologiche del SNA non sono necessariamente più o meno valide di ogni altro output comportamentale o indice dell’attività dei sistemi BIS, BAS, o FFS. Esse sono ancora concettualmente rimosse dalle basi neurofisiologiche della teoria stessa, una caratteristica che la RST condivide con le basi biologiche di altre teorie della personalità, come il modello di Eysenck [15] e il modello di Zuckerman. Considerato che, secondo la RST, ogni attivazione dei BIS o BAS produce un aumento dell’arousal, risulta alquanto complesso esaminare, a livello fisiologico, le differenze individuali nell’attività del BIS e BAS a stimolazioni emozionali o durante prove in cui vengono somministrati premi o punizioni. L’effetto dell’aumento dei livelli di arousal presente per entrambe le attivazioni del BIS o del BAS influenza le attività del SNA e del SNC, le cui misure diminuirebbero con l’attivazione di questi due sistemi, per cui risulta problematico e complesso isolare l’effetto dell’attività di questi due sistemi indipendentemente dall’arousal. Rimane certamente da vedere se entrambe le misure del SNC e del SNA possono
268
V. De Pascalis
contribuire alla descrizione e all’analisi della RST. È da sperare, tuttavia, che l’applicazione delle tecniche di neuroimaging e delle tecnologie genetiche allo studio dei sistemi postulati dalla RST possa fornire basi biologiche più solide all’attività di questi sistemi. Reuter e colleghi [108] hanno utilizzato la risonanza magnetica funzionale per immagini (fMRI) per poter osservare l’attivazione delle aree cerebrali specificate dalla RST durante l’elaborazione dell’informazione emozionale ed esaminare se tale attivazione correlava con le dimensioni BIS e BAS misurate attraverso i questionari. Gli autori [108] hanno trovato, a sostegno della RST, che vi erano correlazioni positive tra il tratto BIS e l’attività cerebrale dopo l’esposizione a stimoli disgustosi e di paura, sebbene i risultati per il BAS fossero meno pronunciati di quelli ottenuti per il BIS e solo parzialmente a sostegno della RST. Anche le correlazioni tra BIS e BAS e le attivazioni delle aree cerebrali non erano in linea con la RST, essendo stato riscontrato che l’attività del BAS era associata esclusivamente all’attivazione delle vie di innervazione dopaminergica e a quella dell’ippocampo. Stuettgen e colleghi [109] hanno valutato il legame tra i livelli di dopamina e le misure del BAS utilizzando un paradigma di stimolazione neuroendocrina. Tale paradigma valuta le differenze individuali nei livelli di ormone nel sangue dopo la somministrazione di un farmaco specifico designato ad agire in qualche modo sul neurotrasmettitore in questione. Se, quindi, viene ipotizzato che le differenze individuali nell’attivazione, ad esempio, del BAS covariano con l’attività di un sistema di neutrasmissione, le differenze individuali nella risposta ormonale a un appropriato farmaco stimolante dovrebbero covariare anche con questi parametri. Gli autori hanno trovato che la dimensione Novelty Seeking di Cloninger era correlata all’attività dopaminergica piuttosto che al BAS come misurato dalle scale di Carter e White [93]. Alti livelli di Novelty Seeking erano legati a maggiori livelli dopaminergici. Questo può non essere realmente interpretato come supporto alla RST, sebbene gli autori speculino che limiti psicometrici propri delle scale BAS possano portare a tale risultato inaspettato. In questo studio è stata certamente riscontrata una varianza ridotta nella misura delle scale BAS e questo può avere artificialmente prodotto una sottostima delle correlazioni con le scale BAS. Scholten e colleghi [110] hanno esaminato la relazione dei punteggi BIS e BAS in pazienti con schizofrenia e in un gruppo di controllo, con la psicopatologia e la FC e una misura della variabilità della FC, quest’ultima ritenuta un buon indicatore del controllo parasimpatico del cuore. I pazienti mostravano una più elevata sensibilità a stimoli minacciosi rispetto ai soggetti di controllo. La sensibilità individuale del BIS correlava positivamente con la durata della malattia e con più basse autovalutazioni di sintomi negativi della schizofrenia. I punteggi del BAS non hanno evidenziato differenze tra pazienti e soggetti di controllo. Inoltre, i pazienti mostravano FC più elevate e variabilità della FC più basse rispetto ai soggetti di controllo, mentre non vi erano correlazioni significative tra misure fisiologiche e quelle dei punteggi BIS e BAS e altre variabili nei pazienti. È auspicabile che, nel prossimo futuro, studi psicofarmacologici come questo possano contribuire ad aumentare la nostra conoscenza delle strutture neuroanatomiche e funzionali del cervello che mappano i sistemi BIS e BAS la cui attività è mediata dai tratti di personalità.
10. Emozioni, temperamento e personalità: aspetti psicofisiologici
269
Bibliografia 1. Digman J (1990) Personality structure: the emergence of the five-factor model. Ann Rev Psychol 41:417-440 2. Costa PT Jr, McCrae RR (1985) The NEO personality inventory manual. Psychological Assessment Resources, Odessa Finlandia 3. Costa PT Jr, McCrae RR (1992) Revised NEO Personality Inventory (NEO PI-R) and NEO Five Factor Inventory (NEO-FFI) professional manual. Psychological Assessment Resources, Odessa Finlandia 4. Revelle W (1987) Personality and motivation: sources of inefficiency in cognitive performance. J Res Pers 21:436-452 5. Gilboa E, Revelle W (1994) Personality and the structure of affective responses. In: Van Goozen SHM, Van de Poll NE, Sergeant JA (eds) Emotions – essays on emotion theory. Lawrence Erlbaum Associates, Hillsdale New Jersey, pp. 135-159 6. Tellegen A (1985) Structures of mood and personality and their relevance to assessing anxiety with an emphasis on self-report. In: Tuma AH, Maser JD (eds) Anxiety and the anxiety disorders. Erlbaum, Hillsdale NJ, pp. 681-706 7. Zuckerman M, Kuhlman DM, Joireman J et al (1993) A comparison of free structural models for personality: The Big Three, The Big Five and The Alternative Five. J Pers Soc Psychol 65:757-768 8. Watson D, Clark LA (1992) On traits and temperament: general and specific factors of emotional experience and their relation to the five factor model. J Pers 60:441-476 9. Gray JA (1987) The psychology of fear and stress. Cambridge University Press, Cambridge 10. Gray JA (1982) The neuropsychology of anxiety: an enquiry into the functions of the septohippocampal system. Oxford University Press, Oxford 11. Gray JA (1991) Neural systems, emotion and personality. In: Madden JIV (ed) Neurobiology of learning, emotion and affect. Raven Press, New York, pp. 273-306 12. Fowles DC (1980) The three arousal models: implications of Gray’s two factor learning theory for heart-rate, electrodermal activity, and psychopathology. Psychophysiology 17:87-104 13. Gray JA, McNaughton N (2000) The neuropsychology of anxiety: an enquiry into the functions of the septo-hippocampal system, 2nd ed. Oxford University Press, Oxford 14. McNaughton N, Corr PJ (2004) A two-dimensional neuropsychology of defense: fear/anxiety and defensive distance. Neurosci Beh Rev 28:285-305 15. Eysenck HJ (1967) The biological basis of personality. Thomas, Springfield 16. Gray JA (1970) The psychophysiological basis of introversion-extraversion. Beh Res Therapy 8:249-266 17. Gray JA (1981) A critique of Eysenck’s theory of personality. In Eysenck HJ (ed) A model for personality. Springer, New York, pp. 246-276 18. Eysenck HJ, Eysenck MW (1985) Personality & individual differences. Plenum, New York 19. Eysenck HJ (1992) Four ways five factors are not basic. Pers Ind Diff 13:667-673 20. Eysenck S (1997) Psychoticism as a dimension of personality. In: Nyborg H (ed) Scientific study of human nature: tribute to Hans J Eysenck at eighty. Pergamon/Elsevier Science Inc, Amsterdam, pp. 109-121 21. Pickering AD, Corr PJ, Gray JA (1999) Interactions and reinforcement sensitivity theory: A theoretical analysis of Rusting and Larsen (1997). Pers Ind Diff 26:357-365 22. Costa PT Jr, McCrae RR (1980) Influence of extraversion and neuroticism on subjective well-being: happy and unhappy people. J Pers Soc Psychol 38:668-78 23. Larsen RJ, Diener E (1992) Promises and problems with the circumplex model of emotion. In Clark MS (ed) Emotion. Sage Publications Inc, Thousand Oaks California, pp. 25-59 24. Cacioppo JT, Gardner WL, Bernston GG (1999) The affect system has parallel and integrative processing components: form follows function. J Pers Soc Psychol 76:839-855 25. Watson D, Wiese D, Vaidya J, Tellegen A (1999) The two general activation systems of
270
26. 27. 28. 29. 30. 31.
32. 33.
34. 35. 36. 37.
38.
39. 40. 41. 42. 43.
44. 45. 46. 47. 48. 49.
V. De Pascalis affect: structural findings, evolutionary considerations, and psychobiological evidence. J Pers Soc Psychol 76:820-838 Corr PJ (2001) Testing problems in JA Gray’s personality theory: a commentary on Matthews and Gilliland (1999). Pers Ind Diff 30:333-352 Matthews G, Gilliland K (1999) The personality theories of HJ Eysenck and JA Gray: a comparative review. Pers Ind Diff 26:583-626 Stelmack RM, Geen RG (1992) The psychophysiology of extraversion. In: Gale A, Eysenck MW (eds) Handbook of individual differences: biological perspectives. Wiley, New York, pp. 227-254 Zuckerman M (1991) Psychobiology of personality. Cambridge University Press, Cambridge Corr PJ (2002) Gray’s reinforcement sensitivity theory and frustrative nonreward: a theoretical note on expectancies in reactions to rewarding stimuli. Per Ind Diff 32:1247-1253 Pickering AD, Corr PJ, Powell HJ et al (1997) Individual differences in reactions to reinforcing stimuli are neither black nor white: to what extent are they gray? In: Nyborg H (ed.) The scientific study of human nature: tribute to Hans Eysenck at eighty. Elsevier Sciences, London, pp. 36-67 Stelmack RM,Campbell KB, Bell I (1993) Extraversion and brainstem auditory evoked potentials. Pers Ind Diff 14:447-453 Doucet C, Stelmack RM (2000) An event-related potential analysis of extraversion and individual differences in cognitive processing speed and response execution. Per Ind Diff 78:956-964 Barratt ES, Stanford MS, Kent TA et al (1997) Neuropsychological and cognitive psychophysiological substrates of impulsive aggression. Biol Psych 41:1045-1061 Pritchard WS (1981) Psychophysiology of P300. Psychol Bull 89:506-540 Donchin E, Coles MGH (1988) Is the P300 component a manifestation of context updating? Behav Brain Sci 11:355-372 Hillyard SA, Picton TW (1987) Electrophysiology of cognition. In: Mountcastle VB, Plum F, Geiger SR (eds) Handbook of physiology. Section 1: The Nervous System. American Physiological Society, Bethesda MD, pp. 519-571 Coles MGH, Gratton G, Fabiani M (1990) Event-related brain potentials. In: Cacioppo JT, Tassinary LG (eds) Principles of psychophysiology: physical, social and inferential elements. Cambridge University Press, Cambridge, pp. 413-55 Kok A (1997) Event-related potential (ERP) reflections of mental resources: a review and synthesis. Biol Psychol 45:19-56 Diedrich O, Naumann E, Maier S et al (1997) A frontal positive slow wave in the ERP associated with emotional slides. J Psychophysiol 11:71-84 Johnston VS, Miller DR, Burleson MH (1986) Multiple P3s to emotional stimuli and their theoretical significance. Psychophysiology 23:684-694 Palomba D, Angrilli A, Mini A (1997) Visual evoked potentials, heart rate responses, and memory to emotional pictorial stimuli. Int J Psychophysiol 27:55-67 Naumann E, Bartussek D, Diedrich O et al (1992) Assessing cognitive and affective information processing functions of the brain by means of the late positive complex of the eventrelated potential. J Psychophysiol 6:285-298 Maddock RJ, Buonocore MH (1997) Activation of left posterior cingulated gyrus by the auditory presentation of threat-related wors: an fMRI study. Psychiatry Res 75:1-14 Maratos EJ, Rugg MD (2001) Electrophysiological correlates of the retrieval of emotional and non-emotional context. J Cogn Neurosci 13:877-91 Bartussek D, Diedrich O, Naumann E et al (1993) Introversion-extraversion and event related potential (ERP): A test of J.A. Gray’s theory. Pers Ind Diff 14:565-574 De Pascalis V, Destro Fiore A, Sparita A (1996) Personality, event-related potential (ERP) and heart rate (HR): an investigation of Gray’s theory. Pers Ind Diff 20:733-46 Wilson GD, Barrett PT, Gray JA (1989) Human reactions to reward and punishment: a questionnaire measure of Gray’s personality space. Brit J Psychol 80:509-515 Bartussek D, Becker G, Diedrich O et al (1996) Extraversion, neuroticism and event-related potentials in response to emotional stimuli. Pers Ind Diff 20:301-312
10. Emozioni, temperamento e personalità: aspetti psicofisiologici
271
50. Palomba D, Stegagno L (2004) Psicofisiologia clinica. Carocci Editore, Roma 51. De Pascalis V, Speranza O (2000) Personality effects on attentional shifts to emotional charged cues: ERP, behavioural and HR data. Pers Ind Diff 29:217-38 52. Zuckerman M (1979) Sensation seeking: beyond the optimal level of arousal. Lawrence Erlbaum, Hillsdale NJ 53. Posner MI (1988) Structures and functions of selective attention. In: Boll T, Bryant BK (eds) Clinical neuropsychology and brain function: the master lecture series, Vol 7. American Psychological Association, Washington DC, pp. 173-202 54. Stormark KM, Nordby H, Hugdahl K (1995) Attentional shifts to emotionally charged cues: behavioural and ERP data. Cogn Emot 9:507-523 55. Zuckerman M, Joireman J, Kraft M et al (1999) Where do motivational and emotional traits fit within three factor models of personality? Pers Ind Diff 26:487-504 56. Williams DG (1990) Effects of psychoticism, extraversion and neuroticism in current mood: a statistical review of six studies. Pers Ind Diff 11:615-630 57. Zuckerman M (1993) Sensation seeking and impulsivity: a marriage of traits made in biology? In: McCown WG, Johnson JL, Shure MB (eds) The impulsive client: theory, research and treatment. American Psychological Association, Washington DC, pp. 71-91 58. Eysenck HJ (1963) Experiments with drugs. Pergamon, Oxford 59. Eysenck HJ, Gudjonsson GH (1989) The causes and cures of criminality. Plenum Press, New York 60. Klorman R, Brumaghim JT, Salzman LF et al (1988) Effects of methylphenidate on attention-deficit-hyperactivity disorder with and without aggressive/noncompliant features. J Abn Psychol 97:413-422 61. Strelau J, Eysenck HJ (1987) Personality dimensions and arousal. Plenum Press, New York 62. De Pascalis V, Strippoli E, Riccardi P et al (2004) Personality, event related potential (ERP) and heart rate (HR) in emotional word processing. Pers Ind Diff 36:873-891 63. Harmon-Jones E, Allen J J B (1997) Behavioral activation sensitivity and resting frontal EEG asymmetry: covariation of putative indicators related to risk of mood disorders. J Abn Psychol 106:159-163 64. Wickens CD (1984) Processing resources in attention. In: Parasuraman R, Davies DR (eds) Varietes of attention. Academic, New York, pp. 63-102 65. Brocke B, Tasche KG, Beauducel A (1996) Biopsychological foundations of extraversion: Differential effort reactivity and the differential P300 effect. Pers Ind Diff 21:727-738 66. Wang W, Zhu Shou-Zheng, Pan Li-Chun et al (2001) Mismatch negativity and personality traits in chronic primary insomniacs. Functional Neurology 16:3-10. 67. Hansenne M, Pinto E, Scantamburlo G et al (2003) Harm avoidance is related to mismatch negativity (MMN) amplitude in healthy subjects. Pers ind Diff 34:1039-1048 68. Cloninger CR (1986) A unified biosocial theory of personality and its role in the development of anxiety states. Psychiat Develop 3:167-226 69. Corr PJ (2002b) JA Gray’s reinforcement sensitivity theory: tests of the joint subsystems hypothesis of anxiety and impulsivity. Pers Ind Diff 33:511-532 70. Torrubia M, Avila C, Molto J et al (2001) The sensitivity to punishment and sensitivity to reward questionnaire (SPSRQ) as a measure of Gray’s anxiety and impulsivity dimensions. Pers Ind Diff 31:837-862 71. Falkenstein M, Hohnsbein J, Hoormann J et al (1990) Effects of errors in choice reaction tasks on the ERP under focused and divided attention. In: Brunia GHM, Gaillard AWK, Kok A (eds) Psychophysiological Brain Research. Tilburg Univ Press Tilburg, pp. 192-195 72. Gehring WJ, Coles MGH, Meyer DE et al (1990) The error related negativity: an event related brain potential accompanying errors. Psychophysiology 27:34 73. Dehaene S, Posner MI, Tucker DM (1994) Localization of a neural system for error detection and compensation. Psychol Sci 5:303-305 74. Wijers AA, Boksem MAS (2005) Selective attention and error processing in an illusory conjuction task: an event-related brain potential study. J Psychophysiol 19:216-231
272
V. De Pascalis
75. De Bruijn ERA, Hulstijn W, Verkes RJ et al (2004) Drug-induced stimulation and suppression of action monitoring in healthy volunteers. Psychopharmacology 177:151-160 76. Tieges Z, Ridderinkhof KR, Snel J (2004) Caffeine strengthens action monitoring: evidence from the error-related negativity. Cogn Brain Res 21:87-93 77. Boksem MAS, Tops M, Wester AE et al (2006) Error-related ERP components and individual differences in punishment and reward sensitivity. Brain Res 1101:92-101. 78. Gehring WJ, Willoughby AR (2002) The medial frontal cortex and the rapid processing of monetary gains and losses. Science 295:2279-2282 79. Holroyd CB, Larsen JT, Cohen JD (2004) Context dependence of the event-related brain potential associated with reward and punishment. Psychophysiology 41:245-253 80. Bush G, Vogt BA, Holmes J et al (2002) Dorsal anterior cingulated cortex: a role in rewardbased decision making. Proc Natl Acad Sci 99:523-528 81. Knutson B, Westdorp A, Kaiser E et al (2000) fMRI visualization of brain activity during a monetary incentive delay task. NeuroImage 12:20-27 82. Dikman ZV, Allen JJB (2000) Error monitoring during reward and avoidance learning in high- and low-socialized individuals. Psychophysiology 37:43-54 83. Hajcak G, McDonald N, Simons RF (2003a) Anxiety and error-related brain activity. Biol Psychol 64:77-90 84. Tucker DM, Luu P, Frishkoff G et al (2003) Frontolimbic response to negative feedback in clinical depression. J Abnorm Psychol 112:667-678 85. Hajcak G, McDonald N, Simons RF (2004) Error-related psychophysiology and negative affect. Brain Cogn 56:189-197 86. Tucker DM, Hartry-Speiser A, McDougal L et al (1999) Mood and spatial memory: emotion and right hemisphere contribution to spatial cognition. Biol Psychol 50:103-125 87. Luu P, Collins P, Tucker DM (2000) Mood, personality, and self-monitoring: negative affect and emotionality in relation to frontal lobe mechanisms of error monitoring. J Exp Psychol Gen 129:43-60 88. Overbeek TJM, Nieuwenhuis S, Ridderinkhof KR (2005) Multiple processes in error-monitoring on the functional significance of the Pe vis-à-vis the ERN/Ne. J Psychophysiol 19:319-329 89. Falkenstein M, Hoormann J, Christ S et al (2000) ERP components on reaction errors and their functional significance: a tutorial. Biological Psychology. Special Issue: error processing and adaptive responding 51:87-107 90. Nieuwenhuis S, Ridderinkhof KR, Blom J et al (2001) Error-related brain potentials are differentially related to awareness of response errors: evidence from an antisaccade task. Psychophysiology 38:752-760 91. Leuthold H, Sommer W (1999) ERP correlates of error processing in spatial S-R compatibility tasks. Clin Neurophysiol 110:342-357 92. Hajcak G, McDonald N, Simons RF (2003b) To err is autonomic: error-related brain potentials, ANS activity, and post-error compensatory behavior. Psychophysiology 40:895-903 93. Carver CS, White TL (1994) Behavioral inhibition, behavioral activation, and affective responses to impending reward and punishment: The BIS/BAS scales. J Pers Soc Psychol 67:319-333 94. Knyazev GG, Slobodskoj-Plusnin JYu (2007) Behavioural approach system as a moderator of emotional arousal elicited by reward and punishment cues. Pers Ind Diff 42:49-59 95. Fowles DC (1983) Motivational effects on heart rate and electrodermal activity: implication for research on personality and psychopathology. J Res Pers 17:48-71 96. Fowles DC (1988) Psychophysiology and psychopathology: a motivational approach. Psychophysiology 25:373-391 97. Sosnowski T (1992) Skin conductance, heart rate, and active-passive coping. In: Forgays DG, Sosnowski T (eds) Anxiety: Recent developments in cognitive, psychophysiological, and health research. Hemisphere Publishing Corp, Washington DC, pp. 129-141 98. Gomez R, McLaren S (1997) The effects of reward and punishment on response disinhibition, moods, heart rate, and skin conductance level during instrumental learning. Pers Ind Diff 23:305-316
10. Emozioni, temperamento e personalità: aspetti psicofisiologici
273
99. Arnett PA, Newman JP (2000) Gray’s three-arousal model: an empirical investigation. Pers Ind Diff 28:1171-1189 100. Sosnowski T, Nurzynska M, Polec M (1991) Active-passive coping and skin conductance and heart rate changes. Psychophysiology 28:665-672 101. Keltikangas-Jarvinen L, Kettunen J, Ravaja N, Näätänen P (1999) Inhibited and disinhibited temperament and autonomic stress reactivity. Int J Psychophysiol 33:185-196 102. Strelau J, Angleitner A, Bantelmann J et al (1990) The Strelau Temperament Inventory – Revised (STI-R): theoretical considerations and scale development. Europ J Pers 4:209-235 103. Heponiemi T, Keltikangas-Jarvinen L, Kettunen J et al (2004) BIS-BAS sensitivity and cardiac autonomic stress profiles. Psychophysiology 41:37-45 104. Knyazev GG, Slobodskaya HR, Wilson GD (2002) Psychophysiological correlates of behavioural inhibition and activation. Pers Ind Diff 33:647-660 105. Beauchaine TP (2001) Vagal tone, development, and Gray’s motivational theory: toward an integrated model of autonomic nervous system functioning in psychopathology. Develop Psychopath 13:183-214 106. Ravaja N (2004) Effects of a small talking facial image on autonomic activity: the moderating influence of dispositional BIS and BAS sensitivities and emotions. Biol Psychol 65:163-183 107. Bernston GG, Bigger JTJ, Eckberg DL et al (1997) Heart rate variability: origins, methods, and interpretive caveats. Psychophysiology 34:623-648 108. Reuter M, Stark R, Hennig J et al (2004) Personality and emotion: test of Gray’s personality theory by means of an fMRI study. Beh Neurosc 118:462-469 109. Stuettgen MC, Hennig J, Reuter M, Netter P (2005) Novelty seeking but not BAS is associated with high dopamine as indicated by a neurotransmitter challenge test using Mazindol as a challenge substance. Pers Ind Diff 38:1597-1608 110. Scholten Marion RM, van Honk J, Aleman A, Kahn René S (2006) Behavioral inhibition system (BIS), Behavioral activation system (BAS) and schizophrenia: relationship with psychopathology and physiology. Journal of Psychiatric Research 40(7):638-645
Capitolo 11
Percezione cross-modale delle emozioni. Sincronizzazione di codici comunicativi Michela Balconi, Alba Carrera
11.1 Introduzione La comunicazione degli eventi emotivi è un fenomeno complesso e multicomponenziale, che si esplica attraverso l’azione congiunta di una costellazione di segnali di diversa natura. All’espressione, così come al riconoscimento, di un’emozione contribuiscono numerose informazioni appartenenti a differenti modalità sensoriali, che, combinate in un preciso pattern espressivo, acquistano un notevole valore comunicativo. Tale ridondanza di informazioni è il presupposto dell’integrazione o convergenza cross-modale. L’integrazione è un fenomeno che si realizza nel momento in cui informazioni appartenenti a diverse modalità sensoriali vengono identificate ed elaborate come appartenenti a un singolo evento o a una singola sorgente fisica. Per completare il quadro complessivo, occorre inoltre soffermare l’attenzione sul fatto che normalmente i nostri organi di senso sono bersagliati contemporaneamente da una molteplicità di stimoli appartenenti a diverse modalità sensoriali e, generalmente, la percezione di questa unitarietà ha origine dalla vicinanza spaziale e dalla sincronia con cui le informazioni si presentano.
11.1.1 Integrazione multimodale come risposta alla complessità ambientale Oggi si ritiene che i sistemi visivo, uditivo e somatosensoriale abbiano un’organizzazione di tipo gerarchico, tale per cui la stimolazione sensoriale produce una rappresentazione percettiva che passa attraverso una serie di stadi di elaborazione di complessità crescente. Tale organizzazione gerarchica sembra d’altro canto costituire un principio generale del funzionamento cerebrale. Infatti, parallelamente, numerosi studi suggeriscono che, fin dalle prime fasi di elaborazione delle informazioni si verificano, sia a livello delle aree di convergenza come la corteccia parietale, temporale [1] e frontale [2] sia a livello delle aree specifiche di elaborazione sensoriale (ad esempio, l’area visiva V1 o l’area uditiva A1) – fenomeni di convergenza cross-modale. Ma qual è la funzione di tale processo di integrazione multisensoriale? L’abilità nell’integrare stimoli ridondanti appartenenti a differenti modalità per formare un unico percetto costituisce una componente fondamentale alla base del comportaM. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008
276
M. Balconi, A. Carrera
mento e della cognizione guidati dai sensi. Essa ha una funzione adattiva, in quanto è finalizzata a migliorare l’elaborazione dello stimolo, in modo tale da produrre una risposta comportamentale più rapida e accurata. Ad esempio, le ricerche indicano che l’integrazione produce una migliore performance nei compiti di orientamento dell’attenzione e di riconoscimento [3].
11.2 Convergenza di pattern emotivi Numerose ricerche si sono occupate di comprendere cosa avviene quando, allo scopo di riconoscere un’emozione, l’individuo si trova a dover integrare informazioni appartenenti a diversi sistemi sensoriali. Gli studi che sono stati condotti allo scopo di analizzare questo particolare processo di integrazione cross-modale hanno focalizzato l’attenzione in particolare sulla convergenza tra il canale visivo e quello uditivo, entrambi deputati a svolgere un ruolo fondamentale nel processo di decoding delle emozioni. In particolare, sembra esistere una stretta interrelazione tra la decodifica della mimica facciale e la decodifica dell’espressione vocale delle emozioni. A tal proposito, van Lancker e Sidtis [4] hanno trovato che alcuni pazienti con diagnosi di aprosodia presentavano anche un deficit correlato nel riconoscimento dei volti. Parallelamente, Scott e colleghi [5] hanno osservato un’incapacità di decodifica delle componenti prosodiche in un paziente con difficoltà nel riconoscimento delle espressioni facciali. Questi dati non permettono tuttavia di stabilire con certezza che le informazioni facciali e prosodiche convergano in una rappresentazione amodale comune: essi attestano soltanto l’esistenza di una semplice correlazione tra i due ordini di deficit. Per contro, alcuni studi hanno indicato l’esistenza di asimmetrie tra riconoscimento della voce e riconoscimento del volto. Infatti, alcune emozioni sono più facilmente riconoscibili in riferimento al volto o viceversa: ad esempio, la gioia viene facilmente riconosciuta sulla base dell’espressione facciale, ma spesso la voce della gioia viene confusa con l’espressione neutra. L’insieme di tali ricerche ha fornito spunti di riflessione interessanti, sviluppati in seguito da un filone sperimentale che si è posto l’obiettivo specifico di esplorare l’elaborazione di stimoli emotivi multimodali. Tale corpus di ricerche include sia studi di natura comportamentale sia studi di natura neuropsicologica.
11.3 Studi comportamentali Prima di intraprendere un excursus sui risultati delle ricerche che hanno indagato la decodifica cross-modale delle emozioni, è necessario sottolineare che essa presenta caratteristiche qualitativamente diverse rispetto alla percezione cross-modale classicamente studiata, che ha impiegato come stimoli lampi di luce e semplici suoni inarticolati, non dotati di valore semantico intrinseco. Ciò che differenzia la decodifica cross-modale delle emozioni è la complessità degli stimoli implicati. In
11. Percezione cross-modale delle emozioni. Sincronizzazione di codici comunicativi
277
particolare, de Gelder e colleghi hanno condotto buona parte degli studi empirici che si sono occupati specificamente di indagare la percezione cross-modale delle emozioni basata su informazioni di natura audiovisiva. In primo luogo, de Gelder [6] si è posta lo scopo di determinare se, in una situazione bimodale in cui le informazioni sullo stato emotivo sono fornite sia attraverso il canale visivo sia attraverso quello vocale, entrambe le modalità contribuiscono al riconoscimento. A tal fine, ai soggetti sono stati mostrati stimoli costituiti da volti e frasi esprimenti tristezza o gioia, in condizione unimodale e bimodale. In una prima fase dell’esperimento, ai soggetti è stato semplicemente chiesto di indicare se la persona cui il volto e/o la voce si riferivano era triste o felice. Nelle due fasi successive è stata invece data loro istruzione di prestare attenzione solo all’espressione del volto o solo al tono di voce. I risultati indicano che, come avviene nei classici esperimenti sulla percezione bimodale, i tempi di latenza sono più brevi quando vengono somministrati due stimoli congruenti (volto e voce esprimenti la stessa emozione) rispetto a quando viene presentato un solo stimolo. Questo fatto indica che, per il sistema di elaborazione, l’integrazione delle informazioni visive e uditive costituisce un meccanismo efficace di facilitazione, ordinariamente impiegato dagli individui. Tempi più lunghi si registrano invece nel caso di due stimoli incongruenti (volto e voce esprimenti due emozioni diverse), indicando che tale situazione rappresenta una condizione poco naturale e che quindi richiede un maggiore sforzo cognitivo in termini di decodifica delle informazioni. Inoltre, per quanto concerne la correttezza del riconoscimento, è stata osservata un’influenza del volto sulla voce e, viceversa, della voce sul volto. La ridondanza delle informazioni emotive permette una maggiore efficienza nella risposta comportamentale perché l’organismo già dai primissimi stadi di elaborazione procede all’integrazione degli stimoli. Ciò gli consente di produrre una risposta molto più veloce rispetto al caso in cui debba decodificare gli stimoli separatamente per poi integrare i percetti solo nella fase finale. A conferma di ciò, paragonando il decoding unimodale a quello multimodale, gli studi di de Gelder dimostrano che la comprensione degli stimoli integrati precocemente avviene in modo più veloce ed efficiente.
11.3.1 Integrazione come processo precoce e automatico Come abbiamo evidenziato, il riconoscimento delle emozioni presentate nella duplice modalità audio e visiva innesca un reciproco effetto di influenzamento tra le due modalità sensoriali. Il fatto che tale bias cross-modale si verifichi anche quando viene esplicitamente richiesto di prestare attenzione a un’unica modalità sensoriale (quella visiva o quella uditiva appunto) rinforza l’ipotesi che l’integrazione avvenga a uno stadio di elaborazione molto precoce e in modo automatico e obbligato [6]. Ciò induce a escludere l’ipotesi che il bias possa essere il frutto di una valutazione e di un giudizio consapevoli, attuati come risultato della consapevolezza, ad esempio, di un’incongruenza dopo che l’elaborazione separata delle due fonti di informazione è terminata. Anzi, l’integrazione si verificherebbe nono-
278
M. Balconi, A. Carrera
stante il fatto che i soggetti si dichiarino consapevoli dell’incongruenza. Tale rilevazione fenomenica di incongruenza si colloca a un livello cosciente e molto differente da quello in cui avviene l’integrazione cross-modale. Si può quindi ritenere, secondo de Gelder, che l’integrazione sia un fenomeno specificamente percettivo. Tale processo percettivo precede ampiamente fenomeni come il riconoscimento e la comprensione delle emozioni, i quali sono centrati sul significato individuale e sociale dell’emozione. A conferma delle proprie affermazioni, de Gelder e colleghi [7] hanno replicato gli esperimenti precedentemente condotti introducendo una variante: in alcuni casi, infatti, i volti venivano presentati invertiti. L’inversione della presentazione del volto comporta una drastica diminuzione della possibilità di riconoscimento dell’identità e dell’espressione dello stimolo. Ciò è dovuto al fatto che, come precedentemente esposto, l’identificazione del volto si differenzia dall’identificazione di altri tipi di oggetti, in quanto coinvolge la configurazione complessiva e non i singoli attributi (al riguardo si veda anche il Capitolo 9). I risultati dello studio mostrano che il decoding dell’espressione facciale influenza il giudizio circa il tono della voce solo quando il volto è presentato in modalità normale (diritta) ma non quando è capovolto. Tale dato è interessante se messo in relazione al fatto che il riconoscimento dell’emozione espressa dal volto diventa difficoltoso quando lo stimolo è capovolto. L’effetto cross-modale osservato quando lo stimolo è presentato dritto conferma invece l’ipotesi che tale processo sia un fenomeno percettivo automatico che non può essere ridotto a un processo post-percettivo volontario di aggiustamento.
11.4 Contributo della neuropsicologia A livello neuropsicologico sono stati effettuati diversi studi allo scopo di mettere in luce i processi cerebrali implicati nella decodifica multimodale delle emozioni e di spiegare con maggiore chiarezza i dati comportamentali disponibili. Come precedentemente esposto, gli studi comportamentali mostrano che, quando vengono presentati simultaneamente due stimoli emotivi congruenti, l’uno vocale e l’altro facciale, la risposta è più accurata e i tempi sono più rapidi rispetto a quando viene presentato uno stimolo unimodale. Ciò suggerisce che l’organismo sfrutti le risorse multiple offerte dall’ambiente al fine di produrre risposte comportamentali più rapide ed efficienti. Tuttavia, i dati disponibili non forniscono alcuna prova certa del fatto che l’integrazione avvenga a uno stadio precoce dell’elaborazione. Gli studi che hanno utilizzato tecniche elettroencefalografiche e di neuroimaging hanno confermato l’esistenza del Redundant Target Effect (effetto di ridondanza del target), già rilevato a livello comportamentale [8]. Gli stimoli bimodali congruenti producono infatti, negli stadi di elaborazione sensoriale, risposte neurali più veloci e di maggiore intensità rispetto a quelle elicitate da stimoli unimodali o da stimoli bimodali incongruenti. L’insieme di tali dati suggerisce che, in presenza di stimoli congruenti, avvenga una facilitazione dovuta all’integrazione cross-modale. A questo proposito, il Redundant Target Effect è stato analizzato da diverse prospettive, al fine di comprenderne i processi sottostanti implicati:
11. Percezione cross-modale delle emozioni. Sincronizzazione di codici comunicativi
279
– i modelli della priorità temporale (Race Models) affermano che le due componenti vengono elaborate indipendentemente e che il tempo di risposta coincide con la fine dell’elaborazione di quella che, tra le due, termina in tempi più rapidi; – i modelli di indipendenza dell’attivazione (Independent Coactivation Models) ipotizzano che le due componenti inducano attivazioni indipendenti che vengono sommate per elicitare la risposta finale; – infine, i modelli dell’attivazione interattiva (Interactive Coactivation Models) affermano che l’elaborazione di uno stimolo in una modalità influenza l’elaborazione di uno stimolo in un’altra modalità, ipotizzando che l’integrazione possa avvenire a diversi livelli di elaborazione sensoriale e/o cognitiva e di selezione della risposta. Recentemente, alcuni studi neuropsicologici hanno fornito supporto a favore di quest’ultimo tipo di modello [9], che presuppone che l’integrazione abbia inizio ad uno stadio molto precoce del processo di elaborazione sensoriale degli stimoli [10]. Un ulteriore principale argomento di discussione nella ricerca sulla convergenza cross-modale degli stimoli di natura emotiva riguarda le sue coordinate temporali. Per tale ragione, lo studio dei potenziali evocati corticali (ERP), data la sua alta definizione temporale, si è rivelato particolarmente utile ed efficace [11]. Al fine di ampliare le conoscenze relative a tali questioni, i principali studi condotti hanno centrato l’attenzione sugli stadi percettivi precoci del processo di elaborazione degli stimoli emotivi. Infatti, gli indici ERP più frequentemente indagati, come la N100 e il MMN (Mismatch Negativity), hanno analizzato perlopiù processi di natura sensoriale.
11.4.1 Componente MMN come indicatore indiretto della convergenza audiovisiva I primi studi sull’argomento, effettuati alla fine degli anni Novanta, hanno utilizzato come indice la MMN (Mismatch Negativity), un picco negativo che si presenta in concomitanza a stimolazioni di tipo uditivo, quando, in una serie di stimoli ripetitivi, appare uno stimolo deviante [12]. Tale ERP non è sotto controllo attentivo e segnala la ricezione di uno stimolo che tradisce le aspettative [13]. De Gelder e colleghi [14] hanno utilizzato la componente MMN al fine di indagare l’influenza dell’espressione facciale sull’elaborazione delle componenti emozionali vocali. Ai soggetti sono state presentate coppie congruenti o incongruenti di stimoli uditivi (parole pronunciate in tono triste o arrabbiato) e stimoli visivi (espressioni facciali di tristezza e rabbia) con la consegna di prestare attenzione al volto e di ignorare la componente uditiva. I risultati indicano che quando, dopo una serie di stimolazioni congruenti, ne viene presentata una incongruente, appare una risposta cerebrale negativa precoce (latenza 178 ms) localizzata nelle aree anteriori della corteccia, in particolare in F3, Cz e soprattutto Fz. Lo stesso avviene quando, dopo una serie di stimoli incongruenti, ne compare uno congruente. I parametri della componente ERP evidenziata da de Gelder corrispondono a quelli della MMN (in genere con una latenza di 170 ms e principalmente localizzata nelle aree anteriori). Inoltre, gli autori ipo-
280
M. Balconi, A. Carrera
tizzano che l’assenza di una positività identificabile come P3 o P3a indica che il processo non avviene sotto controllo attentivo ma è un processo obbligato. I dati confermano ed estendono i precedenti risultati ottenuti negli studi comportamentali, pur non permettendo, data la tecnica impiegata, di localizzare con precisione le sedi in cui avviene l’integrazione cross-modale. Anche Surakka e colleghi [15] hanno utilizzato la MMN per studiare l’integrazione tra stimolazioni visive e stimolazioni uditive, rilevando che gli stimoli visivi hanno un impatto sull’elaborazione degli stimoli uditivi. Surakka ha studiato l’effetto di immagini emotivamente connotate tratte dall’International Affective Picture System su stimoli uditivi (toni standard di 1000 Hz con probabilità pari a 0,85 e toni devianti di 1050 Hz con probabilità pari a 0,15), trovando che l’ampiezza dell’MMN era significativamente attenuata quando l’emozione legata alla figura era a basso arousal e positiva rispetto a quando era negativa o ad alto arousal. Per spiegare questo dato, gli autori suggeriscono che gli stimoli positivi a basso arousal segnalino la presenza di un ambiente non rischioso ma al contempo non appetivo, e che ciò produca la tendenza a rilevare automaticamente cambiamenti inaspettati a livello delle stimolazioni uditive.
11.4.2 Ruolo dell’amigdala Surakka e colleghi inoltre propongono un modello secondo il quale l’amigdala costituisce un importante elemento di mediazione nel contesto dell’elaborazione degli stimoli sensoriali. Gli stimoli positivi a basso arousal determinerebbero una diminuzione dell’attività dell’amigdala, che a sua volta causerebbe una diminuzione della rilevazione automatica dei cambiamenti inattesi a livello della corteccia uditiva. In sintesi quindi, gli autori suggeriscono che l’elaborazione degli stimoli uditivi sia influenzata dall’amigdala e, attraverso quest’ultima, dagli stimoli emozionali di tipo visivo. Studi precedenti hanno dimostrato che l’amigdala ha un ruolo di primo piano nella comprensione di informazioni connotate emotivamente. Uno studio condotto da Dolan [16] per mezzo della fMRI (risonanza magnetica funzionale) ha mostrato come l’amigdala sia coinvolta nell’integrazione di informazioni visive e uditive legate all’espressione della paura: l’attivazione dell’amigdala e del giro fusiforme aumentano quando un volto esprimente paura viene presentato congiuntamente a un messaggio verbale pronunciato in tono impaurito. Inoltre, l’amigdala riceve proiezioni da tutte le principali aree corticali sensoriali e presenta importanti proiezioni verso le aree visive e uditive. In base a ciò, è stato suggerito che l’amigdala possa avere una funzione di modulazione sugli stadi relativamente precoci della percezione sensoriale [17]. In particolare, essa, oltre a partecipare all’elaborazione unimodale degli stimoli, è coinvolta nell’elaborazione multimodale degli stimoli che hanno valenza affettiva, sia propriamente in termini emozionali, sia più in generale in termini di valenza edonica: l’amigdala è ritenuta essere una struttura associativa multimodale, che riceve afferenze sia dalle diverse aree sensoriali specifiche sia dalle aree polimodali della corteccia temporale [18].
11. Percezione cross-modale delle emozioni. Sincronizzazione di codici comunicativi
281
11.4.3 Valenza edonica e integrazione cross-modale Relativamente alla valenza edonica del pattern emotivo, la letteratura indica che, nel decoding delle espressioni facciali, le emozioni con valenza negativa vengono elaborate principalmente nell’emisfero destro, mentre quelle con valenza positiva sono elaborate prevalentemente nell’emisfero sinistro, in particolare per le aree frontali [19] (per una valutazione critica dell’argomento si rimanda al Capitolo 9). Pourtois e colleghi [20] hanno voluto indagare con uno studio PET se tale effetto di lateralizzazione sia rilevabile anche in presenza di una stimolazione bimodale. Essi hanno utilizzato stimoli visivi (espressioni facciali di gioia e paura), stimoli uditivi (una parola bisillabica pronunciata in tono felice o impaurito) e stimoli bimodali congruenti, risultanti dalla combinazione di quelli unimodali. L’originalità dell’esperimento consiste nell’utilizzo di una consegna indiretta: ai soggetti è stato chiesto di valutare il genere del soggetto che esprimeva l’emozione. Come emerge dai risultati, rispetto agli stimoli unimodali, quelli bimodali attivano maggiormente un’area di convergenza situata nella corteccia temporale sinistra, effetto descritto anche da Calvert [21]. L’attivazione nello specifico coinvolge il giro mediotemporale sinistro (MTG), già precedentemente indicato come area di convergenza multimodale [22] e il giro fusiforme sinistro, la cui attivazione era stata rilevata da un precedente studio fMRI [16]. Inoltre, le analisi condotte separatamente per le due emozioni rivelano la presenza di aree di convergenza supplementari, situate prevalentemente nell’emisfero sinistro per gli stimoli bimodali della gioia e nell’emisfero destro per gli stimoli bimodali della paura. Questo dato indica l’esistenza di componenti neurali di elaborazione cross-modale differenziati sulla base della valenza edonica dello stimolo emotivamente connotato. Infine, confermando quanto già presente in letteratura, i ricercatori hanno evidenziato un’attivazione dell’amigdala per gli stimoli unimodali facciali e per gli stimoli bimodali esprimenti paura. Complessivamente, lo studio condotto dimostra che la presentazione congiunta di stimoli emozionali appartenenti a diverse modalità sensoriali (visiva e uditiva) porta all’attivazione di aree di convergenza eteromodali e che tale processo, data la natura implicita della consegna, ha carattere automatico.
11.4.4 Componente N100 Come anticipato, la N100, componente ERP sensoriale legata all’elaborazione degli stimoli uditivi, è stata utilizzata, al pari della MMN, al fine di indagare le coordinate temporali del fenomeno di integrazione cross-modale che si verifica quando vengono presentati simultaneamente stimoli emotivi visivi e uditivi. La maggior parte degli studi ha indagato l’integrazione cross-modale delle emozioni prendendo in esame l’ampiezza delle componenti ERP implicate, rilevando un incremento o decremento delle componenti unimodali precoci, come il picco uditivo N1 o il picco visivo P1, che hanno luogo intorno ai 100 ms di latenza nelle aree sensoriali specifiche [23]. Infatti, l’incremento dell’attività nella corteccia modalità-specifica è considerato un correlato elettrofisiologico fondamentale della cross-
282
M. Balconi, A. Carrera
modalità [24]. Nel complesso, l’integrazione cross-modale è segnalata da un’amplificazione dell’attivazione, sia a livello delle aree specifiche sia a livello di quei network corticali, come la corteccia parietale posteriore e il giro temporale mediale, che hanno natura multimodale [22]. In uno studio ERP, Pourtois e collaboratori [25] hanno presentato ai soggetti coppie congruenti e incongruenti di stimoli uditivi (frammenti di quattro sillabe pronunciate in tono triste o arrabbiato) e di stimoli visivi (espressioni facciali tristi o arrabbiate presentate normalmente o capovolte), con la consegna di prestare attenzione ai volti ignorando la voce. I risultati rivelano che l’informazione visiva influenza l’elaborazione dello stimolo uditivo già dopo 110 ms successivi alla stimolazione. Tale influenza si manifesta come un aumento dell’ampiezza di N1, come già rilevato in precedenti studi che hanno utilizzato stimoli non di tipo emotivo [10]. Inoltre, l’integrazione avviene solo in presenza di stimoli congruenti, confermando così quanto rilevato a livello comportamentale. Si può dunque ipotizzare che l’elaborazione degli stimoli uditivi venga facilitata dalla presentazione di uno stimolo visivo congruente in termini di contenuto emotivo. L’integrazione non avviene invece quando il volto è capovolto, poiché la rotazione di 180° impedisce il normale processo di elaborazione del volto che, come accennato precedentemente, presenta un percorso di decoding specifico e dedicato.
11.4.5 Indice di integrazione multimodale P2b: gli stadi cognitivi di elaborazione Un numero limitato di studi neuropsicologici ha studiato la convergenza audiovisiva a contenuto emotivo tenendo conto di fattori temporalmente ritardati (a lunga latenza). Tra questi, Pourtois e colleghi [26] hanno dimostrato empiricamente che l’elaborazione degli stimoli emotivi audiovisivi comporta anche precise implicazioni in termini di fenomeni a media e lunga latenza. Questi autori si sono posti l’obiettivo di verificare se la presentazione di uno stimolo facciale può influenzare anche la latenza, oltre che l’ampiezza, dei processi di natura uditiva, prendendo però come oggetto di osservazione un intervallo temporale relativamente meno precoce di quello indagato dagli studi precedentemente citati. In sintesi, le analisi effettuate sulla componente uditiva mostrano l’esistenza di un picco positivo intorno ai 240 ms con una topografia posteriore, che gli autori denominano P2b. Essi ritengono che la P2b rappresenti un indice di integrazione tra la componente uditiva e quella visiva. Tale picco segue le componenti modalità-specifiche uditive N1 e P2 e precede il complesso amodale N2-P3, che si sa essere deputato all’elaborazione cognitiva a un più tardivo stadio decisionale. Gli stimoli bimodali congruenti elicitano una P2b più precoce rispetto agli stimoli incongruenti, suggerendo che l’elaborazione uditiva, in presenza di informazioni incongruenti, sia ritardata. Questi risultati sono in accordo con i precedenti dati comportamentali, che dimostrano una riduzione dei tempi di elaborazione in presenza di stimoli multimodali congruenti. Inoltre, essi sono in accordo con quelli recentemente ottenuti da studi basati sulla fMRI [9] o sulla magnetoencefalografia [23]. I risultati sono coerenti
11. Percezione cross-modale delle emozioni. Sincronizzazione di codici comunicativi
283
con un coinvolgimento della corteccia cingolata anteriore nell’integrazione audiovisiva intorno ai 220 ms. Infatti, un’analisi di localizzazione della fonte effettuata durante l’intervallo temporale corrispondente alla P2b ha messo in evidenza un’implicazione della corteccia cingolata anteriore, coinvolta nell’elaborazione della congruenza/incongruenza tra stimoli [27]. Nel complesso, lo studio mostra che l’integrazione cross-modale degli stimoli emotivi audiovisivi, pur avvenendo già nel corso dell’elaborazione percettiva (nella zona posteriore), comporta precisi effetti in uno stadio decisionale più avanzato. Pourtois e colleghi suggeriscono che già intorno ai 100 ms, nella fase percettiva, avvenga un incremento in termini di ampiezza delle componenti modalità-specifiche [25], successivamente seguito dalla comparsa di altre componenti, come la P2b, sensibili al contenuto dello stimolo audiovisivo. Solo in un secondo momento le informazioni avrebbero accesso a stadi cognitivi più avanzati di natura decisionale.
11.5 Recenti contributi empirici con applicazioni ERP Con un recente studio ERP [28], gli autori del presente contributo si sono posti l’obiettivo di evidenziare alcuni aspetti del fenomeno integrativo di pattern emotivi finora poco considerati. La ricerca ha voluto verificare la presenza di effetti di natura cognitiva di media e lunga latenza nell’integrazione cross-modale delle emozioni, successivamente alla fase di elaborazione percettiva delle componenti multimodali del percetto, con l’intento di rilevare la presenza di variazioni ERP che rendano conto dell’integrazione cognitiva quale risultato della sintesi di informazioni emotive intermodali. Inoltre, utilizzando un ampio range di componenti emotive, si è inteso analizzare l’incidenza del contenuto delle singole emozioni nel processo di integrazione. Lo studio ha dunque indagato il decoding simultaneo degli elementi vocali e della mimica facciale delle emozioni mediante i potenziali evento-correlati, utilizzando un’ampia gamma di emozioni (gioia, tristezza, paura, rabbia, sorpresa e disgusto). Stimoli emotivi vocali (una parola a contenuto neutro pronunciata con tono emotivo) e pattern mimici (espressioni facciali delle emozioni) sono stati accoppiati in condizioni di congruenza (la medesima emozione per entrambi i canali sensoriali) o di incongruenza (emozioni differenti). Ai soggetti sperimentali veniva richiesto di prestare attenzione alle coppie di stimoli, senza aggiungere ulteriori indicazioni circa il contenuto emotivo degli stimoli.
11.5.1 Componenti cognitive di media latenza All’interno della finestra temporale di media latenza (200-300 ms post-stimolo) è stata rilevata la presenza di due differenti deflessioni, una di natura positiva (P2) e una di natura negativa (N2). Esse appaiono caratterizzate da una specifica distribuzione della deflessione sullo scalpo. Più specificamente, nel caso dell’indice P2, si
284
M. Balconi, A. Carrera
registra una localizzazione prevalente del picco nelle aree parietali, dal momento che la deflessione raggiunge un’intensità massima posteriormente (Pz). Un’analoga sensibilità per la localizzazione si rileva per il picco N2, che fa registrare una distribuzione differenziata tra aree anteriori e posteriori, con prevalenza delle prime (Fz) rispetto alle seconde (Pz e Oz). Tenendo conto del dato relativo alla diversa localizzazione delle variazioni ERP, è possibile ipotizzare che le due deflessioni rendano conto di fenomeni cognitivi differenti. Tale andamento sarebbe ulteriormente confermato dalla differente incidenza della condizione di congruenza/incongruenza sull’ampiezza delle due deflessioni. È stata infatti osservata una variabilità dell’intensità di picco in funzione della condizione per P2, con valori di maggiore ampiezza per la condizione di congruenza. Al contrario, è stato possibile rilevare una sostanziale stabilità del picco negativo N2 per entrambe le condizioni sperimentali. Sulla base di quanto rilevato, è possibile supporre che le due deflessioni rappresentino risposte cognitive distinte alle stimolazioni emotive intersensoriali. Data la sensibilità dell’effetto P2 alla condizione di congruenza, è possibile ipotizzare che quest’ultimo rappresenti un indice di media latenza dei processi integrativi intersensoriali nel caso di stimoli a contenuto emotivo. Specificamente, esso mostrerebbe una prevalenza per condizioni di ridondanza e convergenza dell’informazione emotiva proveniente da differenti canali (visivo e uditivo). Al contrario, una sua riduzione renderebbe conto della mancata convergenza delle informazioni veicolate dal volto e dalla voce. Inoltre, esso appare localmente circoscritto nelle aree posteriori (Pz) dello scalpo rispetto a quelle anteriori (Fz). Complessivamente è possibile sottolineare che la deflessione P2 ha una sensibilità alla condizione ma non allo specifico contenuto emotivo. Infatti, a fronte di una mancanza di differenze significative tra le emozioni, esso appare circoscrivere una particolare risposta alla condizione di incongruenza tra canali, mostrando una sostanziale riduzione del picco in questa condizione e un incremento nel caso di congruenza. In precedenti ricerche, come sopra riportato, è stato rilevato un analogo effetto di amplificazione di una deflessione positiva in relazione alla congruenza dei canali, definita come variazione P2b [26], generalmente successiva a un complesso di effetti percettivi di breve latenza (N1-P1) e precedente una deflessione positiva più tardiva (P3). Tuttavia, come già sottolineato, gli studi precedenti hanno esteso la propria analisi solo ad alcuni dei possibili correlati emotivi (generalmente due emozioni contrapposte come gioia e rabbia), non potendo pertanto escludere un effetto diretto su P2 dello specifico contenuto emotivo veicolato dal pattern. Nel presente contributo, grazie all’ampliamento del range delle emozioni, possiamo al contrario escludere con maggiore sicurezza un effetto determinato dal contenuto emotivo a vantaggio del solo effetto di convergenza/divergenza delle informazioni. D’altro canto, è possibile paragonare il significato cognitivo dell’indice P2 precedentemente osservato a quanto rilevato per un indice di maggiore latenza, la variazione N4. Tale componente è stata osservata in precedenza in risposta a condizioni di anomalia semantica o di generale necessità di riconfigurazione del contesto a fronte di elementi di non consonanza stimolo-background, indipendentemente dalla modalità percettiva (rilevata sia per immagini sia per parole) ([29], per un confronto approfondito della N4 si veda il Capitolo 3). È pertanto possibile stabilire un’analogicità delle due variazioni ERP, in quanto l’una sarebbe indicativa di
11. Percezione cross-modale delle emozioni. Sincronizzazione di codici comunicativi
285
una condizione di incongruenza semantica dello stimolo (N4) di tipo amodale, l’altra della mancata convergenza semantica tra più informazioni modalità-specifiche (P2). Nella fattispecie essa risulta essere sensibile all’incongruenza tra canale mimico e vocale, indipendentemente dallo specifico contenuto emotivo espresso.
11.5.2 Ruolo del contenuto emotivo In modo contrapposto, la deflessione negativa N2 non presenta specifici effetti correlati alla convergenza o divergenza delle informazioni emotive cross-modali. Piuttosto, essa appare mantenere un analogo profilo tra le due condizioni sperimentali. Seppure non rilevante ai fini della comprensione dei processi cognitivi sottesi all’integrazione cross-modale, tale variazione funge più specificamente da indicatore emozione-correlato. Studi precedenti hanno infatti rilevato la sua sensibilità rispetto allo specifico contenuto emotivo dello stimolo (tipo di emozione), in funzione di alcuni parametri, tra cui le componenti di arousal del pattern [30, 31]. Lo studio ha inoltre consentito di comprendere meglio quale ruolo svolgano le singole emozioni, rispetto allo specifico contenuto emotivo, analizzando l’effetto dei singoli pattern sull’ERP. In particolare, la deflessione N2 mostra una diversa rispondenza alle singole emozioni, poiché essa appare differenziata tra le emozioni indipendentemente dalla condizione sperimentale. Si rileva una sostanziale differenziazione tra un primo gruppo di emozioni come rabbia, paura, sorpresa e disgusto e un secondo gruppo rappresentato da gioia e tristezza. Nel primo caso, la deflessione negativa mostra una maggiore intensità di picco. In linea con quanto rilevato in precedenti studi, la N2 potrebbe essere un buon indice delle variazioni di arousal e, in secondo luogo, della valenza edonica dello stimolo [32, 33]. È stato ipotizzato che essa possa costituire un marker del contenuto emotivo, variabile in funzione del maggior investimento emotivo dei soggetti in risposta a stimoli maggiormente attivanti (alto arousal, per emozioni come la rabbia, la paura e la sorpresa) e determinati da situazioni “avverse” o di possibile minaccia per il soggetto percipiente.
11.6 Conclusioni La necessità di indagare l’integrazione tra differenti sistemi di comunicazione nel decoding di pattern emotivi nasce dall’esperienza quotidiana che richiede l’elaborazione simultanea di informazioni provenienti da canali sensoriali distinti. In particolare, la percezione cross-modale delle componenti mimiche e vocali è stata analizzata sul piano neuropsicologico, al fine di indagare il contributo di specifiche componenti neurali nel processo di integrazione, nonché di comprenderne la natura. L’attivazione sia di aree primarie visive e uditive, deputate alla rilevazione di informazioni percettive, sia di aree di integrazione evidenzia il contributo di un network finalizzato alla sintesi di elementi provenienti da canali diversi. Inoltre, la precocità del processo di integrazione e l’automaticità con cui viene prodotto ha indot-
286
M. Balconi, A. Carrera
to a ritenere la percezione cross-modale un meccanismo indipendente dalla consapevolezza e dalla volontà del soggetti. Essa si caratterizza pertanto come processo di natura adattiva, acquisito al fine di agevolare la comprensione degli stimoli presenti nell’ambiente, rilevandone precocemente la sintonia (congruenza tra canali) o la non sintonia (incongruenza tra canali). Sul piano percettivo, rilevazioni sia comportamentali (tempi di risposta) sia di natura elettrofisiologica (ERP) hanno sottolineato la facilitazione prodotta dal decoding di stimoli convergenti rispetto a stimoli divergenti, con riduzione dei tempi di risposta e un incremento di ampiezza di alcuni marcatori corticali in caso di convergenza. Tuttavia, recenti contributi neuropsicologici hanno consentito di porre in evidenza anche gli effetti a lungo termine prodotti dall’integrazione intersensoriale per pattern mimici, che riguardano più specificamente componenti cognitive di media e lunga latenza (in particolare l’indice ERP P2). Quest’ultimo segnalerebbe l’avvenuta integrazione dei sistemi non verbali e la disponibilità del percetto per successivi processi di natura decisionale (di lunga latenza), successivi alla fase percettiva.
Bibliografia 1. Schroeder CE, Foxe JJ (2002) The timing and laminar profile of converging inputs to multisensory areas of the macaque neocortex. Cognitive Brain Res 14:187-198 2. Graziano MS, Hu XT, Gross CG (1997) Visuospatial properties of ventral premotor cortex. J Neurophysiol 77:2268-2292 3. Schroeder CE, Smiley J, Fu KJ et al (2003) Anatomical mechanisms and functional implications of multisensory convergence in early cortical processing. Int J Psychophysiol 50:5-17 4. Van Lancker D, Sidtis JJ (1992) The identification of affective-prosodic stimuli by left- and right. Hemisphere-damaged subjects: all errors are not created equal. J Speech Hear Res 35:963-970 5. Scott SK, Young AW, Calder AJ et al (1997) Impaired auditory recognition of fear and anger following bilateral amygdala lesions. Nature 385:254-275. 6. De Gelder B, Vroomen J (2000) The perception of emotions by ear and by eye. Cognition Emotion 14:289-311 7. De Gelder B, Vroomen J, Bertelson P (1998) Upright but not inverted faces modify the perception of emotion in the voice. Cahiers de Psychologie Cognitive/Current Psychology of Cognition 17:1021-1031 8. Fort A, Delpuech C, Pernier J et al (2002) Early auditory-visual interactions in human cortex during nonredundant target identification. Cognitive Brain Res 14:20-30 9. Calvert GA, Campbell M, Brammer RJ (2000) Evidence from functional magnetic resonance imaging in cross-modal binding in the human heteromodal cortex. Curr Biol 10:649-657 10. Giard MH, Peronnet F (1999) Auditory-visual integration during multimodal object recognition in humans: a behavioral and electrophysiological study. J Cognitive Neurosci 11:473-490 11. Rugg MD, Coles MGH (1995) Electrophysiology of mind. Oxford University Press, Oxford 12. Näätänen R (1992) Attention and brain function. Lawrence Erlbaum Associates, Mahwah 13. Levänen S, Sams M (1997) Disrupting human auditory change detection: Chopin is superior to white noise. Psychophysiology 34:258-265 14. De Gelder B, Böcker KBE, Tuomainen J et al (1999) The combined perception of emotion from voice and face: Early interaction revealed by human electric brain responses. Neurosci Lett 260:133-136 15. Surakka V, Tenhunen-Eskelinen M, Hietanen JK et al (1998) Modulation of human auditory information processing by emotional visual stimuli. Cognitive Brain Res 7:159-163
11. Percezione cross-modale delle emozioni. Sincronizzazione di codici comunicativi
287
16. Dolan RJ, Morris JS, de Gelder B (2001) Cross-modal binding of fear in voice and face. Proc Nat Ac Sci 98:10006-10010 17. LeDoux JE (1998) The emotional brain: the mysterious underpinnings of emotional life. Weidenfeld & Nicolson, London 18. O’Doerty J, Rolls ET, Kringelbach M (2004) Neuroimaging studies of cross-modal integration for emotion. In: Calvert G, Spence C, Stein BE (eds) The handbook of multisensory processes. The MIT Press, Cambridge Mass., pp. 563-579 19. Davidson RJ, Irwin W (1999) The functional neuroanatomy of emotion and affective style. Trends Cogn Sci 3:11-21 20. Pourtois G, de Gelder B, Bol A et al (2005) Perception of facial expressions and voices and of their combination in the human brain. Cortex 41:49-59 21. Calvert GA, Hansen PC, Iversen SD et al (2001) Detection of audio-visual integration sites in human by application of electrophysiological criteria to the BOLD effect. Neuroimage 14:427-238 22. Mesulam MM (1998) From sensation to cognition. Brain 121:1013-1052 23. Raij T, Uutela K, Hari R (2000) Audiovisual integration of letters in the human brain. Neuron 28:617-625 24. Driver J, Spence C (2000) Multisensory perception: beyond modularity and convergence. Curr Biol 10:731-735 25. Pourtois G, de Gelder B, Vroomen J et al (2000) The time-course of intermodal binding between seeing and hearing affective information. Neuroreport 11:1329-1333 26. Pourtois G, Debatisse D, Despland P-A et al (2002) Facial expressions modulate the time course of long latency auditory brain potentials. Cognitive Brain Res 14:99-105 27. McLeod CM, McDonald PA (2000) Interdimensional interference in the Stroop effect: uncovering the cognitive and neural anatomy of attention. Trends Cogn Sci 4:383-391 28. Balconi M, Carrera A (2008) Integrazione intersensoriale visivo-uditiva per patterns emotivi. Uno studio neuropsicologico. Ricerche di Psicologia (in stampa) 29. Balconi M, Lucchiari C (2005) Consciousness, emotion and face: an event-related potentials (ERP) study. In Ellis RD, Newton N (eds) Consciousness and emotion. Agency, conscious choice, and selective perception. John Benjamins Publishing Company, Philadelphia, pp. 121-135 30. Balconi M (2004) Decoding dell’espressione facciale delle emozioni, arousal e valenza edonica. Analisi mediante potenziali evocati corticali (ERPs). Ricerche di Psicologia 2:7-34 31. Sato W, Kochiyama T, Yoshikawa S et al (2001) Emotional expression boots early visual processing of faces: ERP recording and its decomposition by independent component analysis. Neuroreport 12:709-714 32. Balconi M, Pozzoli U (2003) Face-selective processing and the effect of pleasant and unpleasant emotional expressions of ERP correlates. Int J Psychophysiol 49:67-74 33. Streit M, Wölwer W, Brinkmeyer J et al (2000) Electrophysiological correlates of emotional and structural face processing in humans. Neurosci Lett 278:13-16
Indice analitico
Accesso 92, 99, 100, 102, 106, 107, 112, 113 Adattiva, funzione 276 Afasia 91, 122-129, 134-135 Affetto negativo 254, 262, 263 Affetto positivo 254 Alfabeto 96, 98 Amigdala 236, 238, 239, 243, 244, 260, 261 Anatomo-strutturale 51 Ansia 249, 250-255, 258-262, 265, 266 Appraisal 213 Aptica 201, 208 Area Fusiforme del Volto 233 Aree di convergenza 275, 281 Arousability 252 Arousal 251, 252 Articolazione 91, 103 Asimmetria 98, 112, 115 Asimmetria emisferica 10 Asimmetria funzionale 216 Aspettative semantiche 139, 140, 146 Assessment neuropsicologico 60 Astrattezza 92 Attacco/fuga/congelamento, sistema di 251 Attenzione 183-186, 189, 191, 198 Attivazione comportamentale, sistema di 250 Attività elettrodermica (EDA) 264, 266 Automonitoraggio 183, 187, 193, 197, 198 Autoriflessività 187 Bambini 97, 99, 102-106 Bentin 117 Bilingui 112, 114-116 Broca, afasia di 91 Broca, area di 91, 111 Canale uditivo 264 Canale visivo 264, 276, 277 Caratteri 92, 96, 113
Categoriale, modello 226, 238 Categorizzazione 102-106 Cinesico-gestuale 207, 208 Cloze probability 107, 142-146, 151-154 Codice 228-230 Coltheart 92, 116 Competenza 105, 112 Comportamento finalizzato 196 Comprensione 91-93, 95, 111, 112, 116 Comunicazione 2-10, 23-31, 34, 37-42 Comunicazione non-verbale, sistemi di 201, 204-207, 220 Concettuale, sistema 17, 19-22 Concordanza 111 Concretezza 92 Conduttanza cutanea 58, 70 Contesto 166-174 Convergenza intersensoriale 215, 216, 221 Conversione 92, 98-102 Coordinamento interemisferico 219 Correlazionale, metodo 54, 55, 83, 84 Corteccia extrastriata 97 Corteccia frontale 99, 111 Corteccia inferotemporale 96 Corteccia occipitale 95 Corteccia occipito/temporale 97, 114 Corteccia parietale 91, 107 Corteccia visiva 93, 100 Coscienza 183, 184-187, 198 Damasio 95 Decisione fonetica 101, 107, 108 Decorso temporale 93, 94, 99-102, 112 Deflessione 93 Dettato 102 Deviante 104-106 Dimensionale, modello 238 Dislessia fonologica 93, 103
290 Dislessia superficiale 92 Dislessici 92, 97, 103 EEG vedi Elettroencefalogramma Elaborazione semantica 116 Elaborazione sintattica 112, 116 ELAN 96, 111 Elettroencefalogramma (EEG) 58, 68, 72-74, 93, 94, 96, 97, 116, 255, 263, 278, 281, 286 Elettrofisiologia 91, 93 Elettromiografia 68 Eloquio 91, 94, 101 Emisferica, asimmetria 10, 12, 15, 28, 29, 31-34 Emisferica, specializzazione 70 Emisfero destro 116, 122-125, 129 Emisfero sinistro 100, 125 Emotiva, sintonizzazione 8, 40-41, 42 Emozione 250 ERP vedi Potenziali Evento-Correlati Error-Related Negativity 261 Esecutive, funzioni 187-194, 197-198 Esecutivo centrale 127, 130, 133 Estroversione 249, 252, 253, 258 Età adulta 97, 102, 105, 109 Età di acquisizione 113, 114, 116 Età scolare 102 Eysenck, modello di 249-260 Feedback 251, 252 Filogenesi 203 Fluenza 115, 116 fMRI vedi Risonanza magnetica funzionale Fonema 92, 93, 98-106 Fonologia 99 Formanti 103 Frase 95, 106-111 Frazionamento funzionale 54 Frequenza cardiaca (FC) 255, 256 Frequenza d’uso 92, 102, 107, 113 Frequenza fondamentale (F0) 212-214 Gazzaniga 95 Gesti iconici 207, 210 Gesti simbolici 207, 212, 217 Gestuale, sistema 63 Giro angolare 91, 93, 102, 106 Giro temporale 98, 99, 102 Grafema 92, 93, 98-106 Graphogame 106 Gray, modello di 249-261, 265, 267 Hagoort 109, 110 Helenius 97, 117 Hillyard 95, 116
Indice analitico Idioma 151-155 Idiomatiche, espressioni 121-135, 139, 140145, 151, 152, 156-158 Imitazione gestuale 210 Impulsività 249, 253, 254, 255, 259, 260, 265, 266 Incongruenza 94, 106-109 Indici cardiovascolari 71 Indici di interferenza 65, 66 Indici discriminativi 65, 66 Inferenza 164, 167, 172 Inferenza, processi di 190 Inferenziale, processo 23, 30, 36 Inibizione comportamentale, sistema di 250 Innatismo strutturale 10 Intenzionalizzazione 183, 185 Intenzione comunicativa 163-174, 177 Interfaccia, aree di 14 Interpreti 112-115 Iperlessia 92 Ironia 171-177 Kutas 106, 107, 111 LAN 96, 110, 111 Lateralizzazione 112, 115, 116 Leppänen 105, 117 Lesione frontale 129, 130 Lesione temporale 129 Lessicale, forma 18, 20 Lessico 92, 113 Lettera 97, 105-107, 113 Lettore 99, 105, 107, 111 Lettura 99-106, 112, 116 Lexical Processing Negativity 107 Lingua 112-116 Linguaggio 30, 36, 39, 42, 91-104, 112, 113 Linguaggio dei segni 217 Linguaggio figurato 28, 30, 31, 148, 149, 153, 155, 158 Livello di conduttanza cutanea (SCL) 264 Lobo temporale 238, 243 Localismo 52 Localizzazione funzionale 54 LORETA 93, 98 LPN 107, 113, 115 Magnetoencefalografia (MEG) 78, 93, 94, 97, 100 Magnetoencefalogramma 93 Magnocellulare, ipotesi 103 Marshall 92, 93, 116 MEG vedi Magnetoencefalografia Mentali, modelli 7, 19, 37, 38, 41
Indice analitico Mentali, stati 7, 40, 41 Metacognizione 184, 194, 197 Metacognizione autodiretta 197 Metacognizione eterodiretta 197 Metodi clinici 55, 56 Metodi sperimentali 55 Mismatch 94, 99, 100, 104, 105 Mismatch Negativity (MMN) 100, 104-106, 275 Misure comportamentali 62 Misure neurovegetative 68 Misure di self-report 59, 60, 62 MMN vedi Mismatch Negativity Modularità 19, 31 Modularità funzionale 18, 19, 31 Modularità rappresentazionale 53 Multilinguismo 112, 114 Multisensorialità 275 N170 114, 231, 232 N3 107 N400 94, 102, 106-111, 113, 142, 148-150, 232, 233, 238 Näätänen 104, 117 Negatività 94, 100, 104-107, 110-113 Network corticale 234 Neuroimaging 51, 54, 56, 77-84 Neurolinguistica 4, 10, 14, 17, 35, 37 Neuropragmatica 34, 42 Neuropragmatica clinica 171, 177 Neuropragmatica cognitiva 170-171 Neuropragmatica del discorso 34 Nevroticismo 249, 256, 257 Newcombe 92, 116 Nittrouer 103-107 Oculari, movimenti 63, 66-68 Olismo 52 Ortografica, analisi 94, 95, 96-98, 110, 115 P150 107 P2b 282-284 P300 143, 146-158 P600 94, 110, 111, 114, 115 Pantomime 208-212 Parola 91, 114 Parola terminale 96, 106, 109, 111, 114 Percezione allofonica 103, 104 Percezione cross-modale 276 Periodo critico 11 Personalità 261, 265, 267, 268 Pertinenza 167, 168 Petersen 95 Piani schematici di azione 195 Pianificazione dell’azione 183, 187, 191
291 Picton 95 Plasticità cerebrale 106 pMMN 94, 100 Polifunzionalità corticale 52 Posner 95 Potenziale evocato 93, 96 Potenziali Evento-Correlati (ERP) 51, 59, 64, 78, 93-117, 147-150, 151-158, 255, 283, 284-286 Potenziali post-sinaptici 94 Pragmatica 108, 168-174 Pragmatica del discorso 37 Prefrontale, sistema 13, 15, 30, 40-42 Priming 65, 66, 103 Processo automatico 277-278, 281 Produzione 91, 93, 112 Prosodia 7, 17, 26-29, 32 Prosopagnosia 236 Prossemica 201, 208 Proverbio 100, 103, 107, 116-118 Pseudoparola 101, 103, 107 Rafal 95 Raichle 95 Rappresentazionale 183-184 Rappresentazione 100, 102, 104, 108-112 Reinforcement Sensitivity Theory (RST) 250 Riconoscimento, modelli di 227 Ridondanza, effetto 275, 277, 278, 284 Ripetizione 91 Risonanza magnetica funzionale (fMRI) 81, 82, 94, 97-99, 102, 111 Risposta di conduttanza cutanea (SCR) 264 Risposta, tempi di 64 RSVP 95 Salienza 166, 168, 169, 176 Salmelin 116 Scolarizzazione 105 Semantica 164-168, 172, 173, 176 Semantica emotiva 28 Semantica, selettività 33 Sensation Seeking 258-260 Sensibilità acustico/fonetica 104 Sensibilità al premio 257-262 Sensibilità alla punizione 262, 263 Sensibilità lessicale 107, 115 Sensibilità sublessicale 96 Significato 91, 93, 97, 106-111, 114, 173-177 Sillaba 100 Simboli 91, 92, 96-98 Simulazione 55, 57 Sintattica, analisi 94, 96, 110, 111, 114, 116 Sintattica, integrazione 110, 111
292
Indice analitico
Sintattica, struttura 110 Sintattica, violazione 110, 111, 115 Sistema Attenzionale Supervisore (SAS) 189, 191 Sistema Nervoso Autonomo (SNA) 255, 264-268 Sistemi interdipendenti, ipotesi dei 254 Sistemi separabili, ipotesi dei 254 Stimolazione magnetica transcranica (TMS) 78, 79 Stringa 101, 113 Studdert-Kennedy 103, 107 Suono 99, 105, 106 Sutton 95 Syntactic Positive Shift (SPS) 96, 110, 111 Target 97, 98, 101, 103, 110, 113 Temperamento 249, 260 Temple 93, 116 Teoria neuroculturale 225 Umore 249, 250, 255 Umorismo 172-173, 177 Ungerleider 95
Valore d’immagine 92, 96, 99, 103 Via diretta 92 Via dorsale 230 Via fonologica 92, 93, 99, 102 Via lessicale 92, 93, 99 Via ventrale 230 Vincolo contestuale 106, 107 Vincolo semantico 108, 109 Violazione 108-111, 115 Visiva, elaborazione 92 Visiva, via 92, 102 Visivo, riconoscimento 92, 99, 102 Vocale 105, 201, 206, 207, 209, 212-215, 220 Vocale, sistema 24 VWFA 96-98 Wernicke, afasia di 91 Wernicke, area di 91 Wernicke, modello di 91 Working memory 191-193 Zani 100, 116-118
Finito di stampare nel mese di dicembre 2007