martedì 8 maggio 2012

STUDIARE L'INGLESE GRATIS A DUBLINO? POSSIBILE

Sono diverse le scuole di lingua inglese nella città di Dublino. Girando il centro della città ogni 200/300 metri ci si imbatte in un cartello con suscritto "School of English". Esiste anche il modo di farlo gratuitamente, soprattutto se si hanno già le conoscenze di base della lingua.
Una prima alternativa potrebbe essere quella di frequentare le "Public library", quasi ogni circoscrizione della città ne possiede una. In questi luoghi, oltre che conoscere altre persone che si trovano lì per lo stesso motivo è possibile seguire dei corsi di lingua telematici gratuiti per ogni livello (dal base all'avanzato) per quanto concerne ogni tipo di abilità (pronuncia, scrittura, comprensione orale, comprensione scritta). Dopo 50 oredi studio le librerie rilasciano un certificato circa le competenze acquisite. La "Public library" maggiormente frequentata è quella centrale, situata in Henry street all'interno dell'Ilac Shopping Centre".
In queste public library è inoltre possibbile effettuare i cosiddetti "Conversational exchanges" (scambi conversazionali). Tutti i lunedì dalle ore 18:00 alle ore 19:45 si possono incontrare irlandesi interessati all'apprendimento della lingua italiana che saranno ben felici di parlare con un madrelingua che li aiuti a migliorare le loro competenze linguistiche e di ricambiare ascoltandovi parlare la lingua inglese correggendo i vostri errori e dandovi consigli preziosi.
Altra alternativa può essere quella di affiggere un annuncio nella bacheca generale del Trinity College in cui si offrono le proprie competenze linguistiche di madrelingua per insegnare l'italiano in cambio dello stesso favore per quanto concerne l'inglese. Infine, le esperienze di volontariato rappresentano un'ottima via per migliorare le competenze linguistiche. Nel caso non si trovasse subito un'occupazione retribuita (soprattutto se si è alle prime armi con la lingua) vi sono diverse opportunità di volontariato in Irlanda: è sufficiente digitare su Google le parole "volontariato Dublino" e sarà possibile avere una panoramica delle varie opportunità

LAVORARE IN IRLANDA: NECESSARIO IL PPS NUMBER

Trovare un occupazione in Irlanda, anche se temporanea, può essere semplice ma vi può essere richiesto il pps number, una certificazione che attesta che siete domiciliati in Irlanda. Come fare per averlo?
 
                       
Una volta trovata una sistemazione in Irlanda (anche in un ostello) potete iniziare subito a muovervi per ottenere il pps number. Dunque, chiedete al vostro padrone di casa una copia del contratto d'affitto o nel caso non ce l'abbiate, una delega da parte sua che attesti che siete domiciliati in quella casa o in quell'ostello. Nel caso non abbiate un contratto d'affitto sarà necessaria una bolletta relativa all'ultimo bimestre precedente la vostra richiesta.
Cercate attraverso internet il "Social Welfare Local Office" più vicino al vostro domicilio (soltanto per una questione di comodità, la richiesta del pps number può essere fatta presso qualunque ufficio) con una copia della vostra carta d'identità e del contratto d'affitto. Nel caso non avete il contratto portate con voi una delega del padrone di casa che attesti il vostro domicilio e una copia di una bolletta relativa all'ultimo bimestre precedente la vostra richiesta.
 Una volta arrivati in ufficio recatevi alla portineria e riferite che siete intenzionati ad effettuare domanda di richiesta del pps number. Vi verrà assegnato dato un numero per la coda agli sportelli; quando arriverà il vostro turno recatevi agli sportelli con tutta la documentazione necessaria. L'impiegato prenderà atto della vostra documentazione vi farà firmare alcune carte. Il vostro pps number arriverà presso il vostro domicilio via posta entro una settimana dalla richiesta.

IN VACANZA A FIRENZE? COME MUOVERSI?


I monumenti più importanti di Firenze sono concentrati nei pochi chilometri del centro storico.E' pertanto consigliabile muoversi a piedi, al fine di poter ammirare le bellezze di questa città. L'orientamento è abbastanza facile, perché i punti principali di Firenze sono molto vicini e ben segnalati, quindi è molto semplice raggiungerli. Il cuore della città è organizzato intorno al centro civile (Piazza della Signoria) e storico (Duomo). Da qui, sempre a piedi, si raggiungono tutti gli altri luoghi di interesse di Firenze. Un altro punto di riferimento importante è la stazione di Santa Maria Novella, vicino all'omonima chiesa Qui arrivano tutti i treni e gli autobus cittadini.

FIRENZE NON HA UNA METROPOLITANA

MUOVERSI A FIRENZE IN AUTO

Firenze ha un centro storico quasi interamente pedonalizzato, in cui l'accesso alle auto è consentito solo ai residenti e ai turisti che devono arrivare all'hotel. Al di fuori della ZTL (Zona a traffico limitato), il traffico può essere caotico. E' quindi consigliabile evitare l'uso dell'auto quando possibile. Se si giunge a Firenze in auto, è possibile lasciarla in uno dei grandi parcheggi di interscambio anche tutto il giorno, pagando la tariffa giornaliera.

PARCHEGGIARE A FIRENZE

Parcheggiare a Firenze non è proprio semplice. I parcheggi gratuiti sono praticamente inesistenti, ed è possibile trovarne qualcuno sono verso la periferia. Quando ci si avvicina al centro storico, è possibile parcheggiare nelle strisce blu a pagamento. Attenzione: le strisce bianche non sono parcheggio gratuito ma riservate ai residenti. Ci sono alcuni grandi parcheggi in cui lasciare l'auto per uno o più giorni. Il più comodo da raggiungere è quello che si trova sotto la stazione di Firenze Santa Maria Novella. (Tariffa oraria 2 € prima ora o frazione, 2 € seconda ora o frazione, 3 € terza ora o frazione). Da lì in pochi minuti si raggiunge a piedi il centro. Sempre vicino alla stazione c'è il grande parcheggio della Fortezza Da Basso. (tariffa oraria 1,50 € auto). I parcheggi del Parterre (Piazza Libertà) e Oltrarno (Porta Romana) offrono tariffe turistiche giornaliere e notturne particolarmente vantaggiose.

MUOVERSI A FIRENZE IN AUTOBUS

Il servizio autobus di Firenze è gestito da ATAF e da LI-NEA; i pullman sono di colore verde e arancione. Tutti gli autobus fiorentini passano e fermano davanti alla stazione di Santa Maria Novella, che quindi è un buon riferimento per chi non consce la città. In modo diretto o attraverso un cambio, gli autobus fiorentini permettono di raggiungere qualsiasi parte della città. Il servizio autobus è attivo tutti i giorni dell'anno fino alle ore 1.50 di notte. Il biglietto per la corsa singola dura 70 minuti e costa 1,20(2 € se acquistato a bordo). Per chi vuole muoversi in libertà sugli autobus senza spendere un capitale, consigliamo il biglietto giornaliero che costa 5 € e permette di salire e scendere liberamente da tutti gli autobus di tutte le linee. L'abbonamento che vale tre giorni ha un costo di 12 euro. Le linee che possono essere utilizzate per raggiungere il centro storico della città sono: la C1, C2, C3 e D. Queste linee collegano varie zone della città con le maggiori attrazioni del centro storico fiorentino (Ponte Vecchio, il palazzo della Signoria, la cattedrale di Firenze, cattedrale di Santa Maria del Fiore, gli Uffizi); le linee nei giorni feriali solitamente circolano dalle ore 7:00 alle ore 20:30 con una frequenza di 10/15 minuti, la domenica e i giorni festivi la linea circola dalle ore 8:30 alle ore 20:30, con una frequenza di 15/20 minuti. L'aereoporto Amerigo Vespucci è collegato alla stazione di Santa Maria Novella con una navetta a cui si accede con un biglietto dal costo di 4,5 euro. Per maggiori informazioni consultare il sito www.ataf.net

MUOVERSI A FIRENZE IN TRAM

La linea T1 circola nei giorni lavorativi con una frequenza di 4 minuti, dalle 7.30 alle 20.30, ogni 6 minuti dalle 5.30 alle 7.30 e dalle 20.30 a 00.30

MUOVERSI A FIRENZE IN TAXI

I numeri di telefono utili per contattare un taxi sono:

Tel. 055 4390
Tel. 055 4499
Tel. 055 4242
Tel. 055 4798.                                                                                                                              

Per chiamare un taxi occorre chiamare uno dei numeri sopraindicati. All’interno di ogni taxi, oltre al numero identificativo della vettura, è visibile il tassametro che indicherà, da un lato la tariffa in progressione (in base al chilometraggio e al tempo di attesa), dall’altro lato i vari supplementi (bagagli e chiamata radiotaxi). Sul tassametro è visibile anche il tipo di tariffa adottata, che per le corse in città è la 1, per fuori città la 2 e per le corse in aereoporto la 4. Il totale dovuto apparirà sul display alla fine della corsa. Il tariffario è esposto all’interno di ogni taxi. In caso di contestazione farsi rilasciare dal tassista una ricevuta di pagamento con le seguenti indicazioni: percorso effettuato, numero del taxi e somma
  MUOVERSI A FIRENZE IN BICI

Il centro storico di Firenze è piccolo e pianeggiante, quindi per chi non vuole camminare a piedi la bicicletta è un ottimo mezzo. Camminando per le vie del centro si incontrano diversi negozi di noleggio bici e anche luoghi dedicati al loro parcheggio. Non tutte le strade del centro sono lisce ed asfaltate, quindi la pedalata può essere faticosa e accidentata. Il Comune di Firenze ha promosso, inoltre, una iniziativa per incoraggiare l’uso della bicicletta. Il servizio consente il noleggio di una bici da una delle postazioni indicate. Le tariffe sono abbordabili e consentono ai turisti il noleggio di una bicicletta a 1,50 euro all’ora. 4,00 euro per 5 h di noleggio. Il noleggio per una intera giornata costa euro 8,00. Per maggiori informazioni è consultabile il sito: www.comune.firenze.it.

COSA SI INTENDE PER EMPATIA E PER TEORIA DELLA MENTE? VI SARA' FORSE UNA RELAZIONE TRA UN DEFICIT IN TALE ABILITA' E LA PSICOPATOLOGIA


L'empatia può essere definita come la capacità di comprendere gli stati mentali altrui facendo riferimento alla propria esperienza (Docety e Moriguchy, 2007). Il concetto di empatia riguarda sia aspetti affettivi, la condivisione di aspetti emotivi e la condivisione di emozioni, che aspetti cognitivi, la comprensione intellettuale di esperienze emotive di altre persone (Davis, 1980). Gli aspetti cognitivi sono strettamente correlati al concetto di “teoria della mente”, la capacità di inferire gli stati mentali altrui sulla base dei propri (Premack e Woodruff, 1978). E' comunque da sottolineare che, propedeutico al concetto di teoria della mente, è la capacità di distinguere sé dall'altro, la consapevolezza che gli altri sono diversi da sé, hanno una loro stabilità e continuità nel tempo e per questo vivono emozioni e sentimenti diversi dai propri; al fine di sviluppare una teoria della mente, inoltre, sarà rilevante la comprensione di due stati mentali, quello dei desideri e quello delle credenze e la consapevolezza che la mente sia un'attiva interprete di informazioni (Wellman, 1990), cioè che le nostre percezioni non sono basate unicamente sulle informazioni ambientali. In assenza di una teoria della mente la previsione, la spiegazione e il controllo del comportamento sarebbero impossibili e il mondo apparirebbe caotico e avverrebbe una totale rottura della comunicazione, cosa che succede in alcune condizioni psicopatologiche come la schizofrenia, l'autismo e alcune malattie genetiche come la sindrome di Williams. Di conseguenza, una piena comprensione dello sviluppo delle capacità empatiche potrebbe avere importanti implicazioni dal punto di vista terapeutico. Verranno illustrati, inoltre, in questo lavoro alcune metodologie oggi utilizzate per la valutazione dello sviluppo delle capacità empatiche del bambino e quelli che possono essere dei fattori di rischio e protettivi affinchè i bambini sviluppino una teoria della mente: fattori ambientali, come ad esempio la qualità dell'attaccamento sviluppato con il caregiver possono assumere una certa rilevanza a tal proposito. Verranno, inoltre, citati alcuni studi che dimostrano come lo sviluppo delle capacità empatiche si prolunga fino all'età adulta.



A QUANTI ANNI SI SVILUPPA UNA TEORIA DELLA MENTE?

Per rispondere a tale domanda attualmente sono utilizzati test in cui i bambini devono mostrare che comprendono che la realtà può essere rappresentata in modo erroneo e quindi che la mente costruisce attivamente le rappresentazioni mentali: i bambini devono saper conservare in memoria due tipi di informazioni: una circa la realtà ed uno circa quella che può essere una rappresentazione alternativa della realtà, una falsa credenza. Un test che va ad indagare la comprensione della falsa credenza è il test di “trasferimento inaspettato” (Wimmer e Perner, 1983). Il test consiste nel racconto di una storia in cui un bambino chiamato Maxi mette una barretta di cioccolata in un cassetto verde che poi viene spostata, da un terzo nella storia, dal cassetto verde al cassetto blu. Al bambino si chiede dove Maxi andrà a cercare la cioccolata: i bambini al di sotto di quattro anni in genere rispondono che Maxi cercherà la cioccolata nel cassetto blu, prevedono il comportamento di Maxi sulla base delle loro credenze, invece che sulla base della falsa credenza di Maxi: tale errore è detto “errore realistico”. I bambini più grandi invece prevedono che Maxi agirà in accordo con la sua falsa credenza. Altro test utilizzato per indagare lo sviluppo della teoria della mente del bambino è il test “apparenza realtà” (Flavell e Green, 1983): vengono loro mostrati alcuni stimoli ambigui come una spugna dipinta in modo da sembrare un sasso: i bambini al di sotto dei quattro anni, quando veniva loro chiesto cosa gli sembrasse, rispondevano comunque che si trattava di una spugna: ciò dimostrerebbe che i bambini tendono a focalizzarsi sulla realtà a spese dell'apparenza. Diverse teorie hanno cercato di spiegare come mai i bambini piccoli falliscano in tali compiti: ad esempio alcuni autori sostengono che i bambini ritengono erroneamente che le informazioni si copiano direttamente dalla mente, le informazioni provenienti dall'ambiente esterno vengono convertite nella loro forma originaria in una rappresentazione mentale della realtà; non concepiscono il fatto che l'uomo interpreti gli input percettivi e quindi che possono essere vittima di informazioni ingannevoli e ritenere false credenze. I bambini sembrano in grado di fare inferenze, ma non arrivano a comprendere che altri possano farlo: sembrano quindi capaci di fare inferenze, ma che non abbiano consapevolezza metacognitiva dei processi coinvolti nella risoluzione del problema (Wimmer e Perner, 1988). Raggiunti i quattro anni i bambini realizzerebbero, invece, che che la mente sia un interprete attivo degli input ambientali e quindi che da tale processo può risultare un informazione distorta e imprecisa (Perner e Davis, 1991). Secondo i teorici della teoria, la comprensione della mente implica cambiamenti qualitativi del sistema rappresentazionale organizzati in senso sequenziale: a due anni la mente si alimenta di percezioni e desideri senza che sia in grado di comprendere le credenze (comprensione di tipo non rappresentazionale); a tre anni riescono a comprendere stati rappresentazionali come le credenze. Infine il bambino riorganizza la propria teoria per spiegarsi come mai le ciò che le persone credono o pensano è governato dalle loro rappresentazioni della realtà e non dalla realtà stessa. In conclusione, quattro anni sembrerebbe l'età in cui in cui avviene lo sviluppo della teoria della mente. Come accennato in precedenza, è da considerare il fatto che alcuni fattori individuali possono far si che l'esordio di tale tappa dello sviluppo del bambino venga anticipato o posticipato.



DIFFERENZE INDIVIDUALI NELLO SVILUPPO DELLA TEORIA DELLA MENTE

Come accennato precedentemente, vi sono alcuni fattori che possono ritardare ed ostacolare lo sviluppo della teoria della mente nei bambini. E' stato ad esempio dimostrato che bambini cresciuti nelle tribù del Camerun non sapevano risolvere il test di Maxi prima dei 5/6 anni (Avis e Harris, 1991). Diversi fattori sociali influirebbero sulla capacità di acquisire la teoria della mente, in primis l'interazione sociale: è stato ad esempio dimostrato che l'interazione con gli adulti favorisce lo sviluppo della teoria della mente (Lewis et al, 1996) e che vi è una correlazione tra il vivere insieme a fratelli maggiori e performance corrette al test di Maxi in età più precoci rispetto alla norma. L'interazione con gli altri probabilmente accelererebbe l'acquisizione di una teoria della mente perchè porterebbe a confrontarsi con molte situazioni in cui i propri punti di vista e i bisogni sono in conflitto con quelli di altre persone. Anche lo sviluppo del linguaggio appare correlato a quello della teoria della mente: è stato dimostrato che i bambini sordi (non esposti alla lingua dei segni fin dalla nascita) mettono in atto performance corrette ai test di teoria della mente significativamente più tardi rispetto ai bambini sordi che vengono esposti alla lingua dei segni sin dalla nascita (Woolfe e Siegel, 2002) e che soggetti di sesso femminile, che apprendono il linguaggio più precocemente, superano i test di teoria della mente prima rispetto ai ragazzi. E' stata rilevata anche una relazione tra comprensione della falsa credenza e partecipazione a conversazioni familiari aventi come oggetto gli stati emotivi. Altri fattori essenziali in tali processo sembrerebbero la sensibilità e la responsività materna: un ruolo di primaria importanza, infatti, sembrerebbe essere giocato dalle precoci relazioni con le figure di attaccamento.



SICUREZZA E ABILITA' DI MENTALIZZAZIONE

Si suppone che i bambini sicuri acquisiscano normalmente le capacità di mentalizzazione poiché hanno avuto una maggiore esperienza nella descrizione e spiegazione del comportamento degli individui. In uno studio che voleva indagare la relazione tra funzione metacognitiva e sicurezza dell'attaccamento, la Main ha affermato l'importanza delle esperienze infantili precoci con la figura materna per lo sviluppo di un'adeguata conoscenza metacognitiva e che le esperienze vissute con i genitori possono modificare non solo i contenuti della mente infantile, ma anche la capacità di operare su di essi. I bambini con attaccamento insicuro non sarebbero in grado di rivolgere l'attenzione all'ambiente in quanto impegnati a monitorare la presenza fisica e l'accessibilità psicologica di chi si prende cura di loro. Uno studio di Fonagy ha rilevato una forte relazione tra sicurezza e comprensione della mente dell'altro, non affrontando però la questione se la sicurezza infantile sia un elemento predittivo delle abilità di mentalizzazione dopo i 3 anni, che in seguito è stato rilevato da un altro studio. Questo lavoro sperimentale aveva due ipotesi di base: scoprire se i bambini sicuri all'età di 4 anni abbiano maggiori probabilità di riuscire nel compito dello “spostamento inaspettato”; la prestazione migliore dei bambini sicuri si nota a 5 anni in compiti che implicano 1 comprensione più complessa della mente dell'altro (come la relazione tra emozione e credenza). Ai bambini di 4 anni è stato somministrato il compito dello spostamento inaspettato; a quelli di 5 anni sono state somministrate anche prove di abilità cognitive generali, oltre al compito di identificazione della figura e a quello della falsa credenza e della emozione (dove il soggetto non solo deve capire qual è la convinzione di 1 personaggio, ma anche integrare quest'informazione con ciò che sa delle sue preferenze e desideri in modo da predirne la risposta emotiva. Si è visto che a 4 anni l'83% dei bambini sicuri riesce facilmente nel compito dello spostamento inaspettato (quelli insicuri, solo il 33%). Anche nel compito di identificazione della figura sono state rilevate differenze significative (le prestazioni dei bambini sicuri erano migliori), significatività che non è stata rilevata nel compito della falsa credenza e dell'emozione. Si può inoltre dire che a 5 anni i bambini sicuri riescono a comprendere con maggiore facilità il punto di vista di un'altra persona. Quali sono i fattori che avvantaggiano i bambini sicuri nelle abilità di mentalizzazione?  In primis, l'acquisizione precoce del linguaggio, conversare su oggetti fisicamente presenti, significa fare esperienza di altri orientamenti nei confronti della realtà. Altri fattori predittivi sembrano essere la capacità di gioco simbolico, la sensibilità e la capacità materna di affidare gradualmente la responsabilità dei compiti della vita quotidiana ai figli. Anche l'utilizzo da parte della madre di un linguaggio ricco di termini mentalistici è 1 buon predittore. In conclusione, le influenze sociali hanno un ruolo rilevante nella capacità di mentalizzazione, soprattutto il riconoscimento da parte della madre del proprio figlio come agente mentale. Vi sono tre possibilità in cui il modo materno di considerare il  proprio figlio come agente mentale può influenzare la sua capacità di mentalizzazione: 1) può sostenere l'acquisizione da parte del proprio figlio di 1 teoria della mente relativa alla propria realtà culturale; 2)il linguaggio inerente stati mentali permette l'acquisizione sa parte del bambini di concetti come credenze e desideri, che giocano un certo ruolo nel successivo sviluppo di una teoria della mente; 3) un interazione reciproca caratterizzata da sensibilità consentirà un interiorizzazione di scambi di natura dialogica che sosterranno la capacità del bambino di integrare tra loro diversi punti di vista sulla realtà.



LO SVILUPPO DELL'EMPATIA DALL'INFANZIA  ALL'ETA' ADULTA

Diversi studi compiuti tramite questionari e procedure comportamentali indicano che le capacità empatiche continuino a migliorare dopo l'infanzia. Sebbene l'esistenza dei neuroni specchio non sia ancora stati confermata su esseri umani, studi di fRMI hanno riportato l'attivazione del giro frontale inferiore (IFG) e della corteccia parietale posteriore, sia durante l'esecuzione che l'osservazione di comportamenti diretti a un obiettivo. L'attivazione del IFG durante il processamento di stimoli dal contenuto emotivo (nel caso dello studio che verrà descritto in seguito, volti) è positivamente correlata con la messa in atto di risposte empatiche. E' comunque sconosciuto come il sistema dei neuroni specchio possa svilupparsi con l'età; è stato ipotizzato che tale sistema, anche se innato possa continuare a svilupparsi con l'età (Killner e Blackmore, 2007). Diversi studi hanno rilevato cambiamenti età-correlati nella rappresentazione neurale di abilità sociali-cognitive, soprattutto focalizzandosi sulla teoria della mente (Moriguchi et al., 2007): questi studi hanno rilevato che le strutture cerebrali implicate nella teoria della mente (corteccia prefrontale mediale, mPFC, solco temporale e polo temporale) cambiano durante l'infanzia e l'adolescenza. In particolare è stato rilevato un decremento nell'attivazione della mPFC dall'infanzia all'età adulta (Blackemore et al., 2007). Altri studi hanno rilevato cambiamenti età-correlati nell'attivazione neurale del precuneo, durante la valutazione di stimoli dal contenuto emotivo (Kobayashi, 2008; Pfeifer, 2007). Dato che ci sono cambiamenti età-correlati nelle strutture neurologiche implicate nella teoria della mente, dovremmo aspettarci che tali cambiamenti sussistano anche riguardo le capacità empatiche, visto lo stretto legame tra questi due costrutti. L'obiettivo di questo studio, dunque, era indagare i cambiamenti neurali età-correlati strutture cerebrali implicate nella risposta empatica tramite fRMI. Nello studio sono stati inclusi soggetti tra 8 e 27 anni che erano sottoposti a due condizioni sperimentali:

1)     inferire lo stato emotivo dalla fotografia di una persona attraverso la sua espressione facciale;

2)     giudicare la propria risposta quando confrontata con l'espressione del viso di altre persone.

Hanno partecipato allo studio 47 soggetti sani, tra gli 8 e i 27 anni che non soddisfavano i criteri per la diagnosi di disturbi psichiatrici e neurologi: le abilità empatiche dei soggetti sono state  preliminarmente valutate tramite opportuni strumenti standardizzati, la “Griffith empathy measure” e la “Parent Report Scale”. Come stimoli sono stati utilizzati volti felici, neutri e tristi o arrabbiati. Le espressioni tristi e felici sono state utilizzate, poiché ritenute adeguate ad evocare reazioni empatiche (Wild et al., 2001). Dal momento che le risposte empatiche sono più facilmente evocate quando la controparte è simile a se stessi (ad esempio per genere od età), sono stati utilizzati stimoli facciali che potevano essere adattati in funzione dell'età del soggetto lasciando invariate tutte le altre caratteristiche dei volti (espressione emozionale, intensità dell'espressione emozionale etc.). In entrambi i compiti, sia nella condizione “self” che nella condizione “other” , i volti, felici e tristi, erano presentati ai soggetti e veniva chiesto loro di giudicare la loro stessa risposta emotiva allo stimolo. Le opzioni di risposta allo stimolo erano tre: “triste”, “neutra” o “felice”. Innanzitutto è stato rilevato un aumento età-correlato dell'attività neurale nel FG e nel IFG, indipendentemente dal fatto che il soggetto attribuisse emozioni a se stesso o agli altri. E' stato rilevato, inoltre, durante il compito “self” che l'attività delle strutture parietali destre decrementa con l'età. L'attività del IFG sinistro, conosciuto come uno dei principali componenti dei neuroni specchio, aumenta con l'età durante il compito “self” se confrontato con il compito “other”. E' stato suggerito che i neuroni specchio possano costituire il substrato neurale della comprensione di emozioni altrui attraverso un meccanismo di simulazione interna (Iacoboni e Mazziotta, 2007). L'attivazione dei neuroni specchio negli adulti aumenterebbe come una funzione legata all'expertise. Si ritiene che che l'aumento dell'attivazione del IFG con l'età possa essere dovuto ad una maggiore esperienza acquisita durante interazioni socio-emozionali. Gauthieret al. (1999) hanno evidenziato che l'attivazione del IFG aumenta al crescere dell'expertise visivo; di conseguenza, si suggerisce che la maggiore attivazione del IFG di partecipanti più anziani, in rapporto ai più giovani, rifletta la maggiore esperienza ed expertise nell'estrarre informazioni rilevanti da stimoli dal forte contenuto emotivo. Durante la condizione sperimentale “self” i soggetti più giovani, hanno mostrato maggiore attivazione del precuneo destro, del IFG e delle strutture parietali destre: questo dato fa pensare che i più giovani si basano maggiormente su processi auto-referenziali quando valutano la loro risposta emozionale agli stimoli facciali, suggerendo che vi siano differenze individuali età correlate nella risoluzione di tale compito. Tali risultati indicano che questi cambiamenti nello sviluppo sono accompagnati da cambiamenti nell'attivazione di strutture parietali dx, coinvolte nella cognizione auto-referenziale. Diversamente da molti altri studi, inoltre, in questo studio non sono stati rilevati decrementi età-correlati, nell'attivazione della mPFC e altro dato interessante è che tali cambiamenti non son stati rilevati neanche nell'attività amigdaloidea. In conclusione, questo lavoro sperimentale è stato il primo a dimostrare cambiamenti età-dipendenti nelle rappresentazioni neurali dell'empatia dall'infanzia alla prima età adulta. La maggiore attivazione del IFG e delle strutture frontali coinvolte nelle risposte empatiche in soggetti di età più avanzata, rifletterebbe la maggiore esperienza acquisita durante le numerose interazioni socio-emozionali. L'attivazione età-correlata delle strutture parietali destre può riflettere differenze di sviluppo nelle strategie cognitive atte alla valutazione della propria risposta a emozioni altrui.





ABILITA' EMPATICHE IN PAZIENTI SCHIZOFRENICI

Da quanto detto fin'ora non vi è una singola area cerebrale implicata nelle abilità empatiche, più strutture sarebbero implicate in tale processo,: lobi temporali, giunzione temporo-parietale, mPFC e corteccia cingolata anteriore. L'abilità cognitiva inerente la rappresentazione di stati mentali è in genere detta teoria della mente (Premack e Woodruff, 1978), mentre l'abilità implicata nella condivisione e nell'inferenza di stati mentali altrui è detta empatia (Lawrence et al, 2004). Questi due costrutti sembrano essere correlati all'attivazione di aree cerebrali simili. I pazienti schizofrenici sembrerebbero avere problemi nella rilevazione di stati mentali altrui, le credenze, i percetti e le emozioni e il grado di compromissione di tali abilità sembrerebbe roflettere dal grado di severità della patologia, il grado di compromissione delle funzioni esecutive e più in generale il grado di destrutturazione cognitiva. Queste anormlità sono state proposte essere sottostanti a specifici sintomi delle psicosi, come allucinazioni uditive, deliri di persecuzione, disturbi del pensiero e sintomi negativi (Frith, 1992). Diversi lavori sperimentali si sono concentrati sul cercare di comprendere come mai questi pazienti avessero un deficit la sfera empatica: è stato dimostrato che i pazienti schizofrenici avevano attivazioni ridotte nel IFG e (Russell et al., 2000) e nella mPFC sinistra (Lee et al., 2006). Altri studi hanno dimostrato una riduzione nella densità e nel volume della materia grigia in pazienti schizofrenici (Honea et al., 2009), suggerendo quindi che alla base delle performance anomale vi fosse un processo degenerativo. L'obiettivo del presente studio era indagare attraverso fRMI i correlati anatomici di teoria della mente ed empatia, attraverso fRMI, in soggetti schizofrenici. Era stato ipotizzato che le performance di soggetti schizofrenici fossero significativamente diverse rispetto a quelle dei soggetti di controllo e sarebbero anche differenti i livelli di attivazione delle aree cerebrali precedentemente menzionate e che queste aree avessero differenti volumi di materia grigia nei due campioni. Sono stati sottoposti a quest'esperimento 24 pazienti schizofrenici cronici e 20 soggetti di controllo della stessa età. E' stata inoltre valutata la severità della sintomatologia di tali pazienti tramite una scala di misura, il PANSS. E' stato utilizzato un paradigma di sperimentale in cui venivano mostrati ai soggetti dei fumetti nei quali veniva raccontata una breve storia. Vi erano 4 categorie di storie: una la cui comprensione implicava l'applicazione della teoria della mente, in cui il soggetto doveva inferire le intenzioni del protagonista della storia; una storia inerente le l'empatia affettiva,  che per essere compresa richiedeva ai partecipanti di empatizzare con il protagonista della storia; due condizioni sperimentali di controllo basate la cui comprensione richiedeva la padronanza di della causalità fisica. I pazienti mettevano in atto prestazioni peggiori rispetto ai controlli in entrambi i compiti. A livello neurologico sono state rilevate differenze significative nelle seguenti regioni: lobo parietale posteriore destro, giunzione temporo-parietale sinistra e nella mPFC. Nel lobo temporale superiore è stata rilevata una diminuzione del volume della sostanza grigia. Tra tutte queste aree cerebrali, l'area in cui è stata rilevata una differenza maggiormente significativa è il giro temporale superiore destro: i pazienti mostravano in quest'area un'attivazione significativamente maggiore rispetto ai controlli nel compito di teoria della mente. In questa regione i pazienti mostravano inoltre una riduzione significativa della sostanza grigia, suggerendo suggerendo che le differenze nei due compiti sono correlate a specifiche anomalie strutturali. Nel compito inerente l'empatia, invece, è stata rilevata una maggiore attivazione del giro temporale superiore destro. Questi risultati sono in accordo con quelli di altri studi che hanno dimostrato anomalie sia qualitative che quantitative in queste regioni e altri che hanno rilevato la distruzione delle connessioni di sostanza bianca tra lobi temporali mediali e regioni neocorticali. In conclusione, l'appiattimento affettivo, che è uno dei sintomi maggiormente prevalenti in questa patologia, può essere spiegato in termini di regressione delle capacità del soggetto di “empatizzare”, che a sua volta si traduce in una carenza di comunicazione emotiva; tale alterazione può anche essere spigata in termini di compromissione delle aree cerebrali riportate da questo lavoro sperimentale.





AUTISMO

L’autismo è una condizione psicopatologica che si inserisce nell'ambito dei “disturbi pervasivi dello sviluppo”; il fenotipo comportamentale di tale patologia è caratterizzato dall’alterazione di aree alcune aree dello sviluppo: lo sviluppo della reciprocità sociale, della capacità comunicativa. Prototipica della sintomatologia autistica è anche la presenza di modalità ripetitive e stereotipate di comportamento. Si delineano 3 domini principali in cui si apprezzano alterazioni e deviazioni, che considerate congiuntamente, configurano il disturbo autistico.

Le anomalie delle interazioni sociali sono il nucleo principale e specifico dell’autismo,e richiedono quindi la maggiore attenzione, le alterazioni delle competenze comunicative associate a diversi tipi di comportamenti ripetitivi indirizzano la diagnosi nelle fasi precoci. Alla base dei principali deficit e dei disturbi dello spettro autistico,sono considerate rilavanti alcune anomalie dello sviluppo cognitivo ed emotivo; il riferimento è alla teoria della mente ,secondo cui sarebbe presente una specifica difficoltà nel comprendere e interpretare il modo di pensare altrui. Sarebbe presente un’incapacità di comprendere gli stati mentali che di conseguenza limiterebbe la reciprocità sociale. La difficoltà di comprensione degli stati emotivi altrui è da considerarsi in questo ambito: la scarsa empatia non permetterebbe di accedere al significato emotivo condiviso che fortifica il mondo relazionale. Si è rilevata una ridotta capacità di organizzare le informazioni,di programmare il pensiero e quindi le azioni,e poi di spostare il focus dell’attenzione da un argomento all’altro; da queste difficoltà deriva un’ulteriore limitazione ad interagire con l’ambiente.

Le anomalie dello sviluppo relazionale, i disturbi del linguaggio e i comportamenti ripetitivi sarebbero secondari alla difficoltà primaria di interazione sociale,ma non sono ancora chiariti i reciproci rapporti causali.  Alcuni studi si sono proposti l'obiettivo di indagare quali fossero i deficit strutturali e le manifestazioni comportamentali che sottostanno al deficit nelle capacità empatiche tipico dell'autismo: uno di questi è andato a indagare le performance e i differenti pattern di attivazione neuronale tra soggetti con una diagnosi appartenente allo spettro autistico e soggetti di controllo (Shulte-Ruther, Greimel et al., 2011). A questi soggetti era chiesto di valutare risposte emozionali di volti (condizione sperimentale “other-task”) e di valutare la propria risposta emozionale (“self-task”). I soggetti autistici mettevano in atto prestazioni paragonabili a quelle dei soggetti di controllo nella condizione other-task, ma prestazioni significativamente peggiori nella condizione self-task. Durante il self-task i soggetti autistici attivavano maggiormente la mPFC e le aree frontali inferiori. I soggetti autistici attivavano il sistema dei neuroni specchio solo nella condizione “self-task”,  rispetto ai soggetti di controllo. Altro dato interessante è che i soggetti affetti da autismo attivavano durante la risoluzione dei compiti la mPFC dorsolaterale, differentemente dai soggetti di controllo che attivavano la mPFC ventrale: l'attivazione della mPFC ventrale potrebbe alla base della “costruzione del proprio legame emotivo con le emozioni di altre persone”; i soggetti autistici utilizzerebbero una strategia cognitiva atipica per accedere al proprio stato emotivo in risposta alle emozioni altrui. Tale teoria spiegherebbe una caratteristica fondamentale dell'autismo: il fatto che il loro deficit consisterebbe nella comunicazione emotiva e non in una carenza di emotività





L'EMPATIA DEL DOLORE: COME SI COMPONE QUESTA RISPOSTA EMPATICA?

In studi precedenti relativi ai correlati neurali dell’empatia del dolore,era stata individuata attività solo nelle aree del sistema limbico, responsabili dell’esperienza emotiva dolorosa. La regione che ha attirato maggiormente l’attenzione degli studiosi a questo riguardo,è la corteccia cingolata anteriore (ACC).  In essa vengono elaborati, a livello inconscio, i pericoli ed i problemi a cui un individuo è soggetto nel normale decorrere delle proprie esperienze. Può essere considerata come una sorta di sistema d’allarme silenzioso: riconosce il conflitto in essere quando la risposta del soggetto è inadeguata rispetto alla situazione. La ACC è collegata alla regione dell’opercolo parietale e all’insula posteriore e insieme sono deputate alla percezione ed elaborazione del dolore .Queste aree sono coinvolte non solo nel processamento del dolore ma anche nella mediazione delle diverse risposte che si associano ad esso.
In uno studio di Hutchison e colleghi (1999) sul singolo neurone della corteccia cingolata anteriore,è stata registrata l’attività neurale sia nell’esperienza dolorosa provata in prima persona e sia,quando questa esperienza,era solo osservata negli altri;questi neuroni quindi,con la loro attività,hanno mostrato un meccanismo di simulazione simile a quello dei neuroni specchio nelle aree motorie,pur non essendo motoneuroni,ma solo relativamente a stimoli dolorosi. Lo studio sopra descritto però non può essere preso come un campione valido,in quanto è uno studio molto limitato e non facilmente replicabile,compiuto su pazienti neurologici con elettrodi impiantati nella corteccia cerebrale e quindi non ci da la prova dell’esistenza di un processo di simulazione del dolore che bypassa il comportamento motorio associato al dolore. In sintesi,questo studio non ci dice se,insieme all’ACC e le aree limbiche ad essa associate nell’emozione del dolore,si attivano anche le aree premotorie dei neuroni specchio che,come abbiamo precedentemente discusso,si attivano simulando il comportamento motorio in relazione ad altri tipi di emozioni.

Queste aree si attivano sicuramente quando siamo direttamente sottoposti ad uno stimolo di natura dolorosa al quale consegue una risposta motoria (per esempio se appoggiamo una mano su un fornello,le aree motorie e premotorie,elaborano e attivano il movimento di ritrazione della mano dalla superficie calda),ma cosa accade nel sistema specchio quando invece osserviamo situazioni dolorose che coinvolgono altre persone?
E’ da questo quesito che Avenanti e colleghi hanno sviluppato il loro studio.
Nell’esperimento i soggetti sono stati sottoposti al campo magnetico generato dalla TMS:questo macchinario è collegato ad una sonda che viene passata sopra lo scalpo,la quale genera un campo magnetico che induce un campo elettrico in grado di modulare l’eccitabilità della corteccia cerebrale sottostante alla scatola cranica.
Le aree corticali sottoposte a questa modulazione,erano le aree motorie dell’emisfero sinistro,e in contemporanea sono stati registrati i potenziali evocati motori di due muscoli della mano destra dell’osservatore:il primo muscolo interosseo (FDI) che favorisce il movimento della mano nella risposta allo stimolo doloroso mostrato,e l’ultimo abduttore della mano (ADM) che non svolge alcun ruolo nel movimento di risposta al dolore. L’ipotesi dei ricercatori era che mentre i soggetti osservavano immagini di stimolazioni dolorose su delle mani (aghi che pungono le mani),l’eccitabilità del muscolo del soggetto corrispondente a quello punto nell’immagine,diminuisse. La diminuita eccitabilità nel muscolo del soggetto sperimentale, implica che quel muscolo sia attivo nel momento in cui avviene l’osservazione,cioè che sia preparato a dare una risposta al dolore.
Ai soggetti sono stati mostrati tre diversi video:il primo presentava una mano punta da un ago (stimolo nocivo),il secondo era un video a fini di controllo che mostrava una mano accarezzata da un cotton fioc (stimolo non nocivo) e il terzo mostrava un pomodoro punto da un ago (stimolo inanimato).Si è visto che durante l’osservazione dello stimolo nocivo l’eccitabilità del muscolo del soggetto che corrispondeva al muscolo punto nel video,FDI,era significativamente diminuita;mentre il soggetto era sottoposto all’osservazione dello stimolo inanimato,il potenziale subiva una diminuzione di entità non significativa e infine se il soggetto guardava lo stimolo non nocivo,l’eccitabilità era di poco aumentata (ciò significa che il muscolo non era eccitato in quel momento).
I potenziali evocati motori relativi al muscolo ADM,non correlato con la risposta motoria allo stimolo mostrato,confermano la sua esclusione dalla reazione al dolore nel caso in questione;infatti l’eccitabilità di questo muscolo risulta aumentare quando quella del FDI risulta diminuire (se diminuisse significherebbe che anche questo muscolo è attivato per









una pronta risposta al dolore,ma essendo in una regione della mano lontana da quella in cui lo stimolo nocivo è presentato,non è rilevato un incremento nell’attivazione).
I ricercatori,per trovare un’ulteriore correlazione tra le evidenze riscontrate nell’attività cerebrale e il processo empatico del dolore,dopo l’esperimento chiesero ai soggetti di stimare il grado di intensità del dolore provato dai soggetti osservati nei video;le domande usate dagli sperimentatori per conoscere il grado di dolore assegnato dai soggetti agli stimoli,provengono dalla subscala Sensory and Affective  del McGill Pain Questionnaire (MPQ).Avenanti e colleghi riscontrarono che più bassa era l’eccitabilità motoria dei muscoli dei soggetti durante l’esperimento,più alto era il grado di dolore da loro stimato; vale a dire che quanto più acutamente entravano in empatia con il dolore osservato,tanto più intensamente le loro aree motorie simulavano l’azione di ritrazione dallo stimolo nocivo.
I ricercatori sostengono che alla base del processo che prepara la risposta al dolore,ci sia un sistema di risonanza dell’esperienza dolosa che estrae dallo stimolo nocivo gli aspetti sensoriali basilari e li mappa nelle rispettive regioni corticali motorie. Queste ipotesi sono state confermate dallo studio,quindi possiamo sostenere che anche nel processo empatico relativo al dolore,la simulazione dell’azione attuata dal sistema specchio delle regioni corticali motorie,gioca un ruolo importante e che questo processo non è attuato solo dalle aree del sistema nervoso deputate alle esperienze emotive nel sistema limbico,ma necessita anche di una prospettiva motoria.





LA COMPONENTE EMOTIVA DELLA RISPOSTA AL DOLORE

Le precedenti evidenze mettono in luce il ruolo delle aree motorie,trovando nel sistema dei neuroni specchio,un contributo rilevante alla risposta empatica. Quando lo stimolo nocivo non è manifesto all’osservatore ma solo intuito o suggerito,la risposta al dolore altrui è modulata dalle stesse componenti del sistema nervoso o la base neurale di tale risposta, è formata dall’interazione di diversi circuiti cerebrali che agiscono in maniera selettiva relativamente alla forma in cui si presenta lo stimolo? In altre parole,se il comportamento emotivo degli altri rispetto al dolore non ci è manifesto,come riusciamo a capire il loro stato d’animo?
Singer e colleghi hanno voluto chiarire proprio questo, e lo hanno fatto tramite uno studio di fRMI che mette in luce in che modo e da cosa è attivata la componente affettivo-emotiva della risposta empatica al dolore,e il suo essere indipendente dalla componente motoria, quando non assistiamo a esplicite manifestazioni di dolore.
In questa situazione sperimentale i soggetti esaminati erano coppie di coniugi o fidanzati; la donna era posta nello scanner MRI mentre il compagno era seduto accanto ed entrambi erano collegati ad un elettrodo posto sulle rispettive mani destre,attraverso il quale i ricercatori assestavano scosse elettriche. Ad entrambi i soggetti era mostrato un monitor sul quale, subito prima dell’induzione dello stimolo nocivo, appariva una freccia che indicava a quale dei due soggetti fosse diretto il seguente stimolo  (la donna posta nello scanner riusciva a vedere il monitor tramite un sistema di specchi).

Sono state comparate le attività cerebrali dei soggetti femminili, durante due condizioni: la prima condizione (condizione “soggetto”) consisteva nell’induzione della scossa dolorosa,nei confronti della donna;mentre nella seconda condizione (condizione “altro”) la scossa dolorosa era nei confronti del compagno.
Attraverso il suggerimento della freccia indicatrice che appariva nello schermo,anche quando la scossa non era diretta alla donna, ella era cosciente prima che fosse emanata, che essa sarebbe stata diretta verso il suo partner. E’ su questo fatto che i ricercatori si sono basati per ricavare il significato della risposta empatica al dolore in un caso come questo, in cui il comportamento emotivo altrui è dedotto e non osservabile direttamente.
L’attività cerebrale registrata nella condizione “soggetto”, coinvolge le aree somatosensoriali e motorie primarie bilaterali, l’insula e la corteccia cingolata anteriore: le prime sono deputate all’elaborazione dello stimolo fisico del dolore,mentre le seconde sono relative al significato emotivo che lo stimolo doloroso suscita nei soggetti. Quindi nel caso in cui il soggetto è personalmente sottoposto ad uno stimolo nocivo, come noto, avviene un’elaborazione sensoriale ed emotiva di esso.
Nella condizione “altro”, in cui i soggetti non sono coinvolti in prima persona nella stimolazione dolorosa, ma sono consapevoli che un’altra persona vi è sottoposta (in questo caso inoltre,chi è sottoposto al dolore è una persona che ha una rilevanza emotiva per il soggetto esaminato), la risposta neurale non coinvolge il circuito del dolore nella sua totalità: l’attività registrata infatti, è osservata solo nelle regioni limbiche dell’ ACC e dell’insula, e non nelle aree senso-motorie deputate all’elaborazione del dolore.
Introducendo l’empatia del dolore ho parlato di uno studio di Hutchison nel quale era stata individuata l’attività della corteccia cingolata anteriore in relazione a stimoli dolorosi provati in prima persona e osservati negli altri; lo studio che ho appena esposto,ribadisce il ruolo dell’ACC  in questa risposta empatica e sottolinea come questa regione insieme alla regione dell’insula, siano responsabili della componente emotiva alla risposta al dolore.
Il fatto che le regioni dell’insula e dell’ACC siano attive anche quando non c’è un’osservazione diretta del comportamento emotivo altrui ma c’è solo una conoscenza astratta di esso, convalida l’ipotesi della ricerca la quale sostiene l’esistenza di circuiti cerebrali coinvolti nell’elaborazione delle diverse componenti della riposta empatica al dolore; in questo studio è stata esaminata la componente affettiva della risposta empatica ed è emersa la sua attività anche indipendentemente dalla componente senso-motoria.
Sembrerebbe quindi che il nostro sistema nervoso sia congegnato per rispecchiare, e che soltanto attraverso la simulazione dei comportamenti degli altri (attraverso il sistema specchio) e dei loro stati d’animo (attraverso le regioni limbiche),noi riusciamo a comprendere a fondo cosa provano le altre persone.

IL DISTURBO OSSESSIVO COMPULSIVO: BASI NEUROBIOLOGICHE

Nella vita quotidiana è plausibile incorrere in dubbi circa la validità delle proprie azioni  verificare (ad esempio due volte di aver chiuso la porta di casa e di incorrere nuovamente nel dubbio dopo averlo fatto): questo, fortunatamente, non accade sempre visto che il nostro cervello effettua, al di fuori della coscienza dei controlli costanti che ci garantiscono la sicurezza. La caratteristica principale di coloro che sono affetti da disturbo ossessivo compulsivo (DOC) riguarda l'alterazione di tale processo, che non consente loro di “raggiungere la conclusione logica delle proprie azioni”. Il DOC è una sindrome caratterizzata da ossessioni e compulsioni che durano almeno un'ora al giorno e hanno un'entità tale da interferire col normale funzionamento del soggetto nella vita quotidiana. Le ossessioni sono vissute dal paziente sotto forma di pensieri, impulsi o immagini che provocano un marcato stato d'ansia e disagio; le compulsioni sono comportamenti ripetitivi che il paziente è obbligato a mettere in atto per alleviare l'ansia provocata dalle ossessioni. I pazienti affetti da disturbo ossessivo compulsivo, differentemente dai pazienti schizofrenici, sono consapevoli del fatto che i loro comportamenti sono non adattivi, tanto che vorrebbero non metterli in atto (anche se ciò accade solo nel paziente adulto e non nel bambino) e molto spesso tendono a tenere nascosti i loro comportamenti compulsivi (per tale motivo il DOC è anche detto “disturbo nascosto”). Le ossessioni più frequenti sono: pensieri ripetitivi di contaminazione (ad esempio il timore di essere infettati da una stretta di mano), necessità di avere le cose sempre in un certo ordine (tali pazienti ad esempio provano disagio se certi oggetti non si trovano in una determinata posizione), fantasie sessuali e dubbi ripetitivi (ad esempio chiedersi sempre se si è chiusa la macchina, se si è lasciata aperta la porta di casa). Le compulsioni sono comportamenti mesi in atto con l'intento di sopprimere o ignorare l'ansia e il disagio provocato da tali ossessioni, nonostante non sembrano connesse a ciò che sono designate a neutralizzare. La maggior parte delle compulsioni riguarda queste quattro categorie: contare, evitare, controllare e pulire: è stato ad es riportato il caso di una donna che si lavava le mani più di 500 volte al giorno per evitare di essere contaminata dai germi (Devison e Neale, 1974). L'incidenza di tale patologia è di circa 1-2%, con prevalenza maggiore nelle donne ed è considerata dalla Word Health Organization tra le 10 condizioni mediche maggiormente disabilitanti. Le compulsioni, infatti, che l'individuo deve mettere in  atto per alleviare l'ansia provocata dalle ossessioni, causerebbero uno stato di stress tale da compromettere le normali attività della vita quotidiana, e in alcuni casi anche concomitanti problemi medici (cosa che ad esempio accade nei pazienti che mettono in atto compulsioni come il lavarsi continuamente: in tal caso, possono presentarsi problemi dermatologici). Tra le patologie maggiormente associate al DOC vi sono: disturbo depressivo maggiore, disturbi d'ansia, disturbi d'ansia disturbi di personalità e soprattutto è stata rilevata un'elevata incidenza di DOC in comorbidità alla sindrome di Tourette: nella diagnosi differenziale pertanto occorrerà innanzitutto distinguere queste due patologie (i movimenti motori improvvisi, rapidi e ripetitivi, messi in atto dai pazienti affetti da sindrome di Tourette, sono molto meno complessi di quelli messi in atto dai pazienti DOC e poi non sono volti a bloccare le ossessioni). E' comunque importante differenziare il DOC da: depressione maggiore (in tale disturbo l'angoscia nasce da uno stato generale di sofferenza non riconducibile a ossessioni), fobie (i pazienti fobici non mostrano ansia quando lontani dagli stimoli fobici), disturbo d'ansia generalizzato (le preoccupazioni eccessive non sono considerate dal paziente inappropriate), ipocondria (le idee ansiogene sono relative specificamente alla paura di soffrire di determinate malattie), disturbi alimentari, parafilie, gioco patologico e abuso di sostanze (i comportamenti compulsivi, in questo caso, più che alleviare l'ansia provocano piacere al soggetto), disturbo ossessivo-compulsivo di personalità (in tale patologia più che un quadro di ossessioni e compulsioni, ne si rileva uno caratterizzato da una generale preoccupazione per l'ordine, il perfezionismo e il controllo) e superstizione e comportamenti ripetitivi di autoconferma (non interferiscono in genere nella vita sociale e personale del paziente non portano un malessere significativo).

L'interesse per i correlati neurobiologici del DOC, che tutt'ora non sono ancora ben noti, è nato a metà anni '80 quando si è scoperto che esso viene efficacemente trattato con la clomipramina, un farmaco SSRI. Col passare del tempo si è scoperto che tutti e cinque gli SSRI oggi presenti in commercio, hanno una certa efficacia nel trattamento del DOC: queste scoperte. avrebbe dato il via al nascere dell'ipotesi serotoninergica, che prevede che alla base del DOC vi sia un deficit di serotonina. Altri filoni di pensiero appoggiano l'ipotesi dopaminergica: il ruolo della dopamina nel DOC sembrerebbe infatti confermato da studi che dimostrano che elevate dosi di DA, indotte da agonisti DA come l'anfetamina, l'apomorfina e la L-DOPA, possono indurre movimenti stereotipati che assomigliano ai comportamenti compulsivi dei pz DOC. L'ipotesi serotonino-dopaminergica sostiene che entrambi i sistemi nerotrasmettitoriali siano coinvolti nel DOC; non è chiaro se l'anomalia primaria sia nella funzione 5-HT, in quella della DA o nell'equilibrio 5-HT-DA.

Gran parte degli studi atti a investigare il substrato neurobiologico dell'OCD sono stati compiuti su modelli animali in cui si andavano ad osservare alterazioni nel comportamento motorio che corrisponderebbero ai rituali compulsivi umani; ovviamente le ossessioni non sono osservabili in modelli animali e quindi gli studi si basano sull'osservazione dei comportamenti compulsivi. La maggior parte di questi modelli animali di OCD si basano su osservazioni comportamentali, manipolazioni genetiche. Prima di affrontare l'argomento di quei sistemi neurotrasmettitoriali e recettoriali che si pensano essere implicati nel DOC e cercare di comprendere quale delle tre ipotesi possa essere maggiormente accreditata, potrebbe essere utile un excursus circa alcuni lavori sperimentali che hanno individuato le regioni cerebrali, la cui disfunzione, potrebbe essere maggiormente correlata al DOC.

PSICOSI E SCHIZOFRENIA: COSA SUCCEDE A LIVELLO CEREBRALE E NUOVE PROSPETTIVE TERAPEUTICHE

La psicosi è una sindrome, un insieme di sintomi, che può associarsi a molti disturbi psichiatrici, ma non rappresenta di per sé un disturbo specifico. La sindrome comprende vari deliri e allucinazioni, ma sono anche presenti sintomi quali pensiero ed eloquio disorganizzato e gravi distorsioni della realtà. La capacità di conoscere la realtà, la risposta affettiva e la capacità di comunicare e relazionarsi con gli altri sono compromesse. La psicosi può essere una condizione necessaria in alcune patologie, mentre in altre può semplicemente essere presente (mania, depressione e demenza Alzheimer). Le allucinazioni riguardano spesso accuse, minacce di punizioni, avere delle visioni; i disturbi motori riguardano posture rigide e peculiari, segni di tensione; sogghigni e risatine, parlottamenti tra sé e sé, guardarsi attorno come se udissero delle voci.

PSICOSI PARANOIDEA

Il pz presenta proiezioni paranoidi (essere ossessionati da convinzioni deliranti, la gente parla di lui, crede di essere perseguitato o essere vittima di una cospirazione e che forze esterne controllino le sue azioni), belligeranza ostile (il pz manifesta irritabilità e cattivo umore, tende a incolpare gli altri dei suoi problemi, si definisce colpevole) ed espansività esagerata (mostra atteggiamenti di superiorità è convinto di essere una personalità ben nota e di avere una missione divina).

PSICOSI DISORGANIZZATA-ECCITATA

E' caratteristica di essa una disorganizzazione concettuale (fornisce risposte irrilevanti o incoerenti, elude il soggetto dalla discussione), disorientamento (nn sa dove si trova, la stagione dell'anno, la propria età) ed eccitamento (esprime i propri sentimenti senza limiti, eloquio affrettato ed eccessivo, manifestazioni di superiorità, drammatizza la propria condizione).

PSICOSI DEPRESSIVA

E' caratterizzata da rallentamento e apatia (che si manifestano con eloquio lento, indifferenza per il proprio futuro, movimenti rallentati, deficit nell' MBT, aspetto trasandato)  e sentimenti di colpa e autopunizione (tendenza a biasimarsi e auto condannarsi, sentimenti di colpevolezza e rimorso).



Colpisce l'1% della popolazione ed è caratterizzata da deliri (erronea interpretazione delle percezioni o delle esperienze, può essere persecutorio, somatico, religioso o di grandiosità) , allucinazioni (più frequenti quelle uditive), eloquio e comportamento disorganizzato, sintomi positivi, negativi, cognitivi, aggressivi/ostili, ansioso/depressivi).

I SINTOMI POSITIVI sembrano riflettere un eccesso delle funzioni normali e possono riguardare deliri, allucinazioni, eloquio e comportamento disorganizzato, catatonia e agitazione. Possono essere presenti oltre che nella schizofrenia anche nel disturbo bipolare, nel disturbo schizoaffettivo, nella depressione psicotica, nella demenza Alzheimer e in altre demenze organiche. I SINTOMI NEGATIVI riguardano l'appiattimento affettivo, (limitazione in varietà ed intensità dell'espressione emotiva), alogia (limitazione nella fluidità e nella produttività del pensiero e dell'eloquio), apatia (limitazione nella capacità di intraprendere attività finalizzate), anedonia e deficit attentivi. I sintomi negativi rappresentano una riduzione delle funzioni normali della schizofrenia. I sintomi negativi possono essere primari, tipici della malattia, o secondari a effetti collaterali di farmaci antipsicotici ,a sintomi extrapiramidali, a sintomi depressivi. I SINTOMI COGNITIVI riguardano disturbo del pensiero e uso inadeguato del linguaggio (incoerenza e allentamento dei nessi associativi e neologismi); difficoltà di attenzione, fluidità verbale compromessa, problemi con l'apprendimento seriale e problemi per il funzionamento esecutivo; queste caratteristiche si possono rilevare anche in demenze e postumi di ictus o traumi cerebrali. I SINTOMI AGGRESSIVI/OSTILI riguardano comportamenti autolesionistici, l'impulsività. I SINTOMI DEPRESSIVI E ANSIOSI sono spesso associati alla schizofrenia ma non sono necessariamente criteri diagnostici per un concomitante disturbo affettivo.


Le 4 vie dopaminergiche ben definite: la via mesolimbica, la via mesocorticale, la via nigrostriatale e la via tuberoinfundibolare.

La via dopaminergica mesolimbica proietta dall'area tegmentale ventrale verso aree limbiche come il nucleus accumbens. Tale via ha un ruolo importante nei comportamenti emotivi specie  nelle allucinazioni uditive, nei deliri e nel disturbo del pensiero. Tale teoria detta ipotesi dopaminergica mesolimbica dei sintomi psicotici positivi, è provata dal fatto che i farmaci e malattie che incrementano la dopamina, creano sintomi psicotici positivi, mentre i farmaci che la bloccano, li riducono. Inoltre, tutti i farmaci antipsicotici, sono dei bloccanti dei recettori DA, in particolare i recettori D2. L'iperattività dei neuroni DA mesolimbici può svolgere un ruolo importante nella mediazione nei sintomi aggressivi e ostili della schizofrenia.


Tale via parte dall'area tegmentale ventrale e proietta a varie aree della corteccia cerebrale, in particolare la corteccia limbica. Si ritiene che alcuni sintomi negativi e cognitivi della schizofrenia, possono essere dovuti ad una carenza di DA in aree di proiezione mesocorticale, in particolare la PFCDL. Il processo degenerativo di questa via potrebbe spiegare un progressivo peggioramento dei sintomi ed uno stato crescente di deficit in alcuni pz schizofrenici. La carenza potrebbe essere rappresentata sia da un deficit primario di dopamina che da un deficit secondario ad un'inibizione dovuta ad un eccesso di serotonina in questa via.


Questa via parte dalla substantia nigra del tronco cerebrale e proietta verso i gangli della base dello striato: tale via è parte del sistema nervoso extrapiramidale e controlla i movimenti. I deficit di DA in questa via provocano disturbi del movimento; l'iperattività in questa via, invece, provoca disturbi ipercinetici quali la corea, le discinesie e i tic. Un blocco cronico dei recettori D2 in questa via può portare ad un disturbo ipercinetico del movimento noto come discinesia tardiva indotta da neurolettici.


È caratterizzata da neuroni che proiettano dall'ipotalamo verso l'ipofisi anteriore. Normalmente questi neuroni sono attivi e inibiscono il rilascio di prolattina. Nel post partum la loro attività e ridotta e i livelli di prolattina possono aumentare così da consentire l'allattamento. Livelli elevati di prolattina sono associati all'amenorrea e problemi connessi alle disfunzioni sessuali: tali problemi possono verificarsi a seguito del trattamento con farmaci antipsicotici


Una delle ipotesi principali per l'eziologia della schizofrenia è che la malattia abbia origine da anomalie nello sviluppo cerebrale che avrebbero luogo nel feto sin dal momento del concepimento durante le fasi precoci della selezione e della migrazione dei neuroni. Tuttavia i sintomi non si manifestano finché il cervello non revisiona attentamente le proprie sinapsi nell'adolescenza, ed è questo processo di ristrutturazione che smaschera i problemi di selezione e migrazione dei neuroni fino ad allora nascosti. A conferma di questa teoria è l'alta correlazione tra schizofrenia e storia fetale di complicanze ostetriche (infezioni virali, denutrizione, processi autoimmuni ed altri problemi come quelli materni). Un insulto cerebrale in una fase precoce dello sviluppo cerebrale, contribuirebbe a causare la schizofrenia. Nella schizofrenia, possono essere presenti anche problemi con le proteine coinvolte nella matrice strutturale delle sinapsi: ciò determinerebbe un ridotto numero di vescicole sinaptiche, formazione di sinapsi aberranti e ritardi o riduzioni nella formazione delle sinapsi. Riguardo alla genetica alla base di tale disturbo, le cause non sarebbero ascrivibili a singole alterazioni in un singolo locus genetico del DNA. Piuttosto anomalie genetiche multiple contribuirebbero alla suscettibilità della schizofrenia, e forse solo se sono presenti anche fattori ambientali critici. Si ritiene che vari geni e i loro prodotti genici agiscano insieme a fattori ambientali nel determinare la schizofrenia. Sarà importante determinare come questi prodotti genici partecipino nel mediare i sintomi della schizofrenia, perchè in tal modo si potrà trovare  un razione biochimico per prevenire o interrompere queste anomalie (interferendo con la trascrizione genica, bloccando l'azione di prodotti genici non desiderati).


E' stato ipotizzato che durante il corso della malattia possa determinarsi un processo neurodegenerativo con perdita progressiva della funzione neuronale. La schizofrenia progredisce da 1 stadio asintomatico, verso una fase prodromica di bizzarria e sintomi negativi  (tra i 20 e i 30 anni) e poi vi è la fase attiva della malattia tra i 30 e i 40 anni, con sintomi positivi distruttivi e frequenti ricadute. Infine vi è un livello pressocchè stabile di scarso funzionamento sociale e di sintomi positivi e negativi, con un notevole allontanamento dal funzionamento di base. Non vi è necessariamente un peggioramento continuo, ma è possibile che il pz in questo periodo diventi progressivamente resistente al trattamento farmacologico: ciò suggerirebbe la presenza di qualche processo neurodegenerativo.


Si ritiene che gli eventi neurodegenerativi della schizofrenia possano essere mediati da un'eccessiva azione del nt glutammato, eccitossicità. L'ipotesi eccitotossica della schizofrenia propone che i neuroni degenerino a causa dell'eccessiva neurotrasmissione eccitatoria a livello dei neuroni glutammatergici.


SINTESI DEL GLUTAMMATO (GLU). Il ruolo principale del GLU consiste nella sintesi di proteine. Quando viene usato come nt, viene sintetizzato a partire dalla glutammina, la quale viene trasformata in GLU, ad opera dell'enzima glutamminasi. La glutammina può essere ottenuta anche dalle cellule adiacenti i neuroni: in questo il GLU della riserva metabolica della glia viene convertito in GLU da essere usato come nt attraverso 2 fasi: conversione del GLU in glutrammina nella cellula gliale attraverso la glutamminasi; trasporto della glutammina verso il neurone dove sarà convertita in GLU da usare come nt.

RIMOZIONE DEL GLU. Gli effetti del GLU sono interrotti non dalla sua degradazione enzimatica, ma dalla rimozione di 2 pompe di trasporto: una è un trasportatore presinaptico del GLU che opera come tutti gli altri trasportatori, l'altra è localizzata nella glia adiacente i neuroni e rimuove il GLU dalle sinapsi, interrompendone l'azione.

RECETTORI DEL GLU. Ve ne sono di vari, tipi tra cui l'NMDA, l'AMPA, l'acido kainico e un recettore metabotropico che si occuperebbe della mediazione di segnali elettrici di lunga durata nel cervello attraverso un processo noto come potenziamento a LT (importante per la funzione mnesica). I primi 3 sono probabilmente legati ad un canale ionico, l'ultimo, invece, appartiene alla famiglia dei recettori legati alle proteine G. Il complesso NMDA GLU-canale per il calcio ha multipli siti recettoriali che circondano il canale ionico e che agiscono come modulatori allosterici. Uno dei siti di modulazione è quello per il nt glicina; un altro, invece, modulatorio inibtorio localizzato all'interno del canale ionico, viene definito sito per la PCP (si lega ad esso il farmaco PCP). Dal momento che la PCP induce uno stato simil-schizofrenico, è possibile che i sintomi schizofrenici possono essere modulati da una disfunzione nel sottotipo NMDA dei recettori per il GLU. Antagonisti per ognuno dei vari siti modulatori che circondano il complesso NMDA-canale per il calcio e chiudere il canale, ed essere candidati come farmaci neuroprotettivi.

ECCITOSSICITA' E SISTEMA DEL GLU NELLE MALATTIE NEURODEGENRATIVE QUALI LA SCHIZOFRENIA. Il sottotipo NMDA media la normale neurotrasmissione eccitatoria, nonché l'eccitotossicità neurodegenerativa nello spettro di attività eccitatoria del GLU: il normale processo di neurotrasmissione eccitatoria sfuggirebbe al normale controllo fisiologico e il neurone verrebbe eccitato sino alla morte. Vi sarebbe una attività glutammatergica senza sosta che porterebbe l'apertura dei canali per il calcio: ciò attiverebbe enzimi intracellulari che attivano i radicali liberi: l'eccesso di radicali liberi porterebbe azioni tossiche per la cellula e di conseguenza, morte cellulare.


Sono in via di sviluppo terapie sperimentali basate su GLU, eccitotossicità e radicali liberi. E' possibile che antagonisti del GLU possano avere azione neuroprotettiva. Alcuni farmaci agiscono come scavenger, spazzini, dei radicali liberi e hanno la proprietà di chimica di neutralizzare i radicali liberi rimuovendoli (la vitamina E è un debole scavenger); altri farmaci sono detti lazaroidi, poiché in grado di resuscitare i neuroni dalla morte. Infine, un ultimo approccio si basa sul blocco del sistema enzimatico necessario perchè avvenga l'apoptosi, il sistema delle caspasi.


Si pensa che si potrebbe provare a somministrare farmaci antipsicotici atipici durante la fase prodromica della schizofrenia, però innanzitutto non vi sono chiare evidenze del fatto che un intervento precoce porti esiti migliori, e poi, in quella fase della malattia la diagnosi non è certa.. D'altra parte esiste una possibilità che un intervento precoce modifichi la storia naturale della malattia, questi pz risponderebbero meglio alla successiva terapia. Alcuni sono addirittura arrivati all'idea di estendere il trattamento anche a parenti di primo grado di soggetti schizofrenici. In conclusione, possiamo dire che la schizofrenia può essere il risultato di un processo neurodegenerativo superimposto ad un anomalia dello sviluppo nervoso. I neuroni bersaglio del processo  neurodegenerativo comprendono le proiezioni DA alla corteccia e le proiezioni GLU dalla corteccia verso le strutture sottocorticali; è anche possibile che in queste strutture si verifichi eccitotossicità quando vengono prodotti i sintomi positivi durante le ricadute psicotiche.

POSSIBILI CAUSE DELL'ATTACCO DI PANICO


Un attacco di panico (AP) è un episodio improvviso di terrore inaspettato accompagnato da una serie di sintomi fisici. I sintomi associati sono paura, ansia e ideazione catastrofica; i sintomi fisici possono essere neurologici, gastrointestinali, cardiaci e polmonari. Caratteristica di questi pz è l'evitare situazioni ansiogene che precedentemente sono sfociate in 1 AP. 1 AP dura da 5 a 30 minuti con un picco sintomatico medio di 10 min; gli AP possono manifestarsi anche durante il sonno. Possono essere inattesi o attesi (riconducibili ad una situazione): è proprio questa distinzione che differenzia l'AP dal disturbo da AP: quest'ultimo è caratterizzato da AP inattesi ricorrenti a cui segue almeno un mese di ansia persistente per il ricorrere di nuovi attacchi. Circa il 2% della popolazione soffre di AP e in genere esordisce in tarda adolescenza o in età adulta, l'esordio dopo i 45 anni è raro; sembra che il 15/20% dei pz che soffra di AP ha parenti con tale disturbo, e vi è una concordanza del 40% per il disturbo da AP nei gemelli monozigoti; sembra infine che vi sia una percentuale di suicidio associata ad AP pari a quella dei pz affetti da depressione maggiore.


NORADRENALINA. Sembra che caratteristico dell'AP sia un iniziale eccesso di NA; quest'ipotesi è avvolarata dall'osservazione che molti pz AP siano ipersensibili agli antagonisti alfa 2. Anche la caffeina può indurre panico: essa è un antagonista dell'adenosina e può essere sinergica alla NE: quando a un pz AP viene somministrato l'equivalente in caffeina di 4/6 tazze, puòsperimentare un AP. I pz affetti da AP inoltre hanno una risposta fisiologica attenuata agli agonisti adrenergici post-sinaptici, forse come conseguenza di 1 sistema NE iperattivo: vi potrà pertanto essere una disregolazione nel sistema NE, con modificazioni nella sensibilità nei neuroni NE e dei loro recettori, i quali alterano il proprio funzionamento fisiologico e contribuiscono alla fisiopatologia dell'AP.

GABA. La maggior enfasi è stata posta sull'indagine della responsività dei recettori per le benzodiazepine nei pz affetti da disturbo da AP. E' possibile, poi, che il cervello produca una scarsa quantità di agonista naturale per le benzodiazepine o che il cervello produca un eccesso di agonisti inversi con effetto ansiogeno, facendo si che i pz con disturbo da AP sperimentino maggiore ansia e AP. Alcuni dati suggeriscono un'anomalia per il recettore per le benzodiazepine, avvalorando pertanto quest'ipotesi dell'agonista inverso. Ciò sarebbe provato da studi che suggeriscono che il flumazenil, che in soggetti normali, non provoca alcun sintomo comportamentale, nei pz AP, agisca come agonista parziale inverso provocando AP.

COLECISTOCHININA (CCK). Se infuso in pz con disturbo da AP provoca 1 maggior numero di AP: ciò suggerisce una maggiore sensibilità, in questi pz, del recettore per le CCK, il CCK-B. Sfortunatamente nelle prime ricerche, gli antagonisti del CCK-B non sono sembrati efficaci per il disturbo da AP.


IPERSENSIBILITA' ALL'ANIDRIDE CARBONICA E AL LATTATO. Altra teoria riguardante l'AP sostiene che esso sia iòl risultato di anomalie nella funzione respiratoria: tale teoria si basa sull'osservazione che i pz sperimentino più facilmente AP dopo l'esercizio fisico, quando respirano anidride carbonica.

TEORIA DELL'ALLARME DA FALSO SOFFOCAMENTO. Questa teoria propone che i pz AP abbiano nel tronco cerebrale un dispositivo di controllo per il soffocamento che funziona male, interpreta male i segnali e si attiva in modo errato, scatenando un falso allarme da soffocamento.

OSSERVAZIONI NEUROANATOMICHE. Studi di PET hanno mostrato possibili anomalie delle proiezioni dell'attività neurale verso l'ippocampo; altri studi suggeriscono che il locus coeruleus ha un certo ruolo nella modulazione della vigilanza dell'ansia e della paura. Così l'ipersensibilità del sistema limbico è stata presa in considerazione come possibile eziologia degli AP. E' stato visto inoltre che pz con foci epilettici temporali sperimentino sintomi simili al panico: si potrebbe vedere il panico come l'equivalente di un'attivazione neuronale epilettiforme in parti del cervello che mediano le emozioni, mentre la vera epilessia può coinvolgere localizzazioni cerebrali che mediano i movimenti e gli stati di coscienza piuttosto che stati emotivi come ansia e panico. E' da dire tuttavia che nei pz AP non sono state rilevate anomalie EEG. Poiché vi sono proiezioni NE dal locus coeruleus verso l'ippocampo, è possibile che una sregolazione di queste proiezioni, possa spiegare le anomalie neurofisiologiche ipotizzate durante gli AP.

PSICOFISICA DELLA PERCEZIONE UMANA




LA SOGLIA



Psicofisica: si occupa di indagare le leggi che regolano la relazione tra il continuum fisico e quello sensoriale. Studia il legame tra il mondo fisico e il sistema percettivo, misura le variazioni che il primo produce sul secondo mediante compiti comportamentali.

La psicofisica classica distingue tre domini:

- Mondo sottosoglia

- Mondo a soglia (metà consapevole e metà inconsapevole)

- Mondo soprasoglia



Secondo questo schema la sensazione è determinata dal superamento di una certa soglia sensoriale (Soglia assoluta e reale, valore intensivo e fisico). Sotto tale soglia il segnale è troppo debole per essere visto, o per essere accessibile alla coscienza (High Treshold Theory). In realtà questa concezione è stata superata perché il sistema è probabilistico, con una parte di incertezza intrinseca al sistema.

Soglia differenziale: è anche chiamata JND (Just Noticeable Difference). Il JND è la quantità di cambiamento nello stimolo necessaria perché l’osservatore percepisca una differenza.

Quindi si tratta della differenza tra uno stimolo test di intensità IT e lo standard la cui intensità è definita con I0.



- Fechner: è a lui che si può attribuire la nascita della psicofisica. Secondo il suo concetto di parallelismo ogni evento si può considerare sia fisico, in quanto osservato esternamente nella sua azione oggettiva, sia psichico se è considerato dal suo interno, soggettivamente. Per ottenere una quantificazione psichica indiretta elabora il concetto di trasformazione psicofisica e la legge matematica che esprime questa relazione (Legge di Fechner: tutti i JND, essendo appena percepibili, corrispondono a cambiamenti uguali nella sensazione. S= c log (I/I0). L’intensità della sensazione è funzione logaritmica dell’intensità fisica dello stimolo. La sensazione varia molto a valori bassi della scala, poi rallenta). Helson propone una modifica in base alla sua teoria del livello di adattamento, che tiene conto della relatività degli eventi sensoriali.

Inoltre gli stimoli fisici possono essere divisi a seconda del tipo di variazione (quantitativa o qualitativa) che essi producono a livello di sensazione. Essi sono protetici quando alla variazione quantitativa e progressiva di una proprietà fisica dello stimolo fa riscontro una variazione nella sensazione percepita (processi additivi). Sono invece metatetici quando al variare quantitativo e progressivo di una proprietà fisica dello stimolo corrisponde una variazione qualitativa della sensazione evocata (processi sostitutivi).

- Legge di Weber: La soglia differenziale è sempre frazione costante dell’intensità dello stimolo: DI= k I0. L’incremento di IT per ottenere un JND è proporzionale all’intensità I0, in funzione della costante K, diversa per diversi sistemi percettivi. Descrive come la differenza percepita tra gli stimoli cresce al crescere dell’intensità.

- Thurstone: partendo dal concetto di dispersione discriminale elaborò la legge dei giudizi comparativi, per la quale lo stesso stimolo non è in grado di elicitare sempre lo stesso processo discriminale, e quindi la stessa sensazione. La distribuzione delle sensazioni elicitate dallo stesso stimolo in presentazioni diverse è quella gaussiana, in cui il valore medio (il più probabile) corrisponderà al processo discriminale modale. Poiché il soggetto non è in grado di calcolare direttamente il processo discriminale dovrà ricorrere ai giudizi comparativi, estesi da Togerson anche ai dati raccolti con il metodo delle categorie successive.

- Stevens: le varie JND non aggiungono un incremento sempre costante della sensazione, ma l’intensità della sensazione è funzione a potenza dell’intensità fisica dello stimolo. Questo assunto è legato al metodo delle stime di grandezza, in cui i soggetti sono in grado di stimare l’intensità delle proprie sensazioni direttamente per mezzo di valori numerici, o grazie ad un confronto intermodale non numerico.



Misure comportamentali:

- Giudizi

- Tempi di reazione: ogni processo o evento neurale richiede un certo tempo, si può inferire la simultaneità o la serialità tra diversi processi

- Percentuale di risposte corrette: o accuratezza. Non è un parametro molto informativo perché dipende da molte variabili. Per usarla si necessita di informazioni aggiuntive o di una cornice teorica forte

- Soglia: consente di confrontare diverse condizioni (o osservatori) ad una stessa prestazione (percentuale determinata di risposte corrette)



Invarianze statistiche: l’energia dello stimolo dipende dall’intensità della luce irradiata, dall’area dello stimolo, e dalla sua durata

Esempio: misurare la luminanza necessaria per vedere uno spot, cambiando l’area degli spot ma mantenendo costante il tempo di comparsa

Legge di Ricco: per spot piccoli la luminanza richiesta a soglia è inversamente proporzionale all’area. Ma l’energia totale è costante (luminanza*area). Quando gli spot diventano più grandi aggiungere area non determina un vantaggio aggiuntivo (a causa della limitazione del campo recettivo). Mentre l’energia aumenta all’aumento dell’area.

Se invece manteniamo costante la grandezza e variamo la durata otteniamo una relazione simile chiamata Legge di Bloch.

Il sistema visivo somma all’interno di una finestra spaziale di una certa grandezza (Ricco) e di una finestra temporale di una certa durata (Bloch).

La soglia corrisponde all’intensità del segnale, controllata lungo una particolare dimensione, necessaria per ottenere un determinato livello di prestazione. La soglia assoluta è un caso particolare di soglia differenziale dove la differenza è con zero e bisogna rilevare solo la presenza dello stimolo.



Metodi

-       Metodo dei limiti e della classificazione: metodi della fisica classica, applicabili sia per soglie assolute, sia per soglie differenziali (l’unica differenza procedurale è che nel caso della SD vengono presentati sempre 2 stimoli contemporaneamente). Sono metodi un po’ antiquati ma molto validati. Si basano su serie ascendenti o discendenti di stimoli e su una risposta di tipo classificatorio si/no. Partendo da una condizione di diseguaglianza ben visibile tra due stimoli e variando gradualmente uno dei due, si chiede all’osservatore di rilevare quando la differenza non è più percepibile. È sempre importante ripetere la somministrazione perché la soglia può fluttuare. In questi metodi possono intervenire diverse variabili di disturbo. La prima è costituita dalla direzione della serie, che può portare ad una tendenza di risposta (errori di abitudine o errori di perseverazione, errori di anticipazione). Tali errori vengono definiti costanti, e se non vengono controllati influiscono in modo sistematico sulla misura (isteresi). Un numero uguale di serie A e D tende ad elidere questi errori, inoltre è possibile tentare di bilanciarli alternando per ciascun soggetto le serie A e D, secondo schemi di alternanza semplice o alternanza simmetrica (DADA o DAAD). Une verifica a posteriori della forza relativa degli effetti è però sempre necessaria. Una seconda variabile di disturbo è quella degli effetti seriali o effetti di fatica, dovuti al calo dell’attenzione o all’affaticamento. Una terza variabile che richiede di essere controllata tramite randomizzazione è il punto di partenza di ciascuna serie. L’unica restrizione che va imposta alla randomizzazione è che lo stimolo d’inizio non deve essere troppo vicino alla soglia. Per le soglie differenziali si aggiunge il punto dell’eguagliamento soggettivo e l’errore di ordine temporale, dovuto all’effetto della posizione temporale dello stimolo standard rispetto allo stimolo di controllo, ridotto col metodo del contro bilanciamento. Altre fonti di errore possono essere controllate solo mantenendole costanti nelle diverse presentazioni. L’incidenza di alcuni effetti di disturbo può essere verificata statisticamente tramite ANOVA. Esistono poi alcune varianti di tale metodo, più economiche e meno soggette agli errori, come il metodo della scala o della doppia scala, che consente di non cambiare bruscamente le serie, ma di invertirne la tendenza.

-       Metodo di aggiustamento limiti: a differenza del primo può essere utilizzato solo per la determinazione di soglie differenziali. Il compito richiesto al soggetto è quello di regolare l’intensità dello stimolo di confronto fino a renderla uguale a quella dello stimolo standard. È una stima diretta del PSE. Possono comunque avere luogo errori sistematici anche se meno frequentemente, inoltre le prove durano molto meno. È necessario però verificare l’omogeneità delle stime soggettive, che possono essere scomposte in una componente vera e in una di errore, a sua volta scomponibile (V + E1 + E2 + E3…….+ EN). 

-       Metodo degli stimoli costanti: ripetuta presentazione di un set costante di stimoli in ordine casuale di intensità, a distanza uguale dalla soglia. Non è più necessario presentare sia la serie ascendente sia la discendente. Anch’esso può dare adito ad alcuni errori sistematici, controllabili come sopra, ma si presta a compiti più versatili, anche con stimoli sgradevoli. Può essere un metodo lungo e noioso, a causa delle prove preliminari necessarie per individuare il set di stimoli. La soglia assoluta con questo metodo corrisponde allo stimolo che elicita la risposta corretta nel 50% dei casi. I metodi di calcolo sono quelli dell’interpolazione lineare, e dell’interpolazione con la retta dei minimi quadrati, che consentono anche una verifica della bontà di adattamento del modello. Per quanto riguarda la misura della soglia differenziale si aggiunge il problema della terza categorie di risposta “uguale”. L’uso di tre categorie è più ecologico, ma si tende comunque a sconsigliarlo, forzando il soggetto a scegliere sempre “maggiore o minore”, o eliminando la categoria centrale nell’elaborazione dei dati. La risposta dicotomica però implica che possa essere influenzata dal criterio interno dell’osservatore (troppo variabile). Per ovviare a questo problema si usa:

-       2 AFC (2 o più alternative a scelta forzata): il criterio è stabile ed esterno, stabilito dallo sperimentatore, in più è possibile valutare esattamente l’influenza del caso nelle risposte del soggetto. Se aumento le alternative di scelta cambia la guessing rate (il livello massimo di errori).

-       Procedura adattativa: il parametro controllato varia a seconda delle risposte del soggetto. Le procedure adattive sono di due tipi: non parametriche (dette anche staircase, non fanno assunzioni di sorta sulle risposte del soggetto) o parametriche (di solito assumono che la risposta del soggetto sia modulata da una certa funzione psicometrica). Tutte le procedure adattive si caratterizzano per un algoritmo che permette di scegliere quale stimolo presentare alla prossima prova in funzione della risposta data dal soggetto. L’algoritmo è ovviamente diverso da procedura a procedura. Vantaggio rispetto agli altri metodi che offrono cmq gli stessi risultati: molti trial a livello-soglia vs pochi trial fuori livello-soglia. (Cfr. LAB1: confrontare la soglia di detezione di uno stimolo all’85% di risposte corrette – 15/20 millisecondi - e il tempo di reazione misurato per uno stimolo sopra soglia – 300 millisecondi. Questo secondo tempo include anche la programmazione e l’esecuzione del movimento, non è molto informativo sui meccanismi di elaborazione percettiva. La misura della soglia si)



In tutti questi metodi ripetendo le misure numerose volte è possibile raccogliere funzioni psicometriche che mostrano come la percentuale di volte in cui l’osservatore dice “si lo vedo” varia al variare dell’intensità (per ogni livello di intensità calcolo la % di detezione). Qualunque sia la scala di intensità la funzione ha sempre la stessa forma (ad ogiva, con asintoto zero) ma pendenza differenti. Nelle serie discendenti ottengo una curva più spostata verso destra sull’asse delle x, rispetto alla curva ottenuta con una serie ascendente: questo avviene a causa dell’abituazione.

La soglia ideale sarebbe descritta da una funzione a gradino che separa ciò che viene sempre visto da ciò che non viene mai visto, ma la funzione empirica è un’ogiva e questo non accade mai, a causa della variazione stessa della soglia da trial a trial (a causa del rumore di fondo: informazione non correlata allo stimolo). La pendenza della funzione psicometrica indica la sensibilità a combinare insieme le caratteristiche elementari dello stimolo (più è pendente più l’osservatore è esperto). La stima migliore della soglia assoluta coinciderebbe con il punto di massima pendenza , ovvero con il valore dello stimolo fisico in grado di elicitare la risposta corretta nel 50% dei casi. Lo stesso punto per la soglia differenziale viene chiamato PSE (Punto di Eguagliamento Soggettivo). La funzione di probabilità derivante dall’integrale della funzione psicometrica ha la forma di una gaussiana con distribuzione normale e indica la probabilità di ottenere una certa soglia per una certa intensità.



ANALISI DELLA FREQUENZA          



Le variazioni spaziali nella luminanza di un’immagine possono essere rappresentate in termini di frequenza spaziale del profilo di luminanza. La luminanza dipende dall’intensità della luce, dalla riflettenza dell’oggetto e dall’angolo di incidenza tra luce e oggetto. Inoltre nasconde 3 variabili: illuminazione, orientamento e materiale delle superfici.

Il dominio spaziale è lo spazio usuale di un’immagine. In questo spazio un cambiamento di posizione nella proiezione di un’immagine (retinica) corrisponde ad un cambiamento di posizione nell’immagine proiettata.

Il dominio della frequenza è uno spazio nel quale ogni cambiamento di posizione nella proiezione di un’immagine corrisponde ad un cambiamento di frequenza spaziale nell’immagine proiettata (dominio spaziale).

Nel dominio della frequenza si può misurare la velocità di cambiamento di un’immagine nello spazio. La frequenza si misura in numero di cicli per unità di spazio. In visione l’unità di spazio è il grado di angolo visivo sotteso dall’immagine. Quindi la frequenza si misura in cicli/grado.

Un reticolo sinusoidale è periodico e puro e può essere rappresentato in modi diversi (onde, banda chiara/banda scura, funzione, onda quadra costituita da un insieme di sinusoidi). Per noi è particolarmente utile cambiare la forma dell’onda da sinusoidale a quadra, perché nel mondo si incontrano molti più bordi di luminanza che reticoli sinusoidali. Quello che importa è il contrasto (differenza di luminanza tra sfondo e stimolo) e non la luminanza assoluta dello stimolo.

In molti casi la trasformata di Fourier viene utilizzata per convertire un’immagine dal dominio spaziale a quello di frequenza e vice-versa. Si rappresenta con un doppio asse cartesiano in cui più i punti sono distanti dall’origine più è alta la frequenza spaziale, mentre l’orientamento dei punti rappresenta l’orientamento ortogonale della figura reale. Dal momento che nel dominio di Fourier esistono solo numeri immaginari (detti numeri I) ogni figura rappresentata deve essere raddoppiata.

Il modo migliore per avere una buona rappresentazione nel dominio di Fourier è utilizzare un oggetto con un Gabor Patch: un reticolo sinusoidale presentato all’interno di un profilo gaussiano di luminanza che ne mascheri i bordi (transizione graduale tra sfondo e oggetto in modo da evitare di inserire nel sistema le alte frequenza relativa ad un bordo).

Le immagini e gli oggetti contengono energia a diverse frequenze. È possibile creare filtri che permettano il passaggio selettivo di alcune frequenze e non di altre (Filtro passa alte. Filtro passa basse. Filtro passa bande. Filtro per l’orientamento).

Una rappresentazione in termini di dominio di frequenza è rilevante perché noi possediamo meccanismi che rilevano cambiamenti in questo dominio.



Analisi di forma d’onda – Lo spettro: forma d’onda complesse in cui lo spettro è la somma degli spettri delle sinusoidi che compongono l’onda stessa. L’onda quadra è la somma si sinusoidi opportunamente scelte in cui la frequenza fondamentale è quella uguale alla frequenza dell’onda quadra, mentre le altre componenti formanti saranno le frequenze dispari con ampiezza sempre minore (F + 3F + 5F……)



Curva di sensibilità al contrasto: Ogni strumento ottico possiede una MTF (Modulation Transfert Function). Di tutto lo spettro possibile di frequenze spaziali una lente lascia passare frequenze fino ad un certo valore che ne definisce la potenza. L’MTF umana è la curva di sensibilità al contrasto. Mentre le lenti sono tutte filtri passa basse la CSC è un filtro bassa bande: siamo molto sensibili all’interno di un certo range. La sensibilità al contrasto si riduce sia per le alte frequenze, sia per le basse (per ragioni ottiche le prime, per ragioni corticali le seconde). Il picco di sensibilità è intorno ai 4 cicli/grado. La CSC varia in funzione di:

-       Età: a due mesi la CSC è ancora immatura, anche se ha già la sua forma caratteristica. Molto rapidamente la sensibilità aumenta e si sposta verso le altre frequenza (maturità a 12 mesi). L’esposizione precoce risulta critica nella formazione di una curva funzionante (cfr. esperimenti di deprivazione sensoriale). L’invecchiamento invece produce una riduzione modesta e omogenea per tutte le frequenze. Varia anche il diametro pupillare.

-       Luminanza: influisce sulla CSC solo per variazioni molto grandi

-       Frequenza temporale: all’aumentare della frequenza temporale la curva rimane pressoché invariata nella forma, ma si sposta verso le frequenze spaziali più basse (vedo bene oggetti piccoli statici e oggetti grandi in movimento: corrisponde alla differenza tra sistema parvo e magno cellulare).

-       Posizione retinica: variazione in relazione all’eccentricità dello stimolo rispetto alla fovea. Dalla fovea verso la periferia la curva si sposta verso le basse frequenze in modo rapido: l’acuità visiva è molto sensibile.

-       Patologie: la sclerosi multipla, la cataratta, o problemi refrattivi di modesta entità generano modificazioni diverse nella curva. Un soggetto miope per esempio cade nelle alte frequenze (si vedono male oggetti piccoli). Chi cade nelle basse frequenze invece potrebbe avere problemi coricali oppure ambliopia e anisometria. La cataratta provoca una caduta severa ma omogenea nella curva.



Interazione tra frequenza spaziale e temporale: Le cellule magno cellulari dell’LGN del macaco sono 10 volte più sensibili delle parvocellulari per frequenze spaziali basse che si muovono rapidamente. Per l’uomo alle alte frequenze temporali la CSC è un filtro passa basse. Alle basse frequenze temporali la CSC è un filtro passa bande (cado sia nelle alte, sia nelle basse, oltre un certo limite)



Fino alla fine degli anni 60 gli scienziati assumevano generalmente che la CSC riflettesse l’attività di un singolo meccanismo all’interno del sistema visivo. Si pensava che questo meccanismo fosse sensibile a reticoli sinusoidali di tutte le frequenze spaziali, e che rispondesse meglio ad alcune di esse generando la tipica curva a U invertita. Una serie di studi però cominciò a smentire questa ipotesi.

Secondo il meccanismo dell’adattamento i neuroni saturano e per un certo lasso di tempo non riescono a generare un potenziale d’azione, ovvero non rispondono più allo stimolo. Inoltre è possibile creare adattamenti diversi a diverse porzioni della retina.

E’ possibile misurare il cambiamento nella CSC prima e dopo l’adattamento a reticoli sinusoidali. Sottraendo la funzione di adattamento dall’originale otteniamo una funzione di tuning che descrive la risposta delle cellule adattate (in realtà il modo migliore per ottenere una funzione di tuning è il mascheramento).

ARTICOLO 1: Nel 1968 Campbell & Robson proposero che la CSC non riflettesse l’attività di un singolo meccanismo ma l’attività congiunta di molti meccanismi indipendenti chiamati filtri o canali. Ogni meccanismo è selettivo per una ristretta gamma di frequenze spaziali, con diversa ampiezza, ma parzialmente sovrapposti. In questa finestra ogni canale somma linearmente il contrasto del segnale e quello del rumore, fino a dare la CSC completa.

2 ipotesi differenti:

1) Un singolo meccanismo predice che il contrasto dell’intero pattern determini la soglia di detezione.

2) Filtri multipli predicono che il pattern viene rilevato quando il canale più sensibile eccede la sua soglia. Risultati:

-       Per discriminare un’onda quadra da una sinusoide è necessario che almeno la seconda componente sia a soglia di contrasto.

-       Per il compito di semplice detezione invece è possibile fare previsioni in base alla sola frequenza fondamentale (sia ad alte sia a basse frequenze).



Modello di sommazione di probabilità o di indipendenza: la sommazione lineare del contrasto avviene all’interno di ogni canale; la sommazione di probabilità avviene tra canali differenti.

Questi dati sono supportati da studi di fisiologia sul funzionamento dei neuroni, e quello che si dimostra qui per stimoli a basso spettro come i reticoli, non sembra valere del tutto anche per quelli ad ampio spettro, come le lettere, che ci aspetteremmo invece mediate da canali multipli o canali più ampi (cfr. ARTICOLO 2).

Solomon e Pelli invece scoprono che i meccanismi per l’identificazione di lettere e detezione di reticoli sono identici, dimostrando che il riconoscimento di oggetti ad ampio spettro come le lettere è comunque mediato da un singolo filtro visivo o canale. Questo dato è sorprendente perché in base alla CSC ci saremmo potuti attendere l’utilizzo di canali multipli. Nel cervello infatti possediamo anche neuroni meno selettivi, che lasciano passare contemporaneamente più informazioni. Avremmo quindi la possibilità di individuare stimoli come le lettere anche sotto una maschera, ma non la utilizziamo; ci fermiamo piuttosto ad un meccanismo di basso livello che utilizza un canale unico e stretto anche in relazione alla grandezza e alla distanza dello stimolo.

Off frequency looking: interazione laterale tra canali.



TEORIA DELLA DETEZIONE DEL SEGNALE (SDT - SIGNAL DETECTION THEORY)



La teoria della detezione del segnale descrive un teorema matematico che risolve il modo ottimale di rilevare un segnale in presenza di rumore. Il rumore è un fenomeno generale che si riferisce ad una variabilità casuale, indipendente dal segnale. Il rumore visivo bianco, contiene tutte le frequenze spaziali e per questo interferisce con la visibilità degli oggetti. Ogni apparecchio ha un rumore intrinseco che attenua il segnale.

La TDS è stata originariamente creata per risolvere il problema dei radar inventati durante la II guerra mondiale. Green & Swets applicarono la TDS ai processi decisionali umani, includendo oltre al continuum fisico e a quello sensoriale, quello dei giudizi, delle aspettative, dei costi e dei benefici del soggetto nella presa di decisione. In questo modo si passa dal cercare di individuare una soglia sensoriale ad una soglia di risposta. Questi matematici provarono che il modo ottimale per rilevare un segnale è possedere un campo recettivo esattamente identico al segnale.

La Signal Detection Theory è una teoria della presa di decisione e si basa sull’assunzione che l’effetto di un segnale di intensità costante e l’effetto del rumore si distribuiscano in modo Gaussiano, con varianze uguali o diverse. Dato un evento bisogna capire se appartiene alla distribuzione del rumore o a quella del segnale. L’osservatore è fallibile perché talvolta le informazioni possono avere la stessa probabilità di appartenere all’una o all’altra, la strategia diventa posizionare il criterio di demarcazione in un punto ottimale della curva di distribuzione.

Qualsiasi prestazione è il risultato dell’interazione tra la sensibilità (capacità intrinseca del sistema di rilevare la presenza di un segnale nell’ambiente) ed il criterio dell’osservatore (o bias: tendenza del soggetto a scegliere una risposta più frequentemente dell’altra, influenza direttamente il numero di HIT e FA).

In un esperimento di psicofisica gli elementi minimali del ciclo di decisione sono:

- la presenza di due stati possibili del mondo

- l’informazione

- la presa di decisione



La TDS rapporta lo spazio di osservazione con lo spazio delle risposte dell’osservatore.

La distribuzione del rumore e del segnale occupano lo stesso spazio decisionale (non sono indipendenti) R e R+S sono costanti ma il loro effetto sensoriale è variabile. La loro sovrapposizione dipende dall’intensità del segnale (sono sovrapposte quando l’intensità è bassa, tanto più è alta l’intensità quanto più le curve saranno separate e il segnale riconoscibile). La sensibilità del sistema dipende anche dall’area di sovrapposizione delle due curve.

La distanza lineare tra due punti corrispondenti delle distribuzioni (o tra le media) rappresenta il d’ ed è un’efficace misura della sensibilità del sistema. La distanza d’ si esprime formalmente in punti z e anche se virtualmente può assumere tutti i valori compresi tra 0 e infinito, nella realtà ha una gamma di valori ristretta.

La risposta dell’osservatore dipende sia dal d’ sia dal criterio (la grandezza critica dell’effetto sensoriale, che divide la curva di sensibilità del segnale in 2 parti). La posizione del criterio è una misura del bias del soggetto. Una stima approssimativa del d’ e del criterio può essere fatta senza calcoli, per mezzo del regolo calcolatore.

Dalla statistica di base è noto che l’area sottesa dalla gaussiana rappresenta la probabilità di verificarsi di un evento, ed è pari ad 1. Il posizionamento del criterio consente di dividere la curva in 4 porzioni:

- CR: rifiuti corretti

- MISS: omissioni

- FA: falsi allarmi

- HIT: risposta corretta

Grazie alla probabilità condizionali è possibile calcolare MISS/FA in funzione di HIT/CR.

Lo spostamento del criterio determina un aumento o una riduzione congiunta dei FA e degli HIT. Spostando il criterio verso sinistra aumentano i FA e gli HIT e diminuiscono i MISS. Spostando il criterio verso destra invece riduco sia FA sia HIT. Un fattore che può influenzare lo spostamento del criterio può essere la differenza nell’emanazione di guadagni e perdite (materiali, ma anche psicologiche) in relazione a risposte giuste o sbagliate.

Il calcolo del criterio è determinato dalle modificazioni di FA e HIT e misura quanto le risposte segnale assente tendano ad essere le preferite (il bias è positivo se l’osservatore tenderà a rispondere segnale assente).

Una seconda misura del bias è il rapporto di probabilità (likelihood ratio): rapporto tra i punti del segale+R e quelli del rumore in corrispondenza del criterio.

B > 1 l’osservatore tende a dire che il segnale è assente, criterio spostato verso destra

B < 1 l’osservatore tende a dire che il segnale è presente, criterio spostato verso sinistra

B =1 criterio ottimale (Bo), passa per il punto di intersezione delle due distribuzioni

Rispetto al criterio, B può essere considerato più significativo: nelle ROC infatti può anche essere considerato una misura della pendenza della curva in ogni suo punto.

Oltre alle probabilità condizionali è possibile calcolare le probabilità a priori (sia di S+R, sia di R) che rappresentano la proporzione di volte in cui il segnale (o il rumore rispettivamente) è presente rispetto al numero totale di prove somministrate.



Il risultato di un esperimento di SDT può essere riassunto da una coppia di numeri (HIT e FA) ed è possibile plottare il risultato di molte misurazioni successive in un diagramma ROC Space (Receiver Operating Characteristic: rappresenta come varia la probabilità degli HIT in funzione dei FA). Ciò consente di valutare a posteriori la correttezza delle assunzioni compiute.

La diagonale principale (linea di scelta casuale) è lo spazio unidimensionale lungo il quale le probabilità di HIT e FA coincidono; mentre l’angolo in alto a sinistra indica la massima discriminabilità tra le due distribuzioni.

Una proprietà delle curve ROC è che possono essere trasformate in rette se invece delle proporzioni si utilizzano in punti z. Questa rettificazione consente un calcolo più agevole del d’ e del criterio.

Misurare un punto sulle curve ROC può richiedere circa 100 trial, quindi misurare un’intera curva potrebbe richiedere più di duemila trial. La teoria della decisione non postula però la necessità di avere risposte di tipo binario (stimolo presente/assente) e quindi è stata sviluppata la procedura di stima o classificazione (rating procedure) nella quale il soggetto assieme ad ogni risposta deve anche fornire delle informazioni sul grado di confidenza delle sue stime.



PARADIGMI

Fenomeni di interazione tra stimoli:

-       Sommazione sottosoglia

-       Mascheramento

-       Adattamento

Il modello a canali multipli non spiega tutti i fenomeni di percezione.



1) L’EFFETTO PEDESTAL (ARTICOLO 3): lo studio di questo fenomeno ha una lunga storia e si riferisce al miglioramento nella rilevabilità di un reticolo sinusoidale ottenuto quando questo è sommato ad un reticolo maschera della stessa frequenza spaziale, orientamento e fase. Si misura in compiti con 2AFC in cui lo stimolo può essere presentato in due diversi intervalli temporali e ad entrambi viene aggiunto il secondo reticolo, con un aumento di contrasto solo in uno dei due (quello in cui c’è effettivamente il segnale).

Indagare il fenomeno dell’off frequency looking (interazione laterale tra canali diversi, sensibili a frequenze adiacenti), mediante l’utilizzo di rumore gaussiano filtrato per l’orientamento del reticolo da presentare: può essere più o meno efficace nel mascheramento, a seconda se contiene o meno la frequenza spaziale del reticolo.

Quando aggiungiamo la maschera c’è un vantaggio (la soglia si riduce), a fronte dello stimolo che presentato da solo era invisibile. La dipper-function è più pronunciata quando la prestazione è bassa. Questo implica che la funzione psicometrica è più lenta in corrispondenza del picco di vantaggio sulla soglia. Risultati:

-       Variazioni piccole di contrasto determinano ampie variazioni di accuratezza solo nella prima parte della curva (grande pendenza). Nella seconda parte grandi variazioni di contrasto determinano le stesse variazioni nell’accuratezza (meno pendenza). La pendenza della curva psicometrica varia.

-       Il rumore innalza la soglia e riduce la dipper-function. L’effetto pedestal è maggiore con il rumore ad ampia banda che con il rumore tagliato alla banda rilevante. Tuttavia anche in questo caso il rumore ha effetto nell’innalzare la soglia.

-       Il rumore tagliato non agisce come pedestal ma mascherando i canali off-frequency impedisce l’utilizzo dell’informazione proveniente da questi canali.



2) MASCHERAMENTO: (cfr. ARTICOLO 2). Il mascheramento della banda critica in ambito acustico ha dato risultati diversi da quelli di Solomon e Pelli in ambito visivo, l’effetto dell’off frequency hearing è molto più forte di quello dell’off frequency looking. È molto più difficile mascherare uno stimolo acustico perché esso può essere colto da molti canali, anche fuori frequenza.

- Filtrare la frequenza: se forzo l’osservatore a rilevare due stimoli nella stessa posizione spaziale contemporaneamente (cfr. due lettere) lo obbligo ad utilizzare due canali diversi centrati sulle frequenza spaziali degli stimoli stessi, e non un unico canale più ampio in grado di elaborare entrambi.

- Filtrare l’orientamento: nel dominio di Fourier devo creare dei filtri che lascino passare tutte le frequenze ma solo ad alcuni orientamenti. Si evidenzia una rappresentazione dei campi recettivi in V1 più ampi dei canali per frequenza: è possibile ipotizzare un’interazione tra più neuroni.

- I neuroni in MT sono selettivi per la velocità ma rispondono ad una più ampia gamma di frequenze spaziali e temporali. Cognitivamente sarebbe più utile utilizzare questo tipo di neuroni che risponderebbero allo stesso tempo a più frequenze, ma questo non accade. Ciò significa che il canale è selezionato in modo bottom-up dallo stimolo e non top-down dall’ʼosservatore. Il canale che usiamo dipende dalla grandezza dello stimolo e usiamo solo un canale per oggetto. Quando due oggetti si trovano nella stessa posizione usiamo due canali.



3) ADATTAMENTO: ve ne sono diversi tipi (Light Adaptation, After Effect, Adattamento Cromatico). Blackemore e Campbell, 1969: un canale predice che l’adattamento abbassi la CSC indipendentemente dalla frequenza spaziale. Canali multipli predicono che l’effetto dell’adattamento sia selettivo per la frequenza.

Effetto Mc Culloch: l’effetto è diverso dagli altri in quanto dura ore, giorni o mesi, può essere influenzato da sostanze psicoattive, la causa non è nota, ma sembrano implicati diversi neurotrasmettitori. Non appare sovrapposto a qualunque cosa guardiamo dopo il periodo di adattamento bensì l’effetto è specifico per la posizione retinica e per la frequenza spaziale delle barre. Avviene al livello neurale in cui le qualità spaziali dello stimolo vengono associate al colore, ma prima del livello della combinazione binoculare.



EFFICIENZA, RUMORE ESTERNO E OSSERVATORE IDEALE

(Lu & Dosher ARTICOLO 4)



Attraverso l’utilizzo di rumore esterno e di modelli di osservatore è possibile indagare la natura delle rappresentazioni interne utilizzate da un osservatore umano per svolgere un compito (produrre una decisione circa il segnale). L’obiettivo è chiarire la relazione tra lo stimolo esterno e la risposta interna, mediante assunzioni teoriche. I modelli dell’osservatore ideale cercano di chiarire questa relazione, anche dal punto di vista empirico. Sulla base delle limitazioni umane rispetto al modello è possibile produrre delle teorie sulla risposta interna.

1)      Paradigma dell’Equivalent Input Noise: esternalizzare la risposta interna utilizzando rumore esterno aggiunto al segnale. Stima la quantità di rumore interno, l’ampiezza di una sorgente singola di rumore interno additivo. Nel caratterizzare gli amplificatori elettronici viene immesso un segnale e del rumore ad intensità variabile al fine di estrarre il rapporto segnale-rumore e stimare il rumore interno dell’amplificatore. È importante creare amplificatori non troppo rumorosi per ottenere output non troppo sporchi. Minore è il rapporto S/R minore è il d’ e la % di risposte corrette. Vedi grafico: nella parte 1 il rumore esterno è troppo basso per influenzare il segnale, che dipende dal rumore interno (vi è la stessa soglia con o senza rumore esterno). Nella parte 2 il rumore esterno invece domina. Il punto di flesso indica una stima della quantità di rumore interno: è il punto in cui l’output comincia a dipendere dal rumore esterno. Linear Amplifier Model: assume che le curve misurate a d’ diversi (% di accuratezza diversa = livelli di prestazione diversi) siano uguali ma parallele. Il d’ è legato in modo non lineare al contrasto.



I vari modelli di osservatore ideale possono differire nello specificare una o più delle seguenti componenti (più parametri introduce il modello più è sensibile, ma potrebbe perdere in forza teorica):

- Rumore interno additivo

- Rumore interno moltiplicativo (cfr Legge di Weber: rumore con ampiezza funzione dell’ampiezza dello stimolo in input)

- Caratteristiche del template percettivo

- Regole della presa di decisione



2)      Procedura di accordo double-pass: il fatto che i JND siano proporzionali all’ampiezza dello stimolo di confronto, suggerisce che ci sia un’altra sorgente di rumore la cui ampiezza sia in funzione dell’ampiezza dello stimolo in input (rumore moltiplicativo). La procedura double-pass è stata sviluppata per stimare la quantità totale di rumore interno sia additivo sia moltiplicativo. Nella procedura la stessa combinazione di segnale + rumore esterno viene presentata due volte per valutare la consistenza nella risposta nel tempo, insieme a rumori interni diversi, presi da fonti diverse. Il segnale con ampiezza crescente viene aggiunto con una deviazione standard fissa. Ogni coppia di onde è fatta dallo stesso campione di rumore e di segnale e da un rumore interno variabile. Quando il rapporto S/R è alto la correlazione tra le due funzioni è alta (poco rumore, domina il segnale). Per un particolare livello di intensità del segnale, la correlazione decresce all’aumentare del rumore interno. In presenza di alto rumore esterno o basso rumore interno la risposta è molto consistente e le due procedure si avvicinano. La % di risposte corrette (che io vario modificando l’intensità del segnale) è indipendente dalla quantità di rumore interno quando la P(a) (consistenza delle risposte nel tempo) è alta, ovvero tende a 1. Il rumore interno sarà più influente quando la P(a) è bassa. Se non aggiungo mai rumore esterno l’osservatore ideale non sbaglierà mai perché, usando template percettivi perfettamente corrispondenti allo stimolo, gli basterà anche solo una sorgente minima di segnale per svolgere il compito. Quanto la prestazione dell’OI si discosta da quella dell’osservatore umano? Renderli più simili.

3)      LAM with uncertainty: il LAM predice che il rapporto della soglia di contrasto per livelli di prestazione diversi sia uguale al rapporto tra i d’. Tuttavia, il d’ è funzione a potenza del contrasto del segnale. Altri modelli come il PTM (Perceptive Template Model) tengono conto di questa non linearità. Pelli (1985) ha proposto che questa non linearità sia dovuta all’incertezza statistica del processo decisionale. L’osservatore è incerto circa le caratteristiche dello stimolo e quindi basa la decisione sia su variabili rilevanti per il compito sia su variabili irrilevanti (hidden detectors - FA). L’incertezza nella decisione è un modello con soli due parametri e predice la pendenza della funzione psicometrica. I due parametri sono il numero di canali irrilevanti e la quantità di rumore all’interno di ogni canale. L’idea di base è che l’osservatore cercando di rilevare un segnale debole controlli un numero di canali irrilevanti.



-       Efficienza visiva (E): capacità dell’osservatore umano di usare l’energia disponibile in uno stimolo (stimata grazie al LAM). Indice di specializzazione neurale del sistema (template percettivo).  E’ il rapporto tra due soglie, quella dell’osservatore ideale e quella dell’osservatore umano. E’ la frazione di energia disponibile (osservatore ideale) usata dall’osservatore umano per fare il compito. E’ sempre <1, perché noi siamo sempre meno efficaci dell’OI (non abbiamo neuroni o template percettivi perfettamente corrispondenti allo stimolo, bensì utilizziamo l’associazione). La soglia di energia E è il quadrato del contrasto sommato lungo le dimensioni di variazione dello stimolo. Per una lettera l’energia è uguale al prodotto dell’area di inchiostro ed il quadrato del contrasto. Calcolare E, E0 e E ideale permette di calcolare l’efficienza in presenza di alto rumore. Questo ha numerosi vantaggi sperimentali (cfr. ARTICOLO 5).

-       Rumore interno (Neq): attività variabile dei neuroni non collegata alla presenza dello stimolo. Indice di maturazione del sistema nervoso.

-       Osservatore ideale (OI): è un modello implementato al computer e testato come l’osservatore umano, in ogni prova sceglie lo stimolo più probabile tra le alternative note operando un’analisi della covarianza tra lo stimolo in ingresso e quelli in memoria. L’OI è influenzato solo dalla quantità di rumore aggiunto allo stimolo e dalla discriminabilità degli stimoli nel set. Opera come un template percettivo perfettamente corrispondente agli stimoli.



EFFICIENZA E RICONOSCIMENTO DI PAROLE (ARTICOLO 5)



Nell’effetto di superiorità della parola (WSE Reicher 1969) le persone sono più accurate nel riconoscere una lettera quando questa è presentata nel contesto di una parola piuttosto che isolatamente o nel contesto di una non parola.

Secondo il modello di Rumelhart & McClelland (1981) una parola attiva/inibisce un certo set di detettori di caratteristiche, che a loro volta attivano/inibiscono I detettori di lettere, che attivano/inibiscono i detettori di parole (cfr. modello dei demoni urlanti di Selfridge).

Il WSE potrebbe essere legato ad un’attivazione feedforward e di feedback agli stadi precedenti, inibitoria rispetto alle lettere non presenti. Con un paradigma di priming in fMRI è stata individuata un’area del cervello specializzata nella detezione di lettere (giro fusiforme sinistro). Le lettere e con esse le parole sono una categoria speciale di stimoli. Come vengono riconosciute ed analizzate:

-       Rappresentazione astratta rispetto alla lettera in sé, utilizzo di caratteristiche fisiche più generali (cfr. esperimenti che utilizzano font diversi, non trovano risultati consistenti)

-       Riconoscimento olistico: rappresentazione dello stimolo come un oggetto unitario, senza ulteriore scomposizione (unità percettiva).

L’esperienza fatta con le parole potrebbe aver portato allo sviluppo di detettori specifici per l’input visivo delle parole. Il riconoscimento di parole familiari come immagini piuttosto che come combinazioni di lettere predice differenze sostanziali nella soglia. Prima è necessario calcolare l’energia degli stimoli, per poi usarla in modo variabile: le righe hanno tutte la stessa energia, ma in un caso vi è la stessa energia per ogni lettere, nell’altro la stessa energia per ogni parola. Si evidenzia l’effetto lunghezza: l’efficienza per il riconoscimento di una parola di n lettere è pari a 1/n quella per il riconoscimento della lettera singola. Le parole lunghe sono meno visibili perché l’energia è suddivisa in più lettere. Solo l’osservatore ideale è indipendente dalla lunghezza, ma anche per lui la lettera singola richiede più energia per essere vista. Valutare la robustezza dell’effetto e verificare la presenza di altri effetti. Effetto grandezza: aumentare la grandezza della lettera in modo che sia uguale alla parola riduce la soglia. Effetto familiarità: tentativo di ridurre l’efficienza fallito perché la prestazione con 26 parole di 5 lettere è uguale alla prestazione con 2.213 parole di 5 lettere (= 4% di efficienza). Tentativo di aumentare l’efficienza fallito perché la prestazione con 5 prole di 3 lettere ha un’efficienza uguale, pari al 4.8% (1/3 per lettera).

La pendenza della funzione psicometrica è molto più elevata per l’osservatore umano che per l’osservatore ideale, che però mostra un WSE molto forte (cfr. modello di sommazione). L’osservatore umano si basa sul modello di indipendenza, ma la sua prestazione è inferiore rispetto a quella strettamente ipotizzabile in base al modello.

L’effetto di superiorità della parola (di un fattore di 1.15 in contrasto) e quello della lunghezza della parola (di un fattore 5 per parole di 5 lettere) sono compatibili con un modello strettamente letter based ed è dovuto alla matrice di confusione tra le lettere (caratteristiche di accoppiamento e frequenza comparsa delle lettere all’interno di una lingua).

I dati indicano che gli osservatori falliscono nel’utilizzare in modo ottimale la loro matrice di confusione tra le lettere, tuttavia ricevono un vantaggio dall’avere le parole. Questo suggerisce che prestare attenzione alla parola potrebbe spingere l’osservatore ad utilizzare la sua matrice di confusione. Questa interpretazione è anche supportata dall’osservazione di Rumelhart e McClelland che il WSE sia influenzato dall’istruzione data all’osservatore di prestare attenzione alle lettere piuttosto che all’intera parola. Dunque la nostra efficienza per riconoscere le parole è limitata dal basso e dal dover rilevare in modo indipendente le caratteristiche che la compongono.







INTEGRAZIONE E CROWDING



Gli oggetti vengono riconosciuti rilevandone ogni caratteristica elementare e isolandone ogni parte. Se il processo di isolamento fallisce si verifica il crowding. Questo fenomeno riguarda l’interazione tra gli elementi adiacenti nell’identificazione di un elemento target. Per anni è stato considerato un caso particolare di mascheramento, in cui la maschera non è sovrapposta, bensì adiacente allo stimolo; ma non è così.

L’output dei canali di primo ordine deve essere combinato ad un livello successivo attraverso i campi di integrazione all’interno dei quali i diversi orientamenti vengono sommati. La visibilità di uno stimolo dipende anche dalla sua eccentricità rispetto al punto di fissazione (cfr. CSC). In virtù di ciò le parole più eccentriche sono quelle che mostrano l’effetto di crowding più forte. Il range del crowding scala in funzione dell’eccentricità retinica con una proporzione di 0.5  (legge di Bouma: lo spazio tra il distrattore e il target deve essere la metà dei gradi dell’eccentricità retinica del target stesso). Questa proporzionalità fa si che il range del crowding sia forte in periferia e debole in fovea.

-       Toet e Levi misurano l’acuità visiva in funzione dell’eccentricità dello stimolo mediante un compito di discriminazione di orientamento di lettere con o senza distrattori (al 75% di risposte corrette). Con i distrattori verticali vi è un’elevazione di soglia (l’acuità peggiora in funzione dell’eccentricità); mentre con i distrattori orizzontali l’effetto è minore. Mediante questa procedure gli autori individuano le regione di interazione foveale per tutti gli orientamenti (campi ellittici con l’asse principale orientato verso la fovea). Vi sono però forti differenze individuali.

-       Un’altre procedura consiste nel misurare la soglia in funzione dello spazio tra le lettere. Questa procedura consente di identificare lo spazio critico necessario per evitare il crowding. Questo spazio non dipende dalla grandezza delle lettere ma solo dalla distanza centro-centro. Il mascheramento ordinario ha il pattern inverso.



MASCHERAMENTO
CROWDING
Descrive i meccanismi di primo livello (detettori di caratteristiche)

Descrive i meccanismi di secondo livello (campi di integrazione)
È simile in fovea e periferia

È più forte in periferia
Fa scomparire del tutto il segnale
Mantiene lo stimolo visivo ma lo rende non identificabile

Funziona sia in compiti di detezione che di identificazione

Funziona con un limitato tipo di compiti (cfr. orientamento)
Lo spazio critico è molto piccolo (serve quasi la sovrapposizione tra stimolo e maschera)

Lo spazio critico è ampio (cfr. Legge di Bouma)
L’effetto è proporzionale al contrasto della maschera

L’effetto è indipendente dal numero di distrattori, quando essi sono più di due
I canali per il target e per i distrattori sono gli stessi

Esistono detettori diversi per il target e i distrattori



La lettura e la velocità di lettura sono limitate dal crowding. La velocità è stata misurata in funzione di diversi parametri, come la grandezza del carattere e l’eccentricità dello stimolo. Esiste anche uno span di crowding.



ARTICOLO 6 (Parkes et al. 2001): l’osservatore deve riportare la direzione di orientamento di un gabor patch centrale circondato da tanti gabor con orientamento orizzontale. Il compito risulta essere molto difficile: per riuscirci anche a livelli di prestazione non elevati l’inclinazione minima è di 12 gradi (piuttosto elevata).

Esistono due spiegazioni a questo fenomeno di crowding:

1)      Masking: il segnale è corrotto e causa l’errore.

2)      Pooling: si basa sul modello dell’integrazione. La stima dell’orientamento è effettuata non direttamente sugli stimoli singoli ma sulla media degli orientamenti di tutti gli stimoli; ovvero sull’output dei meccanismi di primo livello (senza distinzioni tra il target e l’orientamento dei distruttori). Questa media è proporzionale al numero dei gabor patch. La soglia si riduce all’aumentare dei patch. Inoltre il sistema sembra tener conto anche della varianza (tramite il computo delle deviazioni standard) e non solo della media.



Risultati: Nonostante l’incapacità nel riportare l’orientamento di un singolo patch l’osservatore può stimare l’orientamento medio degli stimoli, dimostrando che le informazioni vengono combinate insieme e non del tutto perse. La precisione di questa stima inoltre è indipendente dal numero di stimoli (la media invece è proporzionale). Nell’esperimento inoltre è stata manipolata la fase degli stimoli per vedere se la sommazione di informazioni avvenisse all’interno di un campo recettivo. Se così fosse la prestazione sarebbe dovuta essere peggiore nella condizione non a fase, cosa che non si è verificata. Questo modello predice che la prestazione migliori all’aumentare del numero di target (la soglia scende). Al contrario dell’orientamento, la detezione dell’allineamento spaziale, non migliora con il livello di inclinazione del target.

L’elevazione della soglia non è una caratteristica del crowding, ma deriva dai detettori di primo ordine. Lo spazio critico scala con l’eccentricità del target, ma non con la grandezza dello stimolo.

Il crowding fa perdere le informazioni degli orientamenti singoli e promuove il processo di analisi della tessitura. Quando la presenza dei distrattori non peggiora la capacità dell’osservatore di localizzare il target si ha l’effetto pop-out (cfr. Treisman).



ARTICOLO 7 (Nandy et al. 2007)



Indagare la natura del crowding attraverso il paradigma delle Classification Images. Questa tecnica parte dalla spiegazione dei falsi allarmi. Nel rumore sembrerebbe esistere qualcosa che somiglia al segnale e che dunque viene analizzato dal template percettivo anche quando non dovrebbe.

Per spiegare il fenomeno del crowding gli autori ipotizzano tre possibili cause:

1)      Masking

2)      Integrazione inappropriata di caratteristiche

3)      Sourse Confusion ( le caratteristiche dei flankers sono confuse con quelle dei target).



Gli studiosi usano la tecnica della Reverse Correlation (correlazione inversa) che prevede un compito di detezione (circa 40000 trial) mediante la presentazione di un gabor patch + rumore o di solo rumore. Alla fine della sessione sperimentale viene fatta una classificazione dei trial in base alle risposte dell’osservatore e viene calcolata la correlazione tra coppie di pixel di rumore, per ogni categoria di risposta. La correlazione inversa tra i rumori permette di creare una mappa dei pixel del rumore in grado di disturbare la detezione del segnale, e quindi di condurre all’errore. Dal momento che il rumore usato è bianco, ci si aspetta che la correlazione sia zero. Una qualsiasi correlazione diversa da zero rivela una correlazione strutturale di secondo ordine. È necessario però anche scegliere la regione di interesse (ROI) nella quale effettuare l’analisi (che non deve essere né troppo grande, né troppo piccola, per non influenzare le correlazioni).

In questo modo è possibile rivelare la strategia percettiva dell’osservatore, ovvero quali parti dell’oggetto utilizza per compiere la decisione.

Il risultato evidenza il template percettivo (la media spazio temporale delle caratteristiche elementari usate).

Il problema di questo metodo è dato dall’incertezza spaziale: è necessario utilizzare una tecnica di raggruppamento delle immagini che produca un template invariante per la dislocazione (Signal Clamped).

Gli autori calcolano:

1)      First Order Classification Images (la media spazio temporale delle caratteristiche elementari usate)

2)      Effetti strutturali dei flankers

3)      L’ampiezza della regione dalla quale vengono estratte le caratteristiche (mediante le ROI)

4)      Mappe di secondo ordine (trasformando i dati in punti z)



La novità è che per ogni trial nel calcolo della correlazione tra pixel rumorosi si tenga conto anche della distanza spaziale tra i pixel stessi (optimal ROI). Per ogni particolare tipo di errore vi è la media della potenza spettrale del rumore (le mappe sono colorate in funzione della polarità dei pixel: stessa polarità = rosso; polarità opposta = blu).



Confronto fovea-periferia: in periferia, in presenza di distrattori, vi è un aumento di soglia, un decremento di efficienza e una perdita di contrasto. In fovea succede praticamente il contrario, perché i distrattori riducono l’incertezza spaziale.

Inoltre si riscontrano differenze a seconda dello stimolo utilizzato nel compito (cfr. O vs X).

-       Unflanked: contrato più basso in periferia ma stessa forma

-       Flanked: il template per la O non è distorto, indicando che il crowding non è causato da un problema a livello dei detettori di primo ordine.

L’osservatore ideale è modellato con una parte di incertezza spaziale e nel confronto l’essere umano fa meglio del previsto. L’OI compie sempre la correlazione tra stimolo e immagine in memoria, solo che non c’è più l’equivalenza perfetta con il template percettivo. inoltre non utilizza caratteristiche singole ed elementari, bensì la configurazione unitaria dello stimolo. l’uomo in fovea si comporta nello stesso modo (usa quasi l’intera lettere). In periferia invece utilizza meno caratteristiche e più distribuite. L’uomo utilizza un numero inferiore di caratteristiche rispetto all’OI e meno caratteristiche valide. In questo modo è più facile fare confusione. Il deficit di integrazione viene risolto con un sistema di attenuazione delle features disponibili.

Risultati:

-       Il crowding riduce il contrasto delle immagini di primo ordine senza alterarne la forma

-       Gli errori nel crowding sono correlati con la struttura spaziale del target ed assomigliano a quelli erroneamente identificati

-       Il crowding non ha effetto sistematico sull’incertezza spaziale (cfr. ROI) e non sopprime la detezione

-       Il crowding riduce il numero di caratteristiche valide ed aumenta le invalide (analisi di secondo ordine). Non è Masking ma Sourse Confusion.



L’analisi delle caratteristiche che generano un bias nella direzione dell’errore sul target rivela che in periferia l’errore è dovuto proprio ad alcune caratteristiche dei distrattori, il che conferma la Source Confusion.



L’analisi dei flanker dimostra una forte correlazione nella condizione di crowding (flaked periphery ma non in fovea) tra gli errori di identificazione e le parti dei flaker che assomigliano al target. Il risultato sulle ROI esclude che il crowding sia dovuto legato ad un incertezza spaziale della

periferia.

Questo quadro è coerente con il fatto che sia in fovea che in periferia l’osservatore estrae l’informazione da una regione più ampia del segnale ma in fovea è poi chiara la provenienza mentre nel crowding si perde l’appartenenza.



COSA INDICANO I RISULTATI RISPETTO ALLE ALLE ALTRE DUE CAUSE DEL CROWDING IN ESAME:

-       Masking: Nessuna evidenza che il crowding sopprima la detezione di caratteristiche (questo avrebbe causato meno correlazioni di secondo ordine con i flanker). Gli errori causati dal masking sarebbero casuali e non dovrebbero emergere come features invalide.
Inappropriate feature integration: per essere in accordo con i dati il modello deve prevedere un processo di competizione/inibizione tra meccanismi diversi. Infatti aumentano le features invalide come predetto dall’integrazione (le caratteristiche dei flakers vengono combinate