martedì 8 maggio 2012

PSICOFISICA DELLA PERCEZIONE UMANA




LA SOGLIA



Psicofisica: si occupa di indagare le leggi che regolano la relazione tra il continuum fisico e quello sensoriale. Studia il legame tra il mondo fisico e il sistema percettivo, misura le variazioni che il primo produce sul secondo mediante compiti comportamentali.

La psicofisica classica distingue tre domini:

- Mondo sottosoglia

- Mondo a soglia (metà consapevole e metà inconsapevole)

- Mondo soprasoglia



Secondo questo schema la sensazione è determinata dal superamento di una certa soglia sensoriale (Soglia assoluta e reale, valore intensivo e fisico). Sotto tale soglia il segnale è troppo debole per essere visto, o per essere accessibile alla coscienza (High Treshold Theory). In realtà questa concezione è stata superata perché il sistema è probabilistico, con una parte di incertezza intrinseca al sistema.

Soglia differenziale: è anche chiamata JND (Just Noticeable Difference). Il JND è la quantità di cambiamento nello stimolo necessaria perché l’osservatore percepisca una differenza.

Quindi si tratta della differenza tra uno stimolo test di intensità IT e lo standard la cui intensità è definita con I0.



- Fechner: è a lui che si può attribuire la nascita della psicofisica. Secondo il suo concetto di parallelismo ogni evento si può considerare sia fisico, in quanto osservato esternamente nella sua azione oggettiva, sia psichico se è considerato dal suo interno, soggettivamente. Per ottenere una quantificazione psichica indiretta elabora il concetto di trasformazione psicofisica e la legge matematica che esprime questa relazione (Legge di Fechner: tutti i JND, essendo appena percepibili, corrispondono a cambiamenti uguali nella sensazione. S= c log (I/I0). L’intensità della sensazione è funzione logaritmica dell’intensità fisica dello stimolo. La sensazione varia molto a valori bassi della scala, poi rallenta). Helson propone una modifica in base alla sua teoria del livello di adattamento, che tiene conto della relatività degli eventi sensoriali.

Inoltre gli stimoli fisici possono essere divisi a seconda del tipo di variazione (quantitativa o qualitativa) che essi producono a livello di sensazione. Essi sono protetici quando alla variazione quantitativa e progressiva di una proprietà fisica dello stimolo fa riscontro una variazione nella sensazione percepita (processi additivi). Sono invece metatetici quando al variare quantitativo e progressivo di una proprietà fisica dello stimolo corrisponde una variazione qualitativa della sensazione evocata (processi sostitutivi).

- Legge di Weber: La soglia differenziale è sempre frazione costante dell’intensità dello stimolo: DI= k I0. L’incremento di IT per ottenere un JND è proporzionale all’intensità I0, in funzione della costante K, diversa per diversi sistemi percettivi. Descrive come la differenza percepita tra gli stimoli cresce al crescere dell’intensità.

- Thurstone: partendo dal concetto di dispersione discriminale elaborò la legge dei giudizi comparativi, per la quale lo stesso stimolo non è in grado di elicitare sempre lo stesso processo discriminale, e quindi la stessa sensazione. La distribuzione delle sensazioni elicitate dallo stesso stimolo in presentazioni diverse è quella gaussiana, in cui il valore medio (il più probabile) corrisponderà al processo discriminale modale. Poiché il soggetto non è in grado di calcolare direttamente il processo discriminale dovrà ricorrere ai giudizi comparativi, estesi da Togerson anche ai dati raccolti con il metodo delle categorie successive.

- Stevens: le varie JND non aggiungono un incremento sempre costante della sensazione, ma l’intensità della sensazione è funzione a potenza dell’intensità fisica dello stimolo. Questo assunto è legato al metodo delle stime di grandezza, in cui i soggetti sono in grado di stimare l’intensità delle proprie sensazioni direttamente per mezzo di valori numerici, o grazie ad un confronto intermodale non numerico.



Misure comportamentali:

- Giudizi

- Tempi di reazione: ogni processo o evento neurale richiede un certo tempo, si può inferire la simultaneità o la serialità tra diversi processi

- Percentuale di risposte corrette: o accuratezza. Non è un parametro molto informativo perché dipende da molte variabili. Per usarla si necessita di informazioni aggiuntive o di una cornice teorica forte

- Soglia: consente di confrontare diverse condizioni (o osservatori) ad una stessa prestazione (percentuale determinata di risposte corrette)



Invarianze statistiche: l’energia dello stimolo dipende dall’intensità della luce irradiata, dall’area dello stimolo, e dalla sua durata

Esempio: misurare la luminanza necessaria per vedere uno spot, cambiando l’area degli spot ma mantenendo costante il tempo di comparsa

Legge di Ricco: per spot piccoli la luminanza richiesta a soglia è inversamente proporzionale all’area. Ma l’energia totale è costante (luminanza*area). Quando gli spot diventano più grandi aggiungere area non determina un vantaggio aggiuntivo (a causa della limitazione del campo recettivo). Mentre l’energia aumenta all’aumento dell’area.

Se invece manteniamo costante la grandezza e variamo la durata otteniamo una relazione simile chiamata Legge di Bloch.

Il sistema visivo somma all’interno di una finestra spaziale di una certa grandezza (Ricco) e di una finestra temporale di una certa durata (Bloch).

La soglia corrisponde all’intensità del segnale, controllata lungo una particolare dimensione, necessaria per ottenere un determinato livello di prestazione. La soglia assoluta è un caso particolare di soglia differenziale dove la differenza è con zero e bisogna rilevare solo la presenza dello stimolo.



Metodi

-       Metodo dei limiti e della classificazione: metodi della fisica classica, applicabili sia per soglie assolute, sia per soglie differenziali (l’unica differenza procedurale è che nel caso della SD vengono presentati sempre 2 stimoli contemporaneamente). Sono metodi un po’ antiquati ma molto validati. Si basano su serie ascendenti o discendenti di stimoli e su una risposta di tipo classificatorio si/no. Partendo da una condizione di diseguaglianza ben visibile tra due stimoli e variando gradualmente uno dei due, si chiede all’osservatore di rilevare quando la differenza non è più percepibile. È sempre importante ripetere la somministrazione perché la soglia può fluttuare. In questi metodi possono intervenire diverse variabili di disturbo. La prima è costituita dalla direzione della serie, che può portare ad una tendenza di risposta (errori di abitudine o errori di perseverazione, errori di anticipazione). Tali errori vengono definiti costanti, e se non vengono controllati influiscono in modo sistematico sulla misura (isteresi). Un numero uguale di serie A e D tende ad elidere questi errori, inoltre è possibile tentare di bilanciarli alternando per ciascun soggetto le serie A e D, secondo schemi di alternanza semplice o alternanza simmetrica (DADA o DAAD). Une verifica a posteriori della forza relativa degli effetti è però sempre necessaria. Una seconda variabile di disturbo è quella degli effetti seriali o effetti di fatica, dovuti al calo dell’attenzione o all’affaticamento. Una terza variabile che richiede di essere controllata tramite randomizzazione è il punto di partenza di ciascuna serie. L’unica restrizione che va imposta alla randomizzazione è che lo stimolo d’inizio non deve essere troppo vicino alla soglia. Per le soglie differenziali si aggiunge il punto dell’eguagliamento soggettivo e l’errore di ordine temporale, dovuto all’effetto della posizione temporale dello stimolo standard rispetto allo stimolo di controllo, ridotto col metodo del contro bilanciamento. Altre fonti di errore possono essere controllate solo mantenendole costanti nelle diverse presentazioni. L’incidenza di alcuni effetti di disturbo può essere verificata statisticamente tramite ANOVA. Esistono poi alcune varianti di tale metodo, più economiche e meno soggette agli errori, come il metodo della scala o della doppia scala, che consente di non cambiare bruscamente le serie, ma di invertirne la tendenza.

-       Metodo di aggiustamento limiti: a differenza del primo può essere utilizzato solo per la determinazione di soglie differenziali. Il compito richiesto al soggetto è quello di regolare l’intensità dello stimolo di confronto fino a renderla uguale a quella dello stimolo standard. È una stima diretta del PSE. Possono comunque avere luogo errori sistematici anche se meno frequentemente, inoltre le prove durano molto meno. È necessario però verificare l’omogeneità delle stime soggettive, che possono essere scomposte in una componente vera e in una di errore, a sua volta scomponibile (V + E1 + E2 + E3…….+ EN). 

-       Metodo degli stimoli costanti: ripetuta presentazione di un set costante di stimoli in ordine casuale di intensità, a distanza uguale dalla soglia. Non è più necessario presentare sia la serie ascendente sia la discendente. Anch’esso può dare adito ad alcuni errori sistematici, controllabili come sopra, ma si presta a compiti più versatili, anche con stimoli sgradevoli. Può essere un metodo lungo e noioso, a causa delle prove preliminari necessarie per individuare il set di stimoli. La soglia assoluta con questo metodo corrisponde allo stimolo che elicita la risposta corretta nel 50% dei casi. I metodi di calcolo sono quelli dell’interpolazione lineare, e dell’interpolazione con la retta dei minimi quadrati, che consentono anche una verifica della bontà di adattamento del modello. Per quanto riguarda la misura della soglia differenziale si aggiunge il problema della terza categorie di risposta “uguale”. L’uso di tre categorie è più ecologico, ma si tende comunque a sconsigliarlo, forzando il soggetto a scegliere sempre “maggiore o minore”, o eliminando la categoria centrale nell’elaborazione dei dati. La risposta dicotomica però implica che possa essere influenzata dal criterio interno dell’osservatore (troppo variabile). Per ovviare a questo problema si usa:

-       2 AFC (2 o più alternative a scelta forzata): il criterio è stabile ed esterno, stabilito dallo sperimentatore, in più è possibile valutare esattamente l’influenza del caso nelle risposte del soggetto. Se aumento le alternative di scelta cambia la guessing rate (il livello massimo di errori).

-       Procedura adattativa: il parametro controllato varia a seconda delle risposte del soggetto. Le procedure adattive sono di due tipi: non parametriche (dette anche staircase, non fanno assunzioni di sorta sulle risposte del soggetto) o parametriche (di solito assumono che la risposta del soggetto sia modulata da una certa funzione psicometrica). Tutte le procedure adattive si caratterizzano per un algoritmo che permette di scegliere quale stimolo presentare alla prossima prova in funzione della risposta data dal soggetto. L’algoritmo è ovviamente diverso da procedura a procedura. Vantaggio rispetto agli altri metodi che offrono cmq gli stessi risultati: molti trial a livello-soglia vs pochi trial fuori livello-soglia. (Cfr. LAB1: confrontare la soglia di detezione di uno stimolo all’85% di risposte corrette – 15/20 millisecondi - e il tempo di reazione misurato per uno stimolo sopra soglia – 300 millisecondi. Questo secondo tempo include anche la programmazione e l’esecuzione del movimento, non è molto informativo sui meccanismi di elaborazione percettiva. La misura della soglia si)



In tutti questi metodi ripetendo le misure numerose volte è possibile raccogliere funzioni psicometriche che mostrano come la percentuale di volte in cui l’osservatore dice “si lo vedo” varia al variare dell’intensità (per ogni livello di intensità calcolo la % di detezione). Qualunque sia la scala di intensità la funzione ha sempre la stessa forma (ad ogiva, con asintoto zero) ma pendenza differenti. Nelle serie discendenti ottengo una curva più spostata verso destra sull’asse delle x, rispetto alla curva ottenuta con una serie ascendente: questo avviene a causa dell’abituazione.

La soglia ideale sarebbe descritta da una funzione a gradino che separa ciò che viene sempre visto da ciò che non viene mai visto, ma la funzione empirica è un’ogiva e questo non accade mai, a causa della variazione stessa della soglia da trial a trial (a causa del rumore di fondo: informazione non correlata allo stimolo). La pendenza della funzione psicometrica indica la sensibilità a combinare insieme le caratteristiche elementari dello stimolo (più è pendente più l’osservatore è esperto). La stima migliore della soglia assoluta coinciderebbe con il punto di massima pendenza , ovvero con il valore dello stimolo fisico in grado di elicitare la risposta corretta nel 50% dei casi. Lo stesso punto per la soglia differenziale viene chiamato PSE (Punto di Eguagliamento Soggettivo). La funzione di probabilità derivante dall’integrale della funzione psicometrica ha la forma di una gaussiana con distribuzione normale e indica la probabilità di ottenere una certa soglia per una certa intensità.



ANALISI DELLA FREQUENZA          



Le variazioni spaziali nella luminanza di un’immagine possono essere rappresentate in termini di frequenza spaziale del profilo di luminanza. La luminanza dipende dall’intensità della luce, dalla riflettenza dell’oggetto e dall’angolo di incidenza tra luce e oggetto. Inoltre nasconde 3 variabili: illuminazione, orientamento e materiale delle superfici.

Il dominio spaziale è lo spazio usuale di un’immagine. In questo spazio un cambiamento di posizione nella proiezione di un’immagine (retinica) corrisponde ad un cambiamento di posizione nell’immagine proiettata.

Il dominio della frequenza è uno spazio nel quale ogni cambiamento di posizione nella proiezione di un’immagine corrisponde ad un cambiamento di frequenza spaziale nell’immagine proiettata (dominio spaziale).

Nel dominio della frequenza si può misurare la velocità di cambiamento di un’immagine nello spazio. La frequenza si misura in numero di cicli per unità di spazio. In visione l’unità di spazio è il grado di angolo visivo sotteso dall’immagine. Quindi la frequenza si misura in cicli/grado.

Un reticolo sinusoidale è periodico e puro e può essere rappresentato in modi diversi (onde, banda chiara/banda scura, funzione, onda quadra costituita da un insieme di sinusoidi). Per noi è particolarmente utile cambiare la forma dell’onda da sinusoidale a quadra, perché nel mondo si incontrano molti più bordi di luminanza che reticoli sinusoidali. Quello che importa è il contrasto (differenza di luminanza tra sfondo e stimolo) e non la luminanza assoluta dello stimolo.

In molti casi la trasformata di Fourier viene utilizzata per convertire un’immagine dal dominio spaziale a quello di frequenza e vice-versa. Si rappresenta con un doppio asse cartesiano in cui più i punti sono distanti dall’origine più è alta la frequenza spaziale, mentre l’orientamento dei punti rappresenta l’orientamento ortogonale della figura reale. Dal momento che nel dominio di Fourier esistono solo numeri immaginari (detti numeri I) ogni figura rappresentata deve essere raddoppiata.

Il modo migliore per avere una buona rappresentazione nel dominio di Fourier è utilizzare un oggetto con un Gabor Patch: un reticolo sinusoidale presentato all’interno di un profilo gaussiano di luminanza che ne mascheri i bordi (transizione graduale tra sfondo e oggetto in modo da evitare di inserire nel sistema le alte frequenza relativa ad un bordo).

Le immagini e gli oggetti contengono energia a diverse frequenze. È possibile creare filtri che permettano il passaggio selettivo di alcune frequenze e non di altre (Filtro passa alte. Filtro passa basse. Filtro passa bande. Filtro per l’orientamento).

Una rappresentazione in termini di dominio di frequenza è rilevante perché noi possediamo meccanismi che rilevano cambiamenti in questo dominio.



Analisi di forma d’onda – Lo spettro: forma d’onda complesse in cui lo spettro è la somma degli spettri delle sinusoidi che compongono l’onda stessa. L’onda quadra è la somma si sinusoidi opportunamente scelte in cui la frequenza fondamentale è quella uguale alla frequenza dell’onda quadra, mentre le altre componenti formanti saranno le frequenze dispari con ampiezza sempre minore (F + 3F + 5F……)



Curva di sensibilità al contrasto: Ogni strumento ottico possiede una MTF (Modulation Transfert Function). Di tutto lo spettro possibile di frequenze spaziali una lente lascia passare frequenze fino ad un certo valore che ne definisce la potenza. L’MTF umana è la curva di sensibilità al contrasto. Mentre le lenti sono tutte filtri passa basse la CSC è un filtro bassa bande: siamo molto sensibili all’interno di un certo range. La sensibilità al contrasto si riduce sia per le alte frequenze, sia per le basse (per ragioni ottiche le prime, per ragioni corticali le seconde). Il picco di sensibilità è intorno ai 4 cicli/grado. La CSC varia in funzione di:

-       Età: a due mesi la CSC è ancora immatura, anche se ha già la sua forma caratteristica. Molto rapidamente la sensibilità aumenta e si sposta verso le altre frequenza (maturità a 12 mesi). L’esposizione precoce risulta critica nella formazione di una curva funzionante (cfr. esperimenti di deprivazione sensoriale). L’invecchiamento invece produce una riduzione modesta e omogenea per tutte le frequenze. Varia anche il diametro pupillare.

-       Luminanza: influisce sulla CSC solo per variazioni molto grandi

-       Frequenza temporale: all’aumentare della frequenza temporale la curva rimane pressoché invariata nella forma, ma si sposta verso le frequenze spaziali più basse (vedo bene oggetti piccoli statici e oggetti grandi in movimento: corrisponde alla differenza tra sistema parvo e magno cellulare).

-       Posizione retinica: variazione in relazione all’eccentricità dello stimolo rispetto alla fovea. Dalla fovea verso la periferia la curva si sposta verso le basse frequenze in modo rapido: l’acuità visiva è molto sensibile.

-       Patologie: la sclerosi multipla, la cataratta, o problemi refrattivi di modesta entità generano modificazioni diverse nella curva. Un soggetto miope per esempio cade nelle alte frequenze (si vedono male oggetti piccoli). Chi cade nelle basse frequenze invece potrebbe avere problemi coricali oppure ambliopia e anisometria. La cataratta provoca una caduta severa ma omogenea nella curva.



Interazione tra frequenza spaziale e temporale: Le cellule magno cellulari dell’LGN del macaco sono 10 volte più sensibili delle parvocellulari per frequenze spaziali basse che si muovono rapidamente. Per l’uomo alle alte frequenze temporali la CSC è un filtro passa basse. Alle basse frequenze temporali la CSC è un filtro passa bande (cado sia nelle alte, sia nelle basse, oltre un certo limite)



Fino alla fine degli anni 60 gli scienziati assumevano generalmente che la CSC riflettesse l’attività di un singolo meccanismo all’interno del sistema visivo. Si pensava che questo meccanismo fosse sensibile a reticoli sinusoidali di tutte le frequenze spaziali, e che rispondesse meglio ad alcune di esse generando la tipica curva a U invertita. Una serie di studi però cominciò a smentire questa ipotesi.

Secondo il meccanismo dell’adattamento i neuroni saturano e per un certo lasso di tempo non riescono a generare un potenziale d’azione, ovvero non rispondono più allo stimolo. Inoltre è possibile creare adattamenti diversi a diverse porzioni della retina.

E’ possibile misurare il cambiamento nella CSC prima e dopo l’adattamento a reticoli sinusoidali. Sottraendo la funzione di adattamento dall’originale otteniamo una funzione di tuning che descrive la risposta delle cellule adattate (in realtà il modo migliore per ottenere una funzione di tuning è il mascheramento).

ARTICOLO 1: Nel 1968 Campbell & Robson proposero che la CSC non riflettesse l’attività di un singolo meccanismo ma l’attività congiunta di molti meccanismi indipendenti chiamati filtri o canali. Ogni meccanismo è selettivo per una ristretta gamma di frequenze spaziali, con diversa ampiezza, ma parzialmente sovrapposti. In questa finestra ogni canale somma linearmente il contrasto del segnale e quello del rumore, fino a dare la CSC completa.

2 ipotesi differenti:

1) Un singolo meccanismo predice che il contrasto dell’intero pattern determini la soglia di detezione.

2) Filtri multipli predicono che il pattern viene rilevato quando il canale più sensibile eccede la sua soglia. Risultati:

-       Per discriminare un’onda quadra da una sinusoide è necessario che almeno la seconda componente sia a soglia di contrasto.

-       Per il compito di semplice detezione invece è possibile fare previsioni in base alla sola frequenza fondamentale (sia ad alte sia a basse frequenze).



Modello di sommazione di probabilità o di indipendenza: la sommazione lineare del contrasto avviene all’interno di ogni canale; la sommazione di probabilità avviene tra canali differenti.

Questi dati sono supportati da studi di fisiologia sul funzionamento dei neuroni, e quello che si dimostra qui per stimoli a basso spettro come i reticoli, non sembra valere del tutto anche per quelli ad ampio spettro, come le lettere, che ci aspetteremmo invece mediate da canali multipli o canali più ampi (cfr. ARTICOLO 2).

Solomon e Pelli invece scoprono che i meccanismi per l’identificazione di lettere e detezione di reticoli sono identici, dimostrando che il riconoscimento di oggetti ad ampio spettro come le lettere è comunque mediato da un singolo filtro visivo o canale. Questo dato è sorprendente perché in base alla CSC ci saremmo potuti attendere l’utilizzo di canali multipli. Nel cervello infatti possediamo anche neuroni meno selettivi, che lasciano passare contemporaneamente più informazioni. Avremmo quindi la possibilità di individuare stimoli come le lettere anche sotto una maschera, ma non la utilizziamo; ci fermiamo piuttosto ad un meccanismo di basso livello che utilizza un canale unico e stretto anche in relazione alla grandezza e alla distanza dello stimolo.

Off frequency looking: interazione laterale tra canali.



TEORIA DELLA DETEZIONE DEL SEGNALE (SDT - SIGNAL DETECTION THEORY)



La teoria della detezione del segnale descrive un teorema matematico che risolve il modo ottimale di rilevare un segnale in presenza di rumore. Il rumore è un fenomeno generale che si riferisce ad una variabilità casuale, indipendente dal segnale. Il rumore visivo bianco, contiene tutte le frequenze spaziali e per questo interferisce con la visibilità degli oggetti. Ogni apparecchio ha un rumore intrinseco che attenua il segnale.

La TDS è stata originariamente creata per risolvere il problema dei radar inventati durante la II guerra mondiale. Green & Swets applicarono la TDS ai processi decisionali umani, includendo oltre al continuum fisico e a quello sensoriale, quello dei giudizi, delle aspettative, dei costi e dei benefici del soggetto nella presa di decisione. In questo modo si passa dal cercare di individuare una soglia sensoriale ad una soglia di risposta. Questi matematici provarono che il modo ottimale per rilevare un segnale è possedere un campo recettivo esattamente identico al segnale.

La Signal Detection Theory è una teoria della presa di decisione e si basa sull’assunzione che l’effetto di un segnale di intensità costante e l’effetto del rumore si distribuiscano in modo Gaussiano, con varianze uguali o diverse. Dato un evento bisogna capire se appartiene alla distribuzione del rumore o a quella del segnale. L’osservatore è fallibile perché talvolta le informazioni possono avere la stessa probabilità di appartenere all’una o all’altra, la strategia diventa posizionare il criterio di demarcazione in un punto ottimale della curva di distribuzione.

Qualsiasi prestazione è il risultato dell’interazione tra la sensibilità (capacità intrinseca del sistema di rilevare la presenza di un segnale nell’ambiente) ed il criterio dell’osservatore (o bias: tendenza del soggetto a scegliere una risposta più frequentemente dell’altra, influenza direttamente il numero di HIT e FA).

In un esperimento di psicofisica gli elementi minimali del ciclo di decisione sono:

- la presenza di due stati possibili del mondo

- l’informazione

- la presa di decisione



La TDS rapporta lo spazio di osservazione con lo spazio delle risposte dell’osservatore.

La distribuzione del rumore e del segnale occupano lo stesso spazio decisionale (non sono indipendenti) R e R+S sono costanti ma il loro effetto sensoriale è variabile. La loro sovrapposizione dipende dall’intensità del segnale (sono sovrapposte quando l’intensità è bassa, tanto più è alta l’intensità quanto più le curve saranno separate e il segnale riconoscibile). La sensibilità del sistema dipende anche dall’area di sovrapposizione delle due curve.

La distanza lineare tra due punti corrispondenti delle distribuzioni (o tra le media) rappresenta il d’ ed è un’efficace misura della sensibilità del sistema. La distanza d’ si esprime formalmente in punti z e anche se virtualmente può assumere tutti i valori compresi tra 0 e infinito, nella realtà ha una gamma di valori ristretta.

La risposta dell’osservatore dipende sia dal d’ sia dal criterio (la grandezza critica dell’effetto sensoriale, che divide la curva di sensibilità del segnale in 2 parti). La posizione del criterio è una misura del bias del soggetto. Una stima approssimativa del d’ e del criterio può essere fatta senza calcoli, per mezzo del regolo calcolatore.

Dalla statistica di base è noto che l’area sottesa dalla gaussiana rappresenta la probabilità di verificarsi di un evento, ed è pari ad 1. Il posizionamento del criterio consente di dividere la curva in 4 porzioni:

- CR: rifiuti corretti

- MISS: omissioni

- FA: falsi allarmi

- HIT: risposta corretta

Grazie alla probabilità condizionali è possibile calcolare MISS/FA in funzione di HIT/CR.

Lo spostamento del criterio determina un aumento o una riduzione congiunta dei FA e degli HIT. Spostando il criterio verso sinistra aumentano i FA e gli HIT e diminuiscono i MISS. Spostando il criterio verso destra invece riduco sia FA sia HIT. Un fattore che può influenzare lo spostamento del criterio può essere la differenza nell’emanazione di guadagni e perdite (materiali, ma anche psicologiche) in relazione a risposte giuste o sbagliate.

Il calcolo del criterio è determinato dalle modificazioni di FA e HIT e misura quanto le risposte segnale assente tendano ad essere le preferite (il bias è positivo se l’osservatore tenderà a rispondere segnale assente).

Una seconda misura del bias è il rapporto di probabilità (likelihood ratio): rapporto tra i punti del segale+R e quelli del rumore in corrispondenza del criterio.

B > 1 l’osservatore tende a dire che il segnale è assente, criterio spostato verso destra

B < 1 l’osservatore tende a dire che il segnale è presente, criterio spostato verso sinistra

B =1 criterio ottimale (Bo), passa per il punto di intersezione delle due distribuzioni

Rispetto al criterio, B può essere considerato più significativo: nelle ROC infatti può anche essere considerato una misura della pendenza della curva in ogni suo punto.

Oltre alle probabilità condizionali è possibile calcolare le probabilità a priori (sia di S+R, sia di R) che rappresentano la proporzione di volte in cui il segnale (o il rumore rispettivamente) è presente rispetto al numero totale di prove somministrate.



Il risultato di un esperimento di SDT può essere riassunto da una coppia di numeri (HIT e FA) ed è possibile plottare il risultato di molte misurazioni successive in un diagramma ROC Space (Receiver Operating Characteristic: rappresenta come varia la probabilità degli HIT in funzione dei FA). Ciò consente di valutare a posteriori la correttezza delle assunzioni compiute.

La diagonale principale (linea di scelta casuale) è lo spazio unidimensionale lungo il quale le probabilità di HIT e FA coincidono; mentre l’angolo in alto a sinistra indica la massima discriminabilità tra le due distribuzioni.

Una proprietà delle curve ROC è che possono essere trasformate in rette se invece delle proporzioni si utilizzano in punti z. Questa rettificazione consente un calcolo più agevole del d’ e del criterio.

Misurare un punto sulle curve ROC può richiedere circa 100 trial, quindi misurare un’intera curva potrebbe richiedere più di duemila trial. La teoria della decisione non postula però la necessità di avere risposte di tipo binario (stimolo presente/assente) e quindi è stata sviluppata la procedura di stima o classificazione (rating procedure) nella quale il soggetto assieme ad ogni risposta deve anche fornire delle informazioni sul grado di confidenza delle sue stime.



PARADIGMI

Fenomeni di interazione tra stimoli:

-       Sommazione sottosoglia

-       Mascheramento

-       Adattamento

Il modello a canali multipli non spiega tutti i fenomeni di percezione.



1) L’EFFETTO PEDESTAL (ARTICOLO 3): lo studio di questo fenomeno ha una lunga storia e si riferisce al miglioramento nella rilevabilità di un reticolo sinusoidale ottenuto quando questo è sommato ad un reticolo maschera della stessa frequenza spaziale, orientamento e fase. Si misura in compiti con 2AFC in cui lo stimolo può essere presentato in due diversi intervalli temporali e ad entrambi viene aggiunto il secondo reticolo, con un aumento di contrasto solo in uno dei due (quello in cui c’è effettivamente il segnale).

Indagare il fenomeno dell’off frequency looking (interazione laterale tra canali diversi, sensibili a frequenze adiacenti), mediante l’utilizzo di rumore gaussiano filtrato per l’orientamento del reticolo da presentare: può essere più o meno efficace nel mascheramento, a seconda se contiene o meno la frequenza spaziale del reticolo.

Quando aggiungiamo la maschera c’è un vantaggio (la soglia si riduce), a fronte dello stimolo che presentato da solo era invisibile. La dipper-function è più pronunciata quando la prestazione è bassa. Questo implica che la funzione psicometrica è più lenta in corrispondenza del picco di vantaggio sulla soglia. Risultati:

-       Variazioni piccole di contrasto determinano ampie variazioni di accuratezza solo nella prima parte della curva (grande pendenza). Nella seconda parte grandi variazioni di contrasto determinano le stesse variazioni nell’accuratezza (meno pendenza). La pendenza della curva psicometrica varia.

-       Il rumore innalza la soglia e riduce la dipper-function. L’effetto pedestal è maggiore con il rumore ad ampia banda che con il rumore tagliato alla banda rilevante. Tuttavia anche in questo caso il rumore ha effetto nell’innalzare la soglia.

-       Il rumore tagliato non agisce come pedestal ma mascherando i canali off-frequency impedisce l’utilizzo dell’informazione proveniente da questi canali.



2) MASCHERAMENTO: (cfr. ARTICOLO 2). Il mascheramento della banda critica in ambito acustico ha dato risultati diversi da quelli di Solomon e Pelli in ambito visivo, l’effetto dell’off frequency hearing è molto più forte di quello dell’off frequency looking. È molto più difficile mascherare uno stimolo acustico perché esso può essere colto da molti canali, anche fuori frequenza.

- Filtrare la frequenza: se forzo l’osservatore a rilevare due stimoli nella stessa posizione spaziale contemporaneamente (cfr. due lettere) lo obbligo ad utilizzare due canali diversi centrati sulle frequenza spaziali degli stimoli stessi, e non un unico canale più ampio in grado di elaborare entrambi.

- Filtrare l’orientamento: nel dominio di Fourier devo creare dei filtri che lascino passare tutte le frequenze ma solo ad alcuni orientamenti. Si evidenzia una rappresentazione dei campi recettivi in V1 più ampi dei canali per frequenza: è possibile ipotizzare un’interazione tra più neuroni.

- I neuroni in MT sono selettivi per la velocità ma rispondono ad una più ampia gamma di frequenze spaziali e temporali. Cognitivamente sarebbe più utile utilizzare questo tipo di neuroni che risponderebbero allo stesso tempo a più frequenze, ma questo non accade. Ciò significa che il canale è selezionato in modo bottom-up dallo stimolo e non top-down dall’ʼosservatore. Il canale che usiamo dipende dalla grandezza dello stimolo e usiamo solo un canale per oggetto. Quando due oggetti si trovano nella stessa posizione usiamo due canali.



3) ADATTAMENTO: ve ne sono diversi tipi (Light Adaptation, After Effect, Adattamento Cromatico). Blackemore e Campbell, 1969: un canale predice che l’adattamento abbassi la CSC indipendentemente dalla frequenza spaziale. Canali multipli predicono che l’effetto dell’adattamento sia selettivo per la frequenza.

Effetto Mc Culloch: l’effetto è diverso dagli altri in quanto dura ore, giorni o mesi, può essere influenzato da sostanze psicoattive, la causa non è nota, ma sembrano implicati diversi neurotrasmettitori. Non appare sovrapposto a qualunque cosa guardiamo dopo il periodo di adattamento bensì l’effetto è specifico per la posizione retinica e per la frequenza spaziale delle barre. Avviene al livello neurale in cui le qualità spaziali dello stimolo vengono associate al colore, ma prima del livello della combinazione binoculare.



EFFICIENZA, RUMORE ESTERNO E OSSERVATORE IDEALE

(Lu & Dosher ARTICOLO 4)



Attraverso l’utilizzo di rumore esterno e di modelli di osservatore è possibile indagare la natura delle rappresentazioni interne utilizzate da un osservatore umano per svolgere un compito (produrre una decisione circa il segnale). L’obiettivo è chiarire la relazione tra lo stimolo esterno e la risposta interna, mediante assunzioni teoriche. I modelli dell’osservatore ideale cercano di chiarire questa relazione, anche dal punto di vista empirico. Sulla base delle limitazioni umane rispetto al modello è possibile produrre delle teorie sulla risposta interna.

1)      Paradigma dell’Equivalent Input Noise: esternalizzare la risposta interna utilizzando rumore esterno aggiunto al segnale. Stima la quantità di rumore interno, l’ampiezza di una sorgente singola di rumore interno additivo. Nel caratterizzare gli amplificatori elettronici viene immesso un segnale e del rumore ad intensità variabile al fine di estrarre il rapporto segnale-rumore e stimare il rumore interno dell’amplificatore. È importante creare amplificatori non troppo rumorosi per ottenere output non troppo sporchi. Minore è il rapporto S/R minore è il d’ e la % di risposte corrette. Vedi grafico: nella parte 1 il rumore esterno è troppo basso per influenzare il segnale, che dipende dal rumore interno (vi è la stessa soglia con o senza rumore esterno). Nella parte 2 il rumore esterno invece domina. Il punto di flesso indica una stima della quantità di rumore interno: è il punto in cui l’output comincia a dipendere dal rumore esterno. Linear Amplifier Model: assume che le curve misurate a d’ diversi (% di accuratezza diversa = livelli di prestazione diversi) siano uguali ma parallele. Il d’ è legato in modo non lineare al contrasto.



I vari modelli di osservatore ideale possono differire nello specificare una o più delle seguenti componenti (più parametri introduce il modello più è sensibile, ma potrebbe perdere in forza teorica):

- Rumore interno additivo

- Rumore interno moltiplicativo (cfr Legge di Weber: rumore con ampiezza funzione dell’ampiezza dello stimolo in input)

- Caratteristiche del template percettivo

- Regole della presa di decisione



2)      Procedura di accordo double-pass: il fatto che i JND siano proporzionali all’ampiezza dello stimolo di confronto, suggerisce che ci sia un’altra sorgente di rumore la cui ampiezza sia in funzione dell’ampiezza dello stimolo in input (rumore moltiplicativo). La procedura double-pass è stata sviluppata per stimare la quantità totale di rumore interno sia additivo sia moltiplicativo. Nella procedura la stessa combinazione di segnale + rumore esterno viene presentata due volte per valutare la consistenza nella risposta nel tempo, insieme a rumori interni diversi, presi da fonti diverse. Il segnale con ampiezza crescente viene aggiunto con una deviazione standard fissa. Ogni coppia di onde è fatta dallo stesso campione di rumore e di segnale e da un rumore interno variabile. Quando il rapporto S/R è alto la correlazione tra le due funzioni è alta (poco rumore, domina il segnale). Per un particolare livello di intensità del segnale, la correlazione decresce all’aumentare del rumore interno. In presenza di alto rumore esterno o basso rumore interno la risposta è molto consistente e le due procedure si avvicinano. La % di risposte corrette (che io vario modificando l’intensità del segnale) è indipendente dalla quantità di rumore interno quando la P(a) (consistenza delle risposte nel tempo) è alta, ovvero tende a 1. Il rumore interno sarà più influente quando la P(a) è bassa. Se non aggiungo mai rumore esterno l’osservatore ideale non sbaglierà mai perché, usando template percettivi perfettamente corrispondenti allo stimolo, gli basterà anche solo una sorgente minima di segnale per svolgere il compito. Quanto la prestazione dell’OI si discosta da quella dell’osservatore umano? Renderli più simili.

3)      LAM with uncertainty: il LAM predice che il rapporto della soglia di contrasto per livelli di prestazione diversi sia uguale al rapporto tra i d’. Tuttavia, il d’ è funzione a potenza del contrasto del segnale. Altri modelli come il PTM (Perceptive Template Model) tengono conto di questa non linearità. Pelli (1985) ha proposto che questa non linearità sia dovuta all’incertezza statistica del processo decisionale. L’osservatore è incerto circa le caratteristiche dello stimolo e quindi basa la decisione sia su variabili rilevanti per il compito sia su variabili irrilevanti (hidden detectors - FA). L’incertezza nella decisione è un modello con soli due parametri e predice la pendenza della funzione psicometrica. I due parametri sono il numero di canali irrilevanti e la quantità di rumore all’interno di ogni canale. L’idea di base è che l’osservatore cercando di rilevare un segnale debole controlli un numero di canali irrilevanti.



-       Efficienza visiva (E): capacità dell’osservatore umano di usare l’energia disponibile in uno stimolo (stimata grazie al LAM). Indice di specializzazione neurale del sistema (template percettivo).  E’ il rapporto tra due soglie, quella dell’osservatore ideale e quella dell’osservatore umano. E’ la frazione di energia disponibile (osservatore ideale) usata dall’osservatore umano per fare il compito. E’ sempre <1, perché noi siamo sempre meno efficaci dell’OI (non abbiamo neuroni o template percettivi perfettamente corrispondenti allo stimolo, bensì utilizziamo l’associazione). La soglia di energia E è il quadrato del contrasto sommato lungo le dimensioni di variazione dello stimolo. Per una lettera l’energia è uguale al prodotto dell’area di inchiostro ed il quadrato del contrasto. Calcolare E, E0 e E ideale permette di calcolare l’efficienza in presenza di alto rumore. Questo ha numerosi vantaggi sperimentali (cfr. ARTICOLO 5).

-       Rumore interno (Neq): attività variabile dei neuroni non collegata alla presenza dello stimolo. Indice di maturazione del sistema nervoso.

-       Osservatore ideale (OI): è un modello implementato al computer e testato come l’osservatore umano, in ogni prova sceglie lo stimolo più probabile tra le alternative note operando un’analisi della covarianza tra lo stimolo in ingresso e quelli in memoria. L’OI è influenzato solo dalla quantità di rumore aggiunto allo stimolo e dalla discriminabilità degli stimoli nel set. Opera come un template percettivo perfettamente corrispondente agli stimoli.



EFFICIENZA E RICONOSCIMENTO DI PAROLE (ARTICOLO 5)



Nell’effetto di superiorità della parola (WSE Reicher 1969) le persone sono più accurate nel riconoscere una lettera quando questa è presentata nel contesto di una parola piuttosto che isolatamente o nel contesto di una non parola.

Secondo il modello di Rumelhart & McClelland (1981) una parola attiva/inibisce un certo set di detettori di caratteristiche, che a loro volta attivano/inibiscono I detettori di lettere, che attivano/inibiscono i detettori di parole (cfr. modello dei demoni urlanti di Selfridge).

Il WSE potrebbe essere legato ad un’attivazione feedforward e di feedback agli stadi precedenti, inibitoria rispetto alle lettere non presenti. Con un paradigma di priming in fMRI è stata individuata un’area del cervello specializzata nella detezione di lettere (giro fusiforme sinistro). Le lettere e con esse le parole sono una categoria speciale di stimoli. Come vengono riconosciute ed analizzate:

-       Rappresentazione astratta rispetto alla lettera in sé, utilizzo di caratteristiche fisiche più generali (cfr. esperimenti che utilizzano font diversi, non trovano risultati consistenti)

-       Riconoscimento olistico: rappresentazione dello stimolo come un oggetto unitario, senza ulteriore scomposizione (unità percettiva).

L’esperienza fatta con le parole potrebbe aver portato allo sviluppo di detettori specifici per l’input visivo delle parole. Il riconoscimento di parole familiari come immagini piuttosto che come combinazioni di lettere predice differenze sostanziali nella soglia. Prima è necessario calcolare l’energia degli stimoli, per poi usarla in modo variabile: le righe hanno tutte la stessa energia, ma in un caso vi è la stessa energia per ogni lettere, nell’altro la stessa energia per ogni parola. Si evidenzia l’effetto lunghezza: l’efficienza per il riconoscimento di una parola di n lettere è pari a 1/n quella per il riconoscimento della lettera singola. Le parole lunghe sono meno visibili perché l’energia è suddivisa in più lettere. Solo l’osservatore ideale è indipendente dalla lunghezza, ma anche per lui la lettera singola richiede più energia per essere vista. Valutare la robustezza dell’effetto e verificare la presenza di altri effetti. Effetto grandezza: aumentare la grandezza della lettera in modo che sia uguale alla parola riduce la soglia. Effetto familiarità: tentativo di ridurre l’efficienza fallito perché la prestazione con 26 parole di 5 lettere è uguale alla prestazione con 2.213 parole di 5 lettere (= 4% di efficienza). Tentativo di aumentare l’efficienza fallito perché la prestazione con 5 prole di 3 lettere ha un’efficienza uguale, pari al 4.8% (1/3 per lettera).

La pendenza della funzione psicometrica è molto più elevata per l’osservatore umano che per l’osservatore ideale, che però mostra un WSE molto forte (cfr. modello di sommazione). L’osservatore umano si basa sul modello di indipendenza, ma la sua prestazione è inferiore rispetto a quella strettamente ipotizzabile in base al modello.

L’effetto di superiorità della parola (di un fattore di 1.15 in contrasto) e quello della lunghezza della parola (di un fattore 5 per parole di 5 lettere) sono compatibili con un modello strettamente letter based ed è dovuto alla matrice di confusione tra le lettere (caratteristiche di accoppiamento e frequenza comparsa delle lettere all’interno di una lingua).

I dati indicano che gli osservatori falliscono nel’utilizzare in modo ottimale la loro matrice di confusione tra le lettere, tuttavia ricevono un vantaggio dall’avere le parole. Questo suggerisce che prestare attenzione alla parola potrebbe spingere l’osservatore ad utilizzare la sua matrice di confusione. Questa interpretazione è anche supportata dall’osservazione di Rumelhart e McClelland che il WSE sia influenzato dall’istruzione data all’osservatore di prestare attenzione alle lettere piuttosto che all’intera parola. Dunque la nostra efficienza per riconoscere le parole è limitata dal basso e dal dover rilevare in modo indipendente le caratteristiche che la compongono.







INTEGRAZIONE E CROWDING



Gli oggetti vengono riconosciuti rilevandone ogni caratteristica elementare e isolandone ogni parte. Se il processo di isolamento fallisce si verifica il crowding. Questo fenomeno riguarda l’interazione tra gli elementi adiacenti nell’identificazione di un elemento target. Per anni è stato considerato un caso particolare di mascheramento, in cui la maschera non è sovrapposta, bensì adiacente allo stimolo; ma non è così.

L’output dei canali di primo ordine deve essere combinato ad un livello successivo attraverso i campi di integrazione all’interno dei quali i diversi orientamenti vengono sommati. La visibilità di uno stimolo dipende anche dalla sua eccentricità rispetto al punto di fissazione (cfr. CSC). In virtù di ciò le parole più eccentriche sono quelle che mostrano l’effetto di crowding più forte. Il range del crowding scala in funzione dell’eccentricità retinica con una proporzione di 0.5  (legge di Bouma: lo spazio tra il distrattore e il target deve essere la metà dei gradi dell’eccentricità retinica del target stesso). Questa proporzionalità fa si che il range del crowding sia forte in periferia e debole in fovea.

-       Toet e Levi misurano l’acuità visiva in funzione dell’eccentricità dello stimolo mediante un compito di discriminazione di orientamento di lettere con o senza distrattori (al 75% di risposte corrette). Con i distrattori verticali vi è un’elevazione di soglia (l’acuità peggiora in funzione dell’eccentricità); mentre con i distrattori orizzontali l’effetto è minore. Mediante questa procedure gli autori individuano le regione di interazione foveale per tutti gli orientamenti (campi ellittici con l’asse principale orientato verso la fovea). Vi sono però forti differenze individuali.

-       Un’altre procedura consiste nel misurare la soglia in funzione dello spazio tra le lettere. Questa procedura consente di identificare lo spazio critico necessario per evitare il crowding. Questo spazio non dipende dalla grandezza delle lettere ma solo dalla distanza centro-centro. Il mascheramento ordinario ha il pattern inverso.



MASCHERAMENTO
CROWDING
Descrive i meccanismi di primo livello (detettori di caratteristiche)

Descrive i meccanismi di secondo livello (campi di integrazione)
È simile in fovea e periferia

È più forte in periferia
Fa scomparire del tutto il segnale
Mantiene lo stimolo visivo ma lo rende non identificabile

Funziona sia in compiti di detezione che di identificazione

Funziona con un limitato tipo di compiti (cfr. orientamento)
Lo spazio critico è molto piccolo (serve quasi la sovrapposizione tra stimolo e maschera)

Lo spazio critico è ampio (cfr. Legge di Bouma)
L’effetto è proporzionale al contrasto della maschera

L’effetto è indipendente dal numero di distrattori, quando essi sono più di due
I canali per il target e per i distrattori sono gli stessi

Esistono detettori diversi per il target e i distrattori



La lettura e la velocità di lettura sono limitate dal crowding. La velocità è stata misurata in funzione di diversi parametri, come la grandezza del carattere e l’eccentricità dello stimolo. Esiste anche uno span di crowding.



ARTICOLO 6 (Parkes et al. 2001): l’osservatore deve riportare la direzione di orientamento di un gabor patch centrale circondato da tanti gabor con orientamento orizzontale. Il compito risulta essere molto difficile: per riuscirci anche a livelli di prestazione non elevati l’inclinazione minima è di 12 gradi (piuttosto elevata).

Esistono due spiegazioni a questo fenomeno di crowding:

1)      Masking: il segnale è corrotto e causa l’errore.

2)      Pooling: si basa sul modello dell’integrazione. La stima dell’orientamento è effettuata non direttamente sugli stimoli singoli ma sulla media degli orientamenti di tutti gli stimoli; ovvero sull’output dei meccanismi di primo livello (senza distinzioni tra il target e l’orientamento dei distruttori). Questa media è proporzionale al numero dei gabor patch. La soglia si riduce all’aumentare dei patch. Inoltre il sistema sembra tener conto anche della varianza (tramite il computo delle deviazioni standard) e non solo della media.



Risultati: Nonostante l’incapacità nel riportare l’orientamento di un singolo patch l’osservatore può stimare l’orientamento medio degli stimoli, dimostrando che le informazioni vengono combinate insieme e non del tutto perse. La precisione di questa stima inoltre è indipendente dal numero di stimoli (la media invece è proporzionale). Nell’esperimento inoltre è stata manipolata la fase degli stimoli per vedere se la sommazione di informazioni avvenisse all’interno di un campo recettivo. Se così fosse la prestazione sarebbe dovuta essere peggiore nella condizione non a fase, cosa che non si è verificata. Questo modello predice che la prestazione migliori all’aumentare del numero di target (la soglia scende). Al contrario dell’orientamento, la detezione dell’allineamento spaziale, non migliora con il livello di inclinazione del target.

L’elevazione della soglia non è una caratteristica del crowding, ma deriva dai detettori di primo ordine. Lo spazio critico scala con l’eccentricità del target, ma non con la grandezza dello stimolo.

Il crowding fa perdere le informazioni degli orientamenti singoli e promuove il processo di analisi della tessitura. Quando la presenza dei distrattori non peggiora la capacità dell’osservatore di localizzare il target si ha l’effetto pop-out (cfr. Treisman).



ARTICOLO 7 (Nandy et al. 2007)



Indagare la natura del crowding attraverso il paradigma delle Classification Images. Questa tecnica parte dalla spiegazione dei falsi allarmi. Nel rumore sembrerebbe esistere qualcosa che somiglia al segnale e che dunque viene analizzato dal template percettivo anche quando non dovrebbe.

Per spiegare il fenomeno del crowding gli autori ipotizzano tre possibili cause:

1)      Masking

2)      Integrazione inappropriata di caratteristiche

3)      Sourse Confusion ( le caratteristiche dei flankers sono confuse con quelle dei target).



Gli studiosi usano la tecnica della Reverse Correlation (correlazione inversa) che prevede un compito di detezione (circa 40000 trial) mediante la presentazione di un gabor patch + rumore o di solo rumore. Alla fine della sessione sperimentale viene fatta una classificazione dei trial in base alle risposte dell’osservatore e viene calcolata la correlazione tra coppie di pixel di rumore, per ogni categoria di risposta. La correlazione inversa tra i rumori permette di creare una mappa dei pixel del rumore in grado di disturbare la detezione del segnale, e quindi di condurre all’errore. Dal momento che il rumore usato è bianco, ci si aspetta che la correlazione sia zero. Una qualsiasi correlazione diversa da zero rivela una correlazione strutturale di secondo ordine. È necessario però anche scegliere la regione di interesse (ROI) nella quale effettuare l’analisi (che non deve essere né troppo grande, né troppo piccola, per non influenzare le correlazioni).

In questo modo è possibile rivelare la strategia percettiva dell’osservatore, ovvero quali parti dell’oggetto utilizza per compiere la decisione.

Il risultato evidenza il template percettivo (la media spazio temporale delle caratteristiche elementari usate).

Il problema di questo metodo è dato dall’incertezza spaziale: è necessario utilizzare una tecnica di raggruppamento delle immagini che produca un template invariante per la dislocazione (Signal Clamped).

Gli autori calcolano:

1)      First Order Classification Images (la media spazio temporale delle caratteristiche elementari usate)

2)      Effetti strutturali dei flankers

3)      L’ampiezza della regione dalla quale vengono estratte le caratteristiche (mediante le ROI)

4)      Mappe di secondo ordine (trasformando i dati in punti z)



La novità è che per ogni trial nel calcolo della correlazione tra pixel rumorosi si tenga conto anche della distanza spaziale tra i pixel stessi (optimal ROI). Per ogni particolare tipo di errore vi è la media della potenza spettrale del rumore (le mappe sono colorate in funzione della polarità dei pixel: stessa polarità = rosso; polarità opposta = blu).



Confronto fovea-periferia: in periferia, in presenza di distrattori, vi è un aumento di soglia, un decremento di efficienza e una perdita di contrasto. In fovea succede praticamente il contrario, perché i distrattori riducono l’incertezza spaziale.

Inoltre si riscontrano differenze a seconda dello stimolo utilizzato nel compito (cfr. O vs X).

-       Unflanked: contrato più basso in periferia ma stessa forma

-       Flanked: il template per la O non è distorto, indicando che il crowding non è causato da un problema a livello dei detettori di primo ordine.

L’osservatore ideale è modellato con una parte di incertezza spaziale e nel confronto l’essere umano fa meglio del previsto. L’OI compie sempre la correlazione tra stimolo e immagine in memoria, solo che non c’è più l’equivalenza perfetta con il template percettivo. inoltre non utilizza caratteristiche singole ed elementari, bensì la configurazione unitaria dello stimolo. l’uomo in fovea si comporta nello stesso modo (usa quasi l’intera lettere). In periferia invece utilizza meno caratteristiche e più distribuite. L’uomo utilizza un numero inferiore di caratteristiche rispetto all’OI e meno caratteristiche valide. In questo modo è più facile fare confusione. Il deficit di integrazione viene risolto con un sistema di attenuazione delle features disponibili.

Risultati:

-       Il crowding riduce il contrasto delle immagini di primo ordine senza alterarne la forma

-       Gli errori nel crowding sono correlati con la struttura spaziale del target ed assomigliano a quelli erroneamente identificati

-       Il crowding non ha effetto sistematico sull’incertezza spaziale (cfr. ROI) e non sopprime la detezione

-       Il crowding riduce il numero di caratteristiche valide ed aumenta le invalide (analisi di secondo ordine). Non è Masking ma Sourse Confusion.



L’analisi delle caratteristiche che generano un bias nella direzione dell’errore sul target rivela che in periferia l’errore è dovuto proprio ad alcune caratteristiche dei distrattori, il che conferma la Source Confusion.



L’analisi dei flanker dimostra una forte correlazione nella condizione di crowding (flaked periphery ma non in fovea) tra gli errori di identificazione e le parti dei flaker che assomigliano al target. Il risultato sulle ROI esclude che il crowding sia dovuto legato ad un incertezza spaziale della

periferia.

Questo quadro è coerente con il fatto che sia in fovea che in periferia l’osservatore estrae l’informazione da una regione più ampia del segnale ma in fovea è poi chiara la provenienza mentre nel crowding si perde l’appartenenza.



COSA INDICANO I RISULTATI RISPETTO ALLE ALLE ALTRE DUE CAUSE DEL CROWDING IN ESAME:

-       Masking: Nessuna evidenza che il crowding sopprima la detezione di caratteristiche (questo avrebbe causato meno correlazioni di secondo ordine con i flanker). Gli errori causati dal masking sarebbero casuali e non dovrebbero emergere come features invalide.
Inappropriate feature integration: per essere in accordo con i dati il modello deve prevedere un processo di competizione/inibizione tra meccanismi diversi. Infatti aumentano le features invalide come predetto dall’integrazione (le caratteristiche dei flakers vengono combinate

Nessun commento:

Posta un commento