LA SOGLIA
Psicofisica: si occupa di indagare le
leggi che regolano la relazione tra il continuum fisico e quello sensoriale. Studia
il legame tra il mondo fisico e il sistema percettivo, misura le variazioni che
il primo produce sul secondo mediante compiti comportamentali.
La psicofisica classica distingue tre domini:
- Mondo sottosoglia
- Mondo a soglia (metà consapevole e metà inconsapevole)
- Mondo soprasoglia
Secondo
questo schema la sensazione è determinata dal superamento di una certa soglia
sensoriale (Soglia assoluta e reale,
valore intensivo e fisico). Sotto tale soglia il segnale è troppo debole per
essere visto, o per essere accessibile alla coscienza (High Treshold Theory). In realtà questa concezione è stata superata
perché il sistema è probabilistico, con una parte di incertezza intrinseca al
sistema.
Soglia differenziale: è anche chiamata JND (Just Noticeable Difference). Il
JND è la quantità di cambiamento nello stimolo necessaria perché l’osservatore
percepisca una differenza.
Quindi
si tratta della differenza tra uno stimolo test di intensità IT e lo standard
la cui intensità è definita con I0.
- Fechner: è a
lui che si può attribuire la nascita della psicofisica. Secondo il suo concetto
di parallelismo ogni evento si può
considerare sia fisico, in quanto osservato esternamente nella sua azione
oggettiva, sia psichico se è considerato dal suo interno, soggettivamente. Per
ottenere una quantificazione psichica indiretta elabora il concetto di
trasformazione psicofisica e la legge matematica che esprime questa relazione (Legge di Fechner: tutti i JND, essendo
appena percepibili, corrispondono a cambiamenti uguali nella sensazione. S= c
log (I/I0). L’intensità
della sensazione è funzione logaritmica dell’intensità fisica dello stimolo. La
sensazione varia molto a valori bassi della scala, poi rallenta). Helson
propone una modifica in base alla sua teoria del livello di adattamento, che
tiene conto della relatività degli eventi sensoriali.
Inoltre gli stimoli fisici possono essere divisi a seconda
del tipo di variazione (quantitativa o qualitativa) che essi producono a
livello di sensazione. Essi sono protetici
quando alla variazione quantitativa e progressiva di una proprietà fisica dello
stimolo fa riscontro una variazione nella sensazione percepita (processi
additivi). Sono invece metatetici quando
al variare quantitativo e progressivo di una proprietà fisica dello stimolo
corrisponde una variazione qualitativa della sensazione evocata (processi
sostitutivi).
- Legge di Weber: La soglia differenziale è sempre frazione costante dell’intensità
dello stimolo: DI= k I0. L’incremento di IT per ottenere un JND è
proporzionale all’intensità I0, in funzione della costante K, diversa per
diversi sistemi percettivi. Descrive come la differenza percepita tra gli
stimoli cresce al crescere dell’intensità.
- Thurstone: partendo dal concetto di
dispersione discriminale elaborò la legge
dei giudizi comparativi, per la quale lo stesso stimolo non è in grado di
elicitare sempre lo stesso processo discriminale, e quindi la stessa
sensazione. La distribuzione delle sensazioni elicitate dallo stesso stimolo in
presentazioni diverse è quella gaussiana, in cui il valore medio (il più
probabile) corrisponderà al processo discriminale modale. Poiché il soggetto
non è in grado di calcolare direttamente il processo discriminale dovrà
ricorrere ai giudizi comparativi, estesi da Togerson anche ai dati raccolti con
il metodo delle categorie successive.
- Stevens: le
varie JND non aggiungono un incremento sempre costante della sensazione, ma l’intensità
della sensazione è funzione a potenza dell’intensità fisica dello stimolo. Questo
assunto è legato al metodo delle stime
di grandezza, in cui i soggetti sono in grado di stimare l’intensità delle
proprie sensazioni direttamente per mezzo di valori numerici, o grazie ad un
confronto intermodale non numerico.
Misure comportamentali:
- Giudizi
- Tempi
di reazione: ogni processo o evento neurale richiede un certo tempo, si può
inferire la simultaneità o la serialità tra diversi processi
- Percentuale
di risposte corrette: o accuratezza. Non è un parametro molto informativo
perché dipende da molte variabili. Per usarla si necessita di informazioni
aggiuntive o di una cornice teorica forte
-
Soglia: consente di confrontare diverse condizioni (o osservatori) ad una
stessa prestazione (percentuale determinata di risposte corrette)
Invarianze statistiche: l’energia dello
stimolo dipende dall’intensità della luce irradiata, dall’area dello stimolo, e
dalla sua durata
Esempio: misurare la luminanza
necessaria per vedere uno spot, cambiando l’area degli spot ma mantenendo
costante il tempo di comparsa
Legge di Ricco: per spot piccoli la
luminanza richiesta a soglia è inversamente proporzionale all’area. Ma
l’energia totale è costante (luminanza*area). Quando gli spot diventano più
grandi aggiungere area non determina un vantaggio aggiuntivo (a causa della
limitazione del campo recettivo). Mentre l’energia aumenta all’aumento
dell’area.
Se
invece manteniamo costante la grandezza e variamo la durata otteniamo una
relazione simile chiamata Legge di
Bloch.
Il
sistema visivo somma all’interno di una finestra spaziale di una certa
grandezza (Ricco) e di una finestra temporale di una certa durata (Bloch).
La
soglia corrisponde all’intensità del segnale, controllata lungo una particolare
dimensione, necessaria per ottenere un determinato livello di prestazione. La
soglia assoluta è un caso particolare di soglia differenziale dove la
differenza è con zero e bisogna rilevare solo la presenza dello stimolo.
Metodi
- Metodo dei limiti e della classificazione:
metodi della fisica classica, applicabili sia per soglie assolute, sia per
soglie differenziali (l’unica differenza procedurale è che nel caso della SD
vengono presentati sempre 2 stimoli contemporaneamente). Sono metodi un po’
antiquati ma molto validati. Si basano su serie ascendenti o discendenti di
stimoli e su una risposta di tipo classificatorio si/no. Partendo da una
condizione di diseguaglianza ben visibile tra due stimoli e variando
gradualmente uno dei due, si chiede all’osservatore di rilevare quando la
differenza non è più percepibile. È sempre importante ripetere la
somministrazione perché la soglia può fluttuare. In questi metodi possono
intervenire diverse variabili di disturbo. La prima è costituita dalla direzione della serie, che può portare
ad una tendenza di risposta (errori di
abitudine o errori di perseverazione, errori di anticipazione). Tali errori
vengono definiti costanti, e se non vengono controllati influiscono in modo
sistematico sulla misura (isteresi). Un numero uguale di serie A e D tende ad
elidere questi errori, inoltre è possibile tentare di bilanciarli alternando
per ciascun soggetto le serie A e D, secondo schemi di alternanza semplice o alternanza simmetrica (DADA o DAAD). Une
verifica a posteriori della forza relativa degli effetti è però sempre
necessaria. Una seconda variabile di disturbo è quella degli effetti seriali o effetti di fatica,
dovuti al calo dell’attenzione o all’affaticamento. Una terza variabile che
richiede di essere controllata tramite randomizzazione è il punto di partenza di ciascuna serie.
L’unica restrizione che va imposta alla randomizzazione è che lo stimolo
d’inizio non deve essere troppo vicino alla soglia. Per le soglie differenziali
si aggiunge il punto dell’eguagliamento soggettivo e l’errore di ordine temporale, dovuto all’effetto della posizione
temporale dello stimolo standard rispetto allo stimolo di controllo, ridotto
col metodo del contro bilanciamento.
Altre fonti di errore possono essere controllate solo mantenendole costanti
nelle diverse presentazioni. L’incidenza di alcuni effetti di disturbo può
essere verificata statisticamente tramite ANOVA. Esistono poi alcune varianti
di tale metodo, più economiche e meno soggette agli errori, come il metodo della scala o della doppia scala,
che consente di non cambiare bruscamente le serie, ma di invertirne la
tendenza.
- Metodo di aggiustamento limiti: a
differenza del primo può essere utilizzato solo per la determinazione di soglie
differenziali. Il compito richiesto al soggetto è quello di regolare
l’intensità dello stimolo di confronto fino a renderla uguale a quella dello
stimolo standard. È una stima diretta del PSE. Possono comunque avere luogo
errori sistematici anche se meno frequentemente, inoltre le prove durano molto
meno. È necessario però verificare l’omogeneità delle stime soggettive, che
possono essere scomposte in una componente vera e in una di errore, a sua volta
scomponibile (V + E1 + E2 + E3…….+ EN).
- Metodo degli stimoli costanti: ripetuta
presentazione di un set costante di stimoli in ordine casuale di intensità, a
distanza uguale dalla soglia. Non è più necessario presentare sia la serie
ascendente sia la discendente. Anch’esso può dare adito ad alcuni errori sistematici,
controllabili come sopra, ma si presta a compiti più versatili, anche con
stimoli sgradevoli. Può essere un metodo lungo e noioso, a causa delle prove
preliminari necessarie per individuare il set di stimoli. La soglia assoluta
con questo metodo corrisponde allo stimolo che elicita la risposta corretta nel
50% dei casi. I metodi di calcolo sono quelli dell’interpolazione lineare, e dell’interpolazione
con la retta dei minimi quadrati, che consentono anche una verifica della
bontà di adattamento del modello. Per quanto riguarda la misura della soglia
differenziale si aggiunge il problema della terza categorie di risposta
“uguale”. L’uso di tre categorie è più ecologico, ma si tende comunque a
sconsigliarlo, forzando il soggetto a scegliere sempre “maggiore o minore”, o
eliminando la categoria centrale nell’elaborazione dei dati. La risposta
dicotomica però implica che possa essere influenzata dal criterio interno
dell’osservatore (troppo variabile). Per ovviare a questo problema si usa:
- 2 AFC (2 o più alternative a scelta
forzata): il criterio è stabile ed esterno, stabilito dallo sperimentatore,
in più è possibile valutare esattamente l’influenza del caso nelle risposte del
soggetto. Se aumento le alternative di scelta cambia la guessing rate (il
livello massimo di errori).
- Procedura adattativa: il parametro
controllato varia a seconda delle risposte del soggetto. Le procedure adattive
sono di due tipi: non parametriche (dette anche staircase, non fanno assunzioni
di sorta sulle risposte del soggetto) o parametriche (di solito assumono che la
risposta del soggetto sia modulata da una certa funzione psicometrica). Tutte
le procedure adattive si caratterizzano per un algoritmo che permette di
scegliere quale stimolo presentare alla prossima prova in funzione della
risposta data dal soggetto. L’algoritmo è ovviamente diverso da procedura a
procedura. Vantaggio rispetto agli altri metodi che offrono cmq gli stessi
risultati: molti trial a livello-soglia vs pochi trial fuori livello-soglia.
(Cfr. LAB1: confrontare la soglia di
detezione di uno stimolo all’85% di risposte corrette – 15/20 millisecondi - e
il tempo di reazione misurato per uno stimolo sopra soglia – 300 millisecondi.
Questo secondo tempo include anche la programmazione e l’esecuzione del
movimento, non è molto informativo sui meccanismi di elaborazione percettiva.
La misura della soglia si)
In
tutti questi metodi ripetendo le misure numerose volte è possibile raccogliere funzioni psicometriche che mostrano
come la percentuale di volte in cui l’osservatore dice “si lo vedo” varia al
variare dell’intensità (per ogni livello di intensità calcolo la % di
detezione). Qualunque sia la scala di intensità la funzione ha sempre la stessa
forma (ad ogiva, con asintoto zero) ma pendenza differenti. Nelle serie
discendenti ottengo una curva più spostata verso destra sull’asse delle x,
rispetto alla curva ottenuta con una serie ascendente: questo avviene a causa
dell’abituazione.
La
soglia ideale sarebbe descritta da una funzione a gradino che separa ciò che
viene sempre visto da ciò che non viene mai visto, ma la funzione empirica è
un’ogiva e questo non accade mai, a causa della variazione stessa della soglia
da trial a trial (a causa del rumore di fondo: informazione non correlata allo
stimolo). La pendenza della funzione psicometrica indica la sensibilità a
combinare insieme le caratteristiche elementari dello stimolo (più è pendente
più l’osservatore è esperto). La stima migliore della soglia assoluta
coinciderebbe con il punto di massima pendenza , ovvero con il valore dello
stimolo fisico in grado di elicitare la risposta corretta nel 50% dei casi. Lo
stesso punto per la soglia differenziale viene chiamato PSE (Punto di Eguagliamento Soggettivo). La funzione di probabilità derivante dall’integrale della funzione
psicometrica ha la forma di una gaussiana con distribuzione normale e indica la
probabilità di ottenere una certa soglia per una certa intensità.
ANALISI DELLA
FREQUENZA
Le
variazioni spaziali nella luminanza di un’immagine possono essere rappresentate
in termini di frequenza spaziale del profilo di luminanza. La luminanza dipende
dall’intensità della luce, dalla riflettenza dell’oggetto e dall’angolo di
incidenza tra luce e oggetto. Inoltre nasconde 3 variabili: illuminazione,
orientamento e materiale delle superfici.
Il dominio spaziale è lo spazio usuale di
un’immagine. In questo spazio un cambiamento di posizione nella proiezione di
un’immagine (retinica) corrisponde ad un cambiamento di posizione nell’immagine
proiettata.
Il dominio della frequenza è uno spazio
nel quale ogni cambiamento di posizione nella proiezione di un’immagine
corrisponde ad un cambiamento di frequenza spaziale nell’immagine proiettata
(dominio spaziale).
Nel
dominio della frequenza si può misurare la velocità di cambiamento di
un’immagine nello spazio. La frequenza si misura in
numero di cicli per unità di spazio. In visione l’unità di spazio è il grado di
angolo visivo sotteso dall’immagine. Quindi la frequenza si misura in
cicli/grado.
Un reticolo sinusoidale è periodico e puro e può essere
rappresentato in modi diversi (onde, banda chiara/banda scura, funzione, onda
quadra costituita da un insieme di sinusoidi). Per noi è particolarmente utile
cambiare la forma dell’onda da sinusoidale a quadra, perché nel mondo si
incontrano molti più bordi di luminanza che reticoli sinusoidali. Quello che
importa è il contrasto (differenza di luminanza tra sfondo e stimolo) e non la
luminanza assoluta dello stimolo.
In
molti casi la trasformata di Fourier
viene utilizzata per convertire un’immagine dal dominio spaziale a quello di
frequenza e vice-versa. Si rappresenta con un doppio asse cartesiano in cui più
i punti sono distanti dall’origine più è alta la frequenza spaziale, mentre
l’orientamento dei punti rappresenta l’orientamento ortogonale della figura
reale. Dal momento che nel dominio di Fourier esistono solo numeri immaginari
(detti numeri I) ogni figura rappresentata deve essere raddoppiata.
Il
modo migliore per avere una buona rappresentazione nel dominio di Fourier è
utilizzare un oggetto con un Gabor Patch:
un reticolo sinusoidale presentato all’interno di un profilo gaussiano di
luminanza che ne mascheri i bordi (transizione graduale tra sfondo e oggetto in
modo da evitare di inserire nel sistema le alte frequenza relativa ad un
bordo).
Le
immagini e gli oggetti contengono energia a diverse frequenze. È possibile
creare filtri che permettano il
passaggio selettivo di alcune frequenze e non di altre (Filtro passa alte.
Filtro passa basse. Filtro passa bande. Filtro per l’orientamento).
Una
rappresentazione in termini di dominio di frequenza è rilevante perché noi
possediamo meccanismi che rilevano cambiamenti in questo dominio.
Analisi di forma d’onda – Lo spettro:
forma d’onda complesse in cui lo spettro è la somma degli spettri delle
sinusoidi che compongono l’onda stessa. L’onda quadra è la somma si sinusoidi
opportunamente scelte in cui la frequenza fondamentale è quella uguale alla
frequenza dell’onda quadra, mentre le altre componenti formanti saranno le frequenze
dispari con ampiezza sempre minore (F + 3F + 5F……)
Curva di
sensibilità al contrasto: Ogni strumento ottico possiede una MTF
(Modulation Transfert Function). Di tutto lo spettro possibile di frequenze
spaziali una lente lascia passare frequenze fino ad un certo valore che ne
definisce la potenza. L’MTF umana è la curva di sensibilità al contrasto.
Mentre le lenti sono tutte filtri passa basse la CSC è un filtro bassa bande:
siamo molto sensibili all’interno di un certo range. La sensibilità al contrasto
si riduce sia per le alte frequenze, sia per le basse (per ragioni ottiche le
prime, per ragioni corticali le seconde). Il picco di sensibilità è intorno ai
4 cicli/grado. La CSC varia in funzione di:
- Età: a due mesi la CSC è ancora
immatura, anche se ha già la sua forma caratteristica. Molto rapidamente la
sensibilità aumenta e si sposta verso le altre frequenza (maturità a 12 mesi).
L’esposizione precoce risulta critica nella formazione di una curva funzionante
(cfr. esperimenti di deprivazione sensoriale). L’invecchiamento invece produce
una riduzione modesta e omogenea per tutte le frequenze. Varia anche il
diametro pupillare.
- Luminanza: influisce sulla CSC solo per
variazioni molto grandi
- Frequenza temporale: all’aumentare
della frequenza temporale la curva rimane pressoché invariata nella forma, ma
si sposta verso le frequenze spaziali più basse (vedo bene oggetti piccoli
statici e oggetti grandi in movimento: corrisponde alla differenza tra sistema
parvo e magno cellulare).
- Posizione retinica: variazione in
relazione all’eccentricità dello stimolo rispetto alla fovea. Dalla fovea verso
la periferia la curva si sposta verso le basse frequenze in modo rapido:
l’acuità visiva è molto sensibile.
- Patologie: la sclerosi multipla, la
cataratta, o problemi refrattivi di modesta entità generano modificazioni
diverse nella curva. Un soggetto miope per esempio cade nelle alte frequenze
(si vedono male oggetti piccoli). Chi cade nelle basse frequenze invece
potrebbe avere problemi coricali oppure ambliopia e anisometria. La cataratta
provoca una caduta severa ma omogenea nella curva.
Interazione tra frequenza spaziale e
temporale: Le cellule magno cellulari dell’LGN del macaco sono 10 volte più
sensibili delle parvocellulari per frequenze spaziali basse che si muovono rapidamente.
Per l’uomo alle alte frequenze temporali la CSC è un filtro passa basse. Alle
basse frequenze temporali la CSC è un filtro passa bande (cado sia nelle alte,
sia nelle basse, oltre un certo limite)
Fino
alla fine degli anni 60 gli scienziati assumevano generalmente che la CSC
riflettesse l’attività di un singolo meccanismo all’interno del sistema visivo.
Si pensava che questo meccanismo fosse sensibile a reticoli sinusoidali di
tutte le frequenze spaziali, e che rispondesse meglio ad alcune di esse
generando la tipica curva a U invertita. Una serie di studi però cominciò a
smentire questa ipotesi.
Secondo
il meccanismo dell’adattamento i
neuroni saturano e per un certo lasso di tempo non riescono a generare un
potenziale d’azione, ovvero non rispondono più allo stimolo. Inoltre è
possibile creare adattamenti diversi a diverse porzioni della retina.
E’
possibile misurare il cambiamento nella CSC prima e dopo l’adattamento a
reticoli sinusoidali. Sottraendo la funzione di adattamento dall’originale
otteniamo una funzione di tuning che descrive la risposta delle cellule
adattate (in realtà il modo migliore per ottenere una funzione di tuning è il
mascheramento).
ARTICOLO 1: Nel 1968 Campbell & Robson proposero che la
CSC non riflettesse l’attività di un singolo meccanismo ma l’attività congiunta
di molti meccanismi indipendenti chiamati filtri
o canali. Ogni meccanismo è selettivo per una ristretta gamma di frequenze
spaziali, con diversa ampiezza, ma parzialmente sovrapposti. In questa finestra
ogni canale somma linearmente il contrasto del segnale e quello del rumore,
fino a dare la CSC completa.
2
ipotesi differenti:
1) Un
singolo meccanismo predice che il contrasto dell’intero pattern determini la
soglia di detezione.
2)
Filtri multipli predicono che il pattern viene rilevato quando il canale più
sensibile eccede la sua soglia. Risultati:
- Per
discriminare un’onda quadra da una sinusoide è necessario che almeno la seconda
componente sia a soglia di contrasto.
- Per
il compito di semplice detezione invece è possibile fare previsioni in base
alla sola frequenza fondamentale (sia ad alte sia a basse frequenze).
Modello di sommazione di probabilità o di
indipendenza: la sommazione lineare del contrasto avviene all’interno di
ogni canale; la sommazione di probabilità avviene tra canali differenti.
Questi
dati sono supportati da studi di fisiologia sul funzionamento dei neuroni, e quello
che si dimostra qui per stimoli a basso spettro come i reticoli, non sembra
valere del tutto anche per quelli ad ampio spettro, come le lettere, che ci
aspetteremmo invece mediate da canali multipli o canali più ampi (cfr. ARTICOLO 2).
Solomon
e Pelli invece scoprono che i meccanismi per l’identificazione di lettere e
detezione di reticoli sono identici, dimostrando che il riconoscimento di
oggetti ad ampio spettro come le lettere è comunque mediato da un singolo
filtro visivo o canale. Questo dato è sorprendente perché in base alla CSC ci
saremmo potuti attendere l’utilizzo di canali multipli. Nel cervello infatti
possediamo anche neuroni meno selettivi, che lasciano passare
contemporaneamente più informazioni. Avremmo quindi la possibilità di
individuare stimoli come le lettere anche sotto una maschera, ma non la
utilizziamo; ci fermiamo piuttosto ad un meccanismo di basso livello che
utilizza un canale unico e stretto anche in relazione alla grandezza e alla
distanza dello stimolo.
Off frequency looking: interazione
laterale tra canali.
TEORIA DELLA DETEZIONE DEL SEGNALE (SDT -
SIGNAL DETECTION THEORY)
La
teoria della detezione del segnale descrive un teorema matematico che risolve
il modo ottimale di rilevare un segnale in presenza di rumore. Il rumore è un
fenomeno generale che si riferisce ad una variabilità casuale, indipendente dal
segnale. Il rumore visivo bianco, contiene tutte le frequenze spaziali e per
questo interferisce con la visibilità degli oggetti. Ogni apparecchio ha un
rumore intrinseco che attenua il segnale.
La
TDS è stata originariamente creata per risolvere il problema dei radar
inventati durante la II guerra mondiale. Green & Swets applicarono la TDS
ai processi decisionali umani, includendo oltre al continuum fisico e a quello
sensoriale, quello dei giudizi, delle aspettative, dei costi e dei benefici del
soggetto nella presa di decisione. In questo modo si passa dal cercare di
individuare una soglia sensoriale ad una soglia di risposta. Questi matematici
provarono che il modo ottimale per rilevare un segnale è possedere un campo
recettivo esattamente identico al segnale.
La
Signal Detection Theory è una teoria della presa di decisione e si basa
sull’assunzione che l’effetto di un segnale di intensità costante e l’effetto
del rumore si distribuiscano in modo Gaussiano, con varianze uguali o diverse.
Dato un evento bisogna capire se appartiene alla distribuzione del rumore o a
quella del segnale. L’osservatore è fallibile perché talvolta le informazioni
possono avere la stessa probabilità di appartenere all’una o all’altra, la
strategia diventa posizionare il criterio di demarcazione in un punto ottimale
della curva di distribuzione.
Qualsiasi
prestazione è il risultato dell’interazione tra la sensibilità (capacità intrinseca del sistema di rilevare la
presenza di un segnale nell’ambiente) ed il criterio dell’osservatore (o bias: tendenza del soggetto a
scegliere una risposta più frequentemente dell’altra, influenza direttamente il
numero di HIT e FA).
In un
esperimento di psicofisica gli elementi minimali del ciclo di decisione sono:
- la
presenza di due stati possibili del mondo
-
l’informazione
- la
presa di decisione
La
TDS rapporta lo spazio di osservazione con lo spazio delle risposte
dell’osservatore.
La
distribuzione del rumore e del segnale occupano lo stesso spazio decisionale (non
sono indipendenti) R e R+S sono costanti ma il loro effetto sensoriale è
variabile. La loro sovrapposizione dipende dall’intensità del segnale (sono
sovrapposte quando l’intensità è bassa, tanto più è alta l’intensità quanto più
le curve saranno separate e il segnale riconoscibile). La sensibilità del sistema dipende anche dall’area di sovrapposizione
delle due curve.
La
distanza lineare tra due punti corrispondenti delle distribuzioni (o tra le
media) rappresenta il d’ ed è
un’efficace misura della sensibilità del sistema. La distanza d’ si esprime
formalmente in punti z e anche se virtualmente può assumere tutti i valori
compresi tra 0 e infinito, nella realtà ha una gamma di valori ristretta.
La
risposta dell’osservatore dipende sia dal d’ sia dal criterio (la grandezza
critica dell’effetto sensoriale, che divide la curva di sensibilità del
segnale in 2 parti). La posizione del criterio è una misura del bias del
soggetto. Una stima approssimativa del d’ e del criterio può essere fatta senza
calcoli, per mezzo del regolo calcolatore.
Dalla
statistica di base è noto che l’area sottesa dalla gaussiana rappresenta la
probabilità di verificarsi di un evento, ed è pari ad 1. Il posizionamento del
criterio consente di dividere la curva in 4 porzioni:
- CR:
rifiuti corretti
- MISS:
omissioni
- FA:
falsi allarmi
- HIT:
risposta corretta
Grazie
alla probabilità condizionali è possibile calcolare MISS/FA in funzione di
HIT/CR.
Lo
spostamento del criterio determina un aumento o una riduzione congiunta dei FA
e degli HIT. Spostando il criterio verso sinistra aumentano i FA e gli HIT e
diminuiscono i MISS. Spostando il criterio verso destra invece riduco sia FA
sia HIT. Un fattore che può influenzare lo spostamento del criterio può essere
la differenza nell’emanazione di guadagni e perdite (materiali, ma anche
psicologiche) in relazione a risposte giuste o sbagliate.
Il
calcolo del criterio è determinato dalle modificazioni di FA e HIT e misura
quanto le risposte segnale assente tendano ad essere le preferite (il bias è positivo se l’osservatore
tenderà a rispondere segnale assente).
Una
seconda misura del bias è il rapporto di probabilità (likelihood ratio): rapporto tra i punti del segale+R e quelli del
rumore in corrispondenza del criterio.
B
> 1 l’osservatore tende a dire che il segnale è assente, criterio spostato
verso destra
B
< 1 l’osservatore tende a dire che il segnale è presente, criterio spostato
verso sinistra
B =1
criterio ottimale (Bo), passa per il punto di intersezione delle due
distribuzioni
Rispetto
al criterio, B può essere considerato più significativo: nelle ROC infatti può
anche essere considerato una misura della pendenza della curva in ogni suo
punto.
Oltre
alle probabilità condizionali è possibile calcolare le probabilità a priori (sia di S+R, sia di R) che rappresentano la
proporzione di volte in cui il segnale (o il rumore rispettivamente) è presente
rispetto al numero totale di prove somministrate.
Il
risultato di un esperimento di SDT può essere riassunto da una coppia di numeri
(HIT e FA) ed è possibile plottare il risultato di molte misurazioni successive
in un diagramma ROC Space (Receiver
Operating Characteristic: rappresenta come varia la probabilità degli HIT in
funzione dei FA). Ciò consente di valutare a posteriori la correttezza delle
assunzioni compiute.
La
diagonale principale (linea di scelta casuale) è lo spazio unidimensionale
lungo il quale le probabilità di HIT e FA coincidono; mentre l’angolo in alto a
sinistra indica la massima discriminabilità tra le due distribuzioni.
Una
proprietà delle curve ROC è che possono essere trasformate in rette se invece
delle proporzioni si utilizzano in punti z. Questa rettificazione consente un
calcolo più agevole del d’ e del criterio.
Misurare
un punto sulle curve ROC può richiedere circa 100 trial, quindi misurare
un’intera curva potrebbe richiedere più di duemila trial. La teoria della
decisione non postula però la necessità di avere risposte di tipo binario
(stimolo presente/assente) e quindi è stata sviluppata la procedura di stima o classificazione (rating procedure) nella
quale il soggetto assieme ad ogni risposta deve anche fornire delle
informazioni sul grado di confidenza delle sue stime.
PARADIGMI
Fenomeni
di interazione tra stimoli:
- Sommazione
sottosoglia
- Mascheramento
- Adattamento
Il
modello a canali multipli non spiega tutti i fenomeni di percezione.
1) L’EFFETTO PEDESTAL (ARTICOLO 3): lo
studio di questo fenomeno ha una lunga storia e si riferisce al miglioramento nella
rilevabilità di un reticolo sinusoidale ottenuto quando questo è sommato ad un reticolo
maschera della stessa frequenza spaziale, orientamento e fase. Si misura in
compiti con 2AFC in cui lo stimolo può essere presentato in due diversi
intervalli temporali e ad entrambi viene aggiunto il secondo reticolo, con un
aumento di contrasto solo in uno dei due (quello in cui c’è effettivamente il
segnale).
Indagare
il fenomeno dell’off frequency looking (interazione laterale tra canali
diversi, sensibili a frequenze adiacenti), mediante l’utilizzo di rumore
gaussiano filtrato per l’orientamento del reticolo da presentare: può essere più
o meno efficace nel mascheramento, a seconda se contiene o meno la frequenza
spaziale del reticolo.
Quando
aggiungiamo la maschera c’è un vantaggio (la soglia si riduce), a fronte dello
stimolo che presentato da solo era invisibile. La dipper-function è più pronunciata quando la prestazione è bassa.
Questo implica che la funzione psicometrica è più lenta in corrispondenza del
picco di vantaggio sulla soglia. Risultati:
- Variazioni
piccole di contrasto determinano ampie variazioni di accuratezza solo nella
prima parte della curva (grande pendenza). Nella seconda parte grandi
variazioni di contrasto determinano le stesse variazioni nell’accuratezza (meno
pendenza). La pendenza della curva psicometrica varia.
- Il
rumore innalza la soglia e riduce la dipper-function. L’effetto pedestal è
maggiore con il rumore ad ampia banda che con il rumore tagliato alla banda rilevante.
Tuttavia anche in questo caso il rumore ha effetto nell’innalzare la soglia.
- Il
rumore tagliato non agisce come pedestal ma mascherando i canali off-frequency impedisce
l’utilizzo dell’informazione proveniente da questi canali.
2) MASCHERAMENTO: (cfr. ARTICOLO 2). Il
mascheramento della banda critica in ambito acustico ha dato risultati diversi
da quelli di Solomon e Pelli in ambito visivo, l’effetto dell’off frequency
hearing è molto più forte di quello dell’off frequency looking. È molto più
difficile mascherare uno stimolo acustico perché esso può essere colto da molti
canali, anche fuori frequenza.
-
Filtrare la frequenza: se forzo l’osservatore a rilevare due stimoli nella
stessa posizione spaziale contemporaneamente (cfr. due lettere) lo obbligo ad
utilizzare due canali diversi centrati sulle frequenza spaziali degli stimoli
stessi, e non un unico canale più ampio in grado di elaborare entrambi.
-
Filtrare l’orientamento: nel dominio di Fourier devo creare dei filtri che
lascino passare tutte le frequenze ma solo ad alcuni orientamenti. Si evidenzia
una rappresentazione dei campi recettivi in V1 più ampi dei canali per
frequenza: è possibile ipotizzare un’interazione tra più neuroni.
- I
neuroni in MT sono selettivi per la velocità ma rispondono ad una più ampia
gamma di frequenze spaziali e temporali. Cognitivamente sarebbe più utile
utilizzare questo tipo di neuroni che risponderebbero allo stesso tempo a più
frequenze, ma questo non accade. Ciò significa che il canale è selezionato in
modo bottom-up dallo stimolo e non top-down dall’ʼosservatore. Il canale che
usiamo dipende dalla grandezza dello stimolo e usiamo solo un canale per oggetto.
Quando due oggetti si trovano nella stessa posizione usiamo due canali.
3) ADATTAMENTO: ve ne sono diversi tipi
(Light Adaptation, After Effect, Adattamento Cromatico). Blackemore e Campbell,
1969: un canale predice che l’adattamento abbassi la CSC indipendentemente
dalla frequenza spaziale. Canali multipli predicono che l’effetto
dell’adattamento sia selettivo per la frequenza.
Effetto
Mc Culloch: l’effetto è diverso dagli altri in quanto dura ore, giorni o mesi,
può essere influenzato da sostanze psicoattive, la causa non è nota, ma
sembrano implicati diversi neurotrasmettitori. Non appare sovrapposto a
qualunque cosa guardiamo dopo il periodo di adattamento bensì l’effetto è
specifico per la posizione retinica e per la frequenza spaziale delle barre.
Avviene al livello neurale in cui le qualità spaziali dello stimolo vengono
associate al colore, ma prima del livello della combinazione binoculare.
EFFICIENZA, RUMORE ESTERNO E OSSERVATORE
IDEALE
(Lu & Dosher ARTICOLO 4)
Attraverso
l’utilizzo di rumore esterno e di modelli di osservatore è possibile indagare
la natura delle rappresentazioni interne utilizzate da un osservatore umano per
svolgere un compito (produrre una decisione circa il segnale). L’obiettivo è
chiarire la relazione tra lo stimolo esterno e la risposta interna, mediante
assunzioni teoriche. I modelli dell’osservatore ideale cercano di chiarire
questa relazione, anche dal punto di vista empirico. Sulla base delle
limitazioni umane rispetto al modello è possibile produrre delle teorie sulla
risposta interna.
1) Paradigma dell’Equivalent Input Noise: esternalizzare
la risposta interna utilizzando rumore esterno aggiunto al segnale. Stima la
quantità di rumore interno, l’ampiezza di una sorgente singola di rumore
interno additivo. Nel caratterizzare gli amplificatori elettronici viene
immesso un segnale e del rumore ad intensità variabile al fine di estrarre il
rapporto segnale-rumore e stimare il rumore interno dell’amplificatore. È
importante creare amplificatori non troppo rumorosi per ottenere output non
troppo sporchi. Minore è il rapporto S/R minore è il d’ e la % di risposte
corrette. Vedi grafico: nella parte 1 il rumore esterno è troppo basso per
influenzare il segnale, che dipende dal rumore interno (vi è la stessa soglia
con o senza rumore esterno). Nella parte 2 il rumore esterno invece domina. Il
punto di flesso indica una stima della quantità di rumore interno: è il punto
in cui l’output comincia a dipendere dal rumore esterno. Linear Amplifier Model: assume che le curve misurate a d’ diversi
(% di accuratezza diversa = livelli di prestazione diversi) siano uguali ma
parallele. Il d’ è legato in modo non lineare al contrasto.
I
vari modelli di osservatore ideale possono differire nello specificare una o
più delle seguenti componenti (più parametri introduce il modello più è
sensibile, ma potrebbe perdere in forza teorica):
- Rumore
interno additivo
- Rumore
interno moltiplicativo (cfr Legge di Weber: rumore con ampiezza funzione
dell’ampiezza dello stimolo in input)
- Caratteristiche
del template percettivo
- Regole
della presa di decisione
2) Procedura di accordo double-pass: il
fatto che i JND siano proporzionali all’ampiezza dello stimolo di confronto, suggerisce che ci sia un’altra sorgente di rumore la cui ampiezza sia in
funzione dell’ampiezza dello stimolo
in input (rumore moltiplicativo). La procedura double-pass è stata
sviluppata per stimare la quantità
totale di rumore interno sia additivo sia
moltiplicativo. Nella procedura
la stessa combinazione di segnale + rumore
esterno viene presentata due volte per valutare la consistenza nella risposta nel tempo, insieme a rumori interni
diversi, presi da fonti diverse. Il segnale con ampiezza crescente viene
aggiunto con una deviazione standard fissa. Ogni coppia di onde è fatta dallo stesso
campione di rumore e di segnale e da un rumore interno variabile. Quando il
rapporto S/R è alto la correlazione tra le due funzioni è alta (poco rumore,
domina il segnale). Per un particolare livello di intensità del segnale,
la correlazione decresce all’aumentare del rumore interno. In presenza di alto rumore esterno o basso rumore interno la risposta è molto consistente e le due procedure si avvicinano. La % di risposte corrette (che io vario modificando
l’intensità del segnale) è indipendente dalla quantità di rumore interno quando
la P(a) (consistenza delle risposte nel tempo) è alta, ovvero tende a 1. Il rumore interno sarà più influente
quando la P(a) è bassa. Se non aggiungo mai rumore esterno l’osservatore ideale
non sbaglierà mai perché, usando template percettivi perfettamente
corrispondenti allo stimolo, gli basterà anche solo una sorgente minima di
segnale per svolgere il compito. Quanto la prestazione dell’OI si discosta da
quella dell’osservatore umano? Renderli più simili.
3) LAM with uncertainty: il LAM predice
che il rapporto della soglia di contrasto
per livelli di prestazione diversi sia uguale al rapporto tra i d’. Tuttavia, il d’ è funzione a
potenza del contrasto del segnale. Altri modelli come il PTM (Perceptive
Template Model) tengono conto di questa non linearità. Pelli (1985) ha proposto
che questa non linearità sia dovuta
all’incertezza statistica del processo
decisionale. L’osservatore è
incerto circa le caratteristiche dello stimolo
e quindi basa la decisione sia su variabili
rilevanti per il compito sia su variabili irrilevanti (hidden detectors -
FA). L’incertezza nella decisione è
un modello con soli due parametri e
predice la pendenza della funzione
psicometrica. I due parametri sono
il numero di canali irrilevanti e la
quantità di rumore all’interno di ogni canale. L’idea di base è che l’osservatore cercando di rilevare un segnale debole controlli un numero di canali irrilevanti.
- Efficienza visiva (E): capacità
dell’osservatore umano di usare l’energia disponibile in uno stimolo
(stimata grazie al LAM). Indice di specializzazione neurale del sistema
(template percettivo). E’ il rapporto tra due soglie, quella
dell’osservatore ideale e quella dell’osservatore umano. E’ la frazione di energia disponibile (osservatore ideale) usata dall’osservatore umano per fare il compito. E’ sempre
<1, perché noi siamo sempre meno efficaci dell’OI (non abbiamo neuroni o
template percettivi perfettamente corrispondenti allo stimolo, bensì
utilizziamo l’associazione). La soglia di energia E è il
quadrato del contrasto sommato lungo le dimensioni di variazione dello stimolo.
Per una lettera l’energia è uguale al prodotto dell’area di inchiostro ed il
quadrato del contrasto. Calcolare E, E0 e E ideale permette di calcolare l’efficienza
in presenza di alto rumore. Questo ha numerosi vantaggi sperimentali (cfr.
ARTICOLO 5).
- Rumore interno (Neq): attività
variabile dei neuroni non collegata alla presenza dello stimolo. Indice
di maturazione del sistema nervoso.
- Osservatore ideale (OI): è un modello implementato
al computer e testato come l’osservatore umano, in ogni prova sceglie lo
stimolo più probabile tra le alternative note operando un’analisi della
covarianza tra lo stimolo in ingresso e quelli in memoria. L’OI è influenzato
solo dalla quantità di rumore aggiunto allo stimolo e dalla discriminabilità
degli stimoli nel set. Opera come un
template percettivo perfettamente corrispondente agli stimoli.
EFFICIENZA E RICONOSCIMENTO DI PAROLE
(ARTICOLO 5)
Nell’effetto di superiorità della parola (WSE
Reicher 1969) le persone sono più accurate nel riconoscere una lettera quando
questa è presentata nel contesto di una parola piuttosto che isolatamente o nel
contesto di una non parola.
Secondo
il modello di Rumelhart & McClelland (1981) una parola attiva/inibisce un
certo set di detettori di caratteristiche, che a loro volta attivano/inibiscono
I detettori di lettere, che attivano/inibiscono i detettori di parole (cfr.
modello dei demoni urlanti di Selfridge).
Il
WSE potrebbe essere legato ad un’attivazione feedforward e di feedback agli
stadi precedenti, inibitoria rispetto alle lettere non presenti. Con un
paradigma di priming in fMRI è stata individuata un’area del cervello
specializzata nella detezione di lettere (giro fusiforme sinistro). Le lettere
e con esse le parole sono una categoria speciale di stimoli. Come vengono
riconosciute ed analizzate:
- Rappresentazione astratta rispetto alla
lettera in sé, utilizzo di caratteristiche fisiche più generali (cfr.
esperimenti che utilizzano font diversi, non trovano risultati consistenti)
- Riconoscimento olistico: rappresentazione
dello stimolo come un oggetto unitario, senza ulteriore scomposizione (unità
percettiva).
L’esperienza
fatta con le parole potrebbe aver portato
allo sviluppo di detettori specifici per l’input visivo delle parole. Il riconoscimento di parole familiari
come immagini piuttosto che come
combinazioni di lettere predice
differenze sostanziali nella soglia. Prima è necessario calcolare l’energia
degli stimoli, per poi usarla in modo variabile: le righe hanno tutte la stessa
energia, ma in un caso vi è la stessa energia per ogni lettere, nell’altro la
stessa energia per ogni parola. Si evidenzia l’effetto lunghezza: l’efficienza per il riconoscimento di una
parola di n lettere è pari a 1/n quella per il riconoscimento della lettera
singola. Le parole lunghe sono meno visibili perché l’energia è suddivisa in
più lettere. Solo l’osservatore ideale è indipendente dalla lunghezza, ma anche
per lui la lettera singola richiede più energia per essere vista. Valutare la
robustezza dell’effetto e verificare la presenza di altri effetti. Effetto grandezza: aumentare la
grandezza della lettera in modo che sia uguale alla parola riduce la soglia. Effetto familiarità: tentativo di
ridurre l’efficienza fallito perché la prestazione con 26 parole di 5 lettere è
uguale alla prestazione con 2.213 parole di 5 lettere (= 4% di efficienza).
Tentativo di aumentare l’efficienza fallito perché la prestazione con 5 prole
di 3 lettere ha un’efficienza uguale, pari al 4.8% (1/3 per lettera).
La
pendenza della funzione psicometrica è molto più elevata per l’osservatore
umano che per l’osservatore ideale, che però mostra un WSE molto forte (cfr.
modello di sommazione). L’osservatore umano si basa sul modello di
indipendenza, ma la sua prestazione è inferiore rispetto a quella strettamente
ipotizzabile in base al modello.
L’effetto
di superiorità della parola (di un fattore di 1.15 in contrasto) e quello della
lunghezza della parola (di un fattore 5 per parole di 5 lettere) sono
compatibili con un modello strettamente letter based ed è dovuto alla matrice di confusione tra le lettere (caratteristiche
di accoppiamento e frequenza comparsa delle lettere all’interno di una lingua).
I
dati indicano che gli osservatori falliscono nel’utilizzare in modo ottimale la
loro matrice di confusione tra le lettere, tuttavia ricevono un vantaggio
dall’avere le parole. Questo suggerisce che prestare attenzione alla parola
potrebbe spingere l’osservatore ad utilizzare la sua matrice di confusione.
Questa interpretazione è anche supportata dall’osservazione di Rumelhart e
McClelland che il WSE sia influenzato dall’istruzione data all’osservatore di
prestare attenzione alle lettere piuttosto che all’intera parola. Dunque la
nostra efficienza per riconoscere le parole è limitata dal basso e dal dover
rilevare in modo indipendente le caratteristiche che la compongono.
INTEGRAZIONE E CROWDING
Gli
oggetti vengono riconosciuti rilevandone ogni caratteristica elementare e
isolandone ogni parte. Se il processo di isolamento fallisce si verifica il crowding. Questo fenomeno riguarda
l’interazione tra gli elementi adiacenti nell’identificazione di un elemento
target. Per anni è stato considerato un caso particolare di mascheramento, in
cui la maschera non è sovrapposta, bensì adiacente allo stimolo; ma non è così.
L’output
dei canali di primo ordine deve essere combinato ad un livello successivo
attraverso i campi di integrazione
all’interno dei quali i diversi orientamenti vengono sommati. La visibilità di
uno stimolo dipende anche dalla sua eccentricità rispetto al punto di
fissazione (cfr. CSC). In virtù di ciò le parole più eccentriche sono quelle
che mostrano l’effetto di crowding più forte. Il range del crowding scala in
funzione dell’eccentricità retinica con una proporzione di 0.5 (legge
di Bouma: lo spazio tra il distrattore e il target deve essere la metà dei
gradi dell’eccentricità retinica del target stesso). Questa proporzionalità fa
si che il range del crowding sia forte in periferia e debole in fovea.
- Toet
e Levi misurano l’acuità visiva in funzione dell’eccentricità dello stimolo
mediante un compito di discriminazione di orientamento di lettere con o senza
distrattori (al 75% di risposte corrette). Con i distrattori verticali vi è
un’elevazione di soglia (l’acuità peggiora in funzione dell’eccentricità);
mentre con i distrattori orizzontali l’effetto è minore. Mediante questa
procedure gli autori individuano le regione di interazione foveale per tutti
gli orientamenti (campi ellittici con l’asse principale orientato verso la
fovea). Vi sono però forti differenze individuali.
- Un’altre
procedura consiste nel misurare la soglia in funzione dello spazio tra le
lettere. Questa procedura consente di identificare lo spazio critico necessario per evitare il crowding. Questo spazio
non dipende dalla grandezza delle lettere ma solo dalla distanza centro-centro.
Il mascheramento ordinario ha il pattern inverso.
MASCHERAMENTO
|
CROWDING
|
Descrive
i meccanismi di primo livello (detettori di caratteristiche)
|
Descrive
i meccanismi di secondo livello (campi di integrazione)
|
È
simile in fovea e periferia
|
È
più forte in periferia
|
Fa
scomparire del tutto il segnale
|
Mantiene
lo stimolo visivo ma lo rende non identificabile
|
Funziona
sia in compiti di detezione che di identificazione
|
Funziona
con un limitato tipo di compiti (cfr. orientamento)
|
Lo
spazio critico è molto piccolo (serve quasi la sovrapposizione tra stimolo e
maschera)
|
Lo
spazio critico è ampio (cfr. Legge di Bouma)
|
L’effetto
è proporzionale al contrasto della maschera
|
L’effetto
è indipendente dal numero di distrattori, quando essi sono più di due
|
I
canali per il target e per i distrattori sono gli stessi
|
Esistono
detettori diversi per il target e i distrattori
|
La lettura e la velocità di lettura sono
limitate dal crowding. La velocità è stata misurata in funzione di diversi
parametri, come la grandezza del carattere e l’eccentricità dello stimolo.
Esiste anche uno span di crowding.
ARTICOLO 6 (Parkes et al. 2001): l’osservatore
deve riportare la direzione di orientamento di un gabor patch centrale
circondato da tanti gabor con orientamento orizzontale. Il compito risulta
essere molto difficile: per riuscirci anche a livelli di prestazione non
elevati l’inclinazione minima è di 12 gradi (piuttosto elevata).
Esistono
due spiegazioni a questo fenomeno di crowding:
1)
Masking: il
segnale è corrotto e causa l’errore.
2)
Pooling: si
basa sul modello dell’integrazione. La stima dell’orientamento è effettuata non
direttamente sugli stimoli singoli ma sulla media degli orientamenti di tutti
gli stimoli; ovvero sull’output dei meccanismi di primo livello (senza
distinzioni tra il target e l’orientamento dei distruttori). Questa media è proporzionale al numero dei
gabor patch. La soglia si riduce all’aumentare dei patch. Inoltre il
sistema sembra tener conto anche della varianza (tramite il computo delle
deviazioni standard) e non solo della media.
Risultati: Nonostante l’incapacità nel
riportare l’orientamento di un singolo patch l’osservatore può stimare l’orientamento
medio degli stimoli, dimostrando che le informazioni vengono combinate insieme
e non del tutto perse. La precisione di
questa stima inoltre è indipendente dal numero di stimoli (la media invece
è proporzionale). Nell’esperimento inoltre è stata manipolata la fase degli
stimoli per vedere se la sommazione di informazioni avvenisse all’interno di un
campo recettivo. Se così fosse la prestazione sarebbe dovuta essere peggiore
nella condizione non a fase, cosa che non si è verificata. Questo modello
predice che la prestazione migliori all’aumentare del numero di target (la
soglia scende). Al contrario dell’orientamento, la detezione dell’allineamento
spaziale, non migliora con il livello di inclinazione del target.
L’elevazione
della soglia non è una caratteristica del crowding, ma deriva dai detettori di
primo ordine. Lo spazio critico scala con l’eccentricità del target, ma non con
la grandezza dello stimolo.
Il crowding fa perdere le informazioni degli
orientamenti singoli e promuove il processo di analisi della tessitura. Quando
la presenza dei distrattori non peggiora la capacità dell’osservatore di
localizzare il target si ha l’effetto pop-out
(cfr. Treisman).
ARTICOLO 7 (Nandy et al. 2007)
Indagare
la natura del crowding attraverso il paradigma delle Classification Images. Questa tecnica parte dalla spiegazione dei
falsi allarmi. Nel rumore sembrerebbe esistere qualcosa che somiglia al segnale
e che dunque viene analizzato dal template percettivo anche quando non
dovrebbe.
Per
spiegare il fenomeno del crowding gli autori ipotizzano tre possibili cause:
1)
Masking
2)
Integrazione inappropriata di caratteristiche
3)
Sourse Confusion
( le caratteristiche dei flankers sono confuse con quelle dei target).
Gli
studiosi usano la tecnica della Reverse
Correlation (correlazione inversa) che prevede un compito di detezione
(circa 40000 trial) mediante la presentazione di un gabor patch + rumore o di
solo rumore. Alla fine della sessione sperimentale viene fatta una
classificazione dei trial in base alle risposte dell’osservatore e viene
calcolata la correlazione tra coppie di pixel di rumore, per ogni categoria di
risposta. La correlazione inversa tra i rumori permette di creare una mappa dei
pixel del rumore in grado di disturbare la detezione del segnale, e quindi di
condurre all’errore. Dal momento che il rumore usato è bianco, ci si aspetta
che la correlazione sia zero. Una qualsiasi correlazione diversa da zero rivela
una correlazione strutturale di secondo ordine. È necessario però anche
scegliere la regione di interesse (ROI) nella quale effettuare l’analisi (che
non deve essere né troppo grande, né troppo piccola, per non influenzare le
correlazioni).
In
questo modo è possibile rivelare la strategia percettiva dell’osservatore,
ovvero quali parti dell’oggetto utilizza per compiere la decisione.
Il
risultato evidenza il template percettivo (la media spazio temporale delle caratteristiche
elementari usate).
Il
problema di questo metodo è dato dall’incertezza spaziale: è necessario
utilizzare una tecnica di raggruppamento
delle immagini che produca un template invariante per la dislocazione
(Signal Clamped).
Gli
autori calcolano:
1)
First Order Classification Images (la media spazio
temporale delle caratteristiche elementari usate)
2)
Effetti strutturali dei flankers
3)
L’ampiezza della regione dalla quale vengono estratte
le caratteristiche (mediante le ROI)
4)
Mappe di secondo ordine (trasformando i dati in punti
z)
La
novità è che per ogni trial nel calcolo della correlazione tra pixel rumorosi si
tenga conto anche della distanza spaziale tra i pixel stessi (optimal ROI). Per
ogni particolare tipo di errore vi è la media della potenza spettrale del
rumore (le mappe sono colorate in funzione della polarità dei pixel: stessa
polarità = rosso; polarità opposta = blu).
Confronto fovea-periferia: in
periferia, in presenza di distrattori, vi è un aumento di soglia, un decremento
di efficienza e una perdita di contrasto. In fovea succede praticamente il
contrario, perché i distrattori riducono l’incertezza spaziale.
Inoltre
si riscontrano differenze a seconda dello stimolo utilizzato nel compito (cfr.
O vs X).
- Unflanked: contrato più basso in
periferia ma stessa forma
- Flanked: il template per la O non è
distorto, indicando che il crowding non è causato da un problema a livello dei
detettori di primo ordine.
L’osservatore
ideale è modellato con una parte di incertezza spaziale e nel confronto
l’essere umano fa meglio del previsto. L’OI compie sempre la correlazione tra
stimolo e immagine in memoria, solo che non c’è più l’equivalenza perfetta con
il template percettivo. inoltre non utilizza caratteristiche singole ed
elementari, bensì la configurazione unitaria dello stimolo. l’uomo in fovea si
comporta nello stesso modo (usa quasi l’intera lettere). In periferia invece
utilizza meno caratteristiche e più distribuite. L’uomo utilizza un numero inferiore di caratteristiche rispetto all’OI
e meno caratteristiche valide. In questo modo è più facile fare confusione. Il
deficit di integrazione viene risolto con un sistema di attenuazione delle
features disponibili.
Risultati:
- Il
crowding riduce il contrasto delle immagini di primo ordine senza alterarne la
forma
- Gli
errori nel crowding sono correlati con la struttura spaziale del target ed
assomigliano a quelli erroneamente identificati
- Il
crowding non ha effetto sistematico sull’incertezza spaziale (cfr. ROI) e non
sopprime la detezione
- Il
crowding riduce il numero di caratteristiche valide ed aumenta le invalide
(analisi di secondo ordine). Non è Masking ma Sourse Confusion.
L’analisi
delle caratteristiche che generano un bias nella direzione dell’errore sul
target rivela che in periferia l’errore è dovuto proprio ad alcune
caratteristiche dei distrattori, il che conferma la Source Confusion.
L’analisi
dei flanker dimostra una forte correlazione nella condizione di crowding
(flaked periphery ma non in fovea) tra gli errori di identificazione e le parti
dei flaker che assomigliano al target. Il risultato sulle ROI esclude che il
crowding sia dovuto legato ad un incertezza spaziale della
periferia.
Questo
quadro è coerente con il fatto che sia in fovea che in periferia l’osservatore
estrae l’informazione da una regione più ampia del segnale ma in fovea è poi
chiara la provenienza mentre nel crowding si perde l’appartenenza.
COSA
INDICANO I RISULTATI RISPETTO ALLE ALLE ALTRE DUE CAUSE DEL CROWDING IN ESAME:
- Masking:
Nessuna evidenza che il crowding sopprima la detezione di caratteristiche
(questo avrebbe causato meno correlazioni di secondo ordine con i flanker). Gli
errori causati dal masking sarebbero casuali e non dovrebbero emergere come
features invalide.
Inappropriate feature integration: per essere in accordo con i dati il
modello deve prevedere un processo di competizione/inibizione tra meccanismi diversi.
Infatti aumentano le features invalide come predetto dall’integrazione (le
caratteristiche dei flakers vengono combinate
Nessun commento:
Posta un commento