Manuale di psicologia generale [2 ed.]
 8815057323

Citation preview

MANUALE DI PSICOLOGIA GENERALE

il Mulino

a cura di

PAOLO LEGRENZI

Psicologia

I lettori che desiderano informarsi sui libri e sull'insieme delle attività della Società editrice il Mulino possono consultare il sito Internet: http://www.mulino.it

Manuale di psicologia generale

a cura dì Paolo Legrenzi Seconda edizione

il Mulino

ISBN 88-15-05732-3 Copyright © 1994, 1997 by Società editrice il Mulino, Bologna. È vietata la riproduzione, anche parziale, con qualsiasi mezzo effettuata, compresa la fotocopia, anche ad uso interno o didattico, non autorizzata.

Introduzione, di Paolo Legrenzi I.

IL

Storia e metodi, di Riccardo Luccio

13

1. Introduzione 2. Lo sviluppo storico della psicologia scientifica 3. I metodi della psicologia

13 14 58

Emozioni e motivazioni, di Gian Vittorio Caprara

75

1. 2. 3. 4. 5.

III.

IV.

P-

Introduzione Tradizioni di pensiero e livelli di analisi Le emozioni Le motivazioni Emozioni e motivazioni

75 76 80 95 107

Percezione, di Walter Gerbino

111

1. 2. 3. 4.

111 116 129 182

Problemi Codificazione Organizzazione Conclusioni

Attenzione e coscienza, di Carlo Umiltà

185

1. 2. 3. 4. 5. 6. 7.

185 197 213 221 227 233 239

L'attenzione spaziale L'attenzione selettiva Un modello connessionista dell'effetto Stroop Le risorse attentive Processamento automatico o controllato La memoria di lavoro e il Sistema attentivo supervisore Attenzione e coscienza

-

INDICE

V.

Memoria, apprendimento e immaginazione, na De Beni 1. 2. 3. 4. 5. 6.

VI.

VII.

Tecniche di misurazione e di ricerca della memoria umana Tipi di memoria La metacognizione e le strategie di memoria Il dimenticare Immaginazione Apprendimento

di Rossap. 251 251 263 279 296 308 319

Linguaggio, di Giovanni Battista Flores d'Arcais

339

1. 2. 3. 4.

339 350 378 382

La psicolinguistica La comprensione del linguaggio La produzione del linguaggio Lo sviluppo e i fondamenti biologici del linguaggio

Pensiero, di Giuseppe Mosconi

393

1. Problem solving 2. Ragionamento 3. Conclusioni

393 414 451

Glossario

457

Riferimenti bibliografici

469

Indice analitico

511

Questo volume fa parte di una serie di manuali scritti da autori italiani e pensati specificamente per la didattica dei corsi di laurea in Psicologia. L'articolazione dei nostri corsi non sempre coincide con quella dei paesi anglosassoni. Ad esempio, il contenuto di pur ottimi manuali sui processi cognitivi - come il Reed [1992; trad. it 1994] -è troppo mirato rispetto al nostro insegnamento di Psicologia generale al primo anno del corso. Viceversa, un testo di psicologia in generale - come il Darley, Glucksberg e Kinchla [1991; trad. it. 1993] -può risultare troppo esteso, in quanto include argomenti che costituiscono materie specifiche di altri insegnamenti (psicologia dello sviluppo, clinica, sociale, ecc). Proprio per questo l'edizione italiana del Darley è suddivisa in due volumi, in modo che il primo corrisponda ai contenuti del corso di Psicologia generale. Tuttavia un volume progettato apposta e scritto da docenti che hanno esperienza della situazione italiana dovrebbe presentare dei vantaggi rispetto ad un manuale semplicemente diviso a metà. Ad esempio, nel Darley come in molti altri manuali, il blocco «emozione e motivazione» fa da ponte tra un'esposizione dei processi cognitivi asettica e gli aspetti clinici e sociali, considerati come un prolungamento del funzionamento «caldo» della nostra mente. Il manuale italiano che qui si presenta, al contrario, vede nei processi motivazionali, per così dire, l'energia che fa funzionare il motore e presenta successivamente i processi cognitivi come lo studio dei modi di funzionare di questo motore. Fuor di metafora, lo schema di questo manuale cerca di realizzare quanto dice Caprara concludendo il secondo capitolo: «la motivazione è da considerarsi un costrutto sovraordinato a quello di emozione e a quello di cognizione...» (cfr. infra, pp. 108-109). Questo secondo capitolo ha la funzione di cerniera tra l'introduzione storica e metodologica di Luccio e lo studio della cognizione. L'analisi dei processi cognitivi viene

INTRODUZIONE

svolta con un taglio sostanzialmente sistematico, come in un qualsiasi manuale di scienze. Lo studio dell'emozione e della motivazione riprende invece l'approccio storico del capitolo iniziale. Tale approccio si rivela utile per capire il passaggio dalle «liste di bisogni e istinti» ai modelli, da Lewin in avanti, centrati sulla capacità della mente di darsi delle mete e di perseguire dei fini. I capitoli successivi, dedicati alla cognizione, analizzano gli strumenti di cui disponiamo per perseguire questi complessi di mete e fini. I processi cognitivi, dai più «bassi» ai più «alti» non sono cioè trattati come funzioni mentali indipendenti dal mondo in cui viviamo e dalla nostra interazione con esso. Gerbino ci introduce allo studio dei processi percettivi intesi come uno dei modi per controllare le nostre azioni nel contesto del ciclo percezione-azione. La visione non è una registrazione passiva di quel che ci capita attorno: «il requisito essenziale della rappresentazione percettiva non è la veridicità ma l'adeguatezza all'azione» (cfr. infra, cap. Ili, par. 1.1). L'esplorazione e la ricerca di informazioni utili all'azione sono processi strettamente connessi all'attenzione. L'impostazione teorica centrata sui rapporti tra motivazione, azione e processi cognitivi (intesi come supporto all'azione) non può prescindere dall'analisi dei processi attentivi, dall'analisi cioè dei meccanismi sottostanti la nostra capacità di concentrarci su alcune informazioni trascurandone altre. Tale analisi costituisce il filo conduttore di tutto il capitolo di Umiltà. Un approccio sofisticato sul piano metodologico ha reso possibile capire in modo dettagliato come mai in certi casi raccogliamo informazioni e prendiamo decisioni in modo consapevole e altre volte lo facciamo invece senza renderce -conto. Non alludiamo qui al fatto che talvolta siamo distratti, ma alla nostra capacità di rendere automatiche molte operazioni cognitive con evidenti vantaggi adattivi sia in termini di economia di risorse psichiche che in termini di efficacia e precisione. Viene così esplorato in molti dei suoi aspetti un costrutto che può sembrare il cuore della disciplina: la coscienza. Il capitolo di Umiltà è prezioso anche per un altro motivo. Difficilmente nei manuali ci si può fare un'idea della «cucina» dello sperimentatore in psicologia, di come cioè nei dettagli un ricercatore applichi le sue ricette in laboratorio, di come i risultati di un esperimento ci conducano ad impostarne di nuovi per rispondere a nuovi quesiti. Diventano così chiari dall'interno la funzione e lo scopo dell'esperimento condotto in laboratorio. Molte nozioni della nostra psicologia ingenua, quelle che nella vita quotidiana usiamo in modo disinvolto (si pensi alle distinzioni: stare attenti oppure no, essere consapevoli oppure no, e così via) nascondono problematiche molto complesse che solo una scienza sperimentale può affrontare. Siamo cioè troppo complicati per capire come funzioniamo con la semplice osservazione quotidiana di noi stessi e degli altri. Questa impostazione viene ripresa anche da De Beni, che inizia il suo capitolo proprio comparando l'approccio ecologico e le ricer-

INTRODUZIONE

che di laboratorio. E lei stessa si sofferma a lungo sullo scarto tra i modi di funzionare della memoria, dell'apprendimento e dell'immaginazione e quella che è la nostra concezione ingenua di tali meccanismi. Benché i risultati di molti esperimenti non siano prevedibili, è indubbio che, nel complesso, lo studio di questi meccanismi mentali superiori - dalla memoria all'immaginazione, dal linguaggio al pensiero - si discosti meno (rispetto ai capitoli precedenti) da quello che un non addetto ai lavori si aspetterebbe dalla lettura di un manuale di psicologia generale. La memoria, l'immaginazione, l'apprendimento, il linguaggio, il pensiero sono il nucleo della vita mentale anche in una prospettiva ingenua, non scientifica. In sintesi, possiamo dire che questo manuale si caratterizza per l'opzione teorica sopra descritta e per il fatto di essere scritto interamente da studiosi italiani, tra i migliori specialisti in ogni settore. Si è cercato di far sì che questo secondo aspetto si traducesse in pregi e non in difetti. Nulla di essenziale è stato tralasciato per il fatto che non c'era produzione italiana in un dato settore: questa serie di manuali cerca di non essere mai sciovinista. Tuttavia l'avere come autori degli specialisti italiani presenta due vantaggi. In primo luogo, l'insieme dei contributi da luogo ad una panoramica aggiornata sullo stato della ricerca psicologica italiana nel più ampio contesto della situazione contemporanea delle discipline psicologiche. Molto modesto solo pochi decenni fa, oggi tale contributo comincia ad avere, almeno in alcuni campi, una certa consistenza. In secondo luogo, l'esposizione di questi lavori italiani, collocata in un più ampio quadro teorico, permette agli studenti del corso di laurea (soprattutto a molti studenti del biennio iniziale, che non padroneggiano ancora la letteratura internazionale) un uso del manuale come guida per ulteriori approfondimenti. L'adozione da parte di autori diversi di questo stesso criterio può dar luogo a stili espositivi apparentemente molto lontani. Si vedano, ad esempio, gli ultimi due saggi. Flores D'Arcais ha scritto un capitolo asettico, dato che la sua esposizione della psicolinguistica contemporanea è analoga a quella che potremmo trovare in un ottimo manuale anglosassone. L'aspetto più utile, non solo dal punto di vista manualistico e didattico, consiste nella capacità dell'autore di non soffermarsi sui singoli modelli di comprensione e di produzione del linguaggio. Flores D'Arcais è infatti riuscito ad estrarre gli aspetti centrali ed essenziali della ricchissima modellistica e a collegarli ai temi trattati negli altri capitoli. Mosconi ha scritto un capitolo molto più personale, dato che le teorie e le ricerche classiche sul problem solving e sul ragionamento — che peraltro trovano posto in questo come in qualsiasi altro manuale - sono filtrate attraverso la posizione dell'autore e dei suoi collaboratori. Ne è risultata un'impostazione originale, centrata su un'esposizione che fa riferimento alle operazioni di una data persona che ragiona per risolvere problemi, piuttosto che su teorie o modelli. Questo libro si caratterizza anche per altri due aspetti. Il primo

10

INTRODUZIONE

concerne la scelta di come trattare il rapporto tra teorie e dati sperimentali. Alcuni testi introduttivi preferiscono offrire «certezze», sottolineando come alcuni risultati sperimentali corroborino i modelli teorici presentati. Questa opzione - per quanto scorretta in quanto si risolve necessariamente in scelte faziose di cui il lettore ignora il senso - può offrire un'opportunità didattica quando uno studente fa un solo esame di psicologia. In tal caso è infatti sufficiente che impari in modo aproblematico quello che gli serve per la sua preparazione professionale diretta altrove. Nella formazione di uno psicologo, al contrario, adottare questa scelta per «iniziare» uno studente alla disciplina può rivelarsi molto più pericoloso. Lo studente che impara dei «fatti» è poi indotto a credere che dalla evidenza e affidabilità di alcuni dati sperimentali scaturisca la «prova» di una data teoria. Questa convinzione, oltre che fuorviante, può essere dannosa: è infatti l'anticamera per una futura professionalità di routine, una visione del mestiere dello psicologo come una persona che interviene con un sapere applicato standard che si fonda su un sapere di base consolidato. Un approccio acritico alla professione trova le sue origini in un approccio acritico al sapere di base. Questa serie di manuali, al contrario, è stata progettata nella consapevolezza «che i fatti sono essi stessi limitati e condizionati dall'orientamento teorico del ricercatore, dalle sue credenze, motivazioni e aspirazioni», come scrive Camaioni [1994] nell'introduzione del Manuale di psicologia dello sviluppo. Senza ritornare sulla relazione tra fatti e teorie, chiaramente discussa e approfondita da Camaioni, mi basti ricordare che quell'impostazione viene qui ripresa. In tutti i capitoli con taglio sistematico, da quello di Gerbino fino a quello di Mosconi, si mostra continuamente co* lo stesso «fatto» possa venire interpretato in più modi, come alcuni risultati sperimentali non permettano di dirimere tra più modelli, come più modelli siano in grado di spiegare lo stesso fatto, come l'aver corroborato una teoria non implichi necessariamente l'aver falsificato il punto di vista alternativo. Questo modo di procedere è faticoso ma intellettualmente onesto. Lo studente riceve in cambio di uno studio più impegnativo e complesso la possibilità di dialogare in modo paritetico con i ricercatori di ogni settore. L'alternativa è una psicologia basata su «certezze» che non si trovano né nei laboratori dei ricercatori né nei contesti professionali. L'altro aspetto che caratterizza questo manuale riguarda i rapporti tra teoria e applicazione. Ottimi manuali sui processi cognitivi - come il Reed [1992; trad. it. 1994], il cui sottotitolo è appunto Teoria e applicazioni — cercano di collegare i modelli teorici sui processi cognitivi ad alcune indicazioni relative ai più importanti settori applicativi. Ancora una volta, questa scelta sarebbe stata condivisibile se la lettura di questo manuale non costituisse soltanto una prima tappa di un curriculum formativo con forti valenze applicative (nel triennio di specializzazione del corso di laurea). Si è quindi preferito, data anche la vastità della materia, escludere ogni riferimento a que-

INTRODUZIONE

sto aspetto se non nel capitolo di De Beni, dove le indicazioni «pratiche» sono rivolte al lettore in quanto studente e non in quanto futuro psicologo (riguardano infatti le strategie per apprendere e ricordare) . Spero che questa scelta di rigore nel metodo e di apertura critica sul piano teorico sia apprezzata non solo e non tanto da chi fa ricerca ma da chi si preoccupa di formare i futuri psicologi. Mi auguro che lo sforzo comune abbia prodotto non solo un nuovo manuale ma anche un manuale nuovo. P.L.

Prefazione alla seconda edizione

La prima edizione di questo manuale è stata utilizzata sia all'interno dei corsi di laurea in Psicologia, sia in altri corsi di laurea. Il lavoro di insegnamento e la verifica sul campo della didatticità del libro da parte di molti docenti hanno dato luogo a suggerimenti e consigli che ci hanno consentito di rendere il testo ancora più utilizzabile e meglio fruibile. In questa seconda edizione abbiamo dunque ridotto all'essenziale le parti più tecniche, allo scopo di mantenere il tono introduttivo che ogni buon manuale di primo livello dovrebbe avere. La scelta di una prospettiva più ampia, che colloca la psicologia generale nell'ambito delle scienze cognitive, implica il confronto tra tradizione sperimentale e metodi delle scienze cognitive, in primo luogo la simulazione. Come è sottolineato nelle conclusioni al capitolo dedicato alla percezione (cap. 3), all'eclettismo teorico del movimento cognitivista si è accompagnata l'integrazione di più metodi di ricerca e di tradizioni disciplinari un tempo separati tra loro. Eclettismo teorico non significa però adozione di un approccio ateoretico. Al contrario; si tratta di spiegare, come nel caso della percezione, forza e limiti di due tradizioni di ricerca, quella empirico-probabilistica (Helmholtz) e quella economico-energetica (Gestalt). In questa prospettiva diviene necessario fornire alcuni elementi delle scienze cognitive, in particolare nel campo della linguistica (cap. 6) e in quello della coscienza e dell'inconscio (cap. 4). Lo sforzo di presentare il confronto critico tra teorie, metodi e dati - evidente in tutti i capitoli - aveva forse reso in alcuni punti la prima edizione di questo libro troppo densa. La revisione complessiva cui è stato sottoposto per questa seconda edizione l'intero volume ne fanno, ci sentiamo di affermare, uno strumento equilibrato e aggiornato per comprendere i meccanismi fondamentali del funzionamento della mente umana. P.L. Giugno 1997

11

1. Introduzione

II termine «psicologia» deriva dagli etimi greci psyché e logos, scienza dell'anima. Non si tratta però di un termine greco, ma di un neologismo creato nel rinascimento, non è chiaro da chi. Nel 1520 il poeta dalmata Marko Marulic scrisse un poemetto, Psichiologia, di cui è rimasto solo il titolo, per cui non sappiamo cosa volesse intendere con la parola. I primi usi testimoniati del termine sono del 1575, con Freigius, e del 1583 con Taillepied; ma è solo a partire dal 1590 che Rodolfo Goclenio lo rese di impiego comune. Di fatto, occorre aspettare il XVIII secolo perché si parli di psicologia in un senso analogo a quello odierno; in particolare, la distinzione di Christian Wolff [1728; 1737] tra psicologia razionale e psicologia empirica, con la prima specificamente fllosofica e la seconda «naturalistica», che verrà poi largamente accettata, individuerà quella bipartizione delle riflessioni psicologiche che sarà alla base, oltre un secolo più tardi, della separazione della psicologia scientifica dalla filosofia, e della sua autonomizzazione come scienza naturale. Questo capitolo non intende ripercorrere analiticamente tutti i passaggi che ci hanno portato dalle elaborazioni dei presocratici agli sviluppi attuali, che vedono, tra l'altro, una profonda commistione tra le teorizzazioni psicologiche e quelle della scienza dei calcolatori. Esso vuole piuttosto presentare allo studente gli aspetti fondamentali dello sviluppo storico della psicologia scientifica, e i principali metodi che essa adotta nel corso della ricerca. È un obiettivo ambizioso perché possa essere portato a termine in un numero ridotto di pagine. Peraltro, lo scopo non è quello di presentare né una storia della psicologia, né un elenco esaustivo dei metodi che la psicologia utilizza. Più semplicemente, e più concretamente, quello che si intende qui fare è mostrare quali sono state le grandi categorie concettuali con cui la nostra disciplina si è dovuta misurare. Con forse qualche eccesso di schematismo, uno dei pochi storici

14

STORIA E METODI

della psicologia italiana scrisse qualche anno fa un fortunato saggio sulle antinomie della psicologia [Marhaba 1976]. Egli vedeva nello sviluppo della psicologia contemporanea la presenza di una serie di problemi bipolari, a cui le diverse scuole psicologiche avevano cercato di dare risposte indirizzandosi preferibilmente verso l'uno o l'altro polo. Vi erano così psicologie (prevalentemente) mecanomorfiche o piuttosto antropomorfìche, riduzioniste o piuttosto antiriduzioniste, soggettiviste o piuttosto comportamentiste, e così via. Sono, le categorie di Marhaba, tutte pietre di paragone con cui dovremo fare anche noi i conti. Di fatto, come vedremo, le cose sono tutt'altro che semplici, e molti degli psicologi più rappresentativi hanno spesso dato risposte contraddittorie, nel corso dello sviluppo del loro pensiero, a questi problemi. Di più, come vedremo, spesso si tratta di polarizzazioni solo, o in parte, apparenti. Lo stesso può dirsi in certa misura dei metodi. La psicologia è oggi una scienza della natura, una scienza empirica (in contrapposizione non alle scienze dello spirito, ma alle scienze cosiddette formali, come la matematica o la logica). Da questo punto di vista, la psicologia utilizza il metodo scientifico, proprio di tutte le scienze naturali. Ma all'adozione di questo metodo generale, fa riscontro l'uso di metodi particolari, in parte dovuti ai settori specifici di indagine che vengono affrontati, in parte alle opzioni teoriche dei vari ricercatori. Così, se può essere tentante sul piano schematico presentare i diversi metodi in opposizione, occorre immediatamente tenere presente il fatto che spesso non si tratta di metodi mutuamente esclusivi, ma vi sono larghi settori di sovrapposizione tra l'uno e l'altro. Questo capitolo è così organizzato. La prima parte, storica, presenterà in primo luogo un abbozzo r biologico dello sviluppo della disciplina. La seconda parte passerà invece in rapida rassegna i metodi della psicologia. 2. Lo sviluppo storico della psicologia scientifica

2.1. Le condizioni per una psicologia scientifica

Potrà apparire curioso, ma prima di iniziare il nostro abbozzo dello sviluppo storico della psicologia scientifica, dobbiamo individuare quelle che possiamo chiamare le «condizioni» che hanno reso possibile la nascita della psicologia come scienza. Occorre infatti tenere presente che se la psicologia non è riuscita a svilupparsi come scienza autonoma se non molto tardi - nella seconda metà del secolo scorso - ciò non è dovuto al fatto che si trattasse di una scienza che doveva fare i conti con tecnologie nuoye, che sole consentivano di poter affrontare determinati problemi. E stato questo il caso dell'astronomia moderna, che non è potuta decollare prima dell'invenzione del cannocchiale; o della batteriologia, che ha avuto bisogno del microscopio. Per non parlare delle «nuove» scienze di questo secolo,

STORIA E METODI

a cominciare dalla cibernetica e dall'informatica. Come vedremo, lo studio dei processi e delle funzioni psichiche poteva richiedere veramente ben semplici strumentazioni, che non rendevano necessario il ricorso a una tecnologia avanzata. E del resto, sin dall'antichità classica si indagava sui grandi temi che sarebbero poi stati oggetto di studio della psicologia scientifica. Se si vuole, il primo trattato di psicologia sistematica è il De Anima di Aristotele, del 322 a.C, anche se per Aristotele l'anima è più un principio vitale, la forma della vita. E nei Parva naturalia Aristotele aveva dato una descrizione dei processi cognitivi, soprattutto di percezione e memoria, di straordinaria modernità. Ma ancor prima di Aristotele, Alcmeone aveva posto la vita psichica già nel cervello; Ippocrate aveva individuato delle precise relazioni tra attività psichica e funzioni corporee, e la sua scuola aveva sviluppato una caratterologia basata su quattro tipi (sanguigno, collerico, melancolico e flemmatico), a seconda del prevalere di uno dei quattro umori (sangue, bile gialla, bile nera, flegma), corrispondenti ai quattro elementi di Empedocle; caratterologia che sotto diverse forme sarebbe sopravvissuta sino all'età moderna. E dopo Aristotele, vi sarebbero state le sorprendenti descrizioni del sistema nervoso di Erofilo ed Erasistrato, che sarebbero riusciti a distinguere con due millenni di anticipo su Bell e Magendie i nervi sensoriali da quelli motori; e vi sarebbero stati, in epoca romana, contributi straordinari sul piano dei processi cognitivi (lo pseudo-Cicerone della Rhetorica ad Herennium, Quintiliano...), sul piano naturalistico (Plinio il vecchio), medico (Galeno), e così via. Il pensiero classico aveva gettato le basi perché la psicologia potesse svilupparsi come le altre scienze naturali. I problemi della mente erano stati affrontati sul piano puramente filosofico, ma anche nello studio naturalistico delle funzioni cognitive come percezione, linguaggio, pensiero, memoria; nei rapporti tra mente e corpo, con un primo tentativo di dare una rappresentazione dei rapporti tra funzioni del sistema nervoso (anche se ancora prevaleva in molti l'idea che fosse il cuore il centro motore della vita psichica) e funzioni mentali; nelle interrelazioni tra patologie somatiche e processi della mente. Indipendentemente dalla profonda crisi che attraversò tutto il sapere occidentale dopo la caduta dell'impero d'Occidente, il cristianesimo avrebbe prodotto una decisiva battuta d'arresto delle speculazioni propriamente psicologiche. Infatti, per il pensiero cristiano non solo medioevale, ma sino ai primi del seicento, vi era una forte interdizione allo studio dell'uomo, sia da un punto di vista mentale che da un punto di vista corporeo. Da un punto di vista mentale, infatti, si affermava che i problemi che si incontravano dovevano riguardare necessariamente la natura dell'anima, e andavano quindi lasciati all'indagine dei teologi. Dal punto di vista corporeo, poi, l'uomo è visto sì facente parte della natura, ma in posizione privilegiata, al culmine di una struttura gerarchica rigida, che lo pone immediatamente sotto Dio. Ciò rende in certa misura empi gli studi anatomici e fisio-

15

16

STORIA E METODI

logici; la dissezione dei cadaveri verrà proibita sino al XVII secolo, e i contravventori rischieranno le dure condanne dei tribunali dell'Inquisizione. Con umanesimo e rinascimento inizia però un rivolgimento di questa concezione. Vi è una nuova collocazione dell'uomo nella natura, che è al meglio testimoniata dalla famosa epistola sulla dignità dell'uomo di Pico della Mirandola [1494]: l'uomo viene posto (sia pure con infinite contraddizioni) al centro della riflessione, non più visto in ottica trascendente, ma semmai partecipe egli stesso degli attributi della divinità. Ma ciò non consente ancora una sua analisi scientifica. Il passo successivo, compiuto da Cartesio, consisterà nello scindere il corporeo dal mentale, aprendo così anche un dibattito filosofico-scientifico che proseguirà in modo appassionante sino ai giorni nostri. Cartesio introduce una distinzione radicale tra res cogitans, il pensante, e quindi la mente, l'anima, e res extensa, ciò che occupa uno spazio fisico, il corpo. Da un punto di vista ontologico, dell'essenza, cioè, di ciò che compone queste due entità, si tratta di cose assolutamente distinte, irriducibili l'una all'altra. La prima è propria dell'uomo, la seconda è comune all'uomo e agli animali. Cartesio ritiene infatti che il corpo possa essere visto come una macchina, per esempio uno di quei robot idraulici che all'epoca stupivano le corti europee. E la scoperta da parte di Harvey, nel 1628, della circolazione del sangue rinforzava questa idea. Ma Cartesio ha anche cominciato a vedere la regolazione da parte del sistema nervoso di questo meccanismo; e a lui va dato a buon diritto il merito di aver iniziato lo studio degli atti riflessi, che nello stesso secolo verrà poi sviluppato dalla scuola medica iatromeccanica it?1'>.na. Ma se il corpo è qualcosa di meccanico, allora nessuno ne può vietare un'indagine naturalistica. Veniva così ad essere superata la prima interdizione che la Chiesa aveva posto allo studio dell'uomo: lo studio, almeno, del corpo. Rimaneva però il problema fondamentale dell'anima (che Cartesio vedeva curiosamente interagire con il corpo a livello della ghiandola pineale, l'epifisi, una ghiandola endocrina di cui all'epoca non si conosceva la funzione). Cartesio immaginava che nella mente potessero esistere idee non solo derivate dai sensi o generate direttamente dalla mente, ma anche idee innate, connaturate alla mente, come l'idea di Dio, di sé, gli assiomi della matematica... La corrente filosofica a cui Cartesio dava inizio verrà detta razionalismo, e si svilupperà particolarmente nel continente europeo. Ad essa si opporrà strenuamente un'altra scuola filosofica, l'empirismo, che avrà il suo massimo sviluppo in Inghilterra e in Scozia. Gli empiristi negheranno l'esistenza delle idee innate, e sosterranno che tutto ciò che è presente nella mente dell'uomo deriva dall'esperienza, in primo luogo dall'esperienza sensoriale. Ma agli empiristi si deve il merito di aver superato l'altra interdizione della Chiesa, effettuando quella che Kantor [1969] ha chiamato la «secolarizzazione dell'ani-

STORIA E METODI

ma». Locke [1690], uno dei massimi rappresentanti di questa scuola, affermò infatti la liceità di studiare le facoltà della mente umana, se non se ne poteva studiare l'essenza. L'ontologia dell'anima, cioè, veniva lasciata ai teologi, ma le sue funzioni diventavano oggetto di studio filosofico-scientifico. Era così compiuto l'ultimo passo, e poteva iniziare a svilupparsi una psicologia propriamente scientifica. Va tra l'altro sottolineato il fatto che questi rivolgimenti avvenivano tra il XVI e il XVII secolo, l'epoca di Bacone, di Keplero, di Galileo, di Mersenne; l'epoca, cioè, della nascita della scienza nel senso moderno del termine. Ma se le altre discipline, dalla fisica alla chimica, dall'astronomia alla biologia, avrebbero subito cominciato a svilupparsi in tale senso, per la psicologia sarebbe occorso almeno un altro secolo e mezzo per costituirsi come scienza autonoma. I motivi di questa ulteriore difficoltà della nostra disciplina, rispetto alle altre, non trovano concordi gli studiosi che se ne sono occupati. Certo, il fatto che i filosofi empiristi e razionalisti avessero consentito di aggirare i divieti della Chiesa non significava un immediato rivolgimento di prospettive: certe acquisizioni dovevano maturare, e diventare vero e proprio patrimonio condiviso della comunità degli studiosi. Si pensi che ancora alla fine dell'ottocento l'Università di Cambridge rifiutava di istituire un laboratorio di psicofisica, ritenendo che sarebbe stato un «insulto alla religione porre l'anima umana su delle scale di misurazione» [Hearst 1979, Ti. Certo, era ancora molto incerto l'oggetto di studio che avrebbe dovuto avere la psicologia (né, come vedremo, oggi la cosa si è granché chiarita): la coscienza? La mente? Il comportamento? Ma soprattutto, era ben lontana ancora la possibilità di trattare i processi psicologici come qualcosa di' naturalistico. In altri termini, la difficoltà per il decollo della psicologia come scienza era sostanzialmente questa: una psicologia scientifica si sarebbe potuta costruire una volta che si fosse trovato il modo di «misurare» gli eventi psichici. Come avrebbe detto il grande Kant [1786], la psicologia non avrebbe mai potuto essere una scienza, poiché i principi a priori della matematica non avrebbero mai potuto sussumere i suoi temi, cosa che rendeva impossibile la misurazione e la sperimentazione. 2.2. La mente e il cervello

Come abbiamo detto, la concezione secondo cui l'attività psichica ha come corrispettivo materiale, somatico, l'attività cerebrale, concezione che oggi ci sembra scontata, è abbastanza recente nella storia dell'umanità, se è vero che ancora nel XVI secolo Cisalpino affermava, riecheggiando idee ampiamente diffuse, che il motore della vita mentale era il cuore. È certo che a partire dal XVII secolo nessuno mette più in dubbio il primato del cerebrale; ma la storia, rilevantissima, dei rapporti tra mentale e attività del sistema nervoso è tutt'altro che lineare.

17

18

STORIA E METODI

Nella concezione cartesiana, la res extema è sostanzialmente una macchina, una sorta di robot idraulico, il cui funzionamento è peraltro regolato da una serie di azioni riflesse, grazie alla struttura del sistema nervoso. Le conoscenze del sistema nervoso sono però assolutamente insufficienti perché si possa andare al di là di una pura affermazione di principio. Sarà solo nel 1751, con R. Whyatt, che verrà compiuto un progresso decisivo. Egli infatti dimostrò che asportando il cervello della rana permanevano i movimenti riflessi, che invece cessavano quando, mantenuto il cervello, veniva asportato il midollo spinale. Ricordiamo che un arco riflesso è costituito da un ramo «afferente», che conduce le informazioni sensoriali dalla periferia dell'organismo al centro, e da un ramo «efferente», che dal centro giunge alla periferia, per dare gli opportuni ordini ai centri effettori (muscoli, ghiandole...). Whyatt dimostrava così che la congiunzione tra ramo afferente e ramo efferente si poteva avere a livello spinale, senza l'intervento del cervello, ma comunque a livello centrale; e quindi, non era un'attività puramente periferica. Il discorso dei riflessi sarebbe poi stato completamente chiarito solo agli inizi di questo secolo, con il grande Charles Sherrington [1906], che avrebbe dimostrato l'integrazione e il controllo centrale delle azioni riflesse, aprendo nuove prospettive allo studio del funzionamento del sistema nervoso. Comunque, già a metà del XIX secolo un neurofisiologo russo, Ivan M. Secenov [1863], aveva proposto, in un saggio che fu colpito dalla censura zarista per il suo chiaro impianto materialistico, che tutta l'attività psichica poteva essere interpretata sulla base del meccanismo semplice dell'arco riflesso. Questo avrebbe aperto la strada alla reflessologia russa, sviluppatasi impetuosamente nel "colo successivo. Un altro passo avanti determinante ru la cosiddetta legge di Bell e Magendie. Questi due scienziati scoprirono indipendentemente, il primo nel 1811, il secondo nel 1822, che nei nervi periferici le vie sensoriali erano indipendenti da quelle motorie. Molti nervi periferici, infatti, originano dal midollo spinale con due «radici», una anteriore e una posteriore, che si unificano poi in un tronco unico. Ora, se si recide la radice anteriore, il segmento corporeo innervato perde ogni possibilità di movimento, poiché si instaura una paralisi flaccida dei muscoli a valle, mentre la sensibilità rimane intatta. Se invece si recide la radice posteriore, la motilità non viene ?h&2X&, mentre la zona corporea innervata perde qualsiasi sensibilità. L'importanza della legge di Bell e Magendie può non apparire immediatamente evidente; peraltro con essa per la prima volta si affermava un'attività non indifferenziata nel sistema nervoso, e si ponevano le premesse per affermare una serie di funzioni specifiche dell'attività neurofisiologica, che sarebbe poi stata alla base della dottrina dell'energia nervosa specifica (cfr. infra). Doveva peraltro trascorrere un cinquantennio perché due ufficiali medici dell'esercito prussiano, Fritsch e Hitzig, dimostrassero per la prima volta una rappresentazione corticale della motricità corporea.

STORIA E METODI

Lo sviluppo delle neuroscienze doveva comunque contribuire allo sviluppo della psicologia scientifica soprattutto su un altro piano: la corrispondenza tra funzioni cerebrali e attività mentali. Un particolare rilievo, da questo punto di vista, ha l'attività scientifica di una curiosa figura di scienziato, l'austriaco Franz Joseph Gali [1825]. Gali (anche con la collaborazione dell'allievo Spurzheim) è stato uno dei più importanti e seri neuroanatomisti dell'inizio del secolo scorso. A una lodevole attività di ricerca anatomico-funzionale, Gali associava un'attività speculativa, che lo portava a proporre una psicologia delle facoltà, con cui si sosteneva una divisione funzionale della mente sulla base delle attività psichiche svolte. Si trattava di una suddivisione che oggi si direbbe verticale [Fodor 1983]: in altri termini, secondo questa ipotesi, il pensiero matematico, ma anche la sublimità, la vaghezza, la fiacca, ecc, come facoltà psicologiche, sarebbero separate completamente le une dalle altre. La concezione opposta sostiene che vi sono dei processi orizzontali, al servizio di tutte le facoltà, come la memoria, la percezione, ecc. Al contrario, per una teoria alla Gali, la memoria musicale, per esempio, non avrebbe alcun rapporto con la memoria per la matematica. Sin qui, nulla di scandaloso. Di recente, concezioni analoghe, come vedremo, sono state proposte in modo molto autorevole. Il problema, con Gali, fu il tentativo, in una dottrina detta frenologia, di combinare la psicologia delle facoltà con un'analisi neuro-anatomofunzionale del cervello. Sosteneva Gali che ogni facoltà avesse una sua sede cerebrale specifica; di più, che l'esercizio di una facoltà (o anche una sua dotazione innata) comportasse uno sviluppo particolare, in senso di accrescimento fisico, dell'area cerebrale relativa; di più ancora, che tale zona cerebrale quantitativamente accresciuta, premendo contro la scatola cranica, la deformasse. La conseguenza sarebbe stata la presenza sulla scatola cranica di asimmetrie (le «bozze», quelle che nel linguaggio comune sono rimaste come «bernoccoli»: avere il bernoccolo della matematica, ecc.) che avrebbero consentito, da un'ispezione del cranio, la determinazione delle predisposizioni dell'individuo. Questo aspetto dell'opera di Gali non venne mai accolto con particolare entusiasmo dalla comunità scientifica, ma ebbe di contro un notevole successo nell'opinione pubblica. La morte di Gali (nel 1827) scatenò i suoi nemici, e particolarmente accanito si dimostrò Flourens, nemico di ogni localizzazione cerebrale delle attività psichiche, che ebbe buon gioco nel ridicolizzare la frenologia di Gali. Purtroppo, in questo modo venne seppellito nel ridicolo anche quanto di buono Gali aveva detto - e non era poco! Si doveva attendere il 1861, quando Broca scoprì il centro cerebrale del linguaggio articolato (rilevando che chi aveva un certo tipo di lesione perdeva la capacità di articolare il linguaggio, pur conservando tutte le altre funzioni linguistiche, a cominciare dalla comprensione), perché il discorso della localizzazione cerebrale delle funzioni mentali potesse riaprirsi. Venivano così progressivamente individuati altri centri, la cui

19

20

STORIA E METODI

lesione corrispondeva alla perdita di altre funzioni mentali, del linguaggio (le cosiddette afasie), della rappresentazione cognitiva di cose o eventi (le agnosie), della capacità pratica di compiere azioni, servendosi o meno di utensili (le aprassie), ecc. 2.3. La misurazione dell'attività psichica: i tempi di reazione e la psicofisica II tempo e la mente

Come si è detto, alla fine del XVIII secolo era comune l'opinione (sostenuta anche da Kant) dell'impossibilità di una misurazione dei fatti psichici. Furono molti i tentativi di aggirare l'ostacolo, tra cui quello di Herbart, che cercò di creare un «calcolo» del mentale, con una «meccanica» (statica e dinamica) basata sulla forza relativa degli elementi psichici. Ma lo stesso Herbart [1824] riteneva che «la psicologia non può fare esperimenti con esseri umani, e non esistono apparecchiature adatte allo scopo». Gli studiosi che aderivano alle posizioni materialistiche (in contrapposizione con il vitalismo, che dominava a livello accademico) cercavano di vincere questo ostacolo, chiedendosi se all'attività psichica potesse corrispondere una qualche altra variazione rilevabile su base materiale. Così, una dimostrazione della «materialità dell'intelletto» venne, ad esempio, data rilevando che nel sistema nervoso, durante lo svolgimento del fatto psichico, si produce calore [Schiff 1866]. E, secondo Herzen [1879], «un atto psichico è una forma di movimento e ogni atto psichico deve *>ere legato dunque alla produzione di una certa quantità di calore perché sappiamo che qualsiasi forma di movimento è legata alla produzione di quella forma speciale che dicesi calore...». La dimostrazione della produzione di calore nel sistema nervoso durante l'attività psichica aveva un'importanza determinante, perché equivaleva alla rilevazione della modificazione di un parametro fisico, in relazione causale con lo svolgersi dell'attività psichica. Ora, la produzione di calore come equivalente fisico era un parametro troppo grossolano, senza la sensibilità sufficiente a consentire di determinare, in base alla sua variazione, le concomitanti variazioni nello svolgersi dell'attività psichica. Ma in realtà, vi era un altro parametro fisico in rapporto causale con lo svolgersi degli eventi psichici che poteva essere, e veniva di fatto studiato, in quel periodo: il tempo. Non furono però gli psicologi ad occuparsene, ma gli astronomi [Sanford 1888; Ribot 1879, cap. Vili]. Occorre premettere che all'epoca il passaggio degli astri veniva determinato con il metodo di Bradley, detto anche «occhio-orecchio». Sull'oculare del telescopio era applicato un retino, con un filo visibile al centro, e nella stanza vi era un pendolo che batteva i secondi. L'astronomo aveva come punto di riferimento il filo al centro. Egli doveva prestare attenzione

STORIA E METODI

al momento esatto in cui il corpo celeste osservato traversava questo filo, e apprezzare la sua distanza dal filo dal momento del battito del pendolo immediatamente precedente, e di quello immediatamente successivo l'attraversamento del corpo. Il compito è tutt'altro che semplice, e oggi non ci meraviglieremmo certo degli scarti che possono verificarsi tra osservatori diversi. A Maskelyne, direttore dell'osservatorio di Greenwich, dovette invece apparire scandaloso che, rispetto alle sue osservazioni, l'assistente Kinnebrook mostrasse un ritardo compreso tra i 500 e gli 800 ms. Il risultato fu il licenziamento del povero Kinnebrook [Maskelyne 17951. Nel 1816, questa vicenda venne incidentalmente a conoscenza di un altro astronomo, F.W. Bessel, di Kònigsberg. Egli allora si chiese se le rilevazioni effettuate dai più famosi astronomi erano concordanti, o di fatto differenti, e cominciò a confrontare i suoi tempi di rilevazione con quelli di altri famosi astronomi, come Walbeck, Struve, e soprattutto Argelander. Egli potè così vedere che di norma, da un osservatore all'altro, si avevano differenze valutabili in media sui 300 ms, che potevano giungere però sino ad 1 s. Inoltre, si avevano fluttuazioni a seconda del momento della giornata, dell'attenzione, di particolari condizioni psicofisiche, come la fatica, ecc. Ciò che comunque metteva in evidenza Bessel nelle sue pubblicazioni era l'esistenza di un fattore soggettivo, che influiva sul tempo della rilevazione. Tale fattore sarebbe stato chiamato, con un'espressione diventata subito popolarissima, equazione personale [Bessel 1822, iii ss.]. Come diceva Ribot [1879, 301], si cominciava a «misurare, nella sua durata e con le sue variazioni, con l'aiuto di strumenti esatti, lo stato specifico della coscienza». Verso la metà dell'ottocento, altri studiosi, i fisiologi, si rivolsero alle ricerche cronometriche, per misurare la velocità di conduzione degli impulsi nervosi [per una rassegna, cfr. Buccola 1883, cap. III]. Occorre sapere che i vitalisti, con il grande fisiologo Johannes Miiller in testa, negavano la possibilità di misurare la velocità degli impulsi nervosi, assunta come pressoché infinita («Die Zeit... ist unendlich klein und unmessbar» [1844, 583]), ma erano sempre più numerosi i fisiologi della nuova generazione, in larga parte suoi allievi (come i «quattro grandi», C. Ludwig, E. du Bois-Reymond, E. Briicke e H. von Helmholtz, che stipularono un famoso «patto» antivitalistico) che rifiutavano l'imposizione di questo limite, e ritenevano possibile una misurazione. Questa fu realizzata, con il ricorso alla cronometria, da Helmholtz [1850-52]. Egli utilizzava un preparato muscolo-nervoso del gastrocnemio di rana, e stimolava il nervo a diverse distanze, misurando il tempo che intercorreva tra la stimolazione e la contrazione. Le stime ottenute da Helmholtz sono tra i 26,4 e i 27,25 ms. Si dimostrò così che la conduzione richiedeva un tempo definito e misurabile con ragionevole precisione. Un passo avanti si ebbe con Exner [1873]. Questi - a cui si deve l'espressione ancor oggi in uso di «tempo di reazione» (prima si parlava di «tempo fisiologico») - misurava le diverse durate che si

21

22

STORIA E METODI

avevano tra la stimolazione della cute del soggetto con corrente faradica in un certo punto del corpo (per esempio, il piede), e in un altro punto del corpo (per esempio, la mano). Egli assumeva una velocità di transito dell'impulso nervoso nei nervi periferici pari a 62 ms. Inoltre computava le differenze di tempo di reazione tra la stimolazione sul piede (distante di media 130 cm dal midollo: 174,9 ms) e sulla mano (distante 98 cm: 128,3 ms). Infine, tenuto conto che a livello di midollo spinale la distanza tra i punti di afferenza dei nervi provenienti dalla mano e dal piede è di 33 cm, ricavava una velocità nell'attraversamento del midollo di 7,97 ms. L'analisi di Exner, che pure aveva rilevato l'influenza di fattori di vario ordine sui tempi di reazione (come l'attenzione, l'età, l'alcool, ecc), rimaneva comunque a livello prevalentemente fisiologico, e ben poco concedeva allo «psichico». In realtà, però, una decina d'anni prima un grande ricercatore olandese, Frans Cornelis Donders, assieme al suo allievo Johann Jacob De Jaeger, aveva compiuto a Utrecht il passo decisivo, creando quel metodo sottrattìvo, che Wundt avrebbe poi impiegato largamente a Lipsia, come strumento fondamentale, a fianco dell'introspezione, per l'analisi della vita psichica. Secondo Donders, gli esperimenti del tipo di quelli di Helmholtz sulla velocità degli impulsi nervosi erano criticabili. Egli infatti riteneva che la stimolazione in punti diversi, e con intensità presumibilmente anche diversa (non essendo controllabile con esattezza), poteva dar luogo a processi mentali differenti, a cui potevano quindi essere attribuite le differenze tra i tempi. Di qui, l'idea di controllare piuttosto la complessità dei processi mentali facendo ricorso a misurazioni differenziali dei tempi necessari allo svolgimento di processi mentali di diversa complessità. Se .' atti complichiamo il compito che il soggetto deve eseguire, la differenza tra i tempi di reazione semplici e quelli composti (come verranno chiamati quelli che mettono in gioco processi mentali complessi) ci darà una misura oggettiva e quantitativa degli ulteriori processi mentali in gioco. In questo consiste il metodo della sottrazione creato da Donders e poi largamente applicato negli anni seguenti nei laboratori di psicologia, particolarmente in quello di W. Wundt a Lipsia. Donders individuò tre tipi fondamentali di tempo di reazione. I tempi a, semplici, corrispondono a una situazione in cui a uno stimolo deve seguire una risposta. I tempi b, composti, consistono in una situazione nella quale al soggetto viene somministrato uno stimolo scelto in un insieme di due o più stimoli prefissati; il soggetto deve a sua volta fornire delle risposte differenziate a seconda dello stimolo che gli è stato presentato. I tempi e, anch'essi composti, si hanno con la somministrazione di uno stimolo da un insieme prefissato di due o più stimoli, come nel caso precedente; in questo caso, però, il soggetto deve rispondere a uno solo degli stimoli. I risultati dimostrano che i tempi a sono più brevi, seguono i tempi e, e infine i tempi b, che sono i più lunghi di tutti. Per sottrazione, la differenza tra « e e indica la lunghezza del processo mentale necessario a

STORIA E METODI

discriminare tra stimoli. La differenza tra e e b indica invece la lunghezza del processo mentale necessario a discriminare tra risposte. Per la prima volta, così, a dei processi mentali veniva fatta corrispondere una misurazione oggettiva in termini di parametri fisici. La semplicità e l'eleganza del metodo lo fecero rapidamente imporre. Donders, invece, non proseguì a lungo in questo ordine di studi. Le idee alla base di questi esperimenti cominciarono a nascere in lui verso il 1850. I primi esperimenti sono del 1862. Nel 1865 pubblicò un primo lavoro e presentò con l'allievo De Jaager una comunicazione in proposito all'Accademia Reale delle Scienze, comunicazione che De Jaager [1865] sviluppò poi in una sua dissertazione, poco nota, e solo recentemente tradotta in inglese [Brozek e Sibinga 1970]. Infine nel 1868 Donders pubblicò il suo lavoro complessivo sull'argomento. È interessante rilevare che a pochi anni dalla morte di Donders il suo nome scomparve quasi del tutto dalla storia della psicologia. Anche sfogliando i manuali di storia della psicologia, almeno sino a qualche tempo fa, le citazioni del suo nome sono sbrigative (quando non del tutto assenti) e associate quasi sempre a Wundt. I tempi di reazione sarebbero stati confinati nei gabinetti di psicotecnica, come prova cosiddetta psicoattitudinale, assieme a batterie di altre prove di performance, o carta-matita, per la selezione e l'orientamento di particolari categorie di lavoratori. Solo negli anni della seconda guerra mondiale, con Craik, e soprattutto nel dopoguerra, con il nascere e l'affermarsi della psicologia cognitivista, ne sarebbe stata riscoperta l'importanza. La psicofisica

La misurazione dei fatti psichici avveniva negli stessi anni a partire da una prospettiva affatto diversa, con la simultanea nascita della psicofisica. Anche in questo caso sarebbe stato uno scienziato proveniente da un settore apparentemente lontano dalla psicologia a farsi iniziatore di questo campo di indagini, tuttora oggi vivissimo: il fisico Gustav Theodor Fechner [1860]. Professore a Lipsia dal 1834 al 1839, Fechner era stato un fisico di rilievo nella prima metà del secolo. Una grave malattia agli occhi (che si era provocato fissando imprudentemente a lungo il sole per studiare le immagini postume retiniche) lo costrinse per lunghi anni all'inattività e all'oscurità. In questo periodo, Fechner, influenzato anche dalla filosofia indiana, sviluppò una sua dottrina filosofica, che aveva anche degli aspetti mistici che oggi ci appaiono irrimediabilmente datati, ma che all'epoca (ricordiamo che un suo contemporaneo era, per esempio, Schopenauer) presentavano un indubbio fascino. Volendo schematizzare, possiamo dire che Fechner [1851] riteneva che l'«anima» fosse una caratteristica derivante dall'organizzazione della materia, e che quindi ogni materia, per quanto semplice,

23

24

STORIA E METODI

ne fosse dotata. Non solo, quindi, gli uomini e gli animali, ma anche le piante, e il mondo inorganico, e i sistemi in cui questo si organizza, dai pianeti alle pietre. In un sistema come questo, avrebbe acquistato enorme rilievo la possibilità di determinare una relazione esprimibile in forma matematica chiara, di valore universale, che riuscisse a mettere in relazione stabile il mondo dello spirito con quello della materia. Una relazione del genere avrebbe avuto per Fechner la stessa importanza della legge di Newton sulla gravitazione universale, o quella di Coulomb sulle cariche elettriche. E fu una tale legge che Fechner ritenne di aver trovato, derivandola da una relazione scoperta qualche decennio prima dal fisiologo e anatomista Weber. Nel 1834, infatti, Weber, studiando il tatto e l'udito, aveva fatto una scoperta che avrebbe poi avuto una notevole importanza per gli sviluppi futuri della psicologia (alla quale, peraltro, Weber non pensava minimamente). Egli aveva rilevato che se si presenta a un soggetto in una certa modalità sensoriale (tatto, udito, vista, ecc.) uno stimolo di una data intensità R, e si cerca poi di vedere di quanto questo stimolo deve essere fatto variare perché il soggetto percepisca l'avvenuta variazione, questa differenza appena percepibile (AR) non è costante, ma dipende dal valore iniziale di JR. Di fatto, quello che è costante è il rapporto K (detto costante di Weber) tra AR e R: v

K

.. AR

~ X

In altri termini, se partiamo da uno stimolo di intensità poniamo 10, e se per poterne apprezzare la variazione dobbiamo portarlo da 10 a 11 (AR = ì, K = 0,1), con lo .isso tipo di stimolo partendo da 20 dovremo aumentarlo di 2, da 3u di 3, e così via. L'idea di Fechner fu di non considerare una scala discreta di intervalli percepibili tra intensità di stimoli, ma di vedere come poteva variare la sensazione S al variare continuo dell'intensità della stimolazione. Il risultato è la famosa legge di Fechner: S = | log R + C dove C è la costante di integrazione. In altri termini, secondo questa legge la sensazione si accresce con il logaritmo dell'intensità dello stimolo. Possiamo subito dire che le ricerche condotte su tutte le modalità sensoriali hanno potuto dimostrare la validità della legge di Fechner a un livello di approssimazione decisamente soddisfacente, salvo che per i valori più alti e più bassi delle scale di intensità. Indipendentemente dalle concezioni filosofìche misticheggianti di Fechner, si può affermare che con la formulazione di questa legge Fechner apriva un capitolo di notevole rilievo della scienza moderna, quello della psicofisica, che avrebbe dato luogo poi a un numero rilevantissimo di applicazioni, dal campo industriale a quello medico,

STORIA E METODI

ecc. Solo per fare un esempio, si pensi che la scala più in uso delle intensità del suono, la scala dei decibel (dB), è una scala appunto logaritmica, basata sulla legge di Fechner. Un compito che si pose immediatamente la psicofisica consistette nel determinare per le varie modalità sensoriali il valore della costante di Weber, e i valori minimi e massimi di intensità degli stimoli che potessero essere percepiti. Queste determinazioni vengono dette valori di soglia, rispettivamente differenziale e assoluta. La soglia differenziale è in pratica quello che sopra abbiamo indicato con il simbolo AR: possiamo dire che questo è lo scarto di valore che consente di percepire il 50% delle volte il cambiamento di intensità di uno stimolo. Da questo si giunge poi alla costante di Weber per la modalità sensoriale data. Per soglia assoluta si intende invece il valore di uno stimolo che ne consente in assoluto la percezione il 50% delle volte. Si distingue una soglia inferiore (il valore minimo) da una superiore (il valore massimo): si osservi infatti che stimoli eccessivamente intensi possono non essere più percepiti, o a volte essere percepiti come appartenenti a un'altra modalità sensoriale: per esempio, quando un suono è troppo intenso da luogo a una percezione non più acustica, ma dolorifica. Prima di chiudere il paragrafo, vale la pena di ricordare che, malgrado la generale soddisfazione per la buona approssimazione dei dati empirici alla legge di Fechner per i valori intermedi delle scale di intensità, gli psicofisici hanno più volte tentato di superare questa formulazione, ritenuta non del tutto soddisfacente. Sono stati soprattutto tre gli approcci di rilievo seguiti, sui quali non potremo dare che pochi cenni schematici: la teoria del livello di adattamento (TLA) di Helson [1964], la teoria della detezione del segnale (TDS ) di Green e Sweets [1966] e la cosiddetta nuova psicofisica di S.S. Stevens [1951]. In due parole, la teoria del livello di adattamento afferma che la sensazione non può essere rilevata in astratto, indipendentemente dalla storia (recente) della stimolazione a cui è stato sottoposto un soggetto in quella modalità sensoriale. Così, se il soggetto ha avuto prima dell'esperimento (o nella parte iniziale di questo) un'esposizione a stimoli molto intensi, tenderà a ritenere meno intensi degli stimoli di valore medio che gli dovessero essere presentati; e viceversa, se il soggetto è stato sottoposto a stimoli di debole intensità, tenderà a valutare come più intenso lo stimolo di valore intermedio. In altri termini, l'esposizione crea un certo livello d'adattamento, e il giudizio (la sensazione) viene formulato non in astratto, ma in riferimento a questo livello. La teoria della detezione del segnale è invece un tentativo di applicare alla psicofisica la teoria della decisione statistica. Per spiegare di cosa si tratta è opportuno fare un breve esempio. Immaginiamo di trovarci in una situazione di determinazione della presenza o dell'assenza di uno stimolo (un segnale) rispetto a un rumore di fondo (l'espressione «rumore» va utilizzata per ogni modalità sensoriale,

25

26

STORIA E METODI

non solo uditiva). Il soggetto ha così un compito di rilevazione {detection: di qui il brutto anglismo «detezione», ormai purtroppo entrato nell'uso) consistente nell'affermare o meno l'esistenza del segnale. Gli si presentano così quattro possibilità: dire sì, il segnale esiste, quando questo esiste realmente (hit, H); dire sì, il segnale esiste, quando vi è solo rumore di fondo (falso allarme, FA); dire no, il segnale non esiste, quando questo esiste realmente (omissione, O); dire no, il segnale non esiste, quando questo non esiste realmente (rifiuto corretto, RC). Ora, la TDS (e un significato analogo ha la cosiddetta teoria della scelta di Luce [1959]) consente di distinguere, dal rapporto tra questi quattro tipi di risposte, due fattori che intervengono nel processo di rilevazione: il primo legato alla sensibilità del sistema (che viene espresso con l'indice statistico d'), il secondo legato al criterio soggettivo impiegato nel compito, e consistente nell'avere un atteggiamento più d'azzardo (gambler) o più prudente {conservative). Chi azzarda, infatti, preferirà fare più H che RC, ma in questo modo aumenterà anche il numero degli FA; chi è prudente, cercherà soprattutto gli RC, ma questo lo porterà ad aumentare le O. Anche per il criterio è possibile calcolare un indice statistico, che viene chiamato beta. Un esempio convincente possiamo averlo pensando a un operatore radar di una base militare, che debba distinguere su uno schermo se la scintilla che ha visto apparire è solo rumore di fondo, o una nave nemica in avvicinamento. Evidentemente, la sua decisione sarà molto più azzardata se penserà che la base può avere a disposizione un numero illimitato di proiettili, mentre sarà assai più prudente se è rimasto un unico proiettila e non ci si può permettere di sbagliare. Secondo i teorici della TDu-alla psicofisica classica è sfuggito il fatto che sensibilità e criterio sono sempre profondamente interconnessi, per cui essa, non distinguendo tra questi due fattori, ha sempre attribuito alla sola sensibilità risultati che andavano viceversa interpretati in modo più complesso. Giungiamo infine alla nuova psicofisica di S.S. Stevens, forse il più grande teorico della misurazione di questo secolo, anche al di là dell'ambito strettamente psicologico. Secondo Stevens i metodi che si usano nella psicofisica classica non riescono a giungere direttamente al giudizio sensoriale del soggetto. Dei metodi di rilevazione diretta (e vedremo quali sono quelli che egli suggerisce) permettono di rilevare che la funzione che meglio descrive il rapporto tra giudizio sensoriale (Y) e intensità di stimolazione I è una funzione potenza, della forma Y

= kr,

dove k e n sono costanti che dipendono dal tipo di stimolo prescelto. T LA , T DA e la nuova psicofisica di Stevens sono comunque tutti sviluppi di questo secolo. È invece opportuno che riprendiamo il discorso da dove lo avevamo cronologicamente interrotto: la nascita

STORIA E METODI

«ufficiale» della psicologia scientifica nel laboratorio di Wundt a Lipsia. 2.4. La psicologia scientifica e il laboratorio Energia nervosa specifica e inferenza inconscia

Si afferma solitamente che la data di nascita della psicologia scientifica è il 1879, data in cui Wilhelm Wundt, padre indiscusso della psicologia moderna, fondò il primo laboratorio di psicologia sperimentale a Lipsia. Ora, se tutte le date di questo tipo sono arbitrarie, perché tracciano una cesura in un processo che certamente è iniziato prima, questa in particolare è stata oggetto di numerose critiche. Questo «primo» laboratorio, infatti, era stato preceduto certamente da altri laboratori, in cui, come del resto abbiamo visto, moltissimi studiosi, da Donders a Fechner a Exner a Helmholtz, allo stesso Wundt, avevano condotto ricerche di psicologia sperimentale. Si dice che il laboratorio di Wundt sia stato il primo propriamente psicologico in una sede universitaria, ma anche questo è vero solo in parte. Il laboratorio nacque come istituzione privata, finanziata dallo stesso Wundt, e passò formalmente all'università solo nel 1881. Di più, la cattedra nel cui ambito operava era di Filosofia, e non di Psicologia [Bringmann, Balance e Evans 1975]. Peraltro, se vogliamo dire che con il laboratorio di Wundt a Lipsia la psicologia ricevette una sorta di consacrazione ufficiale, in termini di riconoscimenti formali da parte della comunità scientifica, e in termini di diffusione di quanto la psicologia andava producendo, allora questa data va considerata legittimamente la data di nascita ufficiale della psicologia scientifica. Ma chi era Wundt? Il suo albero «genealogico» scientifico ci porta veramente alle radici della nascente scienza psicologica. Si tratta di un filo diretto che va dal grande neurofisiologo Johannes Mùl-ler, al suo allievo fisiologo e fisico Hermann Helmholtz, all'allievo di questi, infine, Wilhelm Wundt. Dei primi due abbiamo in parte già parlato nel paragrafo precedente. Vale comunque la pena di spendere qualche parola ancora, per inquadrare meglio la figura di Wundt che qui più ci interessa. Johannes Miiller, lo abbiamo ricordato, era un vitalista. Egli enunciò peraltro un principio che era almeno in parte incompatibile con un credo vitalista (anche se presumibilmente non se ne rese conto): il principio dell'energia nervosa specifica [Miiller 1827; 1840; per la rilevanza del principio per la nascente psicologia, cfr. Romano 1990]. Il principio dell'energia nervosa specifica afferma che la natura degli impulsi che un nervo trasmette ai centri nervosi che ha a valle (per esempio, gli impulsi che un nervo sensoriale trasmette dai recettori periferici al cervello) non dipende dalla natura dell'agente che ha

27

28

STORIA E METODI

dato origine alla stimolazione, ma da quella del nervo in questione. Questo in pratica significa che, per esempio, il nervo ottico trasmette sempre al cervello impulsi visivi, anche se è stato stimolato meccanicamente, o elettricamente; e lo stesso dicasi per il nervo acustico, ecc. Nelle mani di Helmholtz [1863; 1867], questo principio fu negli anni sessanta alla base della psicologia della percezione, e soprattutto alla base di due teorie, una visiva e una acustica, che ancor oggi conservano gran parte del loro valore: la teoria della percezione del colore e quella della percezione delle altezze tonali. In breve, Helmholtz (come mezzo secolo prima di lui aveva detto, più a livello intuitivo che sostanziale, l'inglese Thomas Young) sosteneva che la percezione del colore derivava dall'esistenza nella retina di tre tipi di coni, cellule sensibili alla lunghezza d'onda della luce (ricordiamo rapidamente che i recettori retinici sono più in generale di due tipi: i coni, appunto, molto addensati centralmente, responsabili della visione diurna, o fotopica, e della percezione cromatica; e i bastoncelli, più diffusi alla periferia della retina, responsabili soprattutto della visione notturna, o scotopica, e incapaci di distinguere i colori). Secondo Helmholtz, i coni si dividevano in tre categorie, in base alla loro sensibilità a tre colori, rosso, blu, violetto. Come nella stampa a colori cosiddetta in tricromia, in cui dalla mescolanza in proporzioni opportune di soli tre pigmenti colorati opportunamente scelti possono ottenersi tutti i colori rimanenti, così, secondo Helmholtz, la mescolanza in proporzioni opportune degli impulsi provenienti dai coni dei tre tipi suddetti avrebbe portato alla percezione dei colori di tutti gli altri tipi. È qui evidente l'influenza del principio dell'energia nervosa specifica: le cellule dei t-- tipi possono rispondere solo nei termini del tipo di impulsi a cui ^-no specificamente deputate. È anche evidente come questa teoria possa poi spiegare adeguatamente i deficit di percezione cromatica, o discromatopsie. Per esempio, nel cosiddetto daltonismo (l'incapacità di distinguere il rosso dal verde il nome deriva da quello del celebre chimico inglese Dalton, che ne era affetto, e che un secolo prima di Helmholtz formulò una teoria della percezione cromatica che anticipava molti elementi della teoria di questi), è l'assenza congenita delle cellule preposte alla percezione del rosso che porta all'incapacità di distinguere questi colori. E sempre al principio dell'energia nervosa specifica si richiama la teoria della percezione dell'altezza tonale, che pure conserva tuttora una sua parziale validità. Ricordiamo brevemente che i recettori sensibili all'altezza tonale si trovano nell'orecchio interno, nella chiocciola, entro il cosiddetto organo di Corti, al cui interno vi sono le cellule ciliate, impiantate lungo tutto questo dotto su una membrana basilare, e dotate all'estremità opposta di ciglia che si inseriscono su un'altra membrana, detta tettoria. Il suono giunge a quest'organo trasmesso meccanicamente dal timpano alla catena degli ossicini, e di qui alla finestra ovale, che imprime un moto a un liquido che rempie tutto l'orecchio interno. Ora, si badi che a se-

STORIA E METODI

conda dell'altezza del tono, l'onda sonora avrà una diversa frequenza, maggiore per i toni più acuti, minore per i toni più bassi. Questa frequenza si traduce in oscillazioni di corrispondente frequenza diversificata del liquido endococleare; queste oscillazioni si trasmettono alla membrana basilare, e ciò produce un movimento delle cellule ciliate, con conseguente stiramento delle ciglia, che si traduce in impulso nervoso. Ora, la teoria di Helmholtz affermava che in base al principio dell'energia nervosa specifica, ogni cellula ciliata trasmetteva informazioni relative a una data altezza tonale. Il meccanismo era reso efficiente dal fatto che, a seconda dell'altezza del suono che giungeva all'orecchio, l'oscillazione della membrana basilare era massima in punti diversi della coclea (precisamente verso la base per i suoni acuti e verso il vertice per i gravi). E proprio verso la base sarebbero state presenti le cellule ciliate responsabili della trasmissione degli impulsi relativi ai suoni più acuti, e verso il vertice quelle dei suoni gravi. A parte queste due teorie, che vanno tenute presenti se non altro per il grande ruolo che hanno esercitato sullo sviluppo delle ricerche nei settori corrispondenti, Helmholtz va comunque ricordato come uno dei più conseguenti teorici empiristi della percezione. Tutt'oggi vi sono importantissimi teorici della percezione che, come Julian Hochberg [per esempio, 1978], si riferiscono esplicitamente alla sua teoria. E più in generale, neohelmholtziani vanno più o meno considerati tutti i teorici, specie in ambito cognitivista (cfr. infra), che abbracciano teorie di tipo costruttivistico raziomorfo, invocando cioè nell'attività percettiva una preventiva analisi di ciò a cui potrebbero probabilisticamente corrispondere gli stimoli in arrivo all'organismo, in base all'esperienza passata, o ritenendo il compito percettivo assimilabile a un'attività di problem solving. Molto noto, anche per le sue capacità di grande divulgatore, è tra i sostenitori attuali di questo modo di vedere le cose l'inglese Richard Gregory [1970]. È evidente che le concezioni helmholtziane sono state criticate da chi ipotizza dei principi organizzativi strutturali innati della percezione; tra i contemporanei di Helmholtz, il compito di controbattere quasi su ogni punto le idee che esprimeva venne assunto da un grande psicofisiologo praghese, Ewald Hering. In questo secolo, come vedremo, fu soprattutto la psicologia della Gestalt ad opporsi all'ancora vivissima influenza helmholtziana. Ma cosa diceva Helmholtz di così grave per i suoi awersari? L'idea alla base della sua teoria della percezione era tutto sommato relativamente semplice [Helmholtz 1878]. Egli sosteneva che l'esperienza passata fa sì che si tenda a correggere le percezioni attuali attraverso un atto di giudizio, una vera e propria inferenza inconscia che ognuno di noi inconsapevolmente compie di fronte a una percezione. Un esempio che ben chiarisce questo modo di vedere le cose è dato dalle cosiddette costanze percettive. È evidente che nella nostra

29

30

STORIA E METODI

percezione visiva ciò che abbiamo direttamente a disposizione è il cosiddetto stimolo prossimale, e cioè l'immagine che la luce riflessa dalla superficie degli oggetti che ci circondano proietta sulla nostra retina. Non abbiamo però accesso allo stimolo distale, e cioè alla luce riflessa, né tanto meno all'oggetto riflettente. A questo (alla sua forma, grandezza, colore) risaliamo solo sulla base dello stimolo prossimale. Ora, lo stimolo prossimale varia continuamente, in base alla legge della geometria proiettiva, al variare della posizione reciproca tra l'osservatore e l'oggetto osservato. Solo per fare un esempio, l'immagine di un oggetto si rimpicciolisce quando l'osservatore se ne allontana, e si ingrandisce al suo avvicinarsi. E anche la forma cambia: un cerchio (o un quadrato) proietta un'immagine circolare solo se presentato all'osservatore su un piano frontoparallelo, altrimenti sarà sempre un'ellisse (e, rispettivamente, un trapezio). Eppure noi non vediamo gli oggetti ingrandirsi e rimpicciolirsi, li vediamo sempre della stessa grandezza, ma a distanze diverse; non vediamo i cerchi farsi ellissi e i quadrati trapezi: seguitiamo a vederli come cerchi e quadrati, ma inclinati. Questo fenomeno, noto appunto come costanza, è tuttora lungi dall'essere chiaro: come vedremo, in questi ultimi anni i sostenitori della psicologia cosiddetta ecologica hanno tentato di darne un'interpretazione rivoluzionaria. L'interpretazione di Helmholtz era peraltro semplice: la costanza percettiva è un tipico esempio di inferenza inconscia. Il sistema percettivo, in base all'esperienza passata, compie una sorta di ragionamento inconsapevole, per cui, per restare nell'esempio, quando vede un oggetto e sa che questo è lontano, corregge inconsapevolmente la grandezza pe /pita ingrandendola; e quando sa che è vicino, rimpicciolendola. E Vosi via. Wilhelm Wundt La formazione di Wilhelm Wundt si svolse in questa tradizione teorica e sperimentale. Allievo di Helmholtz a Heidelberg, ne fu assistente sino al 1874, anno in cui andò come professore di Filosofia induttiva a Zurigo, per spostarsi l'anno successivo presso la cattedra di Filosofia di Lipsia, posizione che occupò per il resto della sua vita accademica. Morì nel 1920, a 88 anni, nel pieno ancora di una produzione scientifica rimasta inuguagliata anche per estensione quantitativa. Fisiologo di formazione, e filosofo per destino accademico, Wundt chiamò il suo sistema psicologia fisiologica [1873-74; 1896], espressione per lui virtualmente sinonimica di psicologia sperimentale. Si badi, però, che l'aggettivo fisiologico non rimandava assolutamente a una considerazione dei processi fisiologici che si svolgono nell'organismo in corrispondenza dell'attività psichica. Era psicologia fisiologica, in quanto, per Wundt, da un lato utilizzava lo stesso metodo

STORIA E METODI

scientifico naturalistico della fisiologia (salvo, come vedremo, il rivolgersi all'esperienza diretta, e non indiretta); e dall'altro, in quanto si rivolgeva alla fisiologia, e non alla patologia, della vita psichica: all'attività normale, e non alle sue disfunzioni. L'oggetto di studio della psicologia era per Wundt l'esperienza diretta, o immediata. Le scienze naturali studiano invece l'esperienza mediata. Un esempio chiarirà questa distinzione cruciale. Il fisico, come il biologo, o il fisiologo, e così via, osserva degli eventi che si verificano nella natura, ma l'oggetto del suo studio non è l'osservazione di questi eventi, bensì l'oggetto della sua osservazione, sia compiuta direttamente attraverso i sensi, sia ulteriormente mediata da uno strumento. Se un fisico vuole determinare i rapporti che intervengono tra, poniamo, massa e volume di un certo corpo, ciò che costituisce l'oggetto del suo studio non è l'apprezzamento immediato della massa e del volume, ma la massa e il volume che sono stati apprezzati. Se un chimico osserva il colore che si produce in una reazione chimica, l'oggetto del suo studio non è la percezione del colore, ma il colore percepito. Di contro, la percezione del colore è proprio lo specifico oggetto di studio dello psicologo. Il metodo privilegiato per rilevare l'esperienza immediata sarà allora Xintrospezione. Solo attraverso l'introspezione, infatti, l'individuo può essere in grado di rilevare cosa avviene nel momento in cui immediatamente esperisce la realtà. Ma l'introspezione presenta, e di questo Wundt è perfettamente consapevole, anche delle difficoltà. In primo luogo, l'introspezione, per sua natura, altera i suoi contenuti. È questa, si direbbe oggi, una sorta di «indeterminazione» della percezione. I contenuti di coscienza sono gli stessi in presenza e in assenza di un atto di introspezione? È impossibile saperlo, perché si dovrebbe essere consapevoli degli stati di coscienza in assenza di introspezione, il che per definizione è impossibile. Ma vi è di più: nessuno può constare quello che consta agli altri. Come possiamo sapere qual è il reale contenuto di coscienza corrispondente al resoconto verbale di un soggetto? Se questi mi dice di vedere un quadrato, come posso sapere che non stia di fatto vedendo qualcosa di affatto diverso? Entrambi i problemi apparivano insolubili. In realtà, e fu questa la soluzione geniale di Wundt, entrambi potevano essere risolti, solo che si applicasse alla psicologia il metodo sperimentale. Infatti, il metodo sperimentale consente di determinare, come vedremo nella seconda parte del capitolo, come varia la variabile dipendente al variare di quella indipendente. Ora, quello che conta è cogliere la variazione, che si assume non sia influenzata né dalla presenza dell'atto di introspezione, né dall'eventuale differenza di contenuti di coscienza tra soggetti. Di più, quest'ultimo fattore può essere ulteriormente minimizzato, solo che i soggetti siano quanto più possibile prossimi socioculturalmente agli sperimentatori. E non per nulla, nel laboratorio di Lipsia, soggetti e sperimentatori finivano molto frequentemente per coincidere. Su queste basi, Wundt elaborò una complessa teoria in cui, mol-

31

32

STORIA E METODI

to schematicamente, il processo psicologico poteva essere visto articolato in tre fasi: la prima, quella della percezione, consisteva in un processo attraverso cui le sensazioni, che avevano impressionato gli organi di senso, si presentavano in quanto tali alla coscienza; la seconda, detta appercezione, consisteva in un processo attraverso cui, con un atto di sintesi creatrice, gli elementi delle sensazioni venivano identificati e organizzati in complessi; la terza, detta volontà di reazione, consisteva in un processo attraverso cui, grazie anche all'intervento dei processi volitivi, si giungeva all'azione. Trascuriamo qui altri aspetti della teoria di Wundt, come la sua teoria dei sentimenti e delle emozioni, o come le sue ricerche, sviluppatesi particolarmente negli ultimi vent'anni della sua vita, sulla «psicologia dei popoli» [1900-1909], forse qualcosa di più prossimo all'odierna antropologia culturale, più che alla psicologia sociale. A fianco dell'introspezione, il metodo più usato nel laboratorio di Wundt fu certamente quello dei tempi di reazione. In particolare, furono i Lange, allievi di Wundt, a sviluppare il metodo sottrattivo di Donders, che sembrò per un certo periodo particolarmente adatto a verificare la teoria di Wundt. Peraltro, gli esperimenti di Wundt e dei suoi allievi sui tempi di reazione composti sono stati un fallimento - e su questo non solo gli storici della psicologia sono tutti sostanzialmente d'accordo, ma lo stesso Wundt doveva almeno in parte convenirne, abbandonando a un certo punto questa linea di indagine. Il giudizio negativo fu tra l'altro abbastanza precoce; già nel 1893 Kùlpe criticava radicalmente questa linea di ricerca. Ma perché la scuola di Wundt fallì così clamorosamente nel tentativo di proseguire le ricerche sui tempi di reazione composti? Possiamo rispondere dicendo che Wundt, entusiasta della tecnica sottrattiva di Donders, commise un errore metodologico nel forzarla per adattarla alla sua teoria. Cioè, si direbbe oggi, le conferme così ottenute alle sue ipotesi erano infalsificabili. Un esempio ci aiuterà a capire come. In uno dei più famosi esperimenti condotti a Lipsia, L. Lange [1888] aveva dimostrato che in un compito di tempo di reazione semplice, se il soggetto aveva l'istruzione di prestare attenzione allo stimolo, mostrava un tempo di reazione più lungo che se avesse avuto l'istruzione di prestare attenzione alla risposta. Sulla base della teoria di Wundt, si dedusse che nel primo caso lo stimolo veniva appercepito, mentre nel secondo solo percepito. Per sottrazione, la differenza tra i due tempi (fissata in 1/10 di secondo circa) doveva corrispondere al tempo di appercezione. È evidente che per trarre questa conclusione è indispensabile garantirsi dal fatto che il mutato atteggiamento del soggetto, indotto dalle istruzioni, non alteri qualitativamente la serie di operazioni mentali che devono essere compiute. Proprio su questo si fondava la critica di Kùlpe: nulla ci dice che nel secondo caso di Lange il soggetto compie solo un'operazione mentale in meno, quella dell'appercezione, che nel primo caso. Di fatto, ha di fronte un compito diverso. Lange non aveva fatto altro che dimostrare l'importanza dell'at-

STORIA E METODI

teggiamento (del set, come si preferisce dire oggi) nell'esecuzione di un compito. Lo strutturalismo

La psicologia di Wundt viene spesso detta strutturalismo, mentre è più appropriato chiamarla psicologia fisiologica. Il termine strutturalismo (da non confondere con tutte le concezioni strutturaliste che hanno preso piede in altri settori del sapere nel corso di questo secolo, dalla linguistica di Saussure all'antropologia culturale di LévyStrauss) venne invece coniato, in un famoso articolo, da quello che è stato indubbiamente il più fedele allievo di Wundt, e propugnatore delle sue idee negli Stati Uniti, lo psicologo di origine inglese Edward B. Titchener [1898]. Per Titchener, lo «scopo primario dello psicologo sperimentale è quello di analizzare la struttura della mente [...] il suo compito è la vivisezione, ma una vivisezione che darà risultati strutturali, non funzionali». Il metodo usato è ancora una volta quello dell'introspezione, ma l'addestramento che Titchener richiedeva ai suoi soggetti era particolarmente rigoroso. Infatti, secondo Titchener [1896], il compito fondamentale della ricerca era isolare i singoli elementi che vengono a comporre gli stati di coscienza. Iniziava così un lavoro minuziosissimo di analisi, che avrebbe portato a isolare migliaia e migliaia di elementi sensoriali che potevano venire isolati come momenti di coscienza non ulteriormente riducibili. Un concetto fondamentale elaborato da Titchener è quello di errore dello stimolo. Con questa espressione, egli intendeva l'errore che commette il soggetto quando, nell'analizzare la propria esperienza diretta, scambia gli elementi sensoriali primari con quella che è la loro associazione dovuta all'esperienza; scambia gli oggetti con gli elementi che li costituiscono. Va rilevato che il concetto di errore dello stimolo sarà poi ampiamente sviluppato nell'ambito della psicologia della Gestalt, particolarmente da Wolfgang Kòhler, che attribuirà però a questa espressione un significato esattamente opposto: l'errore di scambiare l'esperienza percettiva con le caratteristiche degli stimoli che la costituiscono. Dalla sua cattedra di Cornell, Titchener esercitò per più di un trentennio (morì nel 1927) un dominio assoluto su buona parte della psicologia americana. Alla sua morte, nell'arco di poco più di un anno, la scuola strutturalista si dissolse completamente, a dimostrazione del fatto che i tempi erano, e da diversi anni, cambiati, e solo la straordinaria personalità del suo leader riusciva a tenerla apparentemente ancora in vita. Evoluzionismo e funzionalismo

Nel suo definire natura e compiti dello strutturalismo, Titchener

33

34

STORIA E METODI

non svolgeva solo un ruolo definitorio, ma aveva anche degli obiettivi polemici. Il principale era indubbiamente quello di una psicologia «funzionale» e «descrittiva», non interessata alla struttura della mente, ma alle funzioni che questa svolge. Era infatti da questa direzione che provenivano, in Europa e in America, i più robusti attacchi alla psicologia wundtiana. In Europa sarebbe stata soprattutto l'opera di Franz Brentano ad aprire le prime brecce nella costruzione strutturalistica, sul versante soprattutto descrittivo, come vedremo nel prossimo paragrafo. In America, sarebbe stato particolarmente William James e la scuola che da lui derivò, il funzionalismo. È curioso che in questo caso il nome alla scuola non sia stato dato dal suo fondatore, ma paradossalmente proprio da Titchener, il suo principale avversario, nell'articolo del 1898 sopra citato, in cui per la prima volta si parlava appunto di psicologia funzionale. Sarebbero comunque stati due seguaci di James, John Dewey, in un famoso articolo del 1896, e James Rowìand Angeli, in un altro famoso articolo del 1907, a definire i termini della nuova scuola psicologica (entrambi docenti nell'Università di Chicago, il centro del funzionalismo americano). Ma già nel 1890, quando ancora non si parlava di psicologia funzionalista, James aveva pubblicato i suoi famosissimi Principi di psicologia (tradotti anche in italiano nel 1905 da Giulio Cesare Ferrari), che sarebbero stati per molte generazioni il fondamentale testo di psicologia su cui si sarebbero formati tutti gli psicologi americani. Parlando del funzionalismo, abbiamo spesso usato il termine «scuola». Si tratta, peraltro, in certa misura di una forzatura. La psicologia funzionalista, per usare le parole di Angeli in apertura dell'articolo sopra citato, «non è altro che un punto di vista, un programma, un'ambizione». È meno una scuola che un orientamento, un modo di vedere le cose. E ciò non rende semplice indicarne le linee fondamentali. La prima cosa da dire è che il funzionalismo è stato profondamente influenzato dall'evoluzionismo. Quando nel 1859 comparve L'origine delle specie di Darwin, l'impatto che quest'opera ebbe su tutto il mondo scientifico fu enorme, e non soltanto in ambito naturalistico. Non rifaremo qui la storia delle polemiche, peraltro abbastanza note, che videro le confessioni religiose schierate contro le nuove idee. Ricordiamo solo che l'evoluzionismo si coniugò in particolare con il positivismo, la dottrina filosofica che doveva ben presto diventare dominante nel mondo scientifico. Per quel che riguarda la psicologia, l'importanza dell'evoluzionismo fu enorme. Innanzitutto, fu soprattutto grazie alla spinta evoluzionistica che poterono sorgere una psicologia dell'età evolutiva e una psicologia animale. Le attività psichiche, secondo gli evoluzionisti, subiscono anche loro un'evoluzione per selezione naturale, ed è interessante ripercorrere tale evoluzione ontogeneticamente, nello sviluppo dell'individuo, e filogeneticamente, nello sviluppo delle specie. L'uomo si adatta all'ambiente grazie alla sua attività mentale svilup-

STORIA E METODI

patissima, che sopperisce alle carenze fisiche; ma, come faceva rilevare Darwin, soprattutto a proposito dell'espressione delle emozioni [1872], è possibile ripercorrere la storia evolutiva anche di tanti comportamenti. In Inghilterra, patria di Darwin, furono soprattutto due studiosi in stretto contatto con questi a coniugare le idee evoluzionistiche con la psicologia: George John Romanes, suo intimo amico, e Francis Galton, che di Darwin era addirittura cugino. Quest'ultimo, uno dei pionieri dei test mentali, si dedicò particolarmente allo studio dell'ereditarietà dei caratteri mentali [1889]. Romanes [1883] fu l'iniziatore della psicologia animale. Le sue ricerche ebbero un enorme successo, anche al di là dell'ambito strettamente scientifico, grazie ad una straordinaria efficacia narrativa. Di fatto, in larga misura egli privilegiava un approccio aneddotico, con esposizione di comportamenti spesso sorprendenti che vedevano animali protagonisti, senza un particolare rigore critico nella raccolta del materiale. Di più, la tendenza di Romanes (che doveva poi svilupparsi in un tentativo di rintracciare un'intera storia naturale evolutiva filogenetica, che giungesse all'uomo [1889] - progetto che doveva rimanere incompiuto per la sua prematura scomparsa) era quella di rintracciare nel comportamento animale elementi umani. Tutto ciò suscitò la reazione critica di Lloyd Morgan [1884], che richiamava a un maggior rigore; in particolare, Morgan enunciò il principio metodologico fondamentale, noto come «canone di Lloyd Morgan», in base al quale si richiede che nessun comportamento che può essere interpretato sulla base di processi mentali inferiori, venga spiegato come determinato da processi superiori. Determinazione delle funzioni mentali, anche con l'uso di strumenti standardizzati (i test psicologici); evoluzione dei processi mentali, come qualsiasi altro carattere biologico; adattamento dell'individuo all'ambiente. Sono questi i tre caratteri della psicologia evoluzionistica inglese, che ritroviamo integri, se non accentuati, nel funzionalismo americano. A questi il funzionalismo aggiungeva di proprio 1) una critica radicale alla psicologia fisiologica di Wundt e allo strutturalismo di Titchener; 2) un'estensione della considerazione evolutiva allo sviluppo ontogenetico, con la fondazione della psicologia dell'età evolutiva; 3) un forte accento pragmatista, con un interesse per la psicologia applicata, che viene appunto creata in ambito funzionalista. Vediamo questi tre aspetti. 1. La critica funzionalista allo strutturalismo era soprattutto basata sulla critica al concetto di coscienza. Già per James, parlare di contenuti di coscienza come di qualcosa di fisso, cristallizzato, coglibile attraverso un atto di introspezione, era privo di senso. La coscienza è un flusso continuo {stream of consciousness), e ogni tentativo di «congelarne» un istante è destinato all'insuccesso, allo snaturamento del suo carattere. Ma la critica era rivolta anche all'elementismo degli strutturalisti. E Dewey [1896] faceva rilevare - in un articolo che ebbe notevole rilievo e che viene da alcuni addirittura con-

35

36

STORIA E METODI

siderato la data di nascita del funzionalismo — che già addirittura a livello di arco riflesso non ha senso scindere questo in elemento efferente e elemento afferente, trattandosi di un'unità. 2. I funzionalisti sono stati i fondatori della psicologia dell'età evolutiva. Come lo sviluppo andava seguito lungo la gerarchia delle specie, così il suo sviluppo andava rintracciato nel suo modificarsi nelle età dell'uomo. Il fondatore della psicologia dell'età evolutiva è stato G. Stanley Hall, di cui vanno ricordati soprattutto gli studi sul l'adolescenza [1904]. Peraltro Hall (che era stato, come molti dei funzionalisti americani, da James a Cattell, anche lui allievo di Wundt, salvo poi non condividerne affatto le idee) va ricordato so prattutto come formidabile organizzatore, «barone» accademico di incredibile potere, con poco tempo rimastogli a disposizione per svolgere un'attività scientificamente significativa. Personaggio di notevole spessore fu invece Baldwin, uno dei più grandi teorici in assoluto della psicologia dei primi del novecento, il cui nome è stato in larga misura dimenticato, forse anche per il suo precoce abbandono del mondo accademico nel 1909, a soli 48 anni; nel resto della sua vita visse prevalentemente in Francia, dedicandosi a un'attività di conferenziere e pubblicista. Una sua conferenza a Parigi influenzò così profondamente il giovane Jean Piaget, che le idee di Baldwin divennero uno dei pilastri su cui si sarebbe retto il sistema teorico del ginevrino. Baldwin poneva alla base dello sviluppo cognitivo le reazioni circolari, schemi d'azione che il bambino è portato a ripetere per il solo piacere di ripeterle [1894; 1906]. Nel processo di adattamento all'ambiente, questi schemi d'azione si arricchiscono per accomodamenti, opposizioni e assimilazioni (ricordiamo che cardine della teoria di Piaget saranno sia le reazioni circolari, che l'adattamento per assimilazione e accomodamento). E anche il senso di sé, che è alla base dello sviluppo sociale, avviene per Baldwin [1894] attraverso gli stessi processi, a cui si unisce {'imitazione. Notevolissima importanza, anche al di fuori della psicologia, ha avuto un contributo teoretico che Baldwin [1902] ha offerto alla teoria dell'evoluzione, e che è stato per decenni al centro delle discussioni dei biologi, e che passa sotto il nome di «effetto Baldwin». Esso consiste nel fatto che la selezione non avviene attraverso accoppiamenti casuali dei più adatti, ma è (sia pur modestamente, ma significativamente) squilibrata a favore di individui che hanno avuto esperienze comuni di adattamento. Nel dibattito odierno sull'evoluzione, l'effetto Baldwin è tuttora un elemento centrale [Gould 1977]. 3. Il terzo aspetto che differenzia profondamente la psicologia funzionalista dallo strutturalismo è legato al problema delle applica zioni della psicologia. Titchener sosteneva la necessità di una psicolo gia «pura», scienza esclusivamente sperimentale, che non avrebbe dovuto impegnarsi in attività applicative. I funzionalisti, di contro, permeati dello spirito pragmatico della giovane America, che viveva un periodo di impetuoso sviluppo economico di cui ancora non era

STORIA E METODI

visibile la strordinaria portata, sostenevano la necessità di una psicologia impegnata anche sul versante applicativo. Di qui lo sviluppo dei test psicologici (uno degli iniziatori fu un altro vecchio allievo di Wundt, James McKeen Cattell), e in generale della psicologia applicata al lavoro, all'arte, alla storia... Artefice principale delle applicazioni della psicologia fu uno straordinario personaggio, Hugo Mùnstenberg, già professore di Psicologia a Freiburg, anch'egli allievo di Wundt, che, entrato in contrasto con questi, accettò nel 1890 l'offerta di James di dirigere il laboratorio di psicologia di Harvard; salvo poi, appena giunto, dedicarsi a tutto meno che alla psicologia sperimentale. Mùnstenberg, che va considerato il vero creatore della psicologia del lavoro, mise al centro dell'attenzione per la prima volta i rapporti tra psicologia e vita reale [1899]. 2.5. La psicologia della Gestalt La reazione a Wundt in Huropa Già nel 1874, lo stesso anno in cui usciva la Psicologia fisiologica di Wundt, Franz Brentano pubblicava la sua Psicologia da un punto di vista empirico, che sarebbe ben presto diventato il punto di partenza di quanti si opponevano alle idee della scuola di Lipsia. Brentano, personalmente, non portò molto avanti la sua battaglia teorica in campo psicologico, e l'influenza delle sue idee fu probabilmente molto più diretta in campo filosofico. Abbastanza isolato, lasciò ai primi del secolo il mondo tedesco per trasferirsi a Firenze, e anche se nel corso degli anni ritornò spesso su problemi psicologici [1889; 1907; 1911], certamente il suo impegno per la filosofia fu più continuativo. La sua psicologia viene detta psicologia dell'atto, in quanto per Brentano la mente è costituita da atti che possiedono quella che chiama, riprendendo (con qualche oscurità) un concetto dei filosofi scolastici medioevali, una in-esistenza intenzionale, la loro relazione con qualcosa come oggetto. Così, se io dico di vedere qualcosa, il vedere è un atto, e la cosa che vedo è l'oggetto in-esistente entro l'atto. I fenomeni psichici sono idee (rappresentazioni) e fenomeni basati su idee, e si distinguono dai fenomeni fisici in quanto privi di estensione. Essi sono l'oggetto esclusivo della percezione interna, e solo essi possono essere percepiti come dati immediati e accettati come veri. Di più, i fenomeni psichici appaiono sempre unitari, malgrado la loro diversificazione, mentre sono quelli fisici che possono essere scomposti in elementi [1874, 126 ss.]. In quanto detto sopra è chiaro l'antielementismo di Brentano, e la sua apertura fenomenologica, che troveranno poi la loro espressione nella scuola di Graz di A. Meinong, in Stumpf e nella psicologia della Gestalt.

37

38

STORIA E METODI

Ma l'opposizione a Wundt si manifestava già all'interno del suo movimento. Abbiamo ricordato il suo allievo Hugo Mùnstenberg, trasferitosi negli Stati Uniti e passato alla scuola funzionalista - e del resto, tutti i principali psicologi funzionalisti americani erano stati per periodi più o meno lunghi allievi di Wundt: James, Cattell, Hall... È tra parentesi interessante il fatto che, come nota Blumenthal [1980], la scarsa simpatia che ci fu sempre tra gli allievi americani e Wundt abbia fatto sì che anche nella storiografia psicologica americana, a partire dal più grande storico, E.G. Boring [1942; 1950], l'immagine che viene presentata di questi sia tendenzialmente negativa. Il più importante dissidente, fra gli allievi di Wundt, fu comunque in Germania Otto Kùlpe [1893; 1920], fondatore della cosiddetta scuola di Wùrzburg (che ebbe tra i principali esponenti Karl Bùh-ler), che abbiamo già ricordato per le sue critiche all'impiego che si faceva a Lipsia del metodo sottrattivo di Donders. Come in tutti i critici di Wundt, anche in Kùlpe era particolarmente evidente un approccio globalistico, contro l'elementismo wundtiano. Nella scuola di Wùrzburg venne particolarmente sviluppato il metodo introspettivo, e in particolare fece notevole scalpore l'individuazione di pensieri in cui non erano rintracciabili elementi sensoriali primitivi (il cosiddetto pensiero senza immagini). L'esistenza di un tale tipo di pensiero smentiva nettamente un aspetto fondamentale della teoria wundtiana (e in misura ancor superiore dello strutturalismo titcheneriano), che voleva gli elementi sensoriali come costitutivi primitivi di ogni attività di pensiero. ha scuola della Gestalt

La scuola psicologica della Gestalt è indubbiamente la più importante scuola psicologica europea di questo secolo. Essa costituisce la più coerente risposta che si sia avuta nel vecchio continente allo strutturalismo, ma soprattutto all'associazionismo atomistico che era alla base di tanta parte dello strutturalismo. Gli psicologi gestaltisti si occuparono prevalentemente di processi cognitivi, e tra questi privilegiarono lo studio della percezione e del pensiero. Ciò non impedì che la psicologia della Gestalt desse anche dei validissimi contributi in psicologia sociale e psicologia della personalità, grazie particolarmente a un suo rappresentante un po' «eretico», Kurt Lewin, e che psicologi che si richiamavano a questa scuola abbiano sviluppato temi di interesse psicopedagogico, neuropsicologico o psicopatologico. Va peraltro precisato che la cosiddetta «terapia della Gestalt» non ha assolutamente nulla a che vedere con questa scuola. Precisiamo inoltre che preferiamo usare, in linea con l'uso oggi più frequente nella letteratura italiana, la parola «Gestalt», anziché tentare la traduzione del termine tedesco Gestalt, reso in passato in italiano (in mo-

STORIA E METODI

do inadeguato) con forma; il termine implica infatti anche un aspetto di «organizzazione» della forma difficilmente rendibile in italiano. La data di nascita della psicologia della Gestalt viene posta di solito al 1912, anno in cui Max Wertheimer pubblicò i risultati di due anni di ricerche sul movimento apparente condotte nell'Istituto di Psicologia di Francoforte con l'assistenza di Wolfgang Kòhler e Kurt Koffka. Ma questa scuola aveva avuto un'importante premessa nella scuola di Graz fondata da Alexius Meinong, più filosofo che psicologo, il quale era stato largamente influenzato da Franz Brentano, e che avrebbe avuto tra i suoi allievi il triestino Vittorio Benussi, docente a Padova dopo la prima guerra mondiale, uno dei grandi maestri della psicologia italiana. Il precursore della psicologia della Gestalt che qui interessa fu un altro allievo di Meinong, Christian von Ehrenfels [1890]. Questi coniò l'espressione «qualità gestaltica» (Gestaltqualitàt), per indicare le caratteristiche delle configurazioni percettive che rimangono invariate al variare degli aspetti elementari delle configurazioni stesse. Così, è una qualità gestaltica la melodia di un brano musicale, che si mantiene anche al cambiare della tonalità, a dimostrazione che una melodia non è costituita dalla somma delle singole note che la compongono, ma dall'insieme dei rapporti tra queste; così, è indifferente che la melodia sia costituita dalla sequenza, poniamo, do-mi-sol, o fa-la-do, o re-fa diesis-la: quello che conta è che si tratta di due intervalli di terza maggiore e terza minore in sequenza. Così ancora è una qualità gestaltica la triangolarità, che è propria di tutti i triangoli, indipendentemente dalla lunghezza dei lati o del valore degli angoli, e così via. Nella terminologia di Meinong [1899], le qualità gestaltiche sono «oggetti di ordine superiore», frutto di un'attività di «produzione» della mente. Vittorio Benussi, che negli anni immediatamente precedenti la prima guerra mondiale sarebbe entrato in polemica durissima con Koffka [Benussi 1913; 1914; Koffka e Kenkel 1913; Koffka 1915], sviluppò a sua volta, nell'ambito della teoria della produzione, un suo modello teorico specifico della percezione, per distinguere negli scostamenti tra percepito e reale i processi di origine sensoriale da quelli di origine asensoriale. Tutto ciò sarebbe apparso inaccettabile ai gestaltisti, che vi avrebbero visto un ritorno alTelementarismo, con la rottura delle caratteristiche globali della percezione. Va rilevato che Wertheimer — il fondatore della psicologia della Gestalt - aveva seguito a Praga, sua città d'origine, almeno per un anno le lezioni di von Ehrenfels, prima di trasferirsi a Berlino dove sarebbe stato allievo di un altro seguace di Brentano, Stumpf; che avrebbe conseguito il dottorato a Wùrzburg con Kiilpe; e che le sue ricerche sul movimento apparente sarebbero state eseguite nell'Istituto di Francoforte allora diretto da Schumann, già aiuto di Stumpf. Si può quindi dire che ben difficilmente avrebbe potuto sviluppare un atteggiamento non radicalmente avverso alla psicologia wundtiana. Nelle sue ricerche sul movimento apparente, Wertheimer analizzò in particolare uno specifico tipo di movimento apparente, quello

39

40

STORIA E METODI

stroboscopico, o b. È questo alla base della percezione del movimento cinematografico: come è noto, una pellicola cinematografica è costituita da una serie di immagini fisse, i fotogrammi, che vengono proiettati sullo schermo per 1/48 di secondo inframezzati da periodi di buio della stessa durata, durante i quali si ha lo scorrimento da un fotogramma al successivo. Lo spettatore, però, unifica percettivamente i fotogrammi, e invece di vedere una sequenza di immagini statiche, vede una sola immagine in movimento continuo — vale la pena di ricordare che, contrariamente a quanto spesso si osserva, questo fenomeno, come dimostrò lo stesso Wertheimer, è assolutamente centrale, e non ha il minimo rapporto con la cosiddetta persistenza dell'immagine retinica, il fenomeno, cioè, per cui un tizzone mosso rapidamente al buio non si vede come un punto in movimento, ma disegna una sorta di linea luminosa apparente. Il movimento stroboscopico era ben noto da prima che Wertheimer lo studiasse: solo per fare un esempio, i fratelli Lumière avevano già inventato il cinematografo da quasi vent'anni! Peraltro, cosa che in ambito psicologico non era stata analizzata, questo movimento apparente poneva un serio problema a una teoria elementarista della percezione, di stampo wundtiano o strutturalista. Una teoria di questo genere doveva ammettere che non potesse darsi movimento senza uno spostamento corrispondente della stimolazione visiva sulla retina: solo in questo modo il movimento avrebbe potuto essere ricondotto, senza commettere un errore dello stimolo, agli elementi costitutivi. Ma nel movimento stroboscopico nulla del genere si verifica-va: gli elementi erano statici, ma il movimento veniva percepito. Da dove poteva allora provenire questo movimento? Esso era semplicemente il frutto dell'organizzazione degli elementi costitutivi; solo che costituiva la migliore dimostrazione del fatto che un fenomeno del genere (detto phi da Wertheimer) non avrebbe potuto costituirsi se questa organizzazione globale non fosse logicamente precedente, nel processo percettivo, rispetto agli elementi; se, come avrebbe detto Wertheimer [1923] dieci anni più tardi, il processo percettivo non fosse organizzato von oben nach unten, dall'alto in basso, e voti unten nach oben, dal basso in alto; e cioè, rispettivamente, dall'intero alle parti, e non dalle parti all'intero. Rileviamo tra parentesi che questa espressione di Wertheimer, nella traduzione inglese top down/bottom up, è stata ampiamente usata nel cognitivismo, con un significato però profondamente diverso. Con top down i cognitivisti intendono infatti un processo concept driven, «guidato dal concetto», mentre con bottom up intendono un processo sense driven, «guidato dagli stimoli sensoriali». In altri termini, top down è un processo in cui ciò che si sa influisce su ciò che si percepirà (ruolo delle attese, dell'esperienza, ecc). Da questo punto di vista, i gestaltisti negavano la possibilità di processi percettivi top down: l'esito del processo è assolutamente indipendente dall'esperienza passata, dall'apprendimento, ecc, ma deriva solo dalla dinamica del sistema nervoso.

STORIA E METODI

La psicologia della Gestalt si diffuse con notevole rapidità nel mondo psicologico tedesco, divenendo in pochi anni la scuola dominante. Wertheimer, Kòhler e Koffka raggiunsero tutti e tre negli anni venti Berlino (si parla infatti anche di «scuola di Berlino»). Progressivamente, la figura dominante della scuola doveva diventare Wolfgang Kòhler, che, grazie anche ad alcuni viaggi negli Stati Uniti, dove si sarebbe poi stabilito con l'avvento dei nazisti al potere in Germania, sarebbe presto diventato molto noto sul piano internazionale. Tutti i gestaltisti di maggior rilievo (con l'eccezione dell'allora giovanissimo Metzger) dovettero comunque emigrare negli Stati Uniti con il nazismo, da Koffka a Wertheimer, all'ultimo arrivato Kurt Lewin. Si può tra l'altro rilevare che fu praticamente solo quest'ultimo a conseguire un buon successo nel mondo americano; per fare questo, dovette però discostarsi in certa misura sia dai temi classici dei gestaltisti, per rivolgersi alla psicologia sociale e della personalità [Lewin 1935; 1936; 1951], sia dai principali principi teorici dei gestaltisti. Tornando comunque al filone più classico degli studi gestaltisti, quello sulla percezione, ricordiamo che Wertheimer [1922; 1923] enunciò le sue classiche leggi sulla costituzione delle totalità percettive, quelle che venivano chiamate Gestalten. Le leggi di Wertheimer, di cui si parlerà nel capitolo della percezione, affermano che le parti di un campo percettivo tendono a costituire delle Gestalt, che sono tanto più coerenti, solide, unite, quanto più gli elementi sono: 1) vicini (legge della vicinanza); 2) simili (legge della somiglianzà); 3) tendono a formare forme chiuse (legge della chiusura); 4) sono disposti lungo una stessa linea (legge della continuazione); 5) si muovono concordemente (legge del destino o moto comune). A queste cinque leggi, o principi, Wertheimer ne aggiungeva altre due, che occorre discutere un poco: la legge della pregnanza e la legge dell'esperienza passata. Per quel che riguarda la prima, occorre preliminarmente aver chiaro che per pregnanza o bontà di una forma i gestaltisti intendevano una serie di caratteristiche che rendono questa forma particolarmente armonica, simmetrica, semplice, ecc; o anche un punto ausgezeichnet, eccellente, in una serie, che lo rende unico (singular [Goldmeier 1982]) rispetto agli altri. Così, nella prima accezione, si può dire che un cerchio è più «buono» (pregnante) di un ovale o di un ovoide, che un triangolo equilatero è più pregnante di un triangolo isoscele, e questo a sua volta di un triangolo scaleno, e così via. Nella seconda, che, ad esempio, un angolo retto è un punto di discontinuità nella serie degli angoli, che fa sì che si distingua nettamente da un angolo, poniamo, di 88° (che viene percepito, non a caso, in rapporto al retto: un angolo «quasi» retto, mentre non si dirà mai che un angolo retto è «quasi» di 88° gradi). Lo stesso dicasi, nella serie dei numeri, di alcuni numeri privilegiati: 10 (la decina), 12 (la dozzina), 100 (il centinaio), e così via. Ora, la legge della pregnanza afferma che le parti di un campo percettivo tendono a costituire le Gestalt più pregnanti possibili nelle

41

42

STORIA E METODI

condizioni date. In altri termini, vi sarebbe una tendenza spontanea verso la pregnanza. Questa tendenza alla pregnanza è stata tra l'altro messa al centro della loro teoria da due grandi gestaltisti della «seconda generazione», Metzger [1954; 1975] e Rausch [1966], ma è stata anche messa in dubbio [Kanizsa e Luccio 1986], ritenendosi da parte di alcuni che vi sia piuttosto una tendenza verso l'equilibrio e la stabilità del campo percettivo, piuttosto che verso la pregnanza: il campo percettivo tende ad essere stabile, anche se questa stabilità si realizza con Gestalt poco pregnanti. Piuttosto, a livelli ulteriori dei processi cognitivi questa tendenza alla pregnanza appare in modo evidente, e particolarmente nelle trasformazioni che subisce la traccia mnemonica che tende a farsi con l'andare del tempo sempre più regolare, armonica, a cancellare eventuali disarmonie e contraddizioni [Goldmeier 1982]. Il concetto di pregnanza è comunque considerato uno dei concetti della psicologia della Gestalt che ha più conservato la sua validità, anche al di fuori della scuola. L'altra legge che merita una discussione a parte è quella dell'é'sperienza passata. Nell'eterna controversia che è sempre esistita nella storia della psicologia tra nativisti (sostenitori di strutture psicologiche innate) ed empiristi (sostenitori dell'influenza esclusiva dell'esperienza nella strutturazione dei processi psicologici) i gestaltisti si sono posti preferibilmente con i primi. Ciò era dovuto al fatto che a loro giudizio i processi psicologici erano il frutto di un sostrato materiale che non poteva agire che secondo delle leggi fìsiche, invarianti rispetto sia all'esperienza passata dell'individuo, sia rispetto alla storia evolutiva della specie. Come sosteneva Kòhler [1920], le Gestalt si trovavano non solo nell'esperienza fenomenica dell'individuo, ma anche in natura; anzi, la natura dimostrava questa tendenza a strutturarsi delle parti in unità secondo leggi uguali a quelle che determinavano il campo fenomenico dell'individuo. Questo concetto (meglio, metafora) di campo non andava inteso in senso generico, ma con precisa corrispondenza con il concetto di campo come inteso in fisica, e cioè con il campo elettromagnetico. L'esperienza passata non poteva quindi giocare alcun ruolo nei processi psicologici? No di certo. Quello che i gestaltisti negavano era la possibilità che influisse sui processi di base che portavano alla strutturazione del campo fenomenico; ma ammettevano che influisse sull'orientare tali processi in particolari direzioni rispetto ad altre. Si osservi la figura 1.1. A prima vista, essa appare come una serie di spezzate. Se però diciamo che questa figura in realtà è una lettera E maiuscola, in rilievo, illuminata dall'alto in basso e da sinistra a destra, in modo che se ne vedano solo le ombre, ecco che la figura apparirà improvvisamente; non solo, non sarà più possibile non vederla. Significato analogo hanno le figure di Street, costituite da macchie apparentemente senza senso, ma che, non appena vengono suggeriti certi significati (un cane, un cavaliere, ecc), vengono organizzate in modo coerente e stabile, e non è più possibile vederle in

STORIA E METODI

FlG. 1.1.

altro modo. In altri termini, l'esperienza passata non modifica le leggi di organizzazione strutturale, ma può imporre dei vincoli (constraints) che impongono certe organizzazioni piuttosto che altre [Kòhler 1950]. Un altro tema che, a fianco della percezione, avrebbe attirato l'attenzione dei gestaltisti sarebbe stato quello del pensiero. Il punto di partenza sarebbe stato costituito da alcune classiche ricerche di Kòhler sugli scimpanzè [1918; 1921]. Tra il 1912 e il 1920, Kòhler diresse la stazione primatologica dell'esercito prussiano a Tenerife, nelle isole Canarie, e la cosa gli diede modo di sperimentare la capacità degli scimpanzè di risolvere problemi. All'epoca, la teoria dominante sull'intelligenza animale era quella che si doveva all'americano Thorndike, precursore del comportamentismo, che sosteneva, come vedremo meglio nel prossimo paragrafo, che gli animali risolvono i problemi con un comportamento casuale, per tentativi ed errori, e che il successo rende solo più probabili le risposte corrette. A questa teoria, Kòhler oppose un modello ben diverso: quello dell'apprendimento per intuizione {Einsicht, insight). Kòhler proponeva diversi tipi di problemi ai suoi animali, dal raggiungere un obiettivo che poteva essere afferrato solo se lo scimpanzè si fosse servito di qualche ausilio, al cosiddetto aggiramento {Umweg), consistente nel dover raggiungere un obiettivo oltre una barriera che non poteva essere scavalcata ma doveva essere aggirata. Il comportamento che Kòhler osservava negli scimpanzè non poteva assolutamente essere interpretato in termini di tentativi ed errori, ma si rivelava come propriamente «intelligente». Per esempio, supponiamo che l'animale dovesse raggiungere del cibo appeso al soffitto della gabbia, ma che per far questo avesse a disposizione due canne, nessuna di per sé di lunghezza sufficiente, ma abbastanza lun-

43

44

STORIA E METODI

ghe se innestate l'una nell'altra. Si osserva che lo scimpanzè inizialmente fa dei tentativi con una canna alla volta, infruttuosi, e dopo un poco abbandona i tentativi. Successivamente, però, l'animale modifica improvvisamente il suo comportamento: bruscamente, dimostrando di aver «capito», afferra le due canne, le unisce, e raggiunge il cibo, senza alcuna incertezza. Ha compiuto un insight: in altri termini, è riuscito a strutturare in modo radicalmente diverso gli elementi del suo campo fenomenico, dando loro un significato in una struttura globale di pensiero, corrispondente alla soluzione del problema. Questo modo di risolvere i problemi venne chiamato da Wertheimer [1920; 1925a; 1945], nei suoi studi sull'uomo, pensiero produttivo, in opposizione con il pensiero cieco, tipico degli apprendimenti per tentativi ed errori, di cui i gestaltisti non negavano la realtà, ma a cui assegnavano un ruolo inferiore. Sono certamente questi i temi che hanno più attratto l'attenzione degli psicologi della Gestalt. Volendo riassumere i concetti più importanti sviluppati da questa scuola, possiamo affermare che i gestaltisti affermavano una supremazia della struttura globale (non intesa però come significato, ma come organizzazione) sulle parti componenti le Gestalt. Questa supremazia viene spesso tradotta (impropriamente) con l'aforisma: «il tutto è più della somma delle parti». Più corretto sarebbe dire: «il tutto precede le parti, che assumono significati diversi a seconda del tutto di cui sono parti». È in questo l'antielementismo dei gestaltisti. Gli psicologi della Gestalt vedevano inoltre i processi di percezione, pensiero, ecc, come autoorganizzantisi all'interno di un campo, in analogia con il concetto di campo come definito dalla fisica. Si tratta perciò di una concezione dinamica dei processi cognitivi, che si fonda su concetti come la tendenza all'equilibrio e alla pregnanza. Gli psicologi della Gestalt avevano una concezione fenomenologica. Essi studiavano quanto avviene nel mondo fenomenico dell'individuo, in ciò che gli appare, e ritenevano un errore pensare invece a un mondo della realtà al di là dei fenomeni. Ma erano anche interessati a vedere cosa accadeva nel sistema nervoso centrale in corrispondenza con i fenomeni, affermando un'identità strutturale, o isomorfismo, tra mondo fenomenico e accadimenti cerebrali. La psicologia della Gestalt ha avuto il periodo di massimo rigoglio negli anni venti. Come abbiamo detto, i principali esponenti della scuola non trovarono un terreno favorevole negli Stati Uniti, e non si creò una scuola gestaltista americana. Fuori degli Stati Uniti nel dopoguerra la psicologia della Gestalt avrebbe avuto un buono sviluppo in Italia, con Musarti, Metelli e Kanizsa; in Germania con i citati Rausch e Metzger; in Giappone, unico paese dove forse esiste ancora una maggioranza di psicologi sperimentali che si autodefiniscono gestaltisti. Oggi, se una scuola gestaltista come tale probabilmente non esiste più, sono comunque numerosi gli studiosi che, pur

STORIA E METODI

riconoscendosi maggiormente nel cognitivismo, si identificano in tutto o in parte nella tradizione gestaltista. 2.6. Il comportamentismo

Solo un anno dopo la comparsa dell'articolo di Wertheimer sul fenomeno phi, che segnava la nascita della psicologia della Gestalt, un altro famoso articolo, questa volta scritto nel 1913 da J.B. Watson sull'altra sponda dell'Atlantico, doveva segnare la data di nascita dell'altra grande scuola psicologica (o meglio, forse, movimento, data la sua natura abbastanza composita [Zuriff 1985, 6]), che avrebbe segnato tutta la psicologia generale dagli anni immediatamente precedenti la prima guerra mondiale, a quelli immediatamente successivi la seconda. In questo articolo la psicologia, «dal punto di vista di un comportamentista», veniva definita come un settore sperimentale delle scienze naturali, il cui scopo è la previsione e il controllo del comportamento. L'oggetto di studio del comportamentismo non era la coscienza né tanto meno la mente, ma il comportamento osservabile intersoggettivamente, definito da Watson come l'insieme delle risposte muscolari o ghiandolari. Il metodo di studio rimaneva rigorosamente quello sperimentale, con le stimolazioni ambientali (intese come variazione dell'energia fisica presente nell'ambiente: energia radiante, meccanica, ecc.) come variabili indipendenti, e il comportamento (la risposta dell'organismo) come variabile dipendente, con un rifiuto deciso dell'introspezione e del colloquio clinico. Secondo i comportamentisti, infatti, se la psicologia voleva essere una scienza, doveva scegliere come oggetto di studio qualcosa che fosse suscettibile di essere osservato naturalisticamente. «La psicologia come la vede il comportamentista è una branca sperimentale puramente oggettiva delle scienze naturali» [Watson 1913, 158]. E quindi vanno rifiutati come oggetto di studio i contenuti della coscienza, che sono esperienze private e non osservabili intersoggettivamente, le esperienze dirette, ecc. Di più, va respinto ogni metodo che non sia suscettibile degli stessi controlli che si utilizzano in tutte le scienze naturali. Watson, studioso di psicologia animale, che si era formato alla scuola funzionalista di Chicago, ed era stato in particolare allievo di Loeb — l'uomo che più aveva fatto negli Stati Uniti per portare la psicologia animale fuori dell'impressionismo aneddotico alla Romanes e condurla a studi rigorosi di laboratorio - interpretava certamente un'esigenza di rigore e oggettività vivissimi nella psicologia animale nordamericana, ma estremamente diffusi in tutta la psicologia degli Stati Uniti. Peraltro, perché questa esigenza potesse trovare gambe per camminare, occorreva che i comportamentisti individuassero altre possibili unità di analisi psicologica. Queste gli erano però offerte negli Stati Uniti dalle ricerche di E.L. Thorndike, il più grande pre-

45

46

STORIA E METODI

cursore del comportamentismo, con i suoi studi sull'apprendimento per tentativi ed errori (trials and errors); dalla Russia, con la fondamentale scoperta del condizionamento cosiddetto classico, fatta dallo scienziato russo I.P. Pavlov. Thorndike [cfr. in particolare 1911; 1949], che chiamava il suo sistema teorico «connessionismo», una forma particolare di associazionismo (assolutamente da non confondere con il connessionismo, di cui parleremo a proposito degli ultimi sviluppi del cognitivismo), aveva iniziato già negli ultimi anni del secolo scorso alcuni esperimenti su quella che chiamava «intelligenza animale» — in realtà, apprendimento e problem solving, soluzione di problemi. Una situazione prototipica in cui Thorndike poneva i suoi animali (in larga misura, gatti) era costituita dalle cosiddette scatole problema: l'animale veniva posto all'interno di una gabbia, completamente chiusa, e per uscire doveva agire tirando delle funi, che erano collegate con un sistema di pulegge alla porta della gabbia. Ora, l'osservazione di Thorndike, che avrebbe avuto un'importanza capitale, consisteva in questo: l'animale non passava bruscamente da una fase in cui non era capace di trovare la soluzione, a un'altra in cui la soluzione, una volta trovata, era poi sempre immediatamente disponibile. Al contrario, quello che era visibile era un progressivo accorciamento dei tempi di soluzione del problema, senza discontinuità, sino a un minimo. Da questo, Thorndike enunciò tre principi fondamentali. Il primo principio affermava che l'apprendimento si verifica per tentativi ed errori (trials and errors): l'animale compie tentativi alla cieca, e quindi commette casualmente errori e da risposte giuste. // secondo principio era formulato sotto forma di legge, detta àtW effetto: le risposte corrette tendono ad essere ripetute, quelle erronee ad essere abbandonate. In questo modo, l'animale progressivamente riduce il numero di emissione di risposte erronee, aumentando quello di risposte corrette, e riduce così gradualmente i tempi di soluzione del problema. Anche il terzo principio era enunciato sotto forma di legge, detta dell'esercizio: i comportamenti più spesso esercitati vengono appresi più saldamente, ed è più facile che vengano di nuovo emessi, in situazioni analoghe a quelle in cui sono stati appresi. Come vedremo, questi tre principi costituiranno un cardine della teoria comportamentista dell'apprendimento. L'altro, come abbiamo accennato, è stato il condizionamento classico. I.P. Pavlov non era uno psicologo, era un fisiologo tanto importante da aver vinto il premio Nobel per la fisiologia nel 1904, per i suoi studi sulla digestione. L'anno seguente, Pavlov era impegnato nello studio di quella che veniva chiamata «secrezione psichica»: la secrezione salivare e gastrica che si produce nell'animale affamato alla sola vista del cibo, prima dell'ingestione di questo. Per poter studiare queste secrezioni e confrontarle con quelle che l'animale produceva a contatto con il cibo ingerito, Pavlov aveva inventato una particolare tecnica chirurgica (la cosiddetta «fistola di Pavlov») che consentiva di raccogliere all'esterno queste secrezioni.

STOMA E METODI

Nel corso delle ricerche, potè però osservare che la secrezione, dopo qualche tempo che l'animale stava in laboratorio, veniva emessa ancor prima della vista del cibo, ma al solo udire il rumore dei passi dell'inserviente che lo portava. Decise quindi di sistematizzare le sue osservazioni, e giunse così a formulare lo schema del condizionamento classico il questi termini. Ogni animale possiede un corredo di atti riflessi, che vengono evocati automaticamente alla presentazione degli stimoli adeguati. È così un atto riflesso quello che fa estendere la gamba quando viene percossa la rotula, che fa flettere le dita del piede alla stimolazione della pianta, che fa ammiccare quando un oggetto si avvicina bruscamente all'occhio. E anche un riflesso la salivazione e la produzione di succo gastrico alla vista di cibo, in condizioni di fame. Chiamiamo stimolo incondizionato (Si) lo stimolo che scatena in queste situazioni il riflesso, e riflesso incondizionato (Ri) l'atto evocato. Ora, quello che aveva osservato Pavlov era che uno stimolo indifferente, e cioè incapace di evocare Ri, se presentato ripetutamente in contiguità temporale con Si viene associato a questo, e diventa capace di evocare il riflesso; a questo punto, questo nuovo stimolo si dirà condizionato, come pure il riflesso. Il sogno di Secenov sembrava così avverarsi. Era stato scoperto il meccanismo che permetteva, a partire dal corredo innato dei riflessi, di ipotizzare una modificazione dei comportamenti in risposta alle esigenze ambientali. Oggi sappiamo che il ricorso al condizionamento classico non è assolutamente sufficiente a spiegare la straordinaria flessibilità del comportamento umano. Negli anni successivi, del resto, Pavlov [1928] avrebbe sviluppato una teoria complessa e di sorprendente modernità, se vista con gli occhi di oggi, e che gli avrebbe da un lato permesso di formulare una teoria personologica di estremo interesse (anche se basata sulla suscettibilità al condizionamento di cani); dall'altro, attraverso il cosiddetto secondo sistema di segnalazione, gli avrebbe fatto attribuire un ruolo determinante al linguaggio nello sviluppo dei processi cognitivi dell'uomo. Questi aspetti della teoria di Pavlov ebbero peraltro una risonanza molto modesta in Occidente, e sarebbero stati apprezzati solo alla fine degli anni cinquanta, in un contesto scientifico profondamente cambiato. Apprendimento per prove ed errori e condizionamento classico sembravano comunque fornire al nascente comportamentismo la chiave per la costruzione di una psicologia interamente oggettiva. Di più, era ferma convinzione di Watson la vastissima applicabilità pratica della psicologia così definita [1919; 1930]. Nel 1919, con la Rayner, Watson tentò per la prima volta di applicare queste idee in campo psicopatologico: essi riuscirono con tecniche di condizionamento classico a indurre una nevrosi fobica in un bambino, il famoso «little Albert» [Watson e Rayner 1928]. Si apriva così la strada alle cosiddette terapie comportamentali, che avrebbero conosciuto un

47

48

STORIA E METODI

enorme successo negli Stati Uniti specie in questo dopoguerra. Peraltro, Watson fu costretto nel 1920 a lasciare l'Università, non ammettendo la società americana puritana del tempo che proseguisse nell'insegnamento dopo il suo divorzio dalla moglie. Diventò peraltro un ricco uomo d'affari, applicando la psicologia alla pubblicità, e scrisse libri di enorme successo sull'applicabilità del comportamentismo alla vita quotidiana. Come si è detto, in pochissimi anni il comportamentismo conquistò una posizione di netto predominio nella psicologia americana. La dottrina fondamentale appariva poter essere riassunta in questi termini: l'organismo era una «scatola nera» {black box), al cui interno lo psicologo non può entrare; farebbe così solo della metafisica. Su questa scatola nera impattano gli stimoli ambientali S, e in concomitanza l'organismo emette delle risposte R. Lo psicologo comportamentista studia le associazioni S-R: come dipende il variare delle risposte (variabile detta perciò dipendente) al variare degli stimoli (variabile detta perciò indipendente). Già negli anni venti-trenta, però, questo schema doveva apparire troppo angusto agli stessi comportamentisti. Doveva essere E.C. Tolman [1932; 1951], certamente il comportamentista più avvertito sul piano epistemologico, a indicarne con chiarezza i limiti. Facciamo un esempio: poniamo di porre un topo in un labirinto; per tentativi ed errori, egli apprenderà a trovare l'uscita del labirinto; nei termini di Watson, avrà associato S (gli stimoli corrispondenti al labirinto) a R d'insieme delle risposte, e cioè degli atti muscolari necessari ad arrivare all'uscita). Ma poniamo ora di riempire il labirinto d'acqua; evidentemente, gli atti per nuotare verso l'uscita sono completamente diversi da quelli per giungervi camminando. E altrettanto evidentemente, se Watson avesse ragione, l'apprendimento dovrebbe reiniziare da capo, per associare S al nuovo R. Ma, e nessuno se ne sorprende, il topo, appena messo nel labirinto, trova immediatamente l'uscita a nuoto. È allora chiaro che quello che ha appreso non è una sequela di movimenti, ma qualche altra cosa: una rappresentazione astratta della forma del labirinto, che Tolman chiama «mappa cognitiva». Ma questa mappa cognitiva è chiaramente nella testa del topo, ed è tutt'altro che osservabile. Si deve allora tornare alla psicologia dei contenuti di coscienza? E cosa dire di altri elementi analoghi alle mappe cognitive, che palesemente influenzano il comportamento dell'animale, ma sono altrettanto inosservabili? Tra questi, particolare importanza assegnava Tolman alle intenzioni - il suo sistema è detto anche comportamentismo intenzionale (purposive behaviorism). La soluzione di Tolman è costituita dall'introduzione di un concetto che avrebbe avuto un'enorme importanza per tutti gli sviluppi successivi del comportamentismo, segnando il passaggio dal paleocomportamentismo watsoniano al cosiddetto neocomportamentismo: il concetto di variabile interveniente, interposta tra variabile dipenden-

STORIA E METODI

te e variabile indipendente. Una variabile interveniente modifica, a seconda del suo valore, la dipendenza della variabile dipendente da quella indipendente. Se l'organismo possiede una mappa cognitiva, a seconda di come questa è costituita ci sarà un diverso influsso di S su R. Ma S e R sono eventi «reali», possono essere misurati oggettivatnente sulla base dei loro parametri fisici. Lo stesso vale per la mappa cognitiva? Evidentemente no. Una variabile interveniente non è «reale» in questo senso; è un puro costrutto ipotetico, la cui realtà non solo non possiamo, ma neppure ci interessa determinare. Negli anni successivi vennero introdotte nuove e diverse variabili intervenienti. Di particolare rilievo fu il sistema proposto da Clark Hull [1943a; 1943b], altamente formalizzato, in cui particolare rilievo avevano come variabili intervenienti la pulsione D (da drive) e la forza dell'abitudine SHR (habit strength), forza del legame associativo interposto tra stimolo e risposta. Verso la fine degli anni trenta si affacciò però sulla scena scientifica quello che sarebbe stato il più grande dei neocomportamentisti, Burrhus Frederic Skinner. Il suo atteggiamento si manifestò peraltro immediatamente come opposto a quello degli altri comportamentisti. Quanto i vari Tolman, Hull, Miller, Spence, ecc, cercavano di sistematizzare e teorizzare, tanto Skinner [1938] ostentava un atteggiamento sostanzialmente antiteoretico, nemico del concetto di variabile interveniente, attento sostanzialmente solo alle contingenze associative immediatamente rilevabili all'esterno. Con una distinzione che sarebbe stata prontamente accettata da tutto il comportamentismo, Skinner distingueva tra due tipi di comportamenti: i rispondenti, derivanti da riflessi innati o appresi per condizionamento classico (associazione S-S, stimolo condizionato-stimolo incondizionato), e gli operanti, emessi spontaneamente dall'organismo, appresi per associazione S-R, e la cui probabilità di occorrenza aumenta o diminuisce a seconda del rinforzo (premio o punizione) che l'organismo riceve in corrispondenza della loro emissione. Il comportamentismo skinneriano si traduceva così in una raccolta di un'immensa mole di dati sulle contingenze di rinforzo. Si studiava se erano più efficaci i rinforzi dati dopo ogni risposta, o intermittentemente; con rapporto fisso o variabile; e così via. Ma contemporaneamente Skinner proponeva applicazioni continue delle tecniche di apprendimento operante nella vita quotidiana, dalla scuola (dalle abitudini di studi alla cosiddetta istruzione programmata), agli armamenti (nel corso della seconda guerra mondiale iniziò un programma di addestramento di piccioni suicidi; la fine della guerra non ne consentì l'utilizzo), alla psicoterapia. Tutte forme di tecnologia psicologica. Negli anni cinquanta, il comportamentismo era all'apice del suo successo e dominava incontrastato la psicologia nordamericana. Ma il crollo era vicino, e sarebbe giunto tanto più repentino e totale quanto meno era atteso. L'agente del crollo sarebbe stato il cognitivismo.

49

50

STORIA E METODI

2.7. Il cognitivismo La nascita del cognitivismo e il paradigma Hip

Al termine della seconda guerra mondiale, la psicologia sperimentale era saldamente in mano al comportamentismo. Questo era soprattutto vero per la psicologia americana, ma lo era anche per la psicologia inglese e francese (non però per l'Italia, dove fino a tutti gli anni sessanta, aveva una posizione di eccellenza la tradizione sperimentale della scuola gestaltista dei Musatti, Metelli, Kanizsa). Ma una nuova corrente psicologica in breve tempo avrebbe dominato il campo: il cognitivismo, movimento diffìcile da definire, in quanto è un suo tratto peculiare il rifiuto delle «grandi teorie» che, secondo Welford [1967], «non rendono giustizia alla complessità del comportamento», con il conseguente rifugio nell'elaborazione di modelli spesso molto limitati. L'oggetto di studio della psicologia cognitivista è stato costituito ovviamente dai processi cognitivi (pensiero, linguaggio, percezione, ecc), affrontati, sul piano metodologico, con una particolare «rilassatezza» dai cognitivisti («Cognition», la rivista forse più prestigiosa della psicologia cognitivista, avverte, nelle norme per i collaboratori, che i lavori vengono scelti in base «ai loro scopi piuttosto che ai metodi specifici, e per la loro pertinenza teoretica ai problemi cognitivi piuttosto che per l'aderenza a principi metodologici, la cui adeguatezza è più un problema di fede che di utilità»). Si pensi al rigore metodologico della tradizione comportamentista, e ci si renderà rapidamente conto dell'enorme differenza di impostazione. Per capire non solo cosa sia in realtà la psicologia cognitivista, ma anche perché essa ha avuto un impatto tale sulla psicologia contemporanea, occorre rendersi conto della sua diretta derivazione dal comportamentismo. È una derivazione in negativo, una reazione a volte violenta contro la psicologia «del gettone nella macchinetta» [Miller, Galanter e Pribram 1960], contro «l'area geografica infestata da animali di laboratorio» [Wepman e Heine 1963]. Ma questa reazione nasce in larga misura da comportamentisti, come Miller, come Broadbent [1973], che si rendono conto dell'inadeguatezza e della sterilità dell'approccio sin allora seguito. E se non si tratta di comportamentisti (ma ciò vale soprattutto per i non psicologi, primo tra tutti Chomsky), il loro approccio alla psicologia è comunque condizionato dal comportamentismo, sia pure per distinguersene. Si pensi solo alla critica chomskyana del Verbal Behaviour di Skinner [Chomsky 1959]. Il fatto che il punto di partenza sia il comportamentismo — sia come formazione per gli psicologi, sia come pietra di paragone con cui confrontarsi per i non psicologi - non è privo di conseguenze. Si osservi, tra parentesi, che il nome di «psicologia cognitivista» con cui oggi si designa questo movimento è abbastanza recente, e segue la pubblicazione nel 1967 del famoso volume di Neisser Cognitive Psychology. Miller, Galanter e Pribram [I960] si erano autodefiniti «be-

STORIA E METODI

havioristi soggettivi»; e Berlyne [1968] aveva chiamato il movimento che si stava affermando «ceno-behaviorismo», vedendolo come la forma più matura del comportamentismo. Forse il primo nome da ricordare è quello di Craik [1947], che concepì per primo l'uomo come servomeccanismo, e che per primo riscoprì l'importanza vitale, dopo Donders, dell'impiego dei tempi di esecuzione di un compito (anche se Craik aveva fermato la sua attenzione sui tempi di correzione in un compito di tracking, una sorta di gioco di «pista» su cui mantenere fisso un puntatore, e non sui tempi di reazione). Craik aveva rilevato che il soggetto umano non era in grado di compiere, in un compito del genere, più di due correzioni al secondo. Ciò gli aveva fatto ipotizzare l'esistenza di un meccanismo di autocorrezione automatica. Da Craik possono essere rintracciate alcune linee di estremo interesse per la psicologia cognitivista. Innanzitutto, l'impiego, sempre più accentuato in seguito, dell'uso di diagrammi di flusso nella descrizione dei processi cognitivi. In secondo luogo, come già accennato, la maggior considerazione dell'importanza del tempo, in particolare con Welford [1952; 1967] e la conseguente elaborazione della teoria del «canale unico». Altra opera di capitale importanza è il famoso articolo di Miller [1956] sul «magico numero 7», che poneva per primo, in modo sistematico, sul tappeto il problema dei limiti alle capacità di elaborazione dell'informazione da parte dell'uomo. Negli stessi anni Cherry [1953] e Broadbent [1954] riprendevano gli esperimenti sull'attenzione, argomento anche questo di fondamentale importanza all'inizio della psicologia sperimentale, e in seguito pressoché dimenticato, e nel 1958 usciva Perception and Communication di Broadbent, opera che doveva segnare un altro punto fermo rilevante, con la proposta della «teoria del filtro», nella storia della psicologia cognitivista. Sempre in quegli anni, Brown [1958] trae dal dimenticatoio, in cui era rimasto per oltre mezzo secolo, il problema della memoria a breve termine, e nel 1960 Sperling «scopre» la memoria iconica una memoria a brevissimo termine (i tempi di immagazzinamento sono compresi tra i 100 e i 500 ms), precedente al riconoscimento degli stimoli in arrivo, e la cui esistenza, dimostrata ingegnosamente da Sperling nel 1960, non era mai stata sospettata, anche perché gli elementi immagazzinati in tale memoria, se non passano attraverso fasi ulteriori di elaborazione, vengono irrimediabilmente persi. In pochi anni si assiste a un enorme sviluppo delle ricerche su memoria a breve termine e memoria iconica, con un cambiamento radicale nella tradizionale impostazione degli studi sulla memoria. Merita anche il ricordare che questi lavori, unitamente a quelli sul hackward masking (fenomeno per cui, presentando in determinate condizioni per tempi molto brevi due stimoli visivi, il secondo cancella percettivamente il primo), costituiranno un fondamentale punto di partenza per il già citato saggio di Neisser [1967]. Ancora di questi anni sono i fondamentali lavori di Newell, Shaw

51

\

__„ ___ ---•*

52

STORIA E METODI

e Simon sui metodi euristici nella soluzione di problemi [Newell e Simon 1956; Newell e Shaw 1957], che avranno a loro volta una determinante importanza soprattutto nel mostrare le potenzialità della simulazione dei processi cognitivi. Sempre nel 1957 esce infine Syntactic Structures di Chomsky, che segna la nascita della linguistica generativa, e costituisce la prima alternativa, dopo quasi mezzo secolo, allo strutturalismo (e ai modelli comportamentisti di apprendimento linguistico e di controllo del comportamento verbale, da Bloomfield [1933], a Skinner [1957]). È superfluo soffermarsi sull'importanza della psicolinguistica sulla psicologia cognitivista, e in generale su tutta la cultura contemporanea. Semmai vi sono alcuni aspetti che vanno ulteriormente sottolineati ai fini del nostro discorso e che possono essere così schematizzati. Innanzitutto, e ciò vale anche per il discorso di Newell, Shaw e Simon, il comportamento linguistico dimostra una sua natura gerarchica, il che impedisce qualsiasi possibile analisi in termini di processi stocastici. In secondo luogo, la concezione di Chomsky è innatista, e nel tempo si preciserà sia nella sua impostazione etologica, sia nei suoi rapporti con le strutture neurofisiologiche. In terzo luogo, dalla psicolinguistica emergono due innovazioni metodologiche fondamentali: il ricorso alle intuizioni del parlante nativo (e quindi, in certo senso, un ritorno all'introspezione) e l'osservazione naturalistica, particolarmente per lo studio del linguaggio infantile, mediante l'uso di registrazioni. Anche sul piano istituzionale, le cose cominciavano a muoversi. Nel 1978, come raccontano Posner e Schulman [1979], si verificava «il principale evento responsabile della nascita della scienza cognitiva». Ad Harvard, per iniziativa di Jerome Bruner e George A. Miller veniva istituito presso il Dipartimento di Psicologia un Centro per gli Studi Cognitivi. Nel 1960 usciva Piani e struttura del comportamento di Miller, Galanter e Pribram. Abbiamo qui il primo discorso organico sulla nuova psicologia che sta nascendo, e l'analisi è in questo caso centrata sulla possibilità di trovare una nuova unità di comportamento, che sostituisca quella del «riflesso» che ha imperato nel comportamentismo; l'unità che viene proposta è quella del TOTE (acronimo dalle iniziali delle parole test, operate, test, exit). Secondo Miller, Galanter e Pribram, ogni azione è diretta a uno scopo e ogni volta che un individuo vuole compiere un'azione formula un piano di comportamento per ottenere lo scopo prefissato. Il primo passo del piano consiste nel compiere un test mirante a verificare la congruenza esistente tra la realtà esterna e tale scopo. Se, ad esempio, il mio scopo è quello di avere un chiodo conficcato in un certo punto del muro, inizialmente effettuerò un test per verificare che il chiodo non vi sia già. Se c'è, il piano non viene sviluppato oltre, e si passerà direttamente all'uscita, e quindi all'effettuazione di un nuovo piano tad esempio, appendere un quadro a quel chiodo). Se non c'è, passerò alla fase operativa, in questo caso piantare il chiodo. Eseguita la fase operativa, eseguirò un nuovo test per verificare che il chiodo sia conficcato

STORIA E METODI

nella giusta posizione. Se è così passerò all'uscita, in caso contrario effettuerò una nuova operazione per correggere la posizione del chiodo. Si può però tener conto anche degli aspetti gerarchici del comportamento, e l'unità può essere utilizzata a più livelli, dal molecolare al molare. La successiva opera organica sarà quindi quella, anch'essa più volte citata, di Neisser [1967]. Si ha qui un poderoso sforzo di sintesi delle acquisizioni ottenute in poco più di dieci anni, e il tentativo quindi di dare un panorama organico di una nuova realtà che si è progressivamente realizzata nella psicologia sperimentale. Il paradigma che viene enunciato, e che caratterizzerà tutta la prima fase del cognitivismo, passerà sotto il nome di Human information processing (H IP ) O elaborazione delle informazioni da parte dell'uomo. Oggetto di studio della psicologia cognitivista sono sostanzialmente dei processi, i processi cognitivi. Sembrerebbe superfluo dirlo, ma in realtà è importante proprio mettere l'accento sul fatto che è una psicologia che si occupa non di contenuti, o di comportamenti, o di vissuti, ma di processi. È in un certo senso una psicologia mentalistica, ed è interessante osservare che spesso l'accusa di mentali smo, rivolta dai comportamentisti ai cognitivisti non è mai stata smentita da questi ultimi. Oggetto della psicologia è cosa fa una persona, ma questo «cosa fa» non va inteso nel senso di un comportamento esterno, bensì di un processo di elaborazione delle informazioni che l'individuo compie. Ogni modalità di accesso a tale/i processo/i è lecita, sia che sia possibile ricavarla da un comportamento esterno, sia che si debba ricorrere all'introspezione. L'altro metodo riportato in auge dai cognitivisti, a cui già abbiamo accennato, si riferisce al computo delle frazioni di tempo necessarie a compiere determinate operazioni. Per capire che uso ne è stato fatto nell'ambito della psicologia cognitivista, potremmo limitarci ad un esempio. In un esperimento di Miller e McKean [1964] i soggetti, premendo un pulsante, potevano leggere una frase che veniva presentata tachistoscopicamente; al soggetto veniva richiesto di operare una certa trasformazione sintattica della frase (per esempio, da affermativa attiva a negativa passiva); una volta che il soggetto aveva chiara in mente la trasformazione, doveva premere una seconda volta il pulsante; sarebbe allora comparsa una lista di frasi, e il soggetto doveva rintracciare quella corrispondente alla trasformazione operata, e premere per la terza volta il pulsante. Secondo Miller e McKean, la differenza tra i tempi intercorrenti tra la prima e la seconda pressione del pulsante nella condizione sperimentale e di controllo starebbe a indicare i tempi di trasformazione della frase. Vennero così dimostrati tempi diversi per le diverse trasformazioni, e si potè così dimostrare anche l'additività dei tempi di trasformazione. Ad esempio, il tempo di trasformazione di una frase da attiva affermativa a passiva negativa è pari alla somma dei tempi di trasformazione da attiva affermativa ad attiva negativa e da attiva affermativa a passiva affermativa. Ora questi risultati parlano a favore di una

53

54

STORIA E METODI

teoria trasformazionale della sintassi, ipotizzando che a tempi diversi corrispondano processi diversi. Ecologia e scienza cognitiva

Se quello che abbiamo sin qui abbozzato è il quadro generale del cognitivismo, come si è venuto delineando nel corso dei suoi primi vent'anni circa di vita, è però importante tentare di cogliere una serie di elementi più recenti che hanno portato a una svolta radicale nell'ambito di questo movimento. All'interno stesso del cognitivismo si è aperta una riflessione critica (e autocritica) molto profonda. L'inizio di questa riflessione può essere fatta risalire ai convegni tenutisi nell'ottobre del 1972 alla Pennsylvania State University su processi cognitivi e processi simbolici e l'anno successivo all'Università del Minnesota [Shaw e Bransford 1977]. In queste occasioni si assiste a un diffuso rifiuto dei «micromodelli» e all'affacciarsi di sostanziali perplessità nei confronti dell'analogia tra uomo e calcolatore; o meglio, dell'uomo concepito in puri termini di elaborazione delle informazioni. Ma il punto forse più significativo di questa riflessione è rappresentato dalla pubblicazione, avvenuta nel 1976, di un discusso nuovo libro di Neisser, Cognition and Reality, che ha suscitato numerose polemiche. Va comunque anche ricordato che si tratta appunto di quel Neisser che, con il suo Cognitive Psychology del 1967 aveva praticamente segnato l'inizio «ufficiale» del cognitivismo, fornendo anche un nome al movimento. Neisser muove ora tre fondamentali critiche alla psicologia cognitivista, per come si è andata configurando nei dieci anni circa successivi all'uscita del suo primo libro. Innanzitutto egli ritiene che vi sia stato un progressivo restringimento di campo, con un'attenzione fecalizzata sempre di più sull'esperimento di laboratorio e sempre di meno rivolta al mondo esterno, quello della vita quotidiana. In secondo luogo, secondo Neisser, se le ricerche attuali sono sempre più sofisticate e ingegnose, allo stesso tempo viene fatto di domandarsi quanto siano genuinamente produttive. Si assiste, in altri termini, a un progressivo ripiegarsi della ricerca su se stessa, e gli esperimenti che vengono effettuati sembrano sempre più rivolti alla situazione sperimentale stessa, e sempre meno volti a comprendere il funzionamento dell'uomo. Ma l'aspetto più interessante delle osservazioni di Neisser è rivolto alla critica che egli oggi muove al concetto di «elaborazione delle informazioni», centrale, come abbiamo visto, per tutta la psicologia cognitivista. Questo concetto, apparentemente così chiaro, soffre invece di un'ambiguità di fondo; di fatto, esso muta del tutto significato nel momento in cui le «informazioni» vengono definite in modo diverso dai differenti autori. Secondo Neisser, le «informazioni» che l'individuo elabora vanno viste nell'ambiente, perché è li che sono, ed è l'ambiente che le offre. Nella sua nuova

STORIA E METODI

concezione, l'individuo possiede nella sua struttura cognitiva degli «schemi» che gli consentono di coglierle, e che costituiscono il fondamentale legame tra percezione e pensiero. Con i due suddetti convegni, e con il libro di Neisser, si afferma così una nuova linea all'interno del cognitivismo, che, dati anche i richiami a Gibson di molti di questi autori, si è venuta a chiamare «ecologica». E sarà Gibson - scomparso nel 1979, proprio l'anno in cui vede la luce la sua opera più importante (e di più durevole influenza) - con la proposta di un approccio ecologico alla percezione visiva, il nume ispiratore di gran parte della ricerca successiva. Può apparire curioso citare a proposito del cognitivismo un autore che come Gibson rifiuta quello che è il postulato primo del cognitivismo: la mente come capace di rappresentazione ed elaborazione delle informazioni. Per Gibson tutto ciò è irrilevante: le informazioni sono già presenti nella stimolazione come si presenta direttamente al soggetto, e da questi possono essere direttamente colte (si parla di teoria della percezione diretta) senza dover ricorrere a sistemi computazionali, flussi informazionali, strutture rappresentazionali. E hanno senso per l'organismo che le coglie direttamente dalla stimolazione in quanto affordances (un intraducibile neologismo coniato da Gibson, e derivante da to afford, fornire, presentare, ma anche essere in grado di far qualcosa) presentate dall'ambiente in relazione al valore evolutivo che hanno per l'organismo. La prospettiva ecologica ha immediatamente un notevole successo. Tra l'altro, essa offre strumenti di analisi dei problemi percettivomotori che sino a questo momento erano rimasti marginali nel quadro della psicologia sperimentale, nonostante la loro notevole rilevanza sul piano applicativo. Ma non per questo il cognitivismo ha ritrovato una sua unitarietà. In direzione opposta alla tendenza ecologica si ha infatti l'inizio della cosiddetta «scienza cognitiva». È questo un movimento che nasce nel 1977, quando R. Schank, A. Collins e E. Charniak fondano una nuova rivista così appunto chiamata. Il programma della rivista è enunciato sul primo numero da Collins [1977]: esiste un insieme di problemi comuni, che riguardano intelligenza naturale e artificiale per studiosi provenienti da psicologia cognitivista e sociale, tecnologie dell'educazione, intelligenza artificiale, linguistica computazionale, epistemologia. I problemi su cui possono incontrarsi sono costituiti dalla rappresentazione delle conoscenze, dalla comprensione del linguaggio, dalla comprensione delle immagini, dalle risposte alle domande, dall'inferenza, dall'apprendimento, dalla soluzione dei problemi, dalla pianificazione. L'anno successivo gli studiosi della scienza cognitiva fondano una società, il cui primo congresso si tiene a La Jolla nell'agosto del 1979. Nell'occasione, Norman [1980] stabilisce in dodici punti le aree di indagine della disciplina: sistemi di credenze, coscienza, evoluzione, emozione, interazione, linguaggio, apprendimento, memoria, percezione, prestazione, abilità, pensiero. I due paradigmi che hanno dominato il campo nella scienza co-

55

56

STORIA E METODI

gnitiva sono quelli del modularismo e del connessionismo. Le opere che hanno imposto all'attenzione degli studiosi questi due paradigmi sono comparse entrambe all'inizio degli anni ottanta: un importante libro di Fodor [1983], Modularity of Mind, e un articolo di Hopfield [1982], che ha esercitato immediatamente un influsso dirompente. Il modularismo, nella versione di Fodor, prevede un'architettura cognitiva distinta, almeno per quel che riguarda i sistemi di analisi di input, in strutture verticali, i moduli, appunto, che trasformano computazionalmente gli input in rappresentazioni che offrono alla parte centrale del sistema cognitivo. Questi sistemi di analisi dell'input hanno queste sostanziali caratteristiche: 1) sono specifici per dominio: in altri termini, si tratta di strutture altamente specializzate, che possono analizzare dei tipi di input molto particolari e differenziati da modulo a modulo; 2) il loro funzionamento è obbligato (mandatary): in altri termini, quando sono in presenza del tipo specifico di input che sono deputati ad analizzare, non possono fare a meno di entrare in azione; 3) c'è solo un accesso centrale limitato per le rappresentazioni che computano: in altri termini, i livelli intermedi di analisi dell'input sono relativamente inaccessibili agli stati centrali di coscienza; 4) sono dotati di notevole velocità di funzionamento; 5) sono incapsulati informazionalmente. In altri termini, durante il loro funzionamento non possono avere accesso né in generale alla rappresentazione delle conoscenze dell'individuo, memorizzata a lungo termine, né ad informazioni comunque provenienti da altre parti del sistema cognitivo dell'individuo. Questo modello ha riscosso un notevole successo soprattutto in neuropsicologia, dove la verifica dell'esistenza di strutture di tipo modulare è dato costante. Se però vogliamo fare un bilancio quantitativo, è probabile che dovremmo concludere, nell'ambito delle scienze cognitive, per una prevalenza numerica dei sostenitori del connessionismo. Vediamo dunque questi modelli connessionisti (cfr. Rumelhart e McClelland [1986]; e le discussioni aperte su «Behavioral and Brian Sciences» da Feldmann [1985], e Ballard [1986]; per un'introduzione esemplarmente chiara in italiano, cfr. Parisi [1989]). Questi modelli si sono affermati in pochissimi anni e in modo clamoroso, tanto da far parlare di nuovo «paradigma» nella scienza cognitiva, sotto la spinta di due ordini di considerazioni, tecnologiche e (neuro)psicolo-giche. Dal punto di vista tecnologico, la struttura degli attuali calcolatori (terzaquarta generazione) si è rivelata sempre più inadeguata rispetto ai compiti in continuo incremento di complessità che il mondo moderno affida loro. Essi sono concepiti in base a una architettura sequenziale, con una memoria passiva che non può essere utilizzata per compiere le operazioni, e con una strozzatura, quindi, tra memoria e processore. Sul versante neuropsicologico, d'altra parte, esiste una notevole incongruenza tra l'hardware del sistema nervoso centrale e quello dei calcolatori. Il primo, infatti, opera con elementi

STORIA E METODI

relativamente lenti, che scaricano con tempi dell'ordine dei millisecondi, ma il numero delle interconnessioni tra elementi è molto elevato, e l'incredibile rapidità con cui il sistema nervoso centrale è in grado di operare appare frutto soprattutto del fatto che le operazioni avvengono a un grado elevatissimo di parallelismo. In altri termini, sinora i calcolatori hanno operato (e, nell'lA, cercato di simulare il comportamento) con elementi rapidissimi operanti serialmente; mentre il sistema nervoso opera con elementi relativamente lenti, ma massivamente interconnessi in parallelo. La modellistica si è dunque oggi indirizzata prevalentemente, sia nella progettazione dei calcolatori cosiddetti di quinta generazione, sia nella interpretazione del funzionamento del sistema nervoso, verso il connessionismo, con l'elaborazione di modelli di funzionamento a parallelismo massivo. Si tratta di modelli tra l'altro compatibili con alcune vecchie idee della psicologia classica, e in particolare compatibili con la concezione interattiva di campo, cavallo di battaglia della psicologia della Gestalt, che sembrava tramontata. Come notano Hatfield e Epstein [1985, 181 ss.], di fatto i principi di minimo, o di economia, che regolano il funzionamento del campo possono essere concepiti anche attraverso l'interazione diretta di numerosi eventi mutuamente indipendenti. Una situazione di questo genere si può concettualizzare in termini di connessioni laterali a livello di corteccia visiva, ma in generale di sistema nervoso centrale. I modelli connessionisti a parallelismo massivo consentono di far uscire queste nozioni dal vago, ma soprattutto tendono a risolvere la controversia tra modelli processuali e modelli computazionali, poiché è il concetto stesso di «calcolo» a modificarsi, potendosi concepire l'aspetto computazionale in termini di interazione diretta tra un ampio numero di unità locali nel cervello. Questa concezione della computazione può essere concepita come una versione formalizzata di due tradizioni di pensiero tradizionalmente distinte. Essa è nello spirito delle idee qualitative delle funzioni del cervello come introdotte da Kòhler e dai suoi collaboratori, e può essere vista come una discendente dell'approccio connessionista rappresentato da Hebb [1949]. Stando così le cose, le teorie di campo potrebbero trovare un nuovo e ben più potente impulso basandosi su questi modelli. Ma vediamo cosa c'è al cuore del connessionismo, e cioè la modellizzazione in termini di reti neurali. Un esempio di rete (ma le architetture possibili sono numerose) può essere rappresentato da una cosiddetta rete feed-forward, con apprendimento per back-propagation. Di cosa si tratta è, molto schematicamente, presto detto. La rete ha almeno tre layers di unità: di input, cosiddette «nascoste», e di output. Le unità sono collegate da legami, che hanno dei «pesi», che possono essere variati durante il periodo di apprendimento (cfr. fig. 1.2). Questi pesi sono nuli'altro che dei coefficienti, che, dato un legame tra un'unità a monte e una a valle, trasformano per moltipli-

57

58

STORIA E METODI

Unità di input

Unità nascoste

Unità di output FIG. 1.2. Modello di rete neurale.

cazione l'output dell'unità a monte nell'input dell'unità a valle. Durante il periodo di apprendimento, viene proposto un input e un target che corrisponde all'output desiderato. Se l'output della rete non corrisponde al target, esso viene modificato forzandolo dall'esterno, ma questo provoca a ritroso (per back-propagation) una modificazione di tutti i pesi a monte, in modo che siano compatibili con l'output della rete così modificato (per un esempio più dettagliato, cfr. cap. IV, par. 3). Un'ultima notazione: questa eccessivamente succinta trattazione delle linee fondamentali dei modelli connessionisti appare in contrasto con le teorie modulari cui si è accennato precedentemente; e di fatto le polemiche tra connessionisti e modularisti sono aspre [Fodor e Pylyshyn 1988; Smolensky 1990], In realtà, le affinità potrebbero essere molto più rilevanti delle differenze. 3. I metodi della psicologia 3.1. Il metodo scientifico

Come si è detto, la psicologia si è costituita in scienza autonoma alla metà del secolo scorso nel momento in cui ha trovato il modo di utilizzare, come le altre scienze naturali, il metodo scientifico. Ma come può definirsi il metodo scientifico, e come si differenzia questo da altri metodi che nella storia delle idee l'uomo ha sviluppato per mettere ordine tra le sue conoscenze? Caratteristici del metodo scientifico sono tre concetti chiave: a) quello di aggettività, b) quello di variabile e e) quello di controllo. Do-

STORIA E METODI

vremo inoltre esaminare anche il concetto di misurazione, la cui importanza per la scienza è palese. Vediamoli uno alla volta. L'aggettività

Più volte abbiamo parlato dei problemi che si sono posti alla psicologia, quando questa ha voluto costituirsi come scienza naturale, e abbiamo discusso il problema dell'oggettività dei dati su cui costruire la teoria. È questo un problema di tutte le scienze, ovviamente, ma se nelle altre scienze il problema raramente si è posto, sembrando naturale che la scienza si costruisse su dati oggettivi (e questo ancor prima di Galileo), in psicologia il problema ha sempre avuto un rilievo fuori dell'ordinario. Parlando della crisi che portò alla costituzione del comportamentismo, negli anni attorno alla prima guerra mondiale, abbiamo già in parte discusso questo problema. L'oggettività, secondo i comportamentisti, poteva essere ottenuta solo eliminando la coscienza dagli oggetti di studio della psicologia. Sostituendo alla coscienza il comportamento, la psicologia avrebbe osservato qualcosa di «oggettivo», come la fisica e le altre scienze naturali. Si trattava, peraltro, di una grossolana semplificazione dei problemi. Come scriveva Kòhler [1947] questo è l'errore del comportamentista: egli dimentica che dimostrare l'esistenza di un mondo fisico indipendente è assai arduo [...] le mie osservazioni dei fatti fisici appartengono sempre alla stessa classe generale a cui appartengono quelle riguardanti le immagini consecutive, o la scarsa definizione delle immagini che trovo nella visione periferica, o la mia sensazione di benessere [...] io non la evito l'esperienza diretta nelle operazioni della fisica, perché non è evitabile [...] perciò alcune osservazioni riferentesi all'esperienza diretta devono di necessità costituire una base interamente adeguata per la scienza. L'oggettività nella scienza, infatti, è semplicemente legata alla possibilità di consentire che persone diverse, nelle stesse circostanze, compiano le stesse osservazioni. Da questo punto di vista, gli stessi dati introspettivi possono essere accettati. Possiamo ricordare che anche gli epistemologi più rigorosi da un punto di vista empiristico, e cioè i cosiddetti neopositivisti logici, primo tra tutti Carnap, hanno finito con l'ammettere la validità dei dati introspettivi. Ricordiamo infatti che, in una prima fase, Carnap [1928] aveva ritenuto possibile che tutti i termini delle scienze empiriche potessero essere definiti (con definizioni esplicite o contestuali) mediante termini osservativi («empirismo ristretto»). Ci si dovette però accorgere rapidamente che questi processi definitori non erano applicabili ad almeno due classi di termini scientifici, i termini disposizionali (che non designano delle caratteristiche direttamente osservabili degli eventi fisici, ma delle caratteristiche che tali eventi mostrano solo in determinate circostanze) e quelli quantitativi.

59

60

STORIA E METODI

Si dovette così giungere progressivamente a una «liberalizzazione dell'empirismo», con cui [Carnap 1956; Hempel 1952; 1958] ci si rese conto dell'impossibilità di introdurre i termini teorici solo sulla base di procedimenti definitori e riduttivi, con partenza da osservabili, e si riconobbe quindi la necessità di introdurre un insieme di termini primitivi non definiti nella teoria, e un insieme di postulati: il sistema teorico, contrariamente a quanto ingenuamente pensavano i comportamentisti, non può reggersi unicamente sull'osservazione. Per quel che riguarda poi specificamente il problema dell'oggettività in psicologia, lo stesso Carnap [1956, 273] ammise che «il tipo logico di un concetto psicologico è indipendente dalla sua natura metodologica, ad esempio dal fatto che sia basato sull'osservazione del comportamento, piuttosto che sull'introspezione»; perché i concetti psicologici abbiano le caratteristiche essenziali dei concetti teorici, ciò che conta è che si tratti di «proprietà, relazioni o grandezze quantitative assegnate a certe regioni spazio-temporali (generalmente organismi umani o classi di organismi umani)». Il più maturo comportamentismo, del resto, come rileva ad esempio Hempel [1952], ammette i termini mentalistici, purché non siano tra quelli del vocabolario osservativo di base, e purché si tratti di termini disposizionali (e quindi definibili per riduzione). È in tale modo che di fatto nel comportamentismo sono così potute entrare le «variabili intervenienti» (cfr. par. 2.6 e Tolman [1951]). Tornando quindi al nostro problema dell'oggettività, oggi la psicologia, consapevole dell'impossibilità di risolvere il problema semplicisticamente, e consapevole del resto della complessità del problema anche nelle altre scienze della natura, accetta liberamente anche dati di tipo mentalistico, purché inseriti in un costrutto teorico che sia fondato su dati osservativi. Le variabili

Gli eventi del mondo che osserviamo (dati mentalistici compresi, se raccolti secondo le indicazioni sopra date) possono rientrare in diverse categorie, e assumere all'interno di tali categorie diversi valori. Così, una categoria è, ad esempio, se parliamo di esseri umani, il sesso: in questo caso i valori possibili sono due, maschio o femmina. Un'altra categoria è la professione: possono incontrarsi ingegneri, medici, idraulici, casalinghe, ecc. Un'altra categoria ancora è il prestigio sociale: alle diverse professioni di cui sopra, così, è associata una certa considerazione all'interno di una determinata società, per cui l'ingegnere ha più prestigio sociale dell'idraulico, la casalinga meno del giudice. Ancora un'altra categoria è Yintelligenza, ad esempio misurata in termini di QI (quoziente di intelligenza): una persona di intelligenza media si dice che ha un QI di 100, una persona con intelligenza superiore avrà un QI di 120, una con intelligenza inferiore, di

STORIA E METODI

80. E così via. È a queste categorie a cui possono essere associati valori diversi che diamo il nome di variabili. In altri termini, tutti gli eventi che cadono sotto la nostra osservazione, e a cui possono essere attribuiti valori differenti, sono potenzialmente delle variabili. Si sarà notato che parlando di valori si sono indicate delle attribuzioni come il sesso, la professione, il prestigio, a cui difficilmente nel linguaggio quotidiano si attribuisce un significato quantitativo. Come vedremo tra breve, parlando di misurazione, esistono diversi livelli di scale di misura, e «maschio» e «femmina», al livello appropriato (come vedremo, nominale), sono due valori perfettamente legittimi di misurazione. Quel che qui piuttosto ci interessa è il concetto di variabile. Il compito principale che ogni scienziato si pone è determinare il rapporto che esiste tra le variabili che osserva. Lo scienziato può così interessarsi al rapporto che esiste tra sesso e professione: è significativamente differente la frequenza delle donne e degli uomini che si dedicano a certe professioni? Tra gli ingegneri si trovano più maschi? Tra i pediatri, più femmine? E che relazione c'è tra professione e prestigio sociale? Hanno più prestigio gli idraulici o le casalinghe? E che rapporto può esserci t^a intelligenza e prestigio sociale? E così via. Abitualmente si distinguono le variabili in indipendenti e dipendenti. Si dice che le prime vengono manipolate dallo scienziato, mentre delle seconde si osserva il variare dei valori in dipendenza della variazione dei valori delle prime. Questa formulazione richiede qualche spiegazione. Quando si dice che le variabili indipendenti vengono «manipolate» dallo sperimentatore, si intende dire due cose che possono essere profondamente diverse. In un primo caso, è lo sperimentatore che produce direttamente i diversi valori della variabile indipendente: per esempio, somministrando o meno un certo farmaco a diversi gruppi di soggetti e rilevando poi (variabile dipendente) l'effetto del farmaco, ad esempio in termini di ore di sonno, o di variazione di peso corporeo, o di sedazione, ecc. In un secondo caso, i valori della variabile indipendente sono già esistenti nella loro gamma: se lo sperimentatore vuole studiare come variano le scelte professionali (variabile dipendente) al variare del sesso dei soggetti (variabile indipendente), dire che manipola questa variabile certamente non può implicare l'invio dei soggetti in centri attrezzati di chirurgia plastica al di là del mediterraneo; più semplicemente, sceglierà (con i criteri che vedremo) i suoi soggetti tra i due sessi. In ogni ricerca, è purtroppo ineliminabile il fatto che la variabile dipendente vari anche in dipendenza di altre variabili non comprese dallo sperimentatore tra le variabili indipendenti. Tali variabili vengono riassuntivamente poste sotto l'etichetta di errore statistico. Del resto, si badi che è assolutamente impossibile pensare di poter tenere sotto controllo tutte le variabili estranee. Ciò che una persona è attualmente è frutto di un'infinità di fattori differenti: l'appartenenza

61

62

STORIA E METODI

alla specie umana, in primo luogo, ma anche l'appartenenza a una certa cultura, l'essere nata in una certa famiglia, avere un determinato corredo genetico suo peculiare, avere fatto determinate esperienze, avere avuto una determinata alimentazione, aver subito certi traumi, ecc. L'elenco potrebbe essere infinito. Tra tutti questi fattori, noi, per esempio, scegliamo come variabile indipendente il sesso, e lo poniamo in relazione alle scelte professionali. Parlando del comportamentismo, abbiamo accennato alle variabili intervenienti. Si tratta di un concetto teorico e non legato al disegno della ricerca. Di fatto, le variabili intervenienti dei comportamentisti sono specificamente delle variabili confondenti, «celate», come diceva HulI [1943a], nel sistema nervoso, ma a cui non veniva assegnato uno status di realtà, ma solo di costrutto ipotetico. Così, le variabili intervenienti vengono invocate dai comportamentisti quando il rapporto tra variabile indipendente (la situazione di stimolazione S) e variabile dipendente (la risposta organismica R) si rivela non univoco, e occorre invocare qualcosa di interposto tra S e R, che «moduli» l'influenza di S su R. Controllo e previsione

La ricerca scientifica può ottenere dei risultati attendibili solo se conduce le sue osservazioni in modo controllato. Per controllo si intende la capacità di eliminare le influenze di variabili diverse da quelle la cui influenza reciproca viene studiata. Da questo punto di vista, le variabili estranee a quelle indipendenti e dipendenti si distinguono in variabili sistematiche e asistematiche.

Le prime, dette anche confondenti, esercitano un loro influsso costante sulla variabile dipendente - se venissero individuate, sarebbero in senso proprio variabili indipendenti. Tra queste, particolare attenzione va posta agli effetti che si verificano quando la ricerca richiede misurazioni prima e dopo il trattamento. In questo caso possono entrare in gioco due tipi di variabili confondenti: la maturazione e Xapprendimento. La prima entra in gioco particolarmente in età evolutiva, quando nel corso del tempo che passa tra la prima e la seconda rilevazione il soggetto va incontro a modificazioni legate a fattori biologici, apprendimenti estranei alla sperimentazione, ecc. Così, studiare l'influenza di una determinata tecnica di apprendimento su bambini, con distanza di mesi tra la prima rilevazione pretrattamento e la seconda post trattamento, ci può mettere nell'impossibilità di determinare se i risultati ottenuti sono dovuti al fatto che il bambino è passato da una fase cognitiva ad una di maggiore maturità, se le necessarie esperienze che nel frattempo ha fatto lo hanno portato a elaborare in modo diverso le informazioni pertinenti, e così via. Il problema dell'apprendimento è invece legato specificamente alle modalità di misurazione che utilizziamo. Se, per esempio, la prima

STORIA E METODI

rilevazione si basa sulla capacità di risolvere determinati problemi, evidentemente nella seconda misurazione dovremo tener conto del fatto che il soggetto nel corso della prima può avere appreso a risolvere quei problemi specifici. Per quel che riguarda le variabili estranee asistema'tiche, anche in questo caso i disegni sperimentali tendono ad eliminarne l'effetto. Peraltro, lo sperimentatore deve cercare di ridurne comunque l'entità. Se una piena eliminazione è utopistica, l'uso di condizioni per quanto possibile identiche in tutte le prove (il cosiddetto ceteris paribus) certamente è da perseguire. Anche lavorare in condizioni di stimolazione impoverita da un buon aiuto in proposito; in questo caso, però, si corre un rischio differente; la condizione che si ottiene non è assolutamente «ecologica», allontanandosi di molto da quella della vita abituale del soggetto. E non sappiamo se questo non può costituire di per sé l'insorgere di un'altra variabile estranea, f metodi principali comunque sono quelli dell'introduzione dei controlli, assegnando casualmente i soggetti ai gruppi o ai trattamenti. Il fine della scienza, l'abbiamo detto, è la previsione. I dati che si raccolgono hanno senso se ci consentono di prevedere cosa accadrà, date determinate condizioni. Ciò si ottiene in un solo modo: determinando una dipendenza causale tra variabile indipendente e dipendente, che ci permette di dire che in presenza di determinati valori della prima si dovranno riscontrare determinati valori della seconda. La misurazione

Parlando di variabili, negli esempi che abbiamo proposto abbiamo visto che i valori che possiamo attribuire agli eventi del mondo non sono necessariamente «quantitativi», nel senso usuale del termine, o quanto meno nell'uso che se ne fa quotidianamente. Più precisamente, possiamo dire che ogni operazione di misurazione corrisponde a mettere in relazione certe proprietà degli eventi che osserviamo con proprietà dei numeri reali, e quindi operare su questi ultimi, come se stessimo operando sui primi. Peraltro, esistono diversi livelli di misurazione, corrispondenti a quali proprietà dei numeri reali vogliamo utilizzare. S.S. Stevens [1951], il grande teorico della misurazione in psicologia, di cui già abbiamo parlato a proposito della legge psicofisica, propone di utilizzare quattro livelli di misurazione: nominale, ordinale, di intervallo, di rapporto. Livello nominale. Una prima proprietà dei numeri reali è quella della cardinalità, che fa sì che ogni numero sia differente dagli altri. Negli esempi sopra dati, si faceva riferimento a variabili i cui valori indicavano semplicemente una differenza tra un evento e un altro. Così, si parlava di sesso o di professioni. Ma gli esempi possono essere moltiplicati pressoché all'infinito. Possiamo parlare per esempio di fecondità, con due valori: fertilità contrapposta a sterilità; di appartenenza a scuole diverse: studenti di liceo classico, di liceo

63

64

STORIA E METODI

scientifico, di istituto tecnico, ecc; di appartenenza a gruppi etnici: italiani, sloveni, ladini, ecc; e così via. In tutti questi casi, l'unica cosa che conta è la differenza, ma non viene determinata nessuna relazione asimmetrica, del tipo maggiore/minore, che consenta di mettere su una scala ordinale i valori. Essi sono solo differenti, ma nessuno può dire che femmina è più o meno di maschio, che sloveno è più o meno di italiano. E se attribuiamo dei numeri ai valori che osserviamo, questi valgono solo in quanto diversi gli uni dagli altri. Così, possiamo dire che femmina = 1 e maschio = 2, ma ciò non ci autorizza a dire che due femmine equivalgono a un maschio. O possiamo dire che ingegnere = 1, idraulico = 7, talassografo = 13, ma ciò non significa che per fare un talassografo occorre sottrarre un ingegnere da due idraulici. I numeri vengono scelti solo in quanto diversi l'uno dall'altro, la scelta è del resto assolutamente arbitraria, purché si rispetti la differenza. Livello ordinale. A livello ordinale, oltre alla differenza tra valori, definiamo anche una relazione asimmetrica d'ordine, o in altri termini una relazione maggiore/minore ( >, < ). In questo caso, dati due eventi, possiamo dire se il valore dell'uno è maggiore o minore (o uguale) di quello dell'altro; ciò che non possiamo dire è di quanto è maggiore o minore - e, si badi bene, non perché non lo sappiamo, ma perché la grandezza degli intervalli non è definita. Un esempio assolutamente classico di scala ordinale è in mineralogia la scala di Moss delle durezze, una scala a dieci livelli, che vanno dal talco (il meno duro) al diamante (il più duro), dove il criterio per collocare una certa sostanza a un determinato gradino della scala è dato dal fatto che tale sostanza viene graffiata da quella posta al gradino superiore, e graffia quella posta al gradino inferiore. Ovviamente, sarebbe del tutto insensato pensare che questi gradini siano distanziati tra di loro, con intervalli uguali, come gli intervalli di una scala di lunghezze, o di pési, ecc. E ognuno si rende conto del fatto che dieci pezzi di talco non hanno, seppure messi insieme, la durezza di un diamante. Livello di intervallo. A livello di intervallo, si ha un ulteriore aumento nelle proprietà della misurazione. Qui, infatti, non solo i valori possono essere posti su una scala ordinale, ma possono anche essere precisate le grandezze dell'intervallo che separa un valore dagli altri. In altri termini, esiste un'unità di misura, che vale a tutti i livelli della scala. Un esempio tipico di scala di intervallo è quello delle temperature. Ma proprio l'esempio delle temperature ci indica immediatamente qual è il limite di questa scala. Noi utilizziamo nel nostro paese la scala in gradi centigradi, che pone lo 0 alla temperatura di congelamento dell'acqua, e il 100 alla temperatura di ebollizione con pressione atmosferica di 760 mm di mercurio. Ora, si tratta di valori assolutamente arbitrari: nessuno potrebbe impedirci, mantenendo la scala esattamente le stesse caratteristiche metriche, di indi-

STORIA E METODI

care con 0° la temperatura di fusione del piombo o di passaggio allo stato solido del mercurio. Ben diverso sarebbe stato il caso in cui avessimo posto lo 0° a livello del cosiddetto zero assoluto ( — 273°), della temperatura, cioè, minima in assoluto, perché al di sotto di essa il concetto non è definito. Avendo uno zero arbitrario, come in tutte le misurazioni in scale di intervallo, possiamo operare sui valori utilizzando molte delle operazioni aritmetiche che abbiamo disponibili; ma certo non possiamo fare rapporti. Infatti, perché l'operazione di rapporto abbia senso occorre che l'origine della scala sia fissa e non arbitraria. Livello di rapporto. E giungiamo così al livello più alto di misurazione, quello in cui, muovendoci su una scala la cui origine non è arbitraria, tutte le operazioni definite sui numeri reali, compresa quella di rapporto, possono essere eseguite tranquillamente sui valori che rileviamo. Un esempio immediato di scala di rapporto è dato dalle lunghezze: evidentemente, l'origine della scala è data da uno 0 non arbitrario. Quando i dati vengono raccolti, occorre che si abbia piena chiarezza su qual è il livello di misurazione a cui ci muoviamo, perché evidentemente non tutti i test statistici possono essere utilizzati indifferentemente a qualsiasi livello di scala. 3.2. La raccolta dei dati II metodo comportamentale

Parlando del comportamentismo, e poco sopra dell'oggettività, abbiamo avuto modo più volte di parlare del rigorismo metodologico, spesso angusto e non particolarmente avvertito epistemologicamente, che è stato proprio di questa scuola di pensiero. Il comportamentismo si è distinto nel porre veti su veti alle tecniche più usate nella raccolta dei dati in psicologia. Dovremmo allora concluderne che il comportamentismo, sul piano metodologico, è stata una stagione tutta negativa in psicologia? Certamento no. Come osserva Legrenzi [1994], se volessimo tracciare un bilancio brutale, a settantacinque anni dall'articolo di Watson, dovremmo forse concludere che questi veti, in forma attenuata, sono entrati a far parte del bagaglio professionale di ogni psicologo. Quanti'anche si cercano di analizzare i contenuti mentali non lo si fa più con una cieca e totale fiducia nel metodo introspettivo o nel colloquio, limitandosi cioè a descrivere quello che passa per la testa nostra o altrui. Diciamo meglio: ogni psicologo oggi segue un metodo che a grandi linee può essere definito comportamentale. Per metodo comportamentale, intendiamo allora un metodo tale per cui lo sperimentatore esercita un duplice livello di controllo: da un lato, sui dati

65

66

STORIA E METODI

ambientali (versante dello stimolo, S), dall'altro sui dati comportamentali (versante delle risposte, R). L'uso più semplice del metodo comportamentale è quindi quello in cui lo sperimentatore sceglie tra gli eventi ambientali quelli che vanno considerati variabili indipendenti, che manipolerà adeguatamente, mantenendo costanti gli altri; e tra le risposte, quelle che dovrà osservare come variabili dipendenti. Evidentemente, con la progressiva «liberalizzazione dell'empirismo», a cui si accennava sopra, il numero di variabili comportamentali ritenute accettabili si è ampliato, ed è andato oltre le sole risposte «muscolari» e «ghiandolari» accettate da Watson. In particolare, la ricerca accetta senza alcun problema risposte neurofisiologiche idonee, come ad esempio i potenziali evocati, risposte elettriche di determinate strutture del sistema nervoso centrale alla presentazione di stimoli. E, per quello che riguarda i resoconti verbali dei soggetti umani, un tempo accettati dai comportamentisti solo come «comportamento verbale», e cioè come risposte muscolari degli organi fonato-ri, oggi vengono accettati evidentemente anche per il loro contenuto, per quanto mentalistico possa apparire. II metodo fenomenologico

Su un versante del tutto diverso dal metodo comportamentale si basa invece il metodo fenomenologico. Precisiamo immediatamente che quando parliamo in questa sede di metodo fenomenologico, non intendiamo assolutamente alludere a quel modo allusivo, metaforico, indefinito di intendere i concetti psicologici, che è tipico della psicologia (e della psichiatria) cosiddette fenomenologiche, e che ha un suo ambito di riferimento soprattutto clinico. Il metodo fenomenologico di cui qui si parla è quello che è stato utilizzato largamente dalla psicologia della Gestalt, e tuttora viene usato, particolarmente nel campo della psicologia della percezione e della psicologia del pensiero, da una larga tradizione di fenomenologia sperimentale che ha alla sua base questo metodo. Di cosa si tratti non è facile dire, perché pochi sono i contributi specifici nei quali gli studiosi hanno cercato di chiarire di cosa si trattasse. Quando nel 1979 venne pubblicata quella straordinaria raccolta di saggi che è Organization in Vision di Kanizsa, nell'entusiastica recensione che ne fece Frank Restie su «Contemporary Psychology», grande era anche l'imbarazzo che traspariva in uno psicologo americano, da sempre abituato al metodo comportamentale, nel trovarsi di fronte a una così pura applicazione del metodo fenomenologico. Sostanzialmente, possiamo definire il metodo fenomenologico come il metodo che utilizza sempre dei dati fenomenologici come variabile dipendente. In altre parole, lo sperimentatore deve innanzitutto definire il campo fenomenico in cui il soggetto si trova, determinandone le caratteristiche specifiche. Per campo fenomenico si intende l'insieme delle sue percezioni, di ciò che il soggetto vede, od ode,

STORIA E METODI

ecc; non ciò che sa, o pensa di sapere, di come sia il mondo reale al di là delle sue percezioni; ciò che gli appare, il fenomeno, non la pretesa cosa in sé al di là di questo. Si tratta, si badi bene, di un procedimento che non ha nulla di impressionistico, e che richiede, palesemente, la determinazione dei parametri fisici delle condizioni di stimolazione che si utilizzano. Ma il fatto di utilizzare linee, poniamo di una certa lunghezza, movimenti di oggetti di determinata velocità, chiarezza di superficie di determinati valori, non significa che questi valori «fisici» siano rilevanti (come nel metodo comportamentale): ciò che è cruciale è il valore fenomenologico che essi hanno per i soggetti. Il fenomenologo sperimentale distingue tra gli stimoli quelli prossimali da quelli distali. Questi ultimi sono quelli che hanno origine negli oggetti che circondano il soggetto; sono costituiti, ad esempio, dalla Juce che viene riflessa dalla loro superficie. I primi sono invece quelli che originano dagli organi di senso, stimolati dai secondi. Così, la luce riflessa dalla superficie di un oggetto viene a stimolare la retina, proiettando su di essa la cosiddetta immagine retinica; è questa che costituisce lo stimolo prossimale, ed è lo stimolo prossimale che costituisce la reale variabile indipendente, a cui il soggetto reagisce. Si badi che lo stesso stimolo prossimale può essere originato da più stimoli distali differenti; per fare un esempio banale, una linea lunga, ma lontana, proietterà sulla retina un'immagine della stessa lunghezza di quella di una linea corta, ma vicina. Ma il soggetto ha a disposizione solo la linea proiettata sulla retina. All'interno del metodo fenomenologico, particolare rilievo assume l'atteggiamento che il soggetto ha di fronte alle proprie esperienze, percettive, di ragionamento, ecc. Ad esempio, già Wertheimer [1922; 1923] aveva mostrato l'importanza di osservare le situazioni, con cui dimostrava le sue classiche leggi, in modo «spontaneo», «naturale», senza forzare l'osservazione, cercando di raggruppare percettivamente, ad esempio, cose che con l'osservazione naturale non si raggnipperebbero tra di loro. E più di recente, in ambito del tutto diverso, Julész [1984] ha dovuto insistere sulla necessità che le situazioni percettive da lui realizzate si osservassero without scrutiny, senza forzare l'osservazione, ma in modo spontaneo. Se nel metodo comportamentale è sostanzialmente proibita qualsiasi interazione tra soggetto e sperimentatore, al di là di un'illustrazione standardizzata e identica per tutti i soggetti della natura del compito da parte dello sperimentatore, e se vi è sostanzialmente un veto (oggi molto attenuato) ad indagare sui motivi che hanno condotto il soggetto a fornire determinate risposte, nel metodo fenomenologico il perché il soggetto ha certe modificazioni del suo campo fenomenico anziché altre è un oggetto primario di indagine. Viene quindi incoraggiato il colloquio tra sperimentatore e soggetto, anche se non con la sistematicità del metodo clinico, di cui parleremo nel prossimo paragrafo. Di più, c'è chi propone, con risultati di un certo interesse, il metodo dell'interosservazione; e cioè, la sistematica osser-

67

68

STORIA E METODI

vazione comune tra soggetti, con discussione tra di loro dei risultati della loro osservazione [Bozzi 1989; Bozzi e Martinuzzi 1989]. Si assume che ciò non crei modifiche dovute a suggestione, ma che, anzi, la discussione critica comune annulli i possibili effetti suggestivi. II metodo dinico Parlando in questa sede di metodo clinico, dobbiamo immediatamente precisare che non alludiamo minimamente a un procedimento utilizzato in psicologia clinica, intesa come quella branca della psicologia applicata che si occupa di diagnosticare e risolvere problemi psicopatologici. Si tratta viceversa di un metodo di indagine in cui i dati vengono raccolti in modo peculiare, attraverso un certo modo di rapportarsi dello sperimentatore con il soggetto dell'esperimento. Questo metodo è stato proposto per lo studio psicologico dei processi cognitivi in età evolutiva soprattutto da Jean Piaget, ed è stato largamente utilizzato nella sua scuola. A partire dagli anni sessanta, poi, è stato applicato anche nella ricerca su soggetti adulti da Wason [Wason e Johnson-Laird 1972]. Il procedimento può essere illustrato molto semplicemente. Il soggetto viene posto di fronte a un compito e lo sperimentatore non si limita a prendere nota di come risolve il compito, come il metodo comportamentale vorrebbe, se rigorosamente attuato, ma gli chiede, man mano che procede nell'esecuzione, quali sono i processi mentali che lo portano a individuare un certo percorso, anziché un altro. Facciamo un esempio: in un famoso esperimento di Wason, al soggetto venivano presentati alcuni numeri, gli si diceva che i numeri erano stati messi in serie in base a una regola, e si chiedeva al soggetto di proseguire nella serie, e spiegare di che regola si trattava. Ora, la regola era molto semplice (e risultava particolarmente irritante per i soggetti, quando veniva spiegata): i numeri erano semplicemente posti in modo tale che il successivo fosse più grande, di quanto non importa, del precedente. Quello che era interessante era il fatto che i soggetti, ritenendo che ci si trovasse di fronte alla necessità di scoprire una regola ben più complessa, tentavano di individuare delle regolarità matematiche che potessero valere per i numeri proposti. Ora, scopo dell'esperimento era proprio quello di capire quali fossero le regole che venivano (invano) tentate. Evidentemente, l'unico modo per saperlo è chiederle direttamente ai soggetti, man mano che vengono loro in mente. Il metodo clinico è di uso molto complesso e richiede sperimentatori molto addestrati. Il rischio è quello di influenzare il corso dei pensieri dei soggetti, male interpretare quanto dicono, dirigere involontariamente la loro attenzione sugli aspetti della situazione sperimentale importanti per lo sperimentatore, ma che di per sé non avrebbero mai attratto il loro interesse. Molte delle critiche che si sono appuntate su Piaget e la sua scuola sono state anche originate

STORIA E METODI

69

dai dubbi che i protocolli sperimentali resi pubblici hanno prodotto, per un uso del metodo clinico apparso, soprattutto ai ricercatori di formazione comportamentista, un po' disinvolto. I metodi psicofisici I metodi psicofisici sono largamente utilizzati non solo nella psi cologia della percezione, per raccogliere giudizi sensoriali, ma, con gli opportuni adattamenti, in tutta la psicologia sperimentale, ogni volta che il soggetto deve dare dei giudizi sui materiali di stimolazione che gli vengono presentati. Nel corso della storia della psicologia ne sono stati proposti moltissimi; qui ci limiteremo ad accennare ai principali [per un classico trattamento dei metodi psicofisici, cfr. Guilford 1954]. Metodo dei limiti. Il metodo dei limiti è forse il metodo psicofisico più utilizzato per la determinazione dei valori di soglia: soglia assoluta, quando si vuole determinare il valore minimo di intensità di uno stimolo per cui questo inizia ad essere percepito; e soglia differenziale, quando si vuole determinare il valore minimo di differenza di intensità tra due stimoli (JND, just noticeable difference, o differenza appena rilevabile), per cui questi riescono ancora ad essere differenziati. Per la determinazione della soglia assoluta, lo sperimentatore inizia a presentare uno stimolo (per esempio, un suono di una certa lunghezza d'onda) a un valore di intensità nettamente superiore (o inferiore) a quello supposto di soglia, e inizia quindi a diminuirne (o ad aumentarne) il valore, sinché il soggetto non dice di non essere più in grado di percepirlo (o di cominciare a percepirlo). A questo punto, presenterà la serie degli stimoli in senso inverso alla precedente, ascendente se la prima serie era discendente, o viceversa. L'aumento o la diminuzione non vengono fatti lungo un continuo, ma per intervalli discreti (per esempio, a intervalli di 2 decibel alla volta), e per ogni intervallo si annota la risposta del soggetto. Le serie vengono ripetute un certo numero di volte, e si considera valore di soglia quello a cui il soggetto ha risposto il 50% delle volte. È importante alternare serie ascendenti e discendenti, poiché si rileva sistematicamente un effetto della direzione della serie: la soglia è sempre più bassa nelle serie ascendenti che nelle discendenti, e l'effetto viene così ad essere posto sotto controllo. II procedimento è analogo per la determinazione della soglia dif ferenziale. In questo caso, dovendosi differenziare tra due stimoli, uno viene mantenuto costante {standard) mentre l'altro viene fatto variare {variabile). Anche qui, si faranno serie ascendenti e discen denti, iniziando da valori della variabile nettamente inferiori allo standard nelle prime, e nettamente superiori nelle seconde, e arre standosi quando il soggetto dichiara di non percepire differenze tra gli stimoli. Il valore di J ND è il valore di differenza che viene rilevato

7

il

70

STORIA E METODI

il 50% delle volte. All'errore della direzione della serie, qui se ne possono aggiungere altri due: il cosiddetto errore del campione, che fa sì che lo standard tenda ad essere spesso sovrastimato rispetto alla variabile (cosa che consiglia di alternare variabile e standard); e il possibile errore della posizione, che fa sì che se gli stimoli sono posti spazialmente in posizioni diverse (per esempio, nel caso di stimoli visivi, uno a destra e l'altro a sinistra) può esserci una sovrastima legata alla posizione. Metodo dell'errore medio o dell'aggiustamento. Questo metodo ha esattamente lo stesso campo di impiego del metodo dei limiti. In questo caso, però, è l'osservatore che modifica il valore degli stimoli, in modo continuo, nelle serie ascendenti e discendenti. Metodo degli stimoli costanti. Questo metodo ha lo stesso campo di impiego dei due precedenti. In questo caso, però, non vi sono serie ascendenti o discendenti. Lo sperimentatore seleziona un piccolo numero di valori di intensità dello stimolo (o della variabile, nella determinazione della soglia differenziale), usualmente da 5 a 10, e presenta questi valori al soggetto un numero elevato di volte (non meno di dieci volte per valore), in ordine assolutamente casuale. Metodi diretti. S.S. Stevens [1951], nel proporre la sua nuova psicofìsica, che lo ha condotto a proporre la sua legge sostitutiva di quella di Fechner in forma di funzione potenza, ha criticato i metodi psicofisici classici quali quelli sopra esposti, affermando che essi non portano che apparentemente a un giudizio diretto dell'intensità degli stimoli; ma si basano sempre su un giudizio relativo solo a un aspetto di questi: il valore di intensità appena rilevabile, in assoluto o per differenza. I metodi proposti da Stevens consentirebbero invece di dare giudizi diretti su tutta la gamma delle diverse intensità degli stimoli. Il metodo di più largo uso è quello della cosiddetta stima di grandezza. Al soggetto viene preliminarmente presentato il cosiddetto modulo, costituito da due stimoli, uno di intensità molto piccola, l'altro di intensità molto grande, e gli si dice che al primo va assegnato un valore arbitrario di 1, al secondo un valore arbitrario di 10, o 100, o un altro valore comunque maggiore del primo. Si presentano quindi, in ordine casuale, gli stimoli da valutare, di intensità intermedia tra i primi due, e il soggetto viene invitato ad attribuire un valore numerico proporzionale all'intensità percepita, compreso nella gamma 1-10 o 1-100, a seconda del modulo iniziale. Un altro metodo di largo uso è il cosiddetto confronto cross-modale. Al soggetto viene data un'apparecchiatura che gli consente di produrre stimoli dell'intensità da lui desiderata per una certa modalità sensoriale (ad esempio, intensità sonora). Anche qui, gli viene indicato un modulo, e cioè un valore massimo e uno minimo entro cui

STORIA E METODI

si deve muovere. Gli vengono successivamente presentati, in ordine casuale, gli stimoli di diversa intensità che dovrà valutare, appartenenti a un'altra modalità sensoriale (per esempio, intensità luminosa). La valutazione verrà fatta dal soggetto producendo, per ogni stimolo nella seconda modalità, uno stimolo di intensità ritenuta corrispondente nella prima modalità. Gli artefatti Nella conduzione delle ricerche, sono molti i fattori che possono intervenire e che, non controllati, portano a delle conclusioni erronee, producendo risultati che vengono interpretati in modo scorretto. Abbiamo già accennato sopra alle variabili confondenti, e in generale alle variabili estranee. Gli artefatti di cui qui parliamo solo in parte sono dovuti a variabili confondenti. Più in generale, fanno parte di quella che viene frequentemente definita la «psicologia sociale» della ricerca; intendendosi con ciò il fatto che una situazione sperimentale è una situazione in cui interagiscono soggetti e sperimentatori, con effetti di natura interpersonale che sono tipicamente studiati dalla psicologia sociale, ma che curiosamente vengono ignorati spesso proprio dagli psicologi che conducono la ricerca, forse proprio perché coinvolti nella situazione te non esterni e superiori ad essa, come piacerebbe credere). [Per un'antologia di saggi che coprono tutti i diversi aspetti degli artefatti nella ricerca, cfr. Luccio 1985.] Parlando di queste fonti di artefatti, le divideremo in fattori legati allo sperimentatore, fattori legati al soggetto, fattori legati alla situazione sperimentale (tra cui, di particolare importanza, il compito). Fattori legati allo sperimentatore. Questi fattori sono stati particolarmente studiati da Rosenthal [1976]. Il più importante di questi fattori è legato alle aspettative dello sperimentatore: si tratta del cosiddetto «effetto Rosenthal», detto anche delle profezie autoawerantesi. A quanto pare, lo sperimentatore, in modo sovente del tutto inconsapevole, e spesso non verbalmente, riesce a trasmettere le sue aspettative sull'esito dell'esperimento al soggetto, alterandone involontariamente il comportamento. Ad esempio, lo sperimentatore può mostrare, senza accorgersene, la sua soddisfazione, o rispettivamente insoddisfazione, in coincidenza con le risposte del soggetto. Questo effetto si elimina con il cosiddetto metodo del doppio cieco, che comporta la necessità, specie in esperimenti i cui risultati sono molto tenui, e particolarmente suscettibili a effetti di suggestione, di disporre di almeno due figure distinte: sperimentatore e conduttore della ricerca, quest'ultimo tenuto all'oscuro delle ipotesi dello sperimentatore. Vi sono comunque altre caratteristiche dello sperimentatore che possono essere causa di alterazione dei risultati, specie in interazione con determinate caratteristiche dei soggetti. Una di queste è il sesso; un'altra l'età; un'altra ancora la razza, o il gruppo etnico di apparte-

71

72

STORIA E METODI

nenza; un'altra ancora, il prestigio sociale di cui comunque gode lo sperimentatore di fronte al soggetto. Evidentemente, il sesso avrà effetti diversi a seconda del sesso dei soggetti, del tipo di compito, ecc; lo stesso dicasi della razza, e così via. Lo spazio impedisce di prendere in esame tutti questi aspetti; è peraltro opportuno tenerne conto nella conduzione degli esperimenti. Ci limitiamo ad osservare che il loro effetto sui soggetti è spesso dovuto a quanto modificano la desiderabilità sociale; il desiderio, cioè, di porsi, anche inconsapevolmente, sotto una luce comunque favorevole. Fattori legati al soggetto. La stragrande maggioranza degli esperimenti di psicologia viene condotta in tutto il mondo su studenti universitari, soprattutto di psicologia. I motivi di questo stato di cose sono molto semplici: si tratta di materiale umano di facilissima reperibilità per gli sperimentatori, che di solito operano nelle strutture universitarie; di più, si tratta di soggetti che si possono con molta facilità convincere ad operare come volontari negli esperimenti. Questo perché di solito lo sperimentatore, essendo un loro docente, ha su di essi un indubbio potere. Di più, particolarmente negli Stati Uniti, i soggetti sono spesso obbligati a prestarsi come soggetti in almeno uno o due esperimenti a trimestre, per ottenere crediti indispensabili per passare da un semestre al successivo. Tutto ciò rende molto squilibrato il campione di umanità su cui conduciamo le nostre ricerche, e rende precaria la generalizzabilità dei risultati. Uno dei problemi maggiori è legato alla particolare relazione di dipendenza che si instaura così necessariamente tra soggetto e sperimentatore. Il primo può essere portato, per i problemi di desiderabilità sociale di cui abbiamo detto sopra, e che in situazione di dipendenza si fanno particolarmente acuti, a cercare di compiacere il proprio docente. Un particolare problema sorge se si considera il fatto che i soggetti possono o meno essere volontari. Di fatto, i soggetti volontari tendono ad essere più motivati ad impegnarsi nella ricerca, tendono a dare il meglio di se stessi, e tendono anche a manifestare un maggior bisogno di approvazione. Questo li può indurre a cercare di capire cosa si attende da loro lo sperimentatore, e quindi a rispondere su questa base, e non sulla base delle caratteristiche della situazione sperimentale. Evidentemente, anche nel considerare i soggetti, i fattori legati al loro sesso, alla razza o appartenenza etnica, al prestigio sociale, possono giocare un ruolo non secondario, speculare a quello che giocano nel caso già accennato dello sperimentatore. Vattori legati al compito, e in genere alla situazione sperimentale.

Questi fattori sono stati particolarmente studiati da Orne [1962], in diverse situazioni sperimentali, ma essi comunque costituiscono un problema più generale. Si può tranquillamente affermare che in psicologia ogni situazione sperimentale crea delle aspettative nel sog-

STORIA E METODI

getto, che tende a rispondere sulla base delle aspettative, più che del compito propostogli dallo sperimentatore. Un caso ben noto, che va sempre tenuto sotto controllo nella sperimentazione farmacologica (e non solo nella sperimentazione di psicofarmaci o di analgesici, come i medici tendono frequentemente a credere) è quello dell'e/fetto placebo. Ogni farmaco genera delle aspettative nel soggetto a cui viene somministrato. Se mi si da una pillola, e mi si dice che si tratta di un sonnifero, questa comunicazione mi indurrà un'aspettativa di sonno, e di fatto io potrò dormire più a lungo di quanto non farei, dopo avere assunto la pillola, se non sapessi che si tratta di un sonnifero. Per tenere l'effetto placebo sotto controllo, sarà allora opportuno utilizzare un gruppo placebo a cui viene somministrata una sostanza inerte (per esempio, una compressa d'amido), a fianco a quello sperimentale, a cui è stato somministrato il farmaco, e a quello di controllo a cui non viene somministrato nulla. Evidentemente, i soggetti del gruppo sperimentale e del gruppo placebo non devono sapere a quale gruppo appartengono, o, in altri termini, cosa conteneva la sostanza che hanno assunto. L'esperimento viene detto per questo motivo cieco. Peraltro, per evitare che le aspettative dello sperimentatore possano trasmettersi anche inconsapevolmente ai soggetti, di solito anche chi somministra le compresse ignora la natura di ciò che somministra. L'esperimento viene detto in tal caso doppio cieco (cfr. supra). Ora, l'esistenza dell'effetto placebo viene allora dimostrata se c'è una differenza significativa tra i risultati del gruppo placebo e quelli del gruppo di controllo; ma, più importante, solo se c'è una differenza significativa tra i risultati del gruppo placebo e quelli del gruppo sperimentale possiamo concludere per l'efficacia del farmaco. Al di là dell'effetto placebo, sono comunque molti gli artefatti che la natura della situazione sperimentale può generare. Per esempio, il soggetto può essere portato ad escludere che il compito richieda delle risposte di natura troppo semplice. Se si chiede, per esempio, a un soggetto come si chiama il fiore dell'ibisco, ben difficilmente risponderà (correttamente) «ibisco», perché la domanda gli apparirà troppo facile. Wason ha sfruttato questo effetto nell'esperimento della serie di numeri, a cui abbiamo fatto riferimento parlando del metodo clinico. Il soggetto scartava la soluzione evidente (serie di numeri in ordine crescente), e cercava le più astruse regole che potessero sovrintendere alla costruzione della serie. Ma Orne ha dimostrato che il mancato controllo di questo effetto di «richiesta implicita» del compito può portare a fraintendimenti gravi dei risultati che si ottengono. Solo per fare un esempio, in una serie di esperimenti (tanto famosi, quanto deontologicamente dubbi), Milgram [1963] dimostrò che i suoi soggetti, studenti universitari, se convinti di non essere soggetti, ma aiutanti dello sperimentatore, si mostravano in larga misura allegramente disposti a somministrare ad un altro soggetto (in verità, questa volta complice dello sperimentatore) scariche di corrente elettrica assai dolorose (che evidentemente

73

74

STORIA E METODI

il complice simulava soltanto di ricevere), per dimostrare l'influenza delle punizioni in un compito di apprendimento. L'interpretazione che Milgram dava di questo fatto allarmante era in termini di «obbedienza»: i soggetti, se legittimati da una qualche istanza sentita come di ordine superiore (in questo caso, i fini scientifici, a cui tutto può sacrificarsi; in altri casi, la difesa della razza, o della propria «civiltà», ecc), sono capaci di autogiustificarsi per le nefandezze che possono compiere. Ma in realtà, come dimostrava Orne, la situazione di laboratorio ha implicito il fatto che in essa nessuno corre seriamente un pericolo reale. Tant'è vero che, aumentando il «realismo» della scena (con un buon attore, con urla e convulsioni ben simulate), è difficile che i soggetti giungano a risposte estreme. Indicazioni bibliografiche per ulteriori approfondimenti

Per lo studente che intenda approfondire le situazioni che hanno portato la psicologia agli sviluppi attuali, si consiglia la lettura di alcuni testi, anche eccellenti, oggi disponibili in lingua italiana, come Schultz [1969]; Hearst [1979]; Dazzi e Mecacci [1982]; Legrenzi [1992]; Mecacci [1992], ecc. Per quel che riguarda la metodologia della ricerca, i testi disponibili in italiano sono Ercolani, Areni e Mannetti [1990]; McBurney [1994]; Pedon [1991].

tivazioni

1. Introduzione

Emozione e motivazione sono termini che condividono una medesima radice etimologica derivante dalle espressioni latine «emovere» e «movere», e si associano, nell'uso corrente, ad immagini di movimento e di attività. Con essi ci si riferisce ad una varietà di fenomeni che, tuttavia, non sempre è facile o possibile distinguere come appartenenti alla sfera dell'emozione o a quella della motivazione. Attenendoci in senso stretto alla radice dei termini, potremmo ascrivere all'emozione principalmente ciò che si traduce in un «muovere fuori» e alla motivazione soprattutto ciò che si traduce in un «muovere verso», sottolineando in un caso il carattere di emergenza e nell'altro la funzione di direzione. Quando parliamo di emozioni come la rabbia, la paura, la sorpresa, il disgusto ci riferiamo a fenomeni che, in presenza di determinati eventi o situazioni, insorgono dall'interno e coinvolgono la persona pervasivamente e intensamente al di là della sua consapevolezza e della sua intenzionalità. La persona emozionata è attraversata da «fremiti» che ne alterano l'aspetto, la voce, la condotta. Il carattere di emergenza è efficacemente veicolato da espressioni che si riferiscono alle varie reazioni ed esperienze emotive, facendo ricorso a verbi come trasalire, assalire, travolgere. Nel caso della motivazione, invece, si può notare come tale concetto sia connesso a bisogni, fini, strategie, nel complesso ad un insieme di fenomeni che si trovano in una posizione intermedia e hanno una funzione di raccordo e di regolazione nei rapporti tra la persona e l'ambiente. La persona motivata è portatrice di un bisogno da soddisfare, è orientata al perseguimento di un fine, è impegnata nello sviluppo e nel dispiegamento di una strategia. Qui la funzione di direzione è efficacemente veicolata dall'intrecciarsi, e a volte dal

Capitolo 2

76

EMOZIONI E MOTIVAZIONI

sovrapporsi, della nozione di motivazione con quelle di intenzionalità, responsabilità, causalità. Sarebbe tuttavia riduttivo attenerci ad una lettura dei due fenomeni esclusivamente in base a tali distinzioni che in larga misura si appoggiano ad apparenze di superficie, a risonanze del senso comune e a ciò che può venire suggerito dalla riflessione sulla propria esperienza. In particolare, sarebbe riduttivo tracciare linee di demarcazione che possano finire col confinare i fenomeni emotivi nella sfera dell'incontrollabile e quelli motivazionali nella sfera dell'intenzionale. I due fenomeni, in realtà, sono soprattutto distinguibili in rapporto al rilievo che ad essi è stato riconosciuto dai diversi indirizzi di pensiero e di ricerca. Allo stato attuale non siamo in grado di fornire dell'emozione e della motivazione una teoria esaustiva e generalmente condivisa di che cosa esse siano e di quali siano i loro rapporti. Siamo ancora al punto in cui il nostro desiderio di conoscenza può soprattutto procedere attraverso la riflessione sull'eredità del passato e il confronto tra diverse ipotesi e direzioni di ricerca. In questa ottica sono stati concepiti i paragrafi che seguono. Nel successivo, è mia intenzione porre l'accento sull'uso che possiamo fare delle intuizioni dei classici. Nel terzo e nel quarto intendo presentare a grandi linee i temi e le coordinate principali della ricerca psicologica contemporanea in materia di emozione e motivazione. 2. Tradizioni di pensiero e livelli di analisi

Dall'antichità greca sino al XIX secolo la storia della riflessione sistematica sui processi mentali, tra cui anche quelli connessi all'emozione e alla motivazione, segue vicende che scandiscono lo sviluppo della riflessione sulla natura umana, da un pensiero fondato sulla rivelazione e sulla speculazione attorno a essenze e principi universali a un pensiero fondato sull'esame sistematico della realtà e sulla scoperta di regolarità nell'ambito dei fenomeni naturali. La psicologia che conosciamo è quella che si è venuta esprimendo in seno alla cultura occidentale, che affonda le proprie radici nel pensiero greco, che pone le premesse di un proprio sviluppo autonomo rispetto alla riflessione filosofila nel 1600 e nel 1700 e si caratterizza come disciplina scientifica soltanto alla fine del secolo scorso. Essa non esclude la possibilità di altre psicologie derivanti da matrici culturali diverse e con diversi itinerari; ma di tali psicologie e di altre forme dell'interrogarsi psicologico non sappiamo praticamente nulla. La storia che conosciamo è quella che si accompagna alla riflessione sistematica sulla natura umana nella sua lunga marcia di avvicinamento a una concezione dell'uomo come parte della natura e, in quanto tale, oggetto di indagine scientifica. Lungo questa marcia si sono alternati principalmente due grandi indirizzi di pensiero, l'em-

EMOZIONI E MOTIVAZIONI

pirismo e il razionalismo, i quali in vario modo affrontano i principali aspetti della speculazione filosofica, della ricerca scientifica, dell'organizzazione politica e sociale. Non si tratta soltanto di scuole di pensiero, ma più estensivamente di tradizioni culturali che implicano vere e proprie opzioni esistenziali, nella misura in cui abbracciano tutti i principali interrogativi che l'uomo si pone su se stesso e sul mondo a lui circostante. Da Democrito, Piatone e Aristotele, attraverso le diverse mediazioni della cultura romana e della scolastica cristiana, sino ai grandi sistemi filosofici di Leibniz, Cartesio, Locke, Hume, Kant, Hegel, la diversa considerazione delle proprietà della ragione e della funzione dell'esperienza ha fornito le coordinate lungo cui articolare i problemi cruciali dell'accadere psichico: la sua genesi, la sua organizzazione, i suoi limiti. Praticamente non vi è interrogativo della moderna ricerca psicologica che, in qualche modo, non trovi un'anticipazione o una premessa nelle intuizioni e nelle speculazioni dei grandi maestri del pensiero del passato. È tuttavia difficile stabilire quanto di tali intuizioni e speculazioni sia da considerarsi un'eredità sulla quale capitalizzare o piuttosto un'ipoteca dalla quale emanciparsi. Apparentemente, temi che oggi appartengono all'indagine scientifica sulle emozioni e sulle motivazioni, in vario modo e a più riprese, sono stati oggetto dell'attenzione di medici, filosofi e religiosi al crocevia dei rapporti tra mente e corpo da un lato e dei rapporti tra filosofia e disciplina morale dall'altro. Si potrebbe discutere, ma, per motivi di spazio, rimando ad altre sedi tale compito, quale possa essere il corretto uso che possiamo fare delle speculazioni dei classici, in ordine alle passioni e agli istinti, rispetto alle risposte che oggi attendiamo dalla ricerca scientifica in ordine alle emozioni e alle motivazioni. Non vi è dubbio che le riflessioni sulle emozioni, sulle passioni, sui sentimenti di Aristotele, di Cicerone, di Seneca, di Spinoza, di Cartesio, di Malebranche, di Hobbes e di Hume possano tuttora esercitare un grande fascino, sarebbe tuttavia un errore appiattire l'istanza morale che pervade tali riflessioni e l'acutezza intellettuale che fa ad esse da sostegno, a causa di un confronto, del tutto improponibile, con gli interrogativi e i risultati di un'attività di ricerca che ha diversi fini e obbedisce a diversi criteri. A questo proposito quanto Magri ha recentemente sostenuto per le emozioni potrebbe parimenti valere per le motivazioni. Effettivamente già nelle teorie classiche, come nelle teorie moderne, sia pure secondo prospettive diverse, emozioni e motivazioni, «si configurano come stati o processi psicologici complessi, entro cui interagiscono rappresentazioni, credenze e valutazioni, cambiamenti fisiologici ed esperienze, anche molto differenziate, legate al piacere e al dolore» [Magri 1991, 31]. Le analogie tuttavia non possono spingersi oltre la descrizione, sia pure accurata, della semplice esperienza e, anche a questo livello, non può essere dato per scontato che i termini emozione, desiderio

77

78

EMOZIONI E MOTIVAZIONI

e cognizione abbiano lo stesso significato e mantengano per gli studiosi dei nostri tempi la stessa risonanza affettiva e conoscitiva che essi avevano per l'uomo del seicento. Apparentemente, nel filosofo del seicento al pari di quanto sembra nel filosofo del IV secolo a.C, l'istanza esplicativa relativa ai processi e ai distinti meccanismi che sottendono e regolano le diverse emozioni e motivazioni è totalmente sussunta dall'istanza etica protesa ad affermare il primato della razionalità sugli elementi di perturbazione, di confusione e di deviazione della natura corporea. Secondo l'insegnamento di Cartesio, al pari di quanto possiamo evincere dall'insegnamento di Aristotele e di Seneca, «non c'è anima tanto debole che non possa, ben guidata, acquistare un assoluto dominio sulle passioni» [in D'Urso e Trentin 1990, 10]. Approfondire la storia, oltre che un esercizio al riconoscimento delle somiglianze e delle repliche, può essere anche un esercizio all'individuazione delle novità e delle specificità di ogni epoca. Inoltre, nel confronto storico è importante non trascurare i diversi livelli di analisi lungo i quali può svilupparsi l'esame dei fenomeni, tanto più quando questi sono complessi, si prestano a diverse prospettive e presentano componenti di differente natura. Vi è un livello di analisi descrittivo, che analizza i fenomeni così come si presentano all'osservatore esterno; vi è un altro livello d'analisi che, invece, procede dai vissuti soggettivi che a tali fenomeni si associano; un altro che mira a individuare e spiegare i meccanismi e i processi che sottendono i fenomeni e i vissuti; un altro che mira a ricostruire e a seguire la genesi e gli sviluppi degli stessi; un altro ancora che mira a rendere ragione dei fini e delle funzioni cui essi assolvono nel tempo, nel rapporto con la realtà fisica e con quella sociale. Si tratta di livelli di analisi diversi, non riducibili l'uno all'altro e solo in taluni casi riconducibili a medesimi programmi di ricerca entro cui ha senso tentare una qualche loro integrazione. Ai diversi livelli gli stessi costrutti possono avere un differente rilievo, possono risultare diversi gli osservabili che vengono presi in esame, possono essere diverse le grandezze e le misure che vengono considerate e impiegate. Già in Aristotele è matura la convinzione che convergano nell'emozione e ne siano i costituenti gli stati d'animo, le credenze e le valutazioni dei comportamenti e delle alterazioni corporee. Si tratta tuttavia di una convinzione che, sino ad epoche non lontane, ha fatto pochi progressi nella conoscenza della effettiva natura dei vari costituenti e dei loro rapporti. In realtà la storia della psicologia delle emozioni e delle motivazioni, in quanto ricerca sugli elementi, sui processi e sui meccanismi che ne costituiscono e ne regolano le diverse manifestazioni, è relativamente recente e testimonia il lento e cumulativo avanzamento della conoscenza scientifica. Tra l'intuire e lo spiegare ci possono essere distese più grandi degli oceani. Appropriarsi dell'eredità del passato, mentre da un lato

EMOZIONI E MOTIVAZIONI

può essere un deterrente rispetto all'illusione di talune scoperte o novità, dall'altro può parimenti essere un deterrente rispetto all'assunzione delle medesime lenti che in passato hanno offuscato la conoscenza dei fenomeni. Nel caso delle emozioni e delle motivazioni, in particolare, l'istanza morale del passato assume rilievo soprattutto rispetto ai limiti che essa può opporre all'istanza conoscitiva, nel rendere ragione dei processi e dei meccanismi che accompagnano la genesi e le diverse manifestazioni emotive e motivazionali. Parimenti il riconoscimento dei grandi indirizzi di pensiero, con tutto il loro armamentario di modelli e di metafore, assume rilievo per cogliere ciò che fa da sfondo, resta implicito, condiziona nelle premesse e nelle mete l'attività di ricerca. Alcuni dibattiti che sembrano svolgersi tra interlocutori che parlano lingue differenti e reciprocamente incomprensibili, come alcune polemiche che sembrano perpetuarsi senza alcun apparente motivo di contesa, in realtà riflettono punti di vista diversi che usano lo stesso linguaggio con una diversa punteggiatura e diverse accentuazioni. Di ciò è in un qualche modo paradigmatica la storia dei nessi tra emozione, motivazione e cognizione. Come accenneremo di seguito, ostinarsi a difendere un primato o l'altro è poco produttivo se non si definiscono con maggiore precisione i termini del problema che sono essenziali per la sua soluzione, come ad esempio il ruolo della percezione e della consapevolezza in un'analisi cognitiva dell'emozione e il ruolo degli affetti e della motivazione in un'analisi dei processi cognitivi. In rapporto a ciò, anche per le emozioni e per le motivazioni, come per molti altri fenomeni centrali dell'indagine psicologica, rimane da approfondire quali siano le implicazioni delle diverse concezioni del mondo e delle diverse tradizioni di ricerca, nell'opporre una teoria all'altra o nel privilegiare, nell'analisi dei medesimi fenomeni, alcuni aspetti piuttosto che altri. Apparentemente, la storia del pensiero occidentale è attraversata da una dialettica tra ragione e natura alle cui vicissitudini non restano estranee le diverse-trattazioni dell'emozione e della motivazione. A seconda che si sia considerato motivante l'intelletto o il desiderio, a seconda che si sia ritenuto di procedere dalla ragione o dagli appetiti, le barriere che sono state erette tra il corpo e la mente hanno prefigurato diverse dicotomie e separazioni tra affetti e cognizioni che non hanno lasciato indenni gli indirizzi di ricerca che si sono innestati sulle diverse tradizioni di pensiero. Come suggerito da D'Urso e Trentin è rintracciabile una linea di continuità tra «l'etica stoica di Zenone e Crisippo e le considerazioni di Cartesio, di Telesio e Spinoza, i quali — pur con argomentazioni diverse - riecheggiano Cicerone, che definiva le passioni perturbationes animi» [1990, 91. Parimenti è rintracciabile una linea di continuità tra Aristotele, Hobbes e gli enciclopedisti nel riconoscere alle passioni una valenza

79

80

EMOZIONI E MOTIVAZIONI

positiva come di elementi tonici capaci di integrarsi con il giudizio nel guidare l'azione. Ad una concezione dispotica degli affetti come affezioni o morbi dell'anima da contrastare e soggiogare, ha dunque fatto costantemente da contraltare una concezione degli affetti come energie da integrare e da incanalare secondo il principio del «giusto mezzo». Si rivela d'altro canto impossibile tracciare linee di demarcazione precise nell'uso che, di volta in volta, è stato fatto di termini quali: passioni, affetti, sentimenti, desideri, avversioni. Questi hanno in vario modo riflesso il conflitto di fondo, che ha permeato l'interrogarsi del mondo occidentale sulla personalità umana, tra intelletto e appetiti, tra volere e sentire, tra ambizioni della mente e richiami del corpo, tra soggezione nei confronti della rivelazione e gusto della scoperta. E hanno assunto una diversa valenza in rapporto ai diversi oggetti su cui la riflessione nìosofica prima e quella scientifica poi sono venute di volta in volta a fecalizzarsi: da un lato, i fenomeni «micro» connessi agli elementi di base e ai meccanismi elementari, dall'altro, i fenomeni «macro» che risultano dai primi e che danno coerenza e continuità al rapporto dell'individuo con la realtà e che, nel caso delle emozioni e delle motivazioni, esprimono tutta la loro complessità e rendono ragione delle loro funzioni. La mia impressione è che sia stato più congeniale alla tradizione empirista mirare al «micro» e sottolineare nell'esame delle proprietà delle emozioni e delle motivazioni la loro funzione adattiva, in accordo con l'ipotesi di un fitting in larga parte biologicamente programmato. Mi pare d'altro canto che sia stato più congeniale alla tradizione razionalista non perdere di vista il «macro» e sottolineare, nell'esame delle costituenti delle emozioni e delle motivazioni, la funzione regolativa dei processi cognitivi. Una diversa enfasi ha portato da un lato alla caratterizzazione delle varie emozioni e motivazioni in rapporto alle loro componenti biologiche e comportamentali e alle situazioni capaci di elicitarle, e dall'altro a privilegiare gli aspetti esperienziali e strutturali con una forte accentuazione della loro organizzazione in funzione autoregolativa. 3. Le emozioni

Nell'introdurre il tema delle emozioni, per soffermarci sulle loro componenti, sulla loro genesi e sulle loro funzioni potremmo indifferentemente esordire con la confidenza che deriva da un consenso acquisito su ciò che esse siano o piuttosto con lo scetticismo di chi dubita che tale consenso possa mai essere raggiunto. Zimbardo che è un ottimista, oltre che l'autore di uno dei più autorevoli testi di psicologia generale [1988], ritiene che, nonostante le differenze nella definizione, vi sia un consenso generale tra gli psicologi contemporanei nel considerare l'emozione un pattern complesso di modificazioni che includono un'eccitazione fisiologica, dei senti-

EMOZIONI E MOTIVAZIONI

menti, dei processi cognitivi e delle reazioni comportamentali in risposta ad una situazione che è percepita dal soggetto come importante per il mantenimento del proprio equilibrio e del proprio benessere. L'eccitazione fisiologica include alterazioni neurali, ormonali, viscerali e muscolari. I sentimenti includono stati e tonalità affettive lungo l'asse buono/cattivo o l'asse positivo/negativo. I processi cognitivi includono interpretazioni, ricordi e aspettative dell'individuo, sia come contenuti, sia come modalità di «processare» cognitivamente il proprio rapporto con la realtà. Le reazioni comportamentali includono sia quelle espressive (piangere, ridere) sia quelle strumentali (chiedere aiuto, fuggire, ecc). Ad una considerazione più attenta della letteratura e da una prospettiva meno conciliante, tuttavia, il quadro che risulta è talmente variegato da limitare significativamente la portata di tale consenso. L'accordo sul fatto che le emozioni siano «sistemi coordinati» o «sindromi reattive multidimensionali» che svolgono una parte essenziale nel rapporto tra l'individuo e l'ambiente, che interessano l'organismo e la personalità a tutti i livelli e che perciò presentano aspetti e componenti diverse, testimonia un consenso che è soprattutto sulla complessità del fenomeno piuttosto che sulle modalità di rendere ragione di esso. A questo proposito può fornire un utile motivo di riflessione, nella pur breve storia della psicologia, notare che a fronte del proliferare di una varietà di teorie in taluni periodi, l'interesse per le emozioni sia stato in vario modo accantonato o contestato in altri periodi. La nozione di emozione è sempre stata poco congeniale per il comportamentismo e la sua riscoperta da parte dei cognitivisti è relativamente recente. Allo stesso modo, anche se per motivi molto diversi, il rinnovato interesse degli psicoanalisti per le emozioni è nella scia delle incerte vicende che hanno segnato le nozioni di affetto e di pulsione. Come opportunamente ha osservato Liotti: «le emozioni umane si offrono all'indagine con due aspetti distinti: una specifica attivazione neurovegetativa (viscerale) e comportamentale che può essere osservata dall'esterno, e una altrettanto specifica esperienza soggettiva che può essere descritta da chi fa quell'esperienza» [1991, 231]. Non sorprende perciò che rispetto a questi due aspetti si siano sviluppati indirizzi di indagine che hanno riflesso la diversità dei livelli di analisi implicati, nei metodi, nei significati dei termini, negli oggetti di ricerca. Né possono sorprendere le difficoltà di portare a integrazione i contributi di quanti hanno privilegiato l'esame dei vissuti soggettivi con i contributi di quanti hanno invece privilegiato l'esame dei correlati biologici e delle espressioni comportamentali delle varie emozioni. In questa direzione la ricerca scientifica ha compiuto grandi progressi, ma è tuttavia ancora lontana dall'aver realizzato tra i vari indirizzi un accordo pieno sulla definizione, sulle componenti, sulle funzioni e sulla genesi delle varie emozioni e dal-

81

82

EMOZIONI E MOTIVAZIONI

l'essere pervenuta ad una effettiva integrazione conoscitiva dei loro diversi aspetti. 3.1. Definizione delle emozioni

Sinora abbiamo parlato di emozioni dando per scontato che sia chiaro per tutti quali esse siano. In realtà anche questa materia è oggetto di discussione e, a seconda delle premesse da cui si prendono le mosse, si possono privilegiare diversi aspetti e si può in definitiva pervenire a diverse conclusioni. In genere si distinguono delle emozioni primarie o semplici e delle emozioni complesse. Mentre le emozioni primarie sono particolarmente radicate biologicamente, quelle complesse risultano dal diverso concorso di alcune delle prime e sono più significativamente condizionate e plasmate dall'esperienza. Secondo Plutchick [1984] le quattro polarità, gioia/tristezza, paura/rabbia, sorpresa/anticipazione e accettazione/disgusto, definirebbero le emozioni fondamentali dalla cui combinazione deriverebbero tutte le altre (tra cui l'amore, la sottomissione, la delusione, il rimorso, ecc). Secondo Izard [1979] le emozioni primarie fondamentali sarebbero 10: tristezza, gioia, sorpresa, sconforto, rabbia, disgusto, disprezzo, paura, vergogna/timidezza, colpa. Secondo Tomkins [1984] sarebbero 9: interesse, gioia, sorpresa, sconforto, paura, vergogna, disprezzo, disgusto, rabbia. Secondo accezioni più restrittive le emozioni primarie sarebbero 7 per Argyle [1975]: felicità, sorpresa, paura, tristezza, collera, disgusto, interesse; 6 per Ekman [1984]: felicità, sorpresa, paura, tristezza, collera, disgusto; 5 per Campos e Barrett [1984]: felicità, paura, tristezza, collera e interesse. Tali elenchi possono lasciare perplessi, a motivo delle loro omissioni o piuttosto delle loro inclusioni, ma forniscono le caratteristiche che, di massima, vengono ascritte ai fenomeni emotivi. Se anche restano da chiarire la natura di tutti i sistemi biologici attivati e il ruolo dei processi di maturazione e di sviluppo rispetto alle diverse loro manifestazioni e alla loro regolazione, vi è un accordo di massima nel riconoscere alle emozioni i caratteri della spontaneità, della pervasività e della transitorietà oltre a una valenza per cui esse possono essere distinte in positive (la gioia, la sorpresa) e negative (la collera, la paura), a seconda della gradevolezza o della sgradevolezza dell'esperienza che ad esse fa riscontro. Il consenso viene meno e assumono rilievo le diverse istanze metateoriche, i diversi punti di vista e i diversi oggetti su cui si sono focalizzati i vari indirizzi quando i temi della spontaneità, della pervasività e della transitorietà riaccendono il dibattito su ciò che è innato e su ciò che è appreso e ripropongono i molteplici interrogativi sui rapporti tra mente e corpo.

EMOZIONI E MOTIVAZIONI

Quando l'emozione si pone al punto di congiunzione tra innato e appreso, tra mentale e corporeo e tra psichico e sociale, da un lato può accadere che i confini tra emozione, cognizione e motivazione diventino talmente tenui da rendere incerta ogni distinzione, mentre dall'altro può accadere che chi si occupa dei correlati biologici dell'emozione abbia ben poco in comune con chi si occupa dei suoi correlati sociali. Viene infine meno la portata degli elementi caratteristici comuni quando l'esame puntuale delle varie emozioni ne mette in risalto le specificità e rende plausibile una psicologia della collera, della paura, della sorpresa, perciò una psicologia delle emozioni, piuttosto che una psicologia dell'emozione. 3.2. Le componenti delle emozioni

Le emozioni sono sistemi di reazione coordinati e complessi che comprendono: - risposte fisiologiche (alterazioni della frequenza cardiaca e re spiratoria, della pressione sanguigna, della conduttività elettrica della pelle, ecc); - risposte motorie strumentali (attaccare, fuggire, gridare, ecc); - risposte motorie espressive (alterazioni della mimica facciale, dei gesti, della voce, ecc); - una varietà di risonanze che ascriviamo alla nozione di vissuto per riflettere gli aspetti più intimi e più pervasivi dell'esperienza sog gettiva (le modificazioni dell'umore, le rappresentazioni e i significati interni). Rendere ragione di questo insieme di reazioni prefigura diversi oggetti e ambiti di indagine che, a loro volta, implicano diversi livelli di analisi e diverse strategie. A livello di come l'esperienza viene interpretata e riportata nella forma di parole e di auto ed eterovalutazioni, contributi di diversa ispirazione sembrano oggi convergere nel configurare l'insieme delle diverse emozioni in rapporto a componenti di tipo edonico e a componenti di tipo energetico. Non vi è invece una piena identità di vedute su quali in definitiva siano le dimensioni fondamentali che definiscono l'ipotetico spazio che racchiude le varie emozioni. Alcuni come Russell [1980] ritengono che le dimensioni di base corrispondano all'asse piacere/dispiacere e all'asse forza/debolezza dell'attivazione (arousal). Ogni emozione verrebbe perciò ad essere definita rispettivamente dall'apporto della dimensione edonica e dall'apporto della dimensione energetica, entrambe intese come unitarie e bipolari. Altri come Watson e Tellegen [1985] invece ritengono che le due dimensioni principali siano l'Affetto negativo e l'Affetto positivo,

83

84

EMOZIONI E MOTIVAZIONI

intese queste come indipendenti «descrittivamente bipolari, ma affettivamente unipolari». Mentre le emozioni positive si pongono nella parte «alta» dell'Affetto positivo, quelle negative si collocano nella parte «alta» dell'Affetto negativo. Le due posizioni, nella misura in cui riflettono soluzioni tecnicometodologiche differenti ma parimenti accettabili (vari tipi di analisi fattoriali), possono anche apparire non incompatibili. Esse, tuttavia, nel porre una diversa attenzione sulla specificità dei diversi stati affettivi possono considerare in modo altrettanto differente i vari fattori in campo e dischiudere diverse prospettive per l'indagine dei processi che sottendono la loro energetizzazione e organizzazione. Per quanto riguarda i processi di energetizzazione, per un certo periodo ha prevalso una concezione unitaria deW'arousal congeniale ad una concezione del cervello di tipo idraulico-meccanico e consona ad una nozione di emozione come fenomeno largamente regolato da automatismi sottratti alla consapevolezza e al controllo intenzionale. Recentemente tale concezione è entrata in crisi e la nozione di arousal, da un lato si è venuta scomponendo - per rendere ragione di forme di attivazione differenti come Xarousal di orientamento e l'attivazione collegata al conseguimento di risultati con valore edonico [Pribram e McGuinnes 1975] - dall'altro si è venuta coniugando con la nozione di inibizione collegata alla previsione di conseguenze spiacevoli [Gray 1982]. Per quanto riguarda i processi di organizzazione d'altro canto, la maggiore confidenza nella possibilità di procedere per inferenza verso la conoscenza dei fenomeni mentali, ha portato al centro dell'indagine psicologica sull'emozione i processi cognitivi interessati alla sua regolazione. Contemporaneamente si è fatta strada la convinzione che il cervello e le varie sedi dell'organismo interessati alle emozioni non siano tanto luoghi in cui si generano, si accumulano e si scaricano delle «energie», quanto insiemi di sistemi interconnessi che scambiano e trasformano informazioni ed equilibri. Da tali sviluppi è derivato che lo studio dell'emozione si è venuto sempre più intersecando con lo studio della motivazione e dei vari processi cognitivi: percezione, attenzione, memoria, pensiero. Gli interrogativi che oggi ci poniamo concernono da un lato quale attivazione e con quale importo regoli una determinata emozione, e dall'altro quale sia il contributo della percezione, dell'attenzione, della memoria, dell'intenzionalità nel determinare alcune reazioni in certi individui e in determinate circostanze, ed altre reazioni, in altri individui e in altre circostanze. Sono inoltre oggetto di studio il ruolo che l'emozione svolge nell'orientare selettivamente la nostra attenzione e la nostra percezione, nel potenziare la memorizzazione e il ricordo degli eventi, nel migliorare o piuttosto nel compromettere la lucidità delle nostre decisioni, la tenacia del nostro impegno, l'efficacia delle nostre azioni. Ci si pone infine interrogativi sul ruolo che i processi di maturazione e di sviluppo psicologico-sociale svolgono nella costruzione dei diversi sistemi di regolazione e di autoregolazio-

EMOZIONI E MOTIVAZIONI

ne. In questa direzione il discorso sulle componenti delle emozioni si intreccia inestricabilmente con quello sulla genesi e sulle funzioni delle emozioni. Prima tuttavia di arrivare al successivo paragrafo, mi pare importante non trascurare, nell'analisi delle componenti delle emozioni, quanto risulta dalla ricerca sulle strutture biologiche più direttamente interessate alla attivazione e alla regolazione dei diversi aspetti della fenomenologia emotiva. Non vi è infatti dubbio che l'approfondimento delle strutture biologiche abbia svolto una parte di grande rilievo rispetto al progressivo allargamento di prospettiva e alla maggiore articolazione della ricerca psicologica sulle emozioni. Tra i vari sistemi — nervoso centrale, nervoso autonomo, endocrino, immunitario - che a vari livelli e in vari modi sono interessati alle emozioni, è soprattutto il sistema nervoso centrale quello più direttamente interessato alla loro attivazione e alla loro regolazione. A questo proposito, come è stato notato da Le Doux [1986], la maggior parte della ricerca attuale sulla neurobiologia delle emozioni è debitrice ad una tradizione di ricerca che si snoda nella prima metà di questo secolo attorno ai contributi di Cannon e Bard, di Papez, di Kluver e Bucy e di Mac Lean. Cannon e Bard hanno messo in evidenza il ruolo dell'ipotalamo nell'espressione emotiva e quello della corteccia cerebrale nell'esperienza emotiva. Papez ha proposto un modello in cui le connessioni tra ipotalamo, nucleo talamico anteriore, giro cingolato e ippocampo prefiguravano il reticolo essenziale che presiede alla regolazione dell'emozione tra stimoli provenienti dagli organi sensoriali e corteccia. Kulver e Bucy hanno sottolineato la funzione cruciale dell'ippocampo nell'essere interfaccia tra sistemi sensoriali e comportamento emotivo. Mac Lean ha individuato in un complesso di strutture neurali distribuite attorno all'ippocampo un cervello viscerale, filogeneticamente più antico (successivamente identificato come sistema limbico), che sembra fornire il principale sostrato biologico dell'emozione. Benché sia rimasto ben poco di quelle originali intuizioni (come risulta dalla sistematica esposizione di Le Doux [1986], al quale si rimanda anche per i riferimenti agli autori menzionati) esse hanno segnato lo sviluppo di una ricerca che, nella sostanza, condivide quanto veniva anticipato circa la multicausalità, la natura sistemica delle strutture interessate, le interconnessioni multiple tra aree corticali e sistemi sottocorticali. Muovendo da tali basi la ricerca più recente ha portato ad una maggiore conoscenza di come i diversi sistemi risultano coinvolti nell'esperienza emotiva e ad una più puntuale definizione delle strutture e delle parti di essi maggiormente interessate. Mentre è parso decisivo l'intervento della corteccia per il rilievo delle componenti cognitive nelle diverse manifestazioni emozionali, gli studi sulla specializzazione emisferica, pur non pervenendo a con-

85

86

EMOZIONI E MOTIVAZIONI

clusioni definitive sulla superiorità di un emisfero (in genere il destro) rispetto all'altro, hanno favorito una più puntuale distinzione delle diverse emozioni in rapporto alla loro organizzazione. Questa sembra complessivamente coinvolgere entrambi gli emisferi, ma plausibilmente con un ruolo diverso nel caso delle emozioni positive e di quelle negative, nell'ambito dell'esperienza privata e del rapporto comunicativo interpersonale. A questo proposito, come ha notato Gainotti [1990], è possibile ipotizzare che, nonostante la generale superiorità dell'emisfero destro per compiti di natura emozionale, l'emisfero sinistro sia interessato più alle emozioni positive che non a quelle negative. Quest'ultimo è, infatti, per definizione l'emisfero della comunicazione verbale fondamentale nel rapporto comunicativo intenzionale. Essendo simultaneamente legate alla sfera dell'esperienza emozionale e a quella delle attività comunicative intenzionali, le emozioni positive potrebbero, quindi, avere una rappresentazione biemisferica, mentre una lateralizzazione sempre più netta dell'emisfero destro riguarderebbe le emozioni negative che l'emisfero sinistro tenderebbe ad inibire più che ad assumere in proprio per scopi comunicativi. Lo studio approfondito del «sistema limbico» (nozione controversa per la diversità delle strutture che in esso vengono incluse dai vari autori) ha portato a sottolineare la specificità delle diverse strutture e a riconoscere un ruolo di particolare rilievo nella regolazione delle emozioni all'amigdala, all'ippocampo e alle porzioni di esso più strettamente connesse alla corteccia. È stato ulteriormente analizzato il ruolo che l'ipotalamo, in qualità di coordinatore centrale del sistema vegetativo (simpatico e parasimpatico) e di regolatore centrale dell'ambiente interno, svolge rispetto alla varietà di alterazioni dell'organismo che si accompagnano all'esperienza emotiva e che di essa rappresentano le manifestazioni somatiche più eclatanti. Parimenti nel caso della sostanza reticolare si è considerata la sua funzione rispetto ai processi di attivazione corticale per via ascendente e alle varie espressioni viscerali per via discendente. Delle strutture sottocorticali l'amigdala, in qualità di elemento di raccordo e di mediazione tra i vari sistemi afferenti ed efferenti, rappresenta l'elemento di integrazione fondamentale tra valutazione, espressione ed esperienza emotiva, sia rispetto alle aree corticali e alle strutture sottocorticali, sia rispetto ai vari sistemi viscerali, ormonali e neurochimici che si rivelano coinvolti nell'esperienza emotiva. Apparentemente, mentre il ruolo dell'ipotalamo sembra essere prevalentemente esecutivo e quello della sostanza reticolare di facilitazione e amplificazione, soprattutto l'amigdala per le sue connessioni con i due emisferi sembrerebbe svolgere una funzione sovraordi-nata di modulazione e di controllo. Il quadro che risulta dalla complessità dei sistemi implicati solo in parte è confortato da un'appro-fondita conoscenza di ciascuno di essi in rapporto alle diverse emozioni.

Le emozioni negative-difensive della rabbia e della paura sono

EMOZIONI E MOTIVAZIONI

state più a lungo studiate di quelle positive, ma perlopiù su paradigmi animali che ne limitano la generalizzabilità agli esseri umani. Di alcune componenti (ad esempio, l'ipotalamo e l'amigdala) si conosce molto, di altre (ad esempio, i vari neurotrasmettitori) assai meno. Anche se pare plausibile che le varie emozioni siano formate da parti che si articolano a livelli funzionali diversi, organizzati gerarchicamente, i vari elementi che fanno da sostrato biologico ai loro diversi aspetti pongono fortemente in risalto il carattere di specificità di ogni emozione. Secondo quanto risulta dalla rassegna di Le Doux [1986]: - l'emozione non è un fenomeno o un processo unitario: essa consiste di aspetti valutativi, espressivi ed esperienziali; - neuroni della sezione limbica anteriore (forebrain) codificano il valore biologico degli stimoli sensoriali provenienti dal mondo ester no e dall'interno del corpo; - tale valutazione del significato emozionale degli stimoli senso riali avviene inconsciamente; - tale valutazione influenza l'espressione comportamentale dell'e mozione e le reazioni viscerali che si accompagnano ad essa; - l'esperienza emotiva consapevole è mediata dai sistemi di ela borazione cognitiva che ricevono l'informazione emotiva; - le sorgenti di tale informazione cognitiva includono sistemi di feedback dai muscoli periferici, organi che sono attivi durante l'e spressione del proprio comportamento e che mediano l'osservazione di esso nel contesto in cui si produce, messaggi dai neuroni limbici che riconoscono e attribuiscono significato emozionale; - i meccanismi di valutazione del significato della stimolazione sono filogeneticamente antichi e sono distribuiti tra le varie specie animali; - i meccanismi dell'esperienza emotiva sono filogeneticamente recenti; essi appaiono presenti soprattutto nella specie umana e sem brano essere associati allo sviluppo del linguaggio e dei processi co gnitivi; - fonti indirette di informazione emotiva (come quelle derivanti dall'osservazione del comportamento e del contesto) svolgono un ruolo centrale nella costruzione delle esperienze emozionali consape voli. Diversi sistemi di strutture interconnesse tra loro fanno dunque da sostegno ai diversi aspetti dell'emozione e alle loro integrazioni. Quanto risulta dai recenti contributi e indirizzi della ricerca neuropsicologica e psicofisiologica fa apparire superata la controversia che, dai tempi di James 118901 e ài Cannon L19271, Via opposto i sostenitori di una teoria periferica ai sostenitori di una teoria centrale dell'esperienza emozionale e insoddisfacente il tentativo di integrazione tra le due teorie proposto da Schachter [1964]. Non è vero che «abbiamo paura perché scappiamo via», non è soltanto vero che «scappiamo perché abbiamo paura», né è soltanto vero che abbiamo paura e scappiamo tutte le volte che si realizza la

87

EMOZIONI E MOTIVAZIONI

concomitanza tra un alto livello di eccitazione e stimoli esterni che suggeriscono di fuggire. Secondo i fautori della teoria periferica l'attivazione vegetativa provocata dalla percezione dello stimolo emotigeno sta alla base dell'esperienza emotiva per un meccanismo retroattivo dalla periferia viscerale al sistema nervoso centrale. Secondo James e Lange (lo scienziato danese che negli stessi anni aveva elaborato una teoria analoga) l'esperienza emozionale è conseguenza del comportamento emozionale, infatti: «i cambiamenti corporei seguono direttamente la percezione dell'evento eccitante, e i sentimenti che si associano a tali cambiamenti costituiscono l'emozione» [James 1890]. Secondo i fautori della teoria centrale, invece, le modificazioni viscerali non sono rilevanti ai fini dell'esperienza emotiva, ma servono a preparare l'organismo ad affrontare la situazione di emergenza che ha innescato la risposta emozionale [Cannon 1927]. Il fatto che gli animali potessero continuare a produrre risposte emozionali anche quando i visceri venivano separati chirurgicamente dal sistema nervoso e il fatto che le reazioni viscerali che accompagnano le diverse emozioni siano spesso indistinguibili, sono parsi motivi sufficienti per invalidare l'ipotesi che subordinava l'esperienza emotiva al riconoscimento delle semplici reazioni comportamentali e delle loro concomitanti reazioni viscerali. Secondo Schachter [1964] l'esperienza emozionale si verifica quando una persona è in uno stato di alto arousal e associa (attribuisce) tale stato ad un qualche evento emozionale. Secondo questa posizione l'esperienza emozionale, ad esempio della gioia o della tristezza, risulterebbe dall'attribuzione di uno stato di arousal ad un evento lieto o triste. Come ho anticipato, nessuna delle tre posizioni è passata indenne al vaglio di un esame critico che ne ha posto in evidenza le insufficienze e limitato la generalizzabilità; va d'altro canto riconosciuto che gli sviluppi di tali posizioni, nel mettere a fuoco aspetti diversi della complessa fenomenologia emotiva, hanno in vari modi contribuito all'acquisizione di una sua maggiore conoscenza. Nella scia della tradizione periferalista, Tomkins [1962] e i suoi due allievi Izard [1979] ed Ekman [1984] hanno nuovamente sottolineato l'importanza delle determinanti somatiche dell'emozione ponendo in rilievo il ruolo che i movimenti muscolari della faccia hanno non soltanto nel segnalare ma anche nel determinare i vari stati emotivi. Zaionc [1984], d'altro canto, ha posto l'accento sul ruolo giocato dagli input sensoriali, dai fenomeni somatici e dalle risposte motorie in una varietà di manifestazioni emotive in cui i «sentimenti» si rivelano indipendenti dalle «preferenze», in cui gli input sensoriali da soli possono determinare delle reazioni emozionali senza che essi si «trasformino in» o «si associno a» alcuna rappresentazione. Altri autori, come Lazarus [1980] e Weiner [1985], hanno sviluppato posizioni centraliste secondo prospettive cognitivo-fenomeno-

EMOZIONI E MOTIVAZIONI

logiche molto diverse da quelle della ricerca neurobiologica di Cannon e sostanzialmente indipendenti dai recenti sviluppi della ricerca neurologica. In Lazarus e in Weiner, le valutazioni cognitive e le attribuzioni di significato che accompagnano le varie transazioni tra la persona e l'ambiente svolgono un ruolo cruciale nella determinazione delle diverse emozioni. La persona è triste o felice a seconda di come interpreta la situazione in cui si trova e a seconda dei significati che attribuisce a tale situazione. Altri autori, come Mandler [1984], hanno ripreso gli argomenti della teoria bifattoriale accentuando l'importanza dei processi cognitivi. Altri infine, come Leventhal e Scherer [1987], hanno avanzato nuove soluzioni che sembrano prefigurare la possibilità di integrare a diversi livelli di analisi i contributi dei diversi punti di vista. Leventhal e Scherer in particolare propongono un modello gerarchico-evolutivo secondo cui l'emozione è una costruzione alla quale concorrono diverse componenti, percettivo-motorie e valutative, ordinate gerarchicamente e secondo livelli di articolazione e complessità crescenti con il progredire dello sviluppo. Nel complesso viene avvertita la necessità di modelli esplicativi capaci di conciliare la multicausalità, la multicomponenzialità, la reciprocità e la sincronicità dei vari fattori che concorrono a definire di volta in volta le varie manifestazioni emotive. In quest'ottica sembra plausibile ipotizzare architetture di processi organizzati a diversi livelli funzionali ordinati gerarchicamente. Sembra anche plausibile la coesistenza di sistemi relativamente indipendenti, capaci di funzionare in parallelo e in alternanza, diversamente nei diversi stadi evolutivi, nelle diverse circostanze e per le diverse emozioni. 3.3. La genesi e le funzioni delle emozioni

II discorso sulla genesi delle emozioni può snodarsi lungo diversi itinerari argomentativi. Se per genesi si intende il prendere forma dei vari aspetti che quied-ora caratterizzano l'emozione, restano sostanzialmente valide le argomentazioni svolte in margine alle teorie periferiche o centralistiche. Apparentemente l'emozione è una costruzione complessa che prende forma nel tempo e alla quale concorrono diverse componenti, con un rilievo che può rivelarsi differente nelle diverse circostanze e nelle diverse stagioni evolutive. In merito a ciò, come si è visto, disponiamo di una varietà di ipotesi, non risolutive, né esaustive, ma a differenti livelli plausibili. Il riconoscere il ruolo costitutivo dei processi cognitivi non è incompatibile con la possibilità che altri fattori parimenti costitutivi concorrano alla costruzione dell'emozione indipendentemente, prima, dopo o in concomitanza con i primi. Né sminuisce l'importanza delle reazioni somatiche viscerali, muscolari e motorie

89

90

EMOZIONI E MOTIVAZIONI

constatare che esse non sono le stesse e non hanno la stessa rilevanza per le diverse emozioni, nelle diverse età e nei diversi individui. Il tempo svolge un ruolo essenziale. Ciascuna emozione si sviluppa, infatti, in un particolare intervallo di tempo nel quale prende forma, si trasforma, tocca diverse intensità, mostra diverse caratteristiche. Lo scorrere del tempo è spesso talmente veloce che si rivela impossibile distinguere tra i vari fenomeni quali si presentano sincronicamente e quali diacronicamente, quali prima e quali dopo, secondo quali retroazioni e interconnessioni le varie reazioni possano risultare amplificate o piuttosto attenuate. Le reazioni viscerali possono indurre a riconoscere l'emozione e a intensificare i sentimenti e le reazioni comportamentali dell'individuo. Uappraisal può generare particolari scansioni e modulazioni delle reazioni viscerali e comportamentali: in taluni casi suscitare un'amplificazione, in altri un'attenuazione di tali reazioni. L'innesco e la regolazione di determinate reazioni sembra procedere, in talune circostanze, secondo automatismi che si sottraggono ai controlli dell'individuo. L'attività riflessiva dell'individuo sembra, invece, essenziale in altre circostanze. Anche per quanto riguarda il suo declinarsi nel tempo, la sorpresa è diversa dalla paura e le reazioni di paura di un bambino di pochi mesi sono diverse da quelle di un bambino di pochi anni, al pari di come queste e quelle sono differenti da quelle dell'adulto. Per questo, mi pare preferibile, come ho già notato, trattare di una psicologia delle emozioni al plurale, di cui sia tratto distintivo l'esame delle specificità rispetto al novero di somiglianze superficiali e spesso soltanto apparenti. Allo stato attuale resta in larga parte da chiarire quali siano tutti gli elementi costitutivi del sistema coordinato di reazioni che definisce ciascuna emozione e come ognuna di esse rifletta l'emergere e il perfezionarsi di processi di energetizzazione, di valutazione e di direzione, in parte tributari di strutture e meccanismi presenti alla nascita e in parte risultanti dal dialogo che, dalla nascita, prende a svolgersi tra l'organismo e l'ambiente. A questo riguardo il modello di Leventhal e Scherer è uno dei tentativi più articolati per rendere ragione di come le emozioni si costruiscano e di come le reazioni emozionali possano cambiare nella storia individuale. Tale modello da un lato contempla tre livelli di organizzazione percettivo-motoria e dall'altro cinque tipi di controllo valutativo (stimulus evaluatìon check o SEC) che si integrano con i primi. A livello «sensomotorio» l'emozione si manifesta nelle sue espressioni più primitive ed elementari governate da sistemi di attivazione e da meccanismi innati e involontari. A livello «schematico» si ha l'integrazione, nella forma di schemi, delle reazioni sensoriomotorie con l'esperienza di particolari situazioni e delle reazioni prodotte in esse. A questo livello si ha un'elaborazione emotiva rapida e automatica, in forza di come determinate sollecitazioni e reazioni emotive si sono depositate nella memoria nella forma di concrete rappresentazioni. A livello «concettuale» l'integrazione dell'esperienza emotiva

EMOZIONI E MOTIVAZIONI

coincide con la capacità di riflettere su di essa, di parlare di essa e di predisporre le reazioni conseguenti. I tre livelli sono in vario modo interconnessi e attraversati da flussi di influenze reciproche del tipo vertice-base (top down)/hase-vettice {bottoni up), retroazione (feedback)/anticipazione (feedward). I cinque tipi di controllo valutativo, come i tre livelli di organizzazione percettivo-motoria, caratterizzano diversi gradi di differenziazione, articolazione e complessità dell'esperienza emotiva e un diverso coinvolgimento corticale e cognitivo. Essi sono: a) il controllo della novità dello stimolo; b) il controllo della piacevolezza/spiacevolezza dello stimolo; e) il controllo della rilevanza dello stimolo rispetto agli obiettivi e ai bisogni dell'organismo; d) il controllo delle capacità dell'organismo di affrontare/control lare gli eventi-stimolo; e) il controllo della compatibilita degli eventi rispetto al concetto di sé e alle norme interiorizzate. Le espressioni dell'organizzazione percettivo-motoria e dei controlli prendono forma, si succedono e si integrano differentemente nelle fasi evolutive sino al perfezionarsi dei vari sistemi di reazioni coordinate che hanno tutte le proprietà dell'emozione. Mentre nel neonato sono essenzialmente coinvolti componenti sensomotorie e controlli valutativi del tipo a e b sulla base di meccanismi innati e con un coinvolgimento minimo delle funzioni corticali, con l'avanzare della maturazione e dello sviluppo le varie manifestazioni emotive risultano soprattutto dall'integrazione di componenti schematiche e concettuali con controlli valutativi del tipo e, d ed e. In tale prospettiva il discorso sulla genesi è destinato a snodarsi lungo due direttrici. Da un lato, lungo un itinerario di considerazioni che concernono quanto si svolge nel corso dell'ontogenesi, dall'emergere al caratterizzarsi dei vari sistemi nella loro completezza. Dall'altro, lungo considerazioni che proiettano la genesi delle emozioni e le loro funzioni nella storia non soltanto dell'individuo singolo ma della specie. Nel caso della genesi delle emozioni nel corso dello sviluppo individuale è indispensabile tener conto, oltre che delle strutture e dei processi maturativi implicati, delle loro trasformazioni in concomitanza e a seguito degli scambi con l'ambiente fisico e sociale. In particolare è essenziale considerare la possibilità di trasformazioni che assolvono ad una funzione generativa rispetto al costituirsi di schemi di elaborazione e di azione che, a loro volta, fondano la possibilità di nuove relazioni affettive e di nuove interazioni sociali. A questo riguardo è plausibile che già alla nascita siano presenti programmi di recezione e di reazione in grado di svolgere una funzione primitiva di attivazione e di regolazione dell'emozione nelle sue manifestazioni più periferiche, involontarie e irriflessive e in tal modo in grado di modulare una varietà di interazioni con l'ambiente circostante. Parimenti è plausibile che ciò che risulta da queste prime in-

91

92

EMOZIONI E MOTIVAZIONI

terazioni faccia da appoggio all'emergere di nuove strutture e alla possibilità di sperimentare nuove interazioni. L'accoglienza dell'ambiente svolge d'altro canto un jruolo essenziale nelTaccompagnare e nel sostenere lo svolgersi dei processi maturativi. L'ambiente infatti fornisce le occasioni, seleziona le reazioni, suggerisce i modelli che, depositatisi nella memoria, forniscono i contenuti alle strutture cognitive emergenti e gli elementi per la costruzione di nuovi schemi di reazione. Soprattutto le prime reazioni, che accompagnandosi alla soddisfazione e alla frustrazione forniscono i segnali precursori e prototipici della gioia, della paura e della rabbia, sembrano svolgere una funzione cruciale di segnalazione e di appoggio per il costruirsi di nuove strutture capaci di differenziare e di regolare più armonicamente le varie manifestazioni emotive. In questa prospettiva lo sviluppo delle varie emozioni appare strettamente interconnesso con lo sviluppo delle varie forme di cognizione. Mentre da un lato la maggiore o minore organizzazione delle varie emozioni risulta dal diverso importo della funzione cognitiva, dall'altro le occasioni concrete di esperienza emotiva che vengono offerte al bambino dal suo ambiente assumono un rilievo significativo rispetto agli ulteriori sviluppi della funzione cognitiva. E mentre da un lato lo sviluppo delle strutture cognitive vincola le forme più avanzate di regolazione emotiva, dall'altro le risposte che l'ambiente fornisce alle domande emotive del bambino influenzano il suo modo di rappresentarsi la realtà e perciò le strategie di rapporto con essa. Rispetto a ciò le intuizioni psicoanalitiche circa l'importanza delle prime esperienze di piacere e dispiacere, di attaccamento, di contenimento e di sintonizzazione nel fornire i sostegni necessari allo sviluppo dell'affettività e della cognizione [Bowlby 1969; 1973; 1980; Stern 1985; Winnicott 1965] sembrano in larga parte convergere con gli indirizzi di ricerca più recenti della psicologia dello sviluppo [Battacchi 1988; 1990; Izard 1979; Sroufe 1996; Trevarthen 1984]. Se da un lato viene fortemente avvalorata l'esistenza, sin dalla nascita, di complessi sistemi coordinati di recezione e di reazione, dall'altro vengono sottolineate le strette interconnessioni tra sviluppo emotivo, sviluppo cognitivo e sviluppo sociale, viene riconosciuta grande importanza alle prime relazioni del bambino con chi si prende cura di lui, viene sottolineato il ruolo che le emozioni svolgono nell'adattamento sociale e nella costruzione del sé. Qui il discorso sulla genesi si allarga dall'ontogenesi alla filogenesi e si accompagna a quello sulle funzioni che le emozioni svolgono rispetto alla sopravvivenza della specie e rispetto allo sviluppo della personalità, sia per quanto concerne la sua organizzazione interna, sia per quanto concerne il suo adattamento sociale. Il valore che il repertorio emotivo di una specie ha per la sua sopravvivenza è stato inizialmente intuito da Darwin [1872], che ha sottolineato soprattutto la funzione comunicativa delle espressioni emotive. Le intuizioni di Darwin sono state successivamente sviluppate da numerosi studio-

EMOZIONI E MOTIVAZIONI

si in diversi ambiti scientifici. Oggi, pur con notevoli differenze di intonazioni e di sfumature, vi è ormai un largo consenso nel configurare le emozioni come parti della nostra eredità biologica e come espressioni di quanto nel corso della filogenesi è stato il prodotto della selezione naturale al fine di incrementare le possibilità di adattamento e di sopravvivenza della specie. Pari consenso vi è nel riconoscere alle emozioni analoghe funzioni nel corso dell'ontogenesi, ai fini dell'adattamento intraindividuale e sociale. Mentre l'equipaggiamento emozionale di natura biologica è ciò che consente immediatamente al bambino di interagire efficacemente con l'ambiente, la gamma di emozioni e di affetti che su questo si innesta e che da questo si sviluppa, grazie al concorso dei processi maturativi e delle interazioni sociali, è ciò che assicura successivamente l'adattamento e il pieno sviluppo della personalità individuale. Lo studio delle espressioni facciali delle emozioni, sin dai primi anni di vita e su popolazioni molto diverse, ha avvalorato l'ipotesi dell'esistenza di un repertorio biologico di base destinato a restare in parte inalterato, nonostante l'innestarsi sopra di esso nel corso dell'ontogenesi di tutta una varietà di caratteri emotivi che in larga misura riflettono il contesto culturale e vengono assimilate in virtù dell'apprendimento e dello sviluppo dei processi cognitivi [Izard 1979; Oster e Ekman 1978]. L'esistenza alla nascita di risposte emotive «primarie» non è evidentemente incompatibile con una integrazione cognitiva che nel corso dello sviluppo le specifica e le modula ulteriormente. A questo riguardo, l'esame delle diverse emozioni mostra non soltanto l'impossibilità di omologarsi ad un unico modello di sviluppo, ma altresì la specificità dei diversi aspetti della medesima emozione in quanto a fasi di sviluppo, reazioni corporee, espressioni comportamentali, risonanze soggettive. Tra le reazioni emotive più precoci lo sconforto, il sorriso, il disgusto hanno una funzione comunicativa di segnalazione e di richiamo essenziali per la sopravvivenza e il benessere del bambino. Esse attirano l'attenzione, sollecitano la cura, innescano e orientano le prime interazioni, creano i primi legami affettivi. Successivamente la rabbia, la paura, la vergogna, la sorpresa riflettono i primi tentativi di confrontarsi con la novità e con le frustrazioni. Tali reazioni, mentre da un lato si configurano come strategie primitive di evitamento e allontanamento delle fonti di dispiacere e di pericolo e di avvicinamento e richiamo delle possibili sorgenti di benessere, dall'altro fanno da sostegno ai vari processi di differenziazione dell'esperienza e di costruzione del sé. Lo sviluppo emotivo si intreccia con i processi di maturazione neurologica e con lo sviluppo cognitivo-sociale, al tempo stesso come determinante e come risultante di livelli di organizzazione mentale che gradualmente vengono a comportare la capacità di distinguere il mondo interno dal mondo esterno, l'acquisizione della permanenza dell'oggetto, lo sviluppo della coscienza di sé come oggetto separato, lo sviluppo del pensiero rappresentativo.

93

94

EMOZIONI E MOTIVAZIONI

Fin dai primi mesi di vita le emozioni svolgono dunque una parte critica nel modulare il rapporto dell'individuo con la realtà, in qualità di precursori di sistemi motivazionali che soltanto più tardi nel corso dello sviluppo faranno la loro comparsa e di cui le emozioni condividono alcuni ingredienti e anticipano alcune funzioni, sia in rapporto al mondo esterno sia in rapporto al costituirsi del proprio mondo interno. In tal senso le varie emozioni svolgono un ruolo cruciale non soltanto nella relazione con il mondo, ma altresì nella formazione intraindividuale di strutture di conoscenza e di direzione. Può perciò risultare ad un certo punto problematico tracciare i confini tra emozione, cognizione e motivazione. È fuori di dubbio infatti che le emozioni svolgano dall'inizio una funzione vicaria di cognizione e motivazione e che continuino a svolgere nel corso della vita una funzione di appoggio insostituibile nell'allertare, nell'orientare, nel predisporre all'azione [Frijda 1986], È inoltre fuori di dubbio la funzione sociale che le emozioni svolgono, non solo di segnalazione dello stato di benessere dell'individuo e di richiesta di aiuto, ma altresì rispetto alla condivisione e al consolidamento dei legami affettivi, dei controlli sociali, delle norme e dei valori culturali [Arcuri e Boca 1991; Ricci Bitti 1990]. Sarebbe però sconveniente se il giusto apprezzamento delle interconnessioni e delle comunanze portasse a perdere di vista la specificità della sfera emotiva rispetto a quella motivazionale e a quella cognitiva. Rispetto a ciò che definisce l'adattamento in termini di stati di equilibrio, di gerarchle di scopi, di piani di comportamento, le emozioni si configurano come sistemi coordinati di segnalazione e di assimilazione di discrepanze ed emergenze impreviste o improvvise. Tra le emozioni che principalmente insorgono in presenza di una discrepanza rispetto ad una «norma» o ad uno «standard», vi sono quelle che predispongono all'anticipazione di un dispiacere e quelle che predispongono all'anticipazione di un piacere. Quando la discrepanza comporta il riconoscimento di una violazione o di una carenza e ad essa si associa l'anticipazione di una riprovazione o di una svalutazione, abbiamo emozioni come la rabbia, la pietà, la vergogna, la colpa. Quando la discrepanza comporta invece un allargamento del sentimento della propria competenza e dell'apprezzamento sociale, abbiamo emozioni come la gioia e l'orgoglio. Tra le emozioni che insorgono principalmente in presenza di una emergenza, a seguito di una rottura di un equilibrio o della necessità di un cambiamento di stato, vi sono emozioni di allerta come la sorpresa o il trasalimento. In taluni casi i principali correlati cognitivi sono soprattutto i processi attentivi, in altri casi sono soprattutto i processi attribuzionali. In taluni casi i correlati motivazionali sono soprattutto processi di preparazione e intensificazione dell'azione (rabbia-aggressione; orgoglio-impegno; pietà-aiuto), in altri casi sono soprattutto processi di

EMOZIONI F. MOTIVAZIONI

sospensione o attenuazione dell'azione (sorpresa-curiosità; trasalimento-rilassamento). Fondamentalmente la spontaneità, l'intensità, la simultaneità delle reazioni che si attivano in modo coordinato in presenza di un qualche cosa di «noto» ma «non previsto», di «prevedibile» ma non «atteso», il più diretto radicamento nel biologico, il più pervasivo coinvolgimento di tutto l'organismo, il fare da giuntura e da cinghia di trasmissione a vari livelli tra biologico, psicologico e sociale sono i caratteri che fanno della sfera emotiva un ambito di indagine privilegiato e interconnesso, ma non riducibile, agli ambiti dell'indagine sui processi cognitivi o motivazionali. 4. Le motivazioni

Anche per la motivazione, come in genere per la psicologia, si può parlare di un lungo passato e di una breve storia. Nonostante la riflessione fìlosofica sulla motivazione, al pari di quella sulle emozioni e sul pensiero, risalga molto indietro nel tempo e annoveri tra i propri cultori i nomi più illustri della nostra tradizione culturale, la ricerca psicologica sulla motivazione è ancora lontana dal costituire un sistema consolidato di conoscenze e di metodi. Lo stesso concetto di motivazione è recente, diversamente da altri come desiderio, bisogno, ragione, intenzione, e in parte ha sostituito nel lessico del ricercatore questi ultimi con cui a volte ancora si alterna e confonde. La motivazione in senso lato concerne il «perché» del comportamento: le cause, le ragioni, i motivi, i fini. Facciamo ricorso allo stesso costrutto sia quando ci interroghiamo su ciò che origina, regola, dirige e perciò «motiva» l'agire di un individuo sia quando ci proponiamo di «motivare» una persona a fare ciò che altrimenti, spontaneamente, non farebbe. In entrambi i casi, sia quando ci domandiamo «che cosa motiva una condotta», sia quando ci domandiamo «come è possibile motivare ad una condotta», facciamo riferimento a qualche cosa che fa da interfaccia tra l'organismo e l'ambiente e da cui dipende l'innesco, l'ampiezza, l'intensità, la durata, la cessazione di un comportamento. I territori di indagine che si dischiudono alla ricerca sulla motivazione sono in larga parte quelli che in passato erano appartenuti alla speculazione sugli istinti e sulla volontà, a corollario della duplice natura dell'uomo: animale e razionale. In una cornice in cui la nozione di istinto appare definitivamente obsoleta e quella di volontà quanto meno problematica, i problemi che si pongono all'indagine sulla motivazione riguardano il rapporto tra la variabilità ascrivibile a fattori in qualche modo ancorati ai processi di maturazione e alle caratteristiche fisiche dell'organismo e quella imputabile ai processi di autoregolazione mentale che dai primi si sviluppano per essere poi funzionalmente autonomi. Da ciò de-

95

96

EMOZIONI E MOTIVAZIONI

riva una distinzione plausibile tra motivazioni biologiche, in cui è significativo l'importo dei primi fattori, e motivazioni personali e sociali in cui, al contrario, sono soprattutto determinanti i secondi. La plausibilità, in ogni caso, non può mettere in ombra il carattere di provvisorietà di qualsiasi classificazione e l'inapplicabilità di qualunque rigida distinzione. Come non esiste una motivazione biologica che non risulti in larga parte plasmata dall'esperienza individuale e in qualche modo regolata da processi mentali, non abbiamo motivo di escludere, soltanto perché non ne siamo a conoscenza, l'importanza di una varietà di fattori biologici anche nel caso delle cosiddette motivazioni personali e sociali. Come nel caso dell'esame dei determinanti dell'emozione, anche per quelli della motivazione vanno tenuti presenti diversi livelli di organizzazione e diversi livelli di analisi. A questo proposito la storia della ricerca psicologica sulla motivazione sembra aver percorso un itinerario analogo a quello che nell'ontogenesi sembra segnare l'emancipazione dello «psicologico» ripetto al «biologico», in concomitanza con l'emergere di strutture e processi mentali che presiedono al coordinamento delle condotte in accordo con piani e programmi di rapporto con la realtà sempre più complessi. Di tale progresso sembra rendere testimonianza il graduale staccarsi della psicologia della motivazione dalle liste di istinti e di bisogni, per passare a un modello sostanzialmente tensio-riduttivo come quello della «pulsione x abitudine», alle prime formulazioni di modelli cognitivi del tipo «aspettativa x valore», sino agli sviluppi più recenti di tali modelli. 4.1. Liste di istinti e liste di bisogni

Molto di ciò che oggi costituisce l'oggetto della ricerca sulla motivazione, sino ai primi anni di questo secolo, è stato sussunto, più o meno genericamente, nel concetto di istinto. L'istinto è stato utilizzato per descrivere e spiegare l'intensità, la varietà e la direzione del comportamento. Con esso indifferentemente si è fatto riferimento a delle spinte, a delle mete, a degli attributi della condotta come «innato», «involontario», «impulsivo». In James [1890], che per primo ne ha tentato una sistematizzazione nel linguaggio della psicologia moderna, l'istinto corrisponde «alla facoltà di agire in modo da produrre certi effetti finali senza aver preveduto e senza previa educazione ad agire in quel modo». McDougall, che di esso è stato il più convinto assertore, lo definisce come «una disposizione psicofisica congenita o innata che spinge l'organismo a prestare attenzione a certe categorie di oggetti, a sperimentare alla loro percezione un certo eccitamento emotivo, e ad agire o almeno a sperimentare un impulso ad agire in un certo modo» [McDougall 1926]. Mentre ciò che caratterizza gli istinti in James è soprattutto la

EMOZIONI E MOTIVAZIONI

natura stereotipale del comportamento e il loro essere conformi al tipo generale dell'azione riflessa, in McDougall gli istinti rappresentano i veri propulsori di ogni condotta e attività psichica in quanto capacità innate di agire intenzionalmente. L'individuazione e la delimitazione dei vari istinti resta in ogni caso problematica e la lista di propensità che McDougall propone (tra cui la fame, il sesso, l'evitamento della paura, l'autoaffermazione) mostra tutta la sua provvisorietà e precarietà, dal momento che rimangono in definitiva opinabili i criteri che hanno indotto ad includere alcune propensità e ad escluderne altre. In assenza di riscontri anatomo-fisiologici e di una precisa articolazione dei rapporti tra organismo e ambiente, la nozione di istinto può dilatarsi a tal punto da costituire un ostacolo all'avanzamento delle conoscenze su ciò che effettivamente nelle diverse circostanze sostiene e dirige la condotta. Nel 1922 Dunlap denuncia l'arbitrarietà di liste di istinti che rispondono soltanto ai criteri di convenienza del singolo studioso. Nel 1924 Bernard conta oltre 14.000 istinti. Risulta evidente che all'estensione del concetto corrisponde la sua svalutazione sul piano conoscitivo ed è inevitabile che le fortune della categoria giungano al tramonto. Un'esigenza di rigore, in concomitanza con una maggiore confidenza nella possibilità di isolare e rendere ragione dei vari fenomeni raccolti sotto la generica categoria dell'istinto, portano in definitiva a respingere con esso tutta una varietà di implicazioni più o meno finalistiche che risultano estranee alla ricerca psicologica. Da un lato l'azione della selezione filogenetica non sembra riguardare rigide disposizioni ad agire in determinati modi e a perseguire determinati fini, quanto piuttosto le potenzialità suscettibili di tradursi in inclinazioni e condotte in relazione alle diverse opportunità che si vengono a creare nel corso dell'ontogenesi. Dall'altro la maggiore attenzione alle pressioni selettive dell'ambiente sollecita a controllare, per i diversi bisogni o motivi che sottendono la condotta, quali sono le influenze dell'esperienza e dell'apprendimento rispetto alla loro genesi e alle loro espressioni. Varie liste di bisogni e motivi vengono gradualmente a sostituirsi alle liste di istinti e la riflessione sulla loro genesi e sul loro funzionamento apre la strada e pone le basi della ricerca sulla motivazione. Per quanto concerne le liste di bisogni, i contributi di Murray [1938] e di Maslow [1954] danno un'idea degli sviluppi di tale impostazione nella quale lo studio della motivazione si intreccia strettamente con quello dello sviluppo della personalità e delle differenze individuali. Murray a più riprese rielabora una tassonomia di bisogni in cui vengono sostanzialmente distinti bisogni primari o viscerogeni e bisogni secondari o psicogeni. I primi corrispondono alla necessità di soddisfare le esigenze fisiche dell'organismo come l'aria, l'acqua, il cibo. I secondi, se pure in connessione con i primi dai quali si origi-

97

98

EMOZIONI F. MOTIVAZIONI

nano nel corso dello sviluppo, non hanno riscontri specifici in alcun processo organico e corrispondono ai bisogni che l'individuo sviluppa e sperimenta nel corso della sua esperienza interpersonale e sociale. Sono tali i bisogni di acquisizione, di successo, di riconoscimento, di dominio, ecc. I bisogni, in quanto espressioni di forze che organizzano la cognizione, l'affetto e l'azione, rappresentano le tendenze direzionali fondamentali della condotta e gli elementi distintivi della personalità. Entrambi infatti riflettono sempre una particolare organizzazione e una particolare gerarchia di bisogni. Mentre la condotta esprime il bisogno o la costellazione di bisogni che è dominante in un dato momento, la personalità rappresenta l'ordine di importanza e le connessioni che, tra i vari bisogni, si sono venute stabilizzando nel tempo in forza delle particolari vicende che hanno caratterizzato la loro soddisfazione segnando, inequivocabilmente, l'esperienza personale dell'individuo. Sulla stessa scia anche Maslow ipotizza una gerarchia di bisogni e tra essi una sequenza evolutiva in cui la soddisfazione dei più primitivi rappresenta la condizione per l'emergere di bisogni più evoluti sino alla comparsa di bisogni che trascendono l'esistenza stessa dell'individuo. All'origine della vita i bisogni fisiologici, connessi alla sopravvivenza fisica dell'organismo, fanno da base ad una ipotetica piramide che viene edificandosi sopra di essi in concomitanza con le soddisfazioni che rendono possibile l'emergere e il susseguirsi di esperienze di diversi stati «motivazionali». Ogni stadio è caratterizzato dalla dominanza di un nuovo tipo di bisogni. Sulla soddisfazione dei bisogni fisiologici come il bisogno di cibo, di acqua, di sonno, si innestano bisogni di sicurezza come il bisogno di protezione, di libertà dalla paura, di tranquillità; mano a mano che anche questi trovano soddisfazione emergono bisogni di attaccamento come il bisogno di amore, di appartenenza, di affiliazione; quando anche questi trovano appagamento emergono e si impongono bisogni di stima come il bisogno di sentirsi competenti, rispettati, apprezzati; seguono quindi i bisogni di conoscenza, i bisogni estetici, i bisogni di autorealizzazione e infine i bisogni spirituali di identificazione cosmica e di trascendenza. Mentre i bisogni dei primi gradini della piramide sono sostanzialmente «di carenza» e declinano in concomitanza con la loro soddisfazione, i bisogni dei gradini successivi sono sostanzialmente di crescita e, più che superati, vengono sussunti dai bisogni dei livelli superiori. Come quella di Murray, anche la teoria dei bisogni di Maslow ha goduto di grande popolarità in ambito clinico, educativo e lavorativo mentre ha avuto risonanza minore in ambito strettamente scientifico. Apparentemente gli stessi elementi di semplicità e di ottimismo che hanno fatto sì che tali teorie fossero allettanti e fruibili in ambito applicativo, le hanno rese criticabili quando si è tentato di valutare la loro effettiva portata conoscitiva. In realtà rimangono disattesi dalla

EMOZIONI E MOTIVAZIONI

teoria di Maslow come da quella di Murray i principali interrogativi ai quali una teoria della motivazione dovrebbe rispondere. Né l'una né l'altra rendono ragione delle componenti e dello sviluppo delle varie motivazioni in relazione con lo sviluppo dei processi cognitivi e affettivi, né rendono ragione di cosa determini e caratterizzi nelle diverse circostanze l'innesco, l'intensità e la persistenza delle varie condotte, la scelta delle direzioni e la realizzazione degli scopi. Questi sono in realtà i temi della ricerca moderna sulla motivazione: ciò che attiva e ciò che dirige il comportamento e ciò che regola, al di là delle varie classificazioni e liste di bisogni, l'emergere degli scopi e il fluire della condotta in relazione al loro perseguimento. 4.2. I determinanti della motivazione

La ricerca sistematica sui determinanti e sui meccanismi della motivazione ha seguito nel suo sviluppo le vicende della teoria dell'apprendimento e del cognitivismo, lungo itinerari spesso indipendenti l'uno dall'altro. Nella tradizione della teoria dell'apprendimento il modello «pulsione x abitudine» è stato il punto di partenza di una elaborazione che ha dato i suoi frutti migliori nei decenni immediatamente precedenti e successivi al secondo conflitto mondiale. In ambito cognitivista il modello «aspettativa x valore» è stato il punto di avvio di una riflessione che ha largamente dominato gli indirizzi più recenti della ricerca. I due modelli riflettono non soltanto quelle che Weiner [1992] ha indicato come le due metafore «dell'uomo macchina e dell'uomo dio», ma sostanzialmente due ordini di fenomeni e due livelli di analisi. Nel modello «pulsione x abitudine» l'attenzione del ricercatore è parimenti rivolta ai processi di energetizzazione e ai processi di direzione, e mira a privilegiare nell'esame della motivazione i suoi costituenti più elementari. Nel modello «aspettativa x valore» il focus dell'indagine finisce con il riguardare esclusivamente i processi più evoluti e complessi di autoregolazione e di direzione. Nel modello «pulsione x abitudine» le proprietà e le esigenze dell'organismo fisico si pongono all'origine della varietà di bisogni o motivi che, nel corso dell'ontogenesi, fanno da sostegno e da guida al comportamento, e le varie motivazioni, pur con gradi diversi di complessità, condividono nella sostanza gli elementi e le modalità essenziali di funzionamento delle motivazioni biologiche. Le pulsioni, le abitudini e gli incentivi sono gli elementi costitutivi delle diverse motivazioni. Mentre le pulsioni forniscono le componenti energetiche dei vari motivi, le abitudini e gli incentivi presiedo-

99

100

EMOZIONI E MOTIVAZIONI

no alla loro direzione. L'attivazione che si crea in relazione all'emergenza di un bisogno [Hull 1943b] e l'attivazione che l'organismo genera e di cui l'organismo ha bisogno per mantenere un livello ottimale di stimolazione dell'organismo [Hebb 1955; Berlyne 1973], forniscono i principi esplicativi delle componenti pulsionali. Le abitudini che l'apprendimento ha generato hanno la duplice proprietà di estinguere gradualmente la stimolazione interna e di dare direzione al comportamento in forza di una serie di risposte interne anticipatorie della meta. Gli incentivi corrispondono al valore-meta il cui raggiungimento realizza lo stato ottimale perseguito, e agiscono sulla base di una serie di risposte anticipatorie della meta capaci di fungere da stimolazioni interne. I principi del condizionamento classico e operante (cfr. infra, pp. 321-325) rendono d'altro canto ragione delle connessioni che formano le abitudini e che legano pulsioni, abitudini e incentivi. Tutta la dinamica motivazionale, in definitiva, risulta dalla necessità di mantenere un livello di rapporto ottimale tra l'organismo e l'ambiente e ciò si Te.?ÌÀz7,& in virtù delle capacità dell'apparato psichico di governare l'azione tramite meccanismi automatici e intenzionali che riflettono complessi reticoli associativi stimolo-risposta-segnale-affetto. Secondo McClelland [1985], che nella letteratura sulla motivazione occupa un posto di rilievo e in un certo modo di transizione tra il modello «pulsione x valore» e quello della «aspettativa x valore», è sostanzialmente in virtù di processi associativi che certe situazioni diventano incentivi in quanto assumono la proprietà di risvegliare stati affettivi originariamente connessi a esperienze primitive di soddisfazione o insoddisfazione. Soprattutto è in virtù di processi associativi che, da relazioni primitive di stimoli-affetti-riposte, in parte già presenti alla nascita e che rappresentano veri e propri «incentivi naturali», si generano nel corso dello sviluppo complesse costellazioni di motivi. Gli incentivi naturali corrispondono a connessioni naturali tra segnali-stimolo, uno stato di eccitazione emotivo-affettiva e un atto consumatorio, e sono strettamente legati alle prime reazioni emotive che in larga misura si attivano e procedono da essi. I motivi corrispondono a stati appresi, connessi all'anticipazione di uno stato finale caricato affettivamente e perciò capaci di attivare l'organismo a produrre o ad apprendere la risposta strumentale necessaria a realizzare quello stato finale. Sin dall'inizio i vari incentivi naturali si intrecciano e si combinano tra loro, generando nuovi motivi e nuovi incentivi, in concomitanza con l'avanzare dei processi di maturazione e di sviluppo e in rapporto alle diverse opportunità di apprendimento e alle diverse esperienze di soddisfazione. Lungo itinerari complessi si possono rintracciare elementi di continuità tra l'incentivo naturale connesso all'avere un impatto sulla realtà e la motivazione al potere, tra l'incentivo naturale connesso alla ricerca di varietà e la motivazione al successo, tra l'incentivo naturale connesso all'attaccamento e il motivo affiliativo. Le diverse op-

EMOZIONI E MOTIVAZIONI

portunità e modalità di soddisfazione e insoddisfazione, che segnano gli itinerari delle diverse esistenze individuali, determinano l'espressione e l'importanza dei vari motivi. A seconda che gli itinerari rinforzati, positivamente o negativamente, siano quelli del dominio, della realizzazione o piuttosto dell'amore, prendono forma disposizioni personali che riflettono vere e proprie gerarchie motivazionali rispetto alle quali taluni motivi più ricorrenti e più intensi di altri si configurano come gli elementi centrali di una strategia generale di rapporto con la realtà. In questa direzione la riflessione sulla motivazione si allarga a quella sulla personalità, e i bisogni di successo, di affiliazione, di potere, in relazione alla loro dominanza e alle loro diverse combinazioni, si configurano come gli elementi di un nuova tassonomia della motivazione e della personalità. Il bisogno di successo corrisponde ad una spinta a fare le cose al meglio per un intrinseco bisogno di perfezione e di eccellenza. La persona prevalentemente motivata al successo è attratta da compiti moderatamente difficili che rappresentano una sfida e una prova severa delle proprie capacità. Il bisogno di affiliazione equivale a una spinta a ricercare la presenza degli altri, per il piacere che deriva dallo stare insieme e dal sentirsi parte di un gruppo. La persona prevalentemente motivata all'affiliazione offre il meglio di sé in presenza di incentivi affiliativi, presta molta attenzione alla cura delle relazioni interpersonali, tende a evitare le critiche e le controversie anche al prezzo di assumere posizioni esageratamente accondiscendenti. Il bisogno di potere corrisponde alla spinta ad esercitare dovunque possibile la propria influenza e il proprio controllo sulle altre persone. La persona motivata al potere mira a posizioni di comando, tende a richiamare e a concentrare l'attenzione altrui su di sé, è competitiva, non esita di fronte a quelle prove, anche rischiose, dalle quali può risultare un aumento del suo potere e prestigio. L'interesse pratico di tale tassonomia, soprattutto a fini diagnostici e predittivi, è stato in vario modo documentato in diversi contesti educativi, clinici e lavorativi. È parso invece minore il contributo di tale impostazione all'approfondimento dei processi, dei meccanismi, delle strutture che governano l'azione dei vari motivi, il loro emergere e declinare, il prevalere di alcuni su altri, il costituirsi di vere e proprie gerarchie di scopi, l'alternarsi e il susseguirsi delle varie condotte e il mutare dell'ordine delle mete in rapporto alle conseguenze dell'azione. A questo proposito, sono soprattutto gli sviluppi del modello «aspettativa x valore» che sembrano avere fatto i progressi più significativi. In tale modello la capacità di darsi delle mete e di perseguire dei fini si configura, fin dall'inizio, nei lavori di Lewin et al. [1944], come una proprietà dell'apparato psichico che giustifica l'affrancamento di larga parte dell'indagine sulla motivazione da ogni residua considerazione biologica. L'attenzione si sposta decisamente sui processi

101

102

EMOZIONI E MOTIVAZIONI

cognitivi che presiedono alla individuazione delle mete, alla valutazione delle probabilità di successo, alla ponderazione delle probabilità di insuccesso, all'alternarsi dei diversi scopi nel tempo [Atkinson 1964; Atkinson e Birch 1970], alle attribuzioni di causalità in ordine al controllo che il soggetto percepisce di poter esercitare sui vari elementi da cui dipende il raggiungimento degli scopi [Weiner 1972; 1986], alla valutazione delle conseguenze delle proprie condotte [Heckausen 1980], alla capacità di perseverare in accordo con i propri piani [Kuhl 1984], al ruolo dei valori [Feather 1986], all'assunzione di una prospettiva temporale in cui la rappresentazione del futuro si rivela non meno importante dell'esperienza del passato nell'attenuare in taluni casi e nell'intensificare in altri la risolutezza a perseguire determinate mete [Raynor 1982]. In questa prospettiva i contributi di Atkinson hanno costituito per oltre un trentennio un elemento di propulsione fondamentale [Atkinson 1983; Brown e Veroff 1986; Kuhl e Atkinson 1986]. Dal modello di Atkinson e dai suoi sviluppi la ricerca sulla motivazione ha continuato a essere alimentata da nuovi contributi e nuove idee con conseguenze rilevanti in vari contesti applicativi. Un punto di riferimento importante per le elaborazioni di Atkinson è la teoria di Edwards [1954], secondo cui gli individui agiscono in modo da massimizzare non già il valore o l'utilità in termini oggettivi, quanto Yutilità soggettivamente attesa (U SA).

L'utilità soggettivamente attesa risulta dalla somma dei prodotti delle probabilità soggettive (P) per le utilità (U) dei vari obiettivi o delle diverse mete perseguite (n), come risulta dall'equazione: USA = PI x Ul + P2 x U2 + . . . Pn x Un

Ciò che in tale formulazione è determinante, rispetto alla teoria classica della decisione, è il ruolo delle aspettative. Nella valutazione dell'aspettativa va considerato non solo quanto l'oggetto è attraente, ma altresì quanto può essere attraente di per sé l'ottenimento dell'oggetto. Viene così sottolineata l'importanza dell'incentivo rappresentato dalla nuova esperienza di successo. A partire dalla teoria di Edwards e dai risultati delle ricerche sul ruolo delle differenze individuali nella motivazione al successo (misurata con il test di appercezione tematica), Atkinson propone l'equazione: Ts = Ms x Ps x Is In essa la tendenza al successo (Ts) (alla riuscita) è uguale al prodotto della predisposizione individuale al successo (Ms), intesa come variabile indipendente e quindi relativamente costante nell'individuo, per la probabilità di successo (Ps), per l'incentivo rappresentato dal successo (Is ), e risulta matematicamente massimizzata dove P s è uguale a 0,50 e I s , dato da 1 — Ps , è uguale a 0,50. A questo riguardo è importante notare la distinzione condivisa da Atkinson tra

EMOZIONI E MOTIVAZIONI

«motivo» e «motivazione». Mentre il motivo corrisponde ad una disposizione individuale verso certe classi di incentivi (nel caso del successo, lo riuscire nei compiti che ci si propone), la motivazione è lo stato che si determina quando in presenza di particolari indizi o situazioni si attivano le aspettative che l'esecuzione di una certa attività porti al raggiungimento degli incentivi cui la persona attribuisce particolare valore. La tendenza al successo espressa dall'equazione riportata si rivela, tuttavia, solo in parte sufficiente a spiegare una varietà di risultati empirici, nonché una varietà di interrogativi connessi alla persistenza e al realismo delle scelte comportamentali in situazioni di difficoltà e di rischio. In particolare essa non spiega perché in taluni casi persone molto motivate a riuscire si ritraggono da compiti molto difficili, diversamente da persone poco motivate a riuscire che insistono anche di fronte a compiti impossibili. A questo proposito diventa inevitabile per Atkinson fare riferimento ai contributi di Festinger [1942] e di Lewin et al. [1944] sul livello di aspirazione come risultante dalla «risoluzione di un conflitto» in cui tre fattori appaiono predominanti: a) l'attrattiva del successo; b) la repulsione per l'insuccesso; e) il fattore cognitivo di un giudizio di probabilità. Accanto alla tendenza al successo viene perciò considerata la tendenza a evitare l'insuccesso o il fallimento quale risulta dalla nuova equazione: Tef = Mef x p f x i f In essa la tendenza a evitare il fallimento (Tef) è uguale al prodotto della predisposizione individuale (motivo) a evitare il fallimento (Mef) per la probabilità di fallimento (Pf = 1 — Ps), per l'incentivo rappresentato dal fallimento (If) il quale non può essere che di segno negativo e perciò fa sì che Tef abbia in definitiva un segno negativo. Le scelte e il comportamento dei soggetti corrispondono in definitiva alla risultante della Ts e della Tef come indicato dall'equazione: Ts =

( Ms x Ps x

(M e f x P f x (- L))

Può così accadere, in presenza di una elevata inclinazione personale a evitare il fallimento, che il soggetto si orienti verso mete il cui perseguimento è altamente probabile o verso mete il cui perseguimento è altamente improbabile. Mentre sono evidenti le ragioni della prima scelta, la seconda può apparire paradossale. Anche quest'ultima, tuttavia, si rivela plausibile se si tiene conto che fallire in compiti molto difficili, e perciò di improbabile successo, può essere meno frustrante e comunque preferibile al fallimento in compiti di media difficoltà dove un numero considerevole di persone può al contrario riuscire. L'equazione si arricchisce ulteriormente nell'ultima elaborazione della teoria proposta da Atkinson in collaborazione con Birch [At-

103

104

EMOZIONI E MOTIVAZIONI

kinson e Birch 1970] con la denominazione di dinamica dell'azione. In questo caso, la condotta viene colta nella prospettiva temporale e le scelte del soggetto sono considerate nel loro susseguirsi in rapporto all'emergere e al declinare dei diversi bisogni nel tempo. L'attività in corso di un individuo si configura come l'espressione della tendenza attualmente dominante tra tutte quelle di cui l'individuo è portatore. In particolare, un'attività è più o meno dominante in rapporto al tempo che essa impegna, alla frequenza, alla regolarità e alla continuità con cui essa si presenta. Lo studio della motivazione, nella prospettiva temporale, viene perciò a implicare lo studio dei processi che sostengono nel tempo il cambiamento delle varie attività e introduce, rispetto alle precedenti formulazioni, i concetti di istigazione all'azione (ciò che aumenta la tendenza verso una determinata attività), di consumazione nell'azione (il diminuire della tendenza a produrre una determinata attività che si associa all'esecuzione della medesima attività), di resistenza all'azione (ciò che si oppone alla tendenza a produrre una determinata attività). Contemporaneamente Weiner [1972] approfondisce l'esame delle componenti cognitive connesse ai processi di attribuzione della causalità nell'anticipazione e nella percezione del successo e dell'insuccesso. Emerge infatti empiricamente che le tendenze verso determinate attività, a motivo di caratteristiche di personalità del soggetto e delle sue passate esperienze, risultano significativamente influenzate dalle difficoltà del compito come percepite dal soggetto, dalle abilità che egli ritiene di possedere, dall'impegno che il soggetto ritiene venga richiesto dal compito, dalla sua percezione del ruolo attribuibile al caso o alla fortuna. Tali elementi, in qualità di fattori fissi (la difficoltà del compito e le abilità del soggetto) o variabili (la fortuna e l'impegno), e a loro volta suscettibili di essere percepiti come più controllati (le abilità e l'impegno) o meno (la difficoltà e la fortuna) dal soggetto, concorrono significativamente, secondo Weiner, nel determinare le aspettative di successo e perciò le mete che il soggetto si prefigge. Heckausen [1991] e Kuhl [1984], riallacciandosi alla riflessione di Ach [1910] sui «processi volizionali», distinguono tra intenzione a fare certe cose e la capacità di realizzare l'intenzione stessa, tra ciò che determina la decisione in favore di un'azione e ciò che distingue la persistenza di un'azione sino al raggiungimento dei fini originariamente perseguiti. In questa prospettiva assumono un particolare rilievo l'azione dei vari processi, meccanismi e stili individuali di autoregolazione dai quali dipende la scelta delle mete in rapporto alle stime delle probabilità del loro raggiungimento, le valutazioni degli esiti delle condotte poste in atto, la persistenza e l'organizzazione dell'azione sino al raggiungimento dei fini. A questo proposito Kuhl ha concettualizzato l'insieme dei processi che favoriscono o che possono ostacolare il coinvolgimento delle varie operazioni mentali necessarie all'espletamento dell'azione e al raggiungimento della meta

EMOZIONI E MOTIVAZIONI

rispettivamente in termini di «orientamento all'azione» e di «orientamento allo stato» [Kuhl e Beckman 1991]. Feather [1986], d'altro canto, sottolinea l'importanza dei valori in quanto standard di «doveri», aspetti centrali del sé, veri determinanti di atteggiamenti e di comportamenti in forza delle loro proprietà normative e delle loro valenze affettive. Raynor [1982], infine, proietta lo studio della motivazione al si' cesso oltre le immediate aspettative, probabilità ed esperienze di cesso o insuccesso. Le sorgenti di ciò che caratterizza il valore e meta e perciò di un'azione appartengono al passato, al prese futuro. Il passato e il futuro, in particolare, rappresentano n' Raynor le coordinate entro le quali si inscrive la tender determinate condotte e perciò dischiudono la prospetr' l'esame della motivazione nel quadro più ampio de'1 funzionamento della personalità. Il raggiungimene essere intrinsecamente fonte di soddisfazione, pe mento che ne deriva immediatamente senza p colari fini, o può invece avere un valore str cessivi obiettivi, così da rappresentare la t? corso capace di chiudere, alimentare o a* naie. L'immagine di sé e, in particolar autostima sono fonti di valore co r che, sul piano esistenziale, familiare, solidano un positivo sentimento di se k Le condotte e le mete, che in passati, rienze di successo o insuccesso, rappresentane il futuro, elementi di riferimento centrali rispetta tative e perciò rispetto ai propri sforzi e ai propri o. creti. Il successo e l'insuccesso del passato ipotecano . nei confronti del presente; il successo e l'insuccesso del pas. presente condizionano i propri piani per il futuro; il successo successo del passato e i propri piani per il futuro condizionano proprie scelte per il presente. La costellazione di valori, di credenze, di giudizi, di attese che informa il sistema di sé è dunque ciò che determina le scelte del soggetto, le quali possono risultare molto diverse nelle varie circostanze. Nell'economia di questa esposizione sarebbe troppo lungo tentare di chiarire più analiticamente tutti gli sviluppi del modello «aspettative x valore». Nel complesso quello che risulta dalle varie impostazioni non è ancora un quadro unitario e integrato, piuttosto un insieme di contributi che forniscono degli indispensabili punti di riferimento per rendere ragione dei complessi processi e delle strutture mentali che possono differentemente sottendere quanto dell'equazione originaria viene genericamente indicato come aspettativa e come valore.

105

106

EMOZIONI E MOTIVAZIONI

Nella percezione soggettiva dell'una e dell'altro entrano la memoria, l'attenzione, il pensiero, la capacità di fare inferenze e le inferenze che infine si fanno, la capacità di programmare e le concrete previsioni che prendono forma, la capacità di contemplare delle alternative e delle conseguenze, la capacità di decidere se insistere o rinunciare, la capacità di monitorizzare le proprie intenzioni in accordo con i propri obiettivi e con gli esiti della propria condotta. L'accentuazione degli aspetti cognitivi è stato il tratto che in definitiva ha caratterizzato la ricerca sulla motivazione in concomitanza con l'affermarsi del paradigma cognitivista. Della conversione da un modello «pulsionale» ad un modello «cognitivo», i teorici dell'«aspettativa x valore» non sono stati gli unici protagonisti. Tra i contributi non riconducibili alla tradizione «aspettativa x valore» vanno segnalati i lavori di Castelfranchi e Parisi [1980] attorno alle nozioni di scopi e di gerarchie di scopi. Tali nozioni in concomitanza con lo sviluppo di modelli connessionisti, prefigurano interessanti ipotesi e prospettive di ricerca, sia in relazione allo sviluppo delle motivazioni, sia in relazione ai rapporti tra emozione e motivazione. Motivazioni ed emozioni si configurano rispettivamente come sistemi gerarchici di scopi e come sistemi di sorveglianza nel raggiungimento di questi. Motivazioni ed emozioni in parte si costruiscono, in parte si perfezionano nel corso dello sviluppo venendo a funzionare in parallelo, in alternanza, o in vari tipi di sintonia [Castelfranchi 1991; Parisi 1991]. Va inoltre segnalato il contributo di Nuttin [1980b] nel cogliere l'importanza della prospettiva temporale e in particolare di quella futura. Nei suoi lavori la riflessione sulla motivazione è strettamente connessa a quella sulla personalità di cui riflette la trama unificante. Tra i contributi più recenti l'elaborazione di Bandura [1986; 1997] attorno al concetto di self efficacy esercita una grande influenza anche in ambito motivazionale dove, sia pure indirettamente, sembra restituire attualità a varie riflessioni sulla motivazione, rimaste ai margini e con caratterizzazioni autonome rispetto ai due modelli della «pulsione x abitudine» e dell'«aspettativa x valore». Mi riferisco, a questo proposito, al contributo di White [1959] sulla «motivazione alla competenza», di De Charms [1968] sulla «causalità personale», di Deci [1975] sulla «motivazione intrinseca». Secondo Bandura è una proprietà della mente umana agire attivamente nel mondo attraverso la capacità di simbolizzazione, di anticipazione, di apprendimento per imitazione, autoriflessione e autoregolazione. La motivazione si inscrive dunque nell'ambito delle capacità individuali di dirigersi e regolarsi in accordo a standard personali traendo vantaggio dall'esperienza e concorrendo attivamente alla costruzione della personalità. La novità del contributo di Bandura è l'articolazione e la specificità della nozione di autoefricacia percepita. Da un lato essa risulta ancorata ad un preciso modello di funzionamento dell'apparato psichico, dall'altro a particolari situazioni, capacità e obiettivi. Mentre

EMOZIONI E MOTIVAZIONI

qualunque manifestazione psichica si configura sempre come la risultante del reciproco determinarsi tra persona, situazione e condotta (reciproco determinismo triadico), l'autoefficacia percepita in quanto convinzione di saper impiegare al meglio le proprie capacità e di saper valorizzare a pieno le opportunità offerte dall'ambiente, è una misura dell'equilibrio e dell'efficienza dell'intero sistema personale quanto più risulta avvalorata dall'esperienza. Secondo una prospettiva analoga, attorno alla nozione di sé e di personalità, lo studio delle motivazioni in altri autori [Dweck e Leggett 1988; Pervin 1983; Cantor e Zirkel 1990; Emmons 1986; Little 1983; Markus e Nurius 1986] si intreccia con quello delle credenze, delle capacità e delle mete, per trovare un filo conduttore nel corso dello sviluppo individuale. Il declinarsi dei vari motivi nel quotidiano e nel corso delle diverse esistenze induce ad un'analisi sottile di differenze, soglie e gradazioni rispetto alle combinazioni e alle risultanti dei processi di base implicati. È perciò necessaria una prospettiva capace di cogliere l'idiosincrasia di ogni organizzazione personale e il coniugarsi in tale organizzazione di fenomeni che appartengono a diversi livelli di funzionamento. Alle singole motivazioni possiamo ricondurre ciò che determina l'innesco, il mantenimento e l'interruzione di specifici comportamenti, ma è sostanzialmente un'organizzazione ad esse sovraordinata che può rendere ragione dell'intero flusso di condotte che risulta dal combinarsi o alternarsi delle diverse motivazioni [Caprara 1996]. 5. Emozioni e motivazioni

È inevitabile che la ricerca sulle emozioni si intrecci con la ricerca sulle motivazioni. Le emozioni si configurano come discrepanze rispetto a sistemi di piani, di mete e aspettative in autori come Mandler [1984]; come fondamentali sistemi motivazionali in autori come Frijda [1986]; come precursori di sistemi motivazionali complessi in autori come Tomkins [1980] e McClelland [1985]. Se da un lato è plausibile che emozioni e motivazioni condividano larga parte degli ingredienti di base che presiedono alla «energetizzazione» della condotta, è d'altro lato evidente che sono sistemi di motivi che regolano sia il dispiegarsi dell'azione sia il declinarsi delle varie emozioni in rapporto al raggiungimento delle diverse mete. Qui l'assunzione di una prospettiva capace di riconoscere la specificità dei fenomeni in ordine al livello della loro organizzazione, allo stadio di sviluppo psicologico che essi riflettono e alla funzione che essi assolvono nel rapporto con l'ambiente diventa essenziale per chiarire rapporti che possono essere di derivazione, di regolazione reciproca o di mera coesistenza. Parimenti si rivela indispensabile fare ricorso a definizioni, sia pure convenzionali, che consentano di ancorare a degli osservabili quelli che di volta in volta sono gli ogget-

107

108

EMOZIONI E MOTIVAZIONI

ti in esame e che consentano di cogliere gli elementi che segnano il passaggio da un ordine di fenomeni (quello dell'emozione) a un altro (quello della motivazione). Vanno in particolare distinte situazioni di trasformazione in cui la reazione emotiva si trasforma in motivazione o, viceversa, la motivazione rende inclini a particolari tipi di reazione emotiva, da altre situazioni in cui la reazione emotiva è come l'elemento nucleare della motivazione che di essa rappresenta in parte l'involucro e in parte il modulatore. Va in ogni caso preservata la distinzione tra emozioni e motivazioni. Le emozioni sono transitorie, hanno carattere d'urgenza e una volta innescate sono vissute come scarsamente controllabili nelle loro manifestazioni e nel loro corso. Le motivazioni, al contrario, sono stabili e permanenti, si dispiegano nel tempo con carattere di continuità e discrezionalità. Le emozioni sono le risultanti di combinazioni tra eccitazione e rappresentazioni, relativamente primitive in quanto a complessità organizzativa e perlopiù stereotipali nelle loro manifestazioni espressive e comportamentali. Le motivazioni, invece, sono organizzazioni complesse, che risultano da combinazioni e trasformazioni di affetti e rappresentazioni in piani di comportamento e intenzioni, che gradualmente si perfezionano nel corso dell'ontogenesi in forza di una interazione continua e reciproca con l'ambiente. Le emozioni sono reazioni ad emergenze del mondo interno o del mondo esterno secondo l'asse piacere/dispiacere, che tradiscono la rottura di un equilibrio, per una discrepanza o per una emergenza. Le motivazioni sono tendenze orientate ad agire nel mondo esterno secondo l'asse possibilità/impossibilità, che mirano alla realizzazione di nuovi equilibri al proprio interno e che esprimono dei progetti rispetto a possibili scenari futuri dell'interazione tra l'individuo e l'ambiente. La motivazione è il dispiegarsi di una strategia, cioè di una serie di rappresentazioni mentali e di opzioni comportamentali possibili per il raggiungimento di fini più o meno dilazionati nel tempo. L'emozione è la tattica che si accompagna nel «tempo breve» al dispiegamento di questa strategia nel «tempo lungo», che ne registra e segnala i progressi, gli arresti, le variazioni. Geneticamente è plausibile che il costituirsi delle emozioni secondo copioni largamente «condizionati» anticipi e faccia da modello al costituirsi delle motivazioni. Le emozioni sono più arcaiche e affondano maggiormente le loro radici nel biologico e nel protomentale; le motivazioni riflettono invece livelli di organizzazione propri di una più decisa emancipazione del mentale rispetto al biologico. Ciò che segna il costituirsi effettivo delle motivazioni, e la loro emancipazione dagli schemi stereotipati e quasi-automatici delle emozioni o la trasformazione di queste in motivazioni, è un salto di qua-

EMOZIONI E MOTIVAZIONI

lità sul piano dell'organizzazione cognitiva al quale si associano nuove capacità di rappresentazione, di anticipazione, di autoregolazione. È perciò plausibile che emozioni e motivazioni interpretino livelli di organizzazione propri di momenti diversi della filogenesi, che l'ontogenesi in parte ripete nel medesimo ordine sequenziale e in parte ripropone per l'azione di sistemi funzionalmente autonomi. Nel momento in cui si costituiscono le motivazioni è possibile che queste soggioghino e regolino le emozioni alle quali si sono appoggiate nel proprio sviluppo. Ciò tuttavia non è incompatibile col riconoscimento di una sfera di autonomia reciproca che potrebbe rendere ragione, da un lato, dello sviluppo di sistemi motivazionali indipendenti da sistemi emozionali e, dall'altro, del persistere di sistemi emozionali relativamente arcaici, in quanto a livello di organizzazione, e purtuttavia in grado di competere con sistemi di regolazione della condotta assai più evoluti. A questo proposito, la nozione di autonomia funzionale vale tanto per i nessi che, in una prospettiva evolutiva, sembrano legare lo sviluppo dei sistemi motivazionali su preesistenti sistemi emozionali, quanto per il persistere di forme di organizzazione relativamente primitive in concomitanza col formarsi di sistemi di direzione della condotta assai più sofisticati. Il criterio discriminante tra i due ordini di fenomeni sta dunque, a mio parere, nel diverso contributo o rilievo dell'organizzazione cognitiva, che fa da sostegno e che si associa all'emozione e alla motivazione. Mentre, d'altro canto, la proprietà della motivazione di assimilare e disciplinare le componenti energetizzanti dell'emozione è il criterio discriminante tra l'ordine dei fenomeni cognitivi e l'ordine dei fenomeni motivazionali. Nel caso dei rapporti tra motivazione e cognizione emerge la mutua influenza tra funzioni cognitive e sistemi motivazionali: le prime infatti regolano lo sviluppo dei secondi che, a loro volta, finiscono con lo svolgere una funzione strategico-regolativa su tutto l'apparato cognitivo orientando la percezione, la memoria, il pensiero. Per questo ho sostenuto [Caprara 1990; 1991] che la motivazione sia da considerarsi un costrutto sovraordinato a quello di emozione e di cognizione, in quanto si riferisce a forme di organizzazione psichica che risultano dal concorso di componenti emotive e cognitive e che risolvono, ad un livello più complesso, il problema dei rapporti tra emozione e cognizione. È di conseguenza naturale che emergano per la motivazione problemi di delimitazione e di articolazione ancor più difficili di quelli che si pongono per l'emozione. Qui le maggiori difficoltà sono direttamente proporzionali alla maggiore complessità dei fenomeni che diventano oggetto di indagine. Di fronte a tale complessità e varietà il perfezionamento di una teoria generale non può sacrificare all'eleganza dei modelli la viscosità dei fenomeni reali, né l'ambizione di più estese generalizzazioni può indurre a sottovalutare importanti differenze a vantaggio di so-

109

110

EMOZIONI E MOTIVAZIONI

miglianze largamente congetturali. Per questo mi pare opportuno trattare di una psicologia delle motivazioni, al pari di una psicologia delle emozioni, a salvaguardia degli elementi di specificità che contraddistinguono i vari sistemi interessati, a giusto riconoscimento della complessità dell'oggetto di indagine. Indicazioni bibliografiche per ulteriori approfondimenti

Per quanto riguarda le emozioni, possono essere consultati con profitto i seguenti testi: il più volte citato nel corso del capitolo D'Urso e Trentin [1990]; Tiberi [1988]; D'Urso e Trentin [1992], In relazione agli aspetti motivazionali del comportamento si possono vedere: Caprara [1996]; Schmalt [1986]; Pervin [1989]; Weiner [1992].

Capitolo 3

1. Problemi

Studiare la percezione richiede una forma particolare di consapevolezza: quella che il metodo scientifico utilizzato per svelare la realtà fisica, cioè il mondo così com'è, può spiegare anche il velo dei fenomeni percettivi, cioè il mondo così come appare. In questo capitolo cercheremo dunque di rispondere a una domanda semplice ma disarmante, posta da Kurt Koffka nei Principi di psicologia della forma [1935, cap. Ili]: «Perché le cose appaiono come appaiono?». E lo faremo, in accordo con Koffka, trattando i percetti come prodotti di due processi: la codificazione dell'informazione proveniente dall'esterno (par. 2) e Xorganizzazione interna all'organismo (par. 3). Parleremo soltanto della percezione visiva di proprietà oggettuali quali colore, forma, grandezza, movimento, e non di altre proprietà visive come quelle espressive né delle modalità diverse dalla visione. Tuttavia riusciremo a toccare molti punti di interesse generale, a partire dai concetti discussi nei prossimi tre paragrafi: la contrapposizione geografico/comportamentale; la nozione di catena psicofisica; il principio del rispetto/sospetto. 1.1. Ambiente geografico e ambiente comportamentale

La contrapposizione geografico/comportamentale è un altro dei contributi teorici di Koffka [ibidem, cap. II], Si tratta di una distinzione chiave, anche se il termine «comportamentale» è molto legato all'interlocutore dei Principi: il comportamentista che spiegava le risposte come semplici funzioni degli stimoli fisici (l'ambiente geografico). Per dimostrare che le risposte dipendono invece dall'ambiente così come l'organismo se lo rappresenta, Koffka evocò una leggenda tedesca.

112

PERCEZIONE

Una sera d'inverno, mentre infuriava una tempesta di neve, un cavaliere raggiunse una locanda, felice di trovarsi al sicuro dopo ore e ore trascorse a cavallo per attraversare la pianura spazzata dal vento, dove la neve gelata aveva coperto ogni traccia di sentiero e ogni segno di riferimento. Sulla soglia, il locandiere accolse sorpreso lo straniero e gli chiese da dove fosse venuto. Quando il cavaliere si voltò indicando un punto lontano, nella direzione opposta alla casa, il locandiere esclamò con voce tremante di spavento e meraviglia: «Ma sapete di aver attraversato a cavallo il lago di Costanza?». Sentendo quelle parole il cavaliere rimase impietrito e cadde morto ai suoi piedi [ibidem, 27-28].

La leggenda drammatizza la presa di coscienza del conflitto tra realtà e apparenza. L'evento fisico «cavalcata sul lago ghiacciato», che si svolge nell'ambiente geografico, è diverso dall'evento psicologico «attraversamento lungo la via più breve», che si svolge in un ambiente comportamentale in cui, come dimostra la reazione del cavaliere, il lago non esiste. L'idea di Kofìka è che noi ci muoviamo nel mondo trasformato dall'attività percettiva un po' come il cavaliere sul lago reso cavalcabile dal gelo. La contrapposizione geografico/comportamentale è coerente con il dualismo metodologico [Kòhler 1938, cap. IV], che distingue l'esperienza indiretta, fondamentale nelle scienze naturali, dall'esperienza diretta, fondamentale per studiare le caratteristiche dell'osservatore. Le peculiarità dell'esperienza diretta sono messe in evidenza da illusioni come quella di Ebbinghaus, in cui due dischi tìsicamente identici appaiono diversi: quello circondato dai dischi piccoli appare più grande di quello circondato dai dischi grandi (fig. 3.1). L'effetto è misurabile mediante la tecnica dell'annullamento, in cui uno scostamento sulla scala dei valori percepiti viene compensato da uno scostamento, in direzione opposta, sulla scala dei valori fisici: l'osservatore aggiusta la grandezza del disco di destra fino a renderlo apparentemente identico al disco di sinistra. L'aggiustamento è uno dei metodi della psicofisica classica, la disciplina che tratta l'osservatore come metro delle grandezze fisiche (cfr. supra, cap. I, pp. 23 e 68). La misura dell'effetto è data dalla differenza tra il PES , il punto di eguaglianza soggettiva corrispondente all'annullamento della diversità percepita, e il PEO, il punto di eguaglianza oggettiva corrispondente alla congruenza geometrica. L'osservatore che aggiusta il disco modifica l'ambiente geografico, ma la sua azione è regolata dalla percezione, cioè dall'ambiente comportamentale. L'azione termina quando viene raggiunto uno stato di equilibrio in cui l'ambiente comportamentale non contiene più la differenza di grandezza percepita che funge da determinante per l'azione sull'ambiente geografico. Ambiente geografico e ambiente comportamentale sono quindi gli elementi del ciclo percezione-azione, l'unità di analisi proposta da Neisser [1976] per descrivere la visione attiva, tipica dell'osservatore che esplora e che muovendosi genera cambiamenti nell'informazione ottica. Ciclo percezione-azione e visione attiva sono concetti utilizzati sia

PERCEZIONE

FIG. 3.1. Illusione di Ebbinghaus [Robinson 1972]. Appare più grande il disco circondato dai dischi piccoli o quello circondato dai dischi grandi?

in ambito biologico sia in ambito computazionale [Gibson 1966; 1979; Sandini, Tistarelli e Tagliasco 1992; Wechsler 1990] per evitare che il dualismo metodologico costituisca una specie di barriera teorica tra l'organismo che percepisce e l'ambiente in cui ha luogo l'azione. Il requisito essenziale della rappresentazione percettiva non è la veridicità, ma l'adeguatezza all'azione. Come insegna la leggenda del lago di Costanza, in cui il gelo crea un inganno che consente l'avvicinamento diretto alla locanda, i percetti possono essere di supporto all'azione anche quando (o proprio perché) celano una ben diversa realtà. 1.2. La catena psicofisica

II contatto visivo con gli oggetti esterni è fenomenicamente immediato, ma fàsicamente mediato da una serie di trasformazioni, che compongono la cosiddetta catena psicofisica. All'origine della catena sta lo stimolo distale. Per organismi come l'uomo, esso corrisponde al mondo della fisica macroscopica, popolato da corpi più o meno compatti, delimitati da superfici e immersi in un mezzo, l'aria, in cui la luce si propaga in linea retta. I corpi hanno forma, grandezza, posizione spaziale; sono in quiete o in moto; interagiscono con la luce. Le loro proprietà, descrivibili nel linguaggio oggettivo della geometria e della fisica, sono indipendenti dallo specifico osservatore (umano, animale, artificiale). La prima mediazione è costituita dallo stimolo prossimale. Ciascun punto di un ambiente illuminato consente la raccolta di informazione sulle proprietà dei corpi {information pick-up) [Gibson 1979], informazione contenuta nell'assetto ottico {optic array) o immagine (termine non del tutto univoco, cfr. par. 2.1). Un occhio, una macchina fotografica, una telecamera, tutti i dispositivi che catturano la «luce

113

114

PERCEZIONE

come informazione» piuttosto che la «luce come energia» (par. 2), raccolgono un'immagine del mondo distale. L'immagine contiene informazione ottica sui corpi; o meglio, è l'informazione ottica. Rispetto al mondo distale, l'immagine comporta una perdita di dimensionalità da cui dipendono vari tipi di indeterminazione (par. 3.1). Lo stimolo prossimale è il potenziale informativo a disposizione del sistema visivo. L'informazione effettivamente utilizzata è definita da un altro anello della catena psicofìsica, la stimolazione prossimale, corrispondente al pattern di attivazione dei recettori retinici. Un ulteriore anello è l'insieme dei processi di codificazione e organizzazione che portano agli stati percettivi. All'altro estremo della catena psicofisica stanno i percetti, che dipendono da tutti gli anelli precedenti ma che, per garantire un adeguato supporto all'azione, debbono fornire una buona rappresentazione dello stimolo distale all'origine della catena (che forse trovereste logico chiamare fisico-psichica, considerato il flusso di informazione dall'esterno verso l'interno). Schemi analoghi sono adottati anche in ambito computazionale. La filosofia costruttiva della macchina di visione, che David Marr riassumeva nel motto to thè desiderable via thè possible [1982, 36], si basa sulla fondamentale tripartizione tra mondo distale, immagine e percetto. La macchina deve produrre ciò che è desiderabile - una rappresentazione dei corpi aderente alla loro costituzione fisica e agli scopi dell'azione - ma nei limiti del possibile, cioè compatibilmente con l'immagine in input (par. 2.1). All'interno del ciclo percezione-azione la catena psicofisica è un segmento relativamente stabile, indipendente dagli specifici atti esplorativi compiuti dall'osservatore. Ciò non significa che i percetti siano univocamente determinati dagli stimoli, come presuppone il realismo ingenuo, che confonde mondo fisico e mondo percepito (ambiente geografico e ambiente comportamentale). Anzi, proprio la parziale indeterminazione della catena psicofisica (par. 3.1) pone le condizioni per il verificarsi dei fenomeni di organizzazione percettiva che analizzeremo nei paragrafi 3.3-3.8. 1.3. Il principio del rispetto-sospetto

II nostro breve viaggio nel mondo della percezione sarà illuminato dal principio del rispetto-sospetto [Galli 1985; Metzger 1941], in cui si riassume l'atteggiamento critico che consente il superamento del realismo ingenuo. I fenomeni percettivi, sia quelli banali sia quelli sorprendenti, vanno considerati con il dovuto rispetto, come fonti potenziali di evidenza; vanno invece scrutate con sospetto le nostre convinzioni e aspettative, spesso ispirate a pregiudizi. Si riduce così il rischio che le descrizioni dei fenomeni contengano l'errore dello stimolo o l'errore dell'esperienza [Kòhler 1929; Koffka 1935, 97-98]. Commette l'errore dello stimolo chi, senza rispetto per la realtà

PERCEZIONE



► ►

FIG. 3.2. L'esagono distorto. Gli angoli parzialmente coperti appaiono deformati [Gerbino 1978].

fenomenica e senza sospetti sui propri giudizi, descrive non ciò che vede ma ciò che sa. L'errore può verificarsi nei casi in cui lo stimolo prossimale non preserva una particolare proprietà distale. Descrivendo un bastone immerso a metà nell'acqua limpida qualcuno potrebbe dire «vedo un bastone diritto»; ma così andrebbe perduto il dato fondamentale, il fatto che il bastone appare spezzato. Il bastone spezzato è un fenomeno ottico, non un fenomeno visivo; cioè riguarda la luce che media il passaggio dallo stimolo distale allo stimolo prossimale, non i processi di codificazione sensoriale e di organizzazione percettiva. Ma nello stesso errore può incorrere chi descrive un'illusione visiva in cui il percetto non corrisponde né allo stimolo prossimale né allo stimolo distale. Lo commetterebbe chi dicesse di vedere nella figura 3.2 un esagono regolare soltanto perché sa che tale regolarità è verificabile con un righello. Quello che si vede è un esagono irregolare, ed è pericoloso persino dire «l'esagono è regolare ma appare irregolare». Trattare i fenomeni come mere apparenze può portare a trascurarli; mentre noi vogliamo spiegare proprio le apparenze. Per chiarire la distinzione tra ciò che si vede e ciò che si sa, tra percetti e concetti, richiamiamo un esempio classico, quello del tramonto. Se la percezione dipendesse dalla conoscenza concettuale sul mondo distale, Tycho Brahe avrebbe descritto il tramonto come un avvicinamento del sole all'orizzonte, mentre Keplero lo avrebbe descritto come un avvicinamento dell'orizzonte al sole [Hanson 1958, 23]. E invece no; teniamo ben salda l'idea che tutti, geocentristi e eliocentristi, vedono muoversi il sole. Tuttavia ciò non accade in forza dell'attaccamento umano per i miti più antichi, ma in forza di una legge che fa dipendere la percezione del movimento dallo schema di riferimento (par. 3.6); una legge che spiega anche perché l'astrono-

115

116

PERCEZIONE

mia ingenua, fondata sull'esperienza diretta, sia geocentrica e non eliocentrica. L'errore dell'esperienza è complementare al precedente e consiste nell'attribuire agli stimoli, distali o prossimali, una proprietà fenomenica attribuibile soltanto ai percetti. Prendiamo il caso della dimensione percettiva freddo/caldo, che dipende dalla codificazione sensoriale del continuum fisico della temperatura. Quando tocchiamo l'acqua e diciamo «è proprio bella calda», non descriviamo un attributo fisico. Proviamo a tenere per un po' una mano nell'acqua molto calda e l'altra nell'acqua molto fredda. Immergendole entrambe nella stessa bacinella risulterà chiaro che attributi come «caldo» e «freddo» hanno senso soltanto in quanto predicati dell'esperienza sensoriale. Nel caso della visione l'errore dell'esperienza può insinuarsi proprio nell'uso del termine «immagine» in riferimento a uno stimolo pittorico, all'informazione ottica o alla stimolazione retinica [Koffka 1935, 98]. Ma allora, come dobbiamo raffigurarci lo stimolo prossimale per la visione? Questa domanda ci introduce alla parte dedicata all'informazione ottica e alla sua codificazione. 2. Codificazione

Come avrete notato, lo stesso anello della catena psicofisica è stato chiamato in vari modi: input, stimolo prossimale, mediazione, immagine, informazione ottica. Una scelta esclusiva sarebbe inopportuna, dato che ciascun termine ha la sua storia e porta con sé un pezzo di teoria. Se si considera il sistema visivo come un elaboratore, il termine più neutrale è «input»: ciò che viene fornito in ingresso. Il termine «stimolo», duramente criticato da Gibson [1979], implica un po' troppo, cioè l'esistenza di un legame causa-effetto tra input e percetto. Il termine «informazione ottica» ha due vantaggi. In primo luogo mette in evidenza che per l'occhio non è importante l'energia contenuta nella luce, ma il segnale mediato dalla luce. In secondo luogo è esplicitamente relazionale: l'input contiene informazione intorno alle proprietà distali e informa il percetto, cioè gli da forma [Cutting 1987]. Il termine «immagine» è forse il più usato, ma richiede alcune precisazioni. 2.1. L'immagine in input

E difficile raffigurarsi l'immagine in input senza scivolare nell'errore dell'esperienza (par. 1.3). In particolare, è quasi impossibile vedere uno stimolo pittorico (una fotografia o un dipinto prospettico) come un insieme di dati grezzi. Per cogliere la distanza che separa l'immagine sia dal percetto sia dallo stimolo distale è utile riflettere

PERCEZIONE

FIG. 3.3. «Opus 1 n. 293 aa» di Oscar Reutersvard [da Ernst 1992].

su un caso limite. La figura 3.3 è un autentico enigma visivo scoperto da Oscar Reutersvard nel 1934 [Ernst 1992]. Ciascun elemento appare come un cubo orientato in modo univoco rispetto ai cubi vicini. Ma nel complesso la struttura tridimensionale non funziona. Osserviamo la sequenza in senso orario, partendo dall'alto: ci sono quattro cubi in verticale... poi altri tre via via più vicini a noi... poi altri due ancora più vicini... ma allora l'ultimo dovrebbe stare davanti e non dietro ai cubi da cui siamo partiti! Reutersvard ha creato una «proiezione impossibile», nella quale l'informazione prospettica è localmente coerente ma globalmente incoerente. La curiosità suscitata da questa figura si spiega proprio con la nostra difficoltà a vedere le tracce grafiche come cosa distinta dall'oggetto rappresentato. Quando non derivano da una proiezione ottica (come nella fotografia) e sono invece disposte ad arte, le tracce possono contenere frammenti locali di significato senza avere senso compiuto. Ma come dimostra la figura 3.3, l'occhio tende a vedere oggetti anche quando l'immagine viola le regole proiettive. Per questo è così difficile raffigurarsi l'immagine come un insieme di dati grezzi e comprendere quale formidabile problema sia la costruzione di una rappresentazione visiva del mondo a partire dall'input ottico. Nel sistema visivo umano, l'immagine viene codificata mediante il pattern di attivazione dei recettori retinici. Ma riflettiamo adesso su un altro caso limite. Che cosa succede se una piccola zona della retina è insensibile? La domanda è opportuna, perché l'occhio è teatro di un curioso «esperimento in natura». In ciascuna retina esiste una zona del tutto priva di recettori, la macula caeca, nella quale la luce non può produrre alcun effetto. Tenete la pagina a circa 40 cm

117

118

PERCEZIONE

FIG. 3.4. Nella parte nasale della retina di ciascun occhio c'è una zona priva di recettori. Per far sparire la croce fissate il disco con l'occhio sinistro. Per far sparire il disco fissate la croce con l'occhio destro.

di distanza e guardate la figura 3.4 con l'occhio sinistro, fissando il centro del dischetto. Senza spostare lo sguardo, fate attenzione alla croce di sinistra e avvicinate la pagina: ad un certo punto la croce sparisce. Sempre fissando il dischetto con l'occhio sinistro, saggiate la grandezza della macula caeca muovendo la pagina. La macula caeca venne scoperta nel 1666 dal fisico francese Edme Mariotte (lo stesso della legge di Boyle-Mariotte) del quale si racconta che avesse deliziato Carlo II d'Inghilterra insegnandogli a «decapitare» i suoi cortigiani con una semplice occhiata (monoculare). Particolare macabro: qualche decennio prima, non solo fenomenicamente, era stato decapitato Carlo I, padre di Carlo II. È facile spiegare perché, in visione binoculare, la macula caeca eluda la nostra osservazione: la zona non rappresentata nell'occhio sinistro è rappresentata nell'occhio destro, e viceversa. Ma nemmeno in visione monoculare compare un buco; e non perché la macula caeca sia di grandezza trascurabile, dato che si estende per circa 6° in orizzontale e 8° in verticale, a un'eccentricità di circa 13-19° in direzione nasale (quanto basta per farci cadere dentro un uovo tenuto in mano a braccio steso). Il buco è invisibile perché ha luogo un'interpolazione visiva: una superficie omogenea continua ininterrotta; una linea non si spezza in due segmenti (fig. 3.5). Si realizza cioè un

FIG . 3.5. Fissate con l'occhio sinistro il punto nero a destra. E poi con l'occhio destro il punto bianco a sinistra. In entrambi i casi il lato opposto appare completo (o perlomeno non interrotto). Rispetto alla fig. 3.4 dovrete tenere la pagina più vicina all'occhio poiché la larghezza della figura è minore.

PERCEZIONE

riempimento (filling-in) coerente con la metafora del colore che si spande finché non incontra un contorno. Benché l'interpolazione nella macula caeca si presti a interpretazioni contrastanti [Dennett 1991; Kanizsa 1991, 115], possiamo trarre una conclusione generale, valida anche per altri completamenti (par. 3.5). L'assenza di informazione locale va distinta dall'informazione sull'assenza. Per vedere una macchia, un buco o un troncamento, l'occhio deve registrare i contorni che ne segnalano l'esistenza. 2.2. Un codice per la luce

Salvo che nella macula caeca, il sistema visivo è ben attrezzato per trattenere l'input ottico, cioè le variazioni di intensità e composizione spettrale della luce che arriva in un punto di vista. Il pattern di intensità viene registrato accuratamente, grazie ad un codice costituito dalla gamma dei colori neutrali, o acromatici, che vanno dal nero (intensità minima) al bianco (intensità massima). Meno accuratamente vengono registrate le variazioni di composizione spettrale, riguardanti la qualità della luce che arriva in un dato punto della retina. Per la composizione spettrale il sistema dispone di un codice costituito dalla gamma cromatica, in cui si trovano, oltre al bianco e al nero, anche rosso, verde, blu, giallo, e così via. Tuttavia, l'insieme di tutti i colori visibili non è in grado di rappresentare l'intera varietà di possibili differenze tra le miscele di radiazioni. L'osservatore umano (anche quello normale) codifica la luce in modo incompleto. E non soltanto perché è cieco all'infrarosso e all'ultravioletto; ma per una ragione ben più importante, su cui è opportuno soffermarsi, considerato che i modelli del codice cromatico hanno influenzato profondamente l'intera concezione del sistema visivo. L'esplorazione scientifica del problema inizia con gli esperimenti di Isaac Newton pubblicati in Opticks: Or, a Treatise of thè Reflections, Refractions, Inflections and Colours of Light (1704), che riguardano, da un lato, la natura fisica della radiazione solare e, dall'altro, il modo in cui l'occhio la percepisce. La dimostrazione base sfrutta la scomponibilità della luce solare mediante un prisma, che rivela l'esistenza di una varietà di raggi «differentemente rifrangibili», per usare l'espressione newtoniana, e diversamente colorati (fig. 3.6, p. 161). Ma se il bianco della luce solare è in realtà una miscela, allora anche altri colori potrebbero esserlo! Una cosa divenne estremamente chiara a Newton: il sistema visivo non è in grado di analizzare una miscela di luce e di risalire alle radiazioni che la compongono (come invece fa lo scienziato, che inferisce la composizione servendosi della differente rifrangibilità). Si sarebbe invece dimostrata insostenibile un'altra ipotesi di

119

120

PERCEZIONE

Newton, descritta nel passo seguente, secondo la quale ogni singola radiazione semplice attiva uno specifico meccanismo sensoriale. Quesito 12. «Non è forse vero che i Raggi di Luce, quando cadono sul fondo dell'Occhio, eccitano delle Vibrazioni nella Tunica Retina?». Quesito 13. «Non è forse vero che tipi diversi di Raggi producono Vibrazioni di ampiezza diversa, che in accordo con la loro ampiezza eccitano Sensazioni di Colore diverso, in modo simile alle Vibrazioni dell'Aria, che in accordo con le loro diverse ampiezze eccitano le Sensazioni dei diversi Suoni? E in particolare, non è forse vero che i Raggi più rifrangibili eccitano le Vibrazioni più corte producendo una Sensazione di Viola cupo, e quelli meno rifrangibili le più ampie producendo una Sensazione di Rosso cupo, e che i vari tipi di Raggi intermedi [eccitano] le varie Vibrazioni di ampiezza intermedia producendo i vari Colori intermedi?» [ibidem, libro III], Prima di descrivere la teoria tricromatica (par. 2.3), che invece presuppone l'esistenza di poche classi di recettori, esaminiamo le immagini consecutive, un fenomeno di adattamento che è compatibile con qualsiasi sistema basato su recettori soggetti ad affaticamento, indipendentemente dal loro numero. Illuminate bene la figura 3.7 a p. 162 e fissate un incrocio tra i quadrati per circa 30 s, senza spostare lo sguardo. Poi portate lo sguardo su un punto che avrete collocato al centro di un foglio bianco. Vi appariranno delle forme uguali ma dotate di nuovi colori. La zona di sovrapposizione è ora la più chiara, quella blu appare gialla, quella rossa appare verde, lo sfondo appare scuro. Dopo alcuni secondi l'effetto svanisce, ma potete rinfrescarlo sbattendo le palpebre. I colori delle immagini consecutive sono coerenti con la scoperta newtoniana che il bianco è il corrispettivo fenomenico di una miscela contenente tutte le radiazioni dello spettro, ugualmente intense. In condizioni normali la miscela proveniente dal foglio bianco attiva in modo bilanciato tutti i recettori. Ma se a causa del precedente adattamento selettivo alcuni recettori sono momentaneamente meno sensibili di altri, allora il pattern prodotto dal foglio bianco sarà sbilanciato: quelli affaticati non riusciranno a equilibrare quelli non affaticati, e si produrrà un pattern di attivazione simile a quello normalmente prodotto da una miscela di radiazioni complementare a quella usata nell'adattamento (in cui cioè sono invertiti tutti i rapporti di intensità tra le radiazioni dello spettro). Un'osservazione analoga si può fare adattando al buio un occhio; ciò consente di verificare l'esistenza di due sottosistemi visivi. Si tratta del fenomeno di Purkinje, un curioso effetto che forse avete già notato vagando di notte nei campi, e che potete riprodurre seguendo il metodo suggerito da Nagel all'inizio del secolo [Southall 1937, 275]. Copritevi un occhio con la mano o con una benda, e state con l'occhio tappato per mezz'ora, se siete in un ambiente molto illuminato, o per 15-20 min, se siete in un ambiente poco illuminato. Bene, se avete un occhio bendato riprendete a leggere. Nel 1825 il fisiologo boemo Jan Evangelist Purkinje aveva osser-

PERCEZIONE

vato che quando l'illuminazione è debole e gli occhi sono adattati al buio «i colori che danno sul rosso e che alla luce diurna appaiono molto brillanti, come il carminio, il vermiglione e l'arancione, appaiono di gran lunga tra i più scuri». Una rosa rossa, che di giorno appare più chiara delle foglie verdi, di notte appare più scura delle foglie, quasi nera; e il fiorellino azzurro, sempre per l'occhio adattato al buio, è sorprendentemente chiaro, quasi luminoso. Mentre scorrono i minuti, il vostro sistema visivo sta diventando un interessante preparato di laboratorio. L'occhio scoperto rimane adattato alla luce mentre quello coperto sta progressivamente adattandosi al buio. Attendete che siano trascorsi i minuti necessari e poi portatevi in una zona poco illuminata. Osservate ora la figura 3.8 (cfr. p. 162) con l'occhio che avete tenuto scoperto. Se l'illuminazione è abbastanza bassa, entrambi i fiori saranno appena discernibili sullo sfondo nero. Liberate ora l'occhio adattato al buio, coprendo quello adattato alla luce, e osservate i due fiori: il fiore azzurro vi apparirà molto più luminoso dell'altro. Alternate l'osservazione con un occhio e con l'altro. Vi convincerete che il fenomeno di Purkinje dipende dalla diversa sensibilità dei due canali monoculari, adattati selettivamente a due diversi livelli di illuminazione. È come se la scena fosse vista attraverso uno strano paio d'occhiali, con due filtri diversi. Quella dei filtri non è un'analogia superficiale, in quanto per molti aspetti il sistema visivo periferico funziona come un insieme di filtri. L'adattamento al buio determina il passaggio dalla visione fotopica, dominata dal sottosistema dei coni (la cui sensibilità è descritta, nella figura 3.6, dal grafico in alto), alla visione scotopica, dominata dal sottosistema dei bastoncelli, più sensibili nella porzione corta dello spettro. L'intensità relativa dei colori è influenzata dallo spostamento {Purkinje shift) del massimo di sensibilità. 2.3. La teoria tricromatica

Le basi per la moderna teoria della codificazione del colore vennero poste da Thomas Young, un secolo dopo gli esperimenti di Newton [Southall 1937, 338]. Grazie alla valorizzazione che ne fece Hermann von Helmholtz [1867], la teoria di Young sarebbe diventata un modello per l'intera scienza della visione. Due sono i concetti di interesse generale. Il primo è il principio dell'univarianza. Contrariamente all'ipotesi di Newton, i recettori non hanno una risposta specifica alla lunghezza d'onda. Ogni recettore risponde a larga banda di radiazioni, con intensità variabile a seconda della sensibilità in quel particolare punto dello spettro. Di conseguenza, uno stesso valore di attivazione può corrispondere tanto a una radiazione molto intensa in una zona dello spettro in cui il recettore è poco sensibile quanto a una radiazione poco intensa in una zona in cui il recettore è molto sensibile.

121

122

PERCEZIONE

1,0 r— M

s ;

,'

-

L

y ."'

y y

\

>

t f

y

\ \ \

ti

\

L^,

400 500 600 (a) (b) Lunghezza d'onda (nm)

700

FIG. 3.9. Sensibilità relativa di ciascuna delle tre classi di coni (in unità arbitrarie, u e a), in funzione della lunghezza d'onda. Il grafico rappresenta anche una miscela di due radiazioni di pari intensità, una di 500 nm (a) e una di 600 nm (b).

Il secondo è il piccolo numero di parametri del codice, nel caso specifico soltanto tre. L'ipotesi newtoniana secondo la quale ogni radiazione è codificata separatamente da una diversa classe di recettori è inutilmente complicata. La combinazione di tre valori è sufficiente a contraddistinguere una grande varietà di miscele. In visione diurna, la luce attiva tre classi di recettori, i coni, con curve di sensibilità spettrale ampiamente sovrapposte, ma con massimi dislocati su bande differenti dello spettro: corta, media, lunga (S, M, L; short, medium, long). Nella figura 3.9 ciascuna curva rappresenta la sensibilità relativa di una delle tre classi di coni, in funzione della

S

M

L

S

L

FIG. 3.10. A sinistra sono riportate le attivazioni prodotte nelle tre classi S, M e L della miscela di radiazioni di 500 nm (a) e 600 nm (b) della fig, 3.9. Ciascuna radiazione, intersecandosi con le curve S, M e L, produce una corrispondente attivazione nel

sistema: Sd, Ma, LB) M/, e Lh. Le altezze delle colonne a sinistra corrispondono alla somma delle intercette delle tre curve di fig. 3.9 (S = S«: M = M. + M4 ; L = L a + Li,). A destra è illustrata la posizione del colore risultante e, all'interno del triangolo di Maxwell utilizzato per rappresentare l'attivazione relativa alle tre classi di coni [adattato da Boynton 1979, 142].

PERCEZIONE

lunghezza d'onda. Sono anche indicate due radiazioni (barra nera a 500 nm e barra grigia a 600 nm), che producono l'attivazione complessiva descritta nella figura successiva. Nella figura 3.10, il grafico a sinistra rappresenta l'attivazione nelle tre classi S, M e L, ricavabile sommando le intercette tra le barre e le curve di sensibilità. Il grafico a destra è il triangolo di Maxwell (lo spazio dei colori introdotto da James Clerk Maxwell), in cui ogni colore percepito è individuato da un punto. Innalzando da ogni lato del triangolo equilatero un segmento corrispondente all'attivazione di una classe di coni, viene individuato un punto interno che rappresenta una particolare tripletta di attivazioni, cioè un colore. Talvolta, incautamente, le tre classi di coni vengono identificate usando non le bande dello spettro (lunghe, medie, corte), ma i colori RGB (red, green, blue; rosso, verde, blu). Per questo motivo la teoria viene chiamata tricromatica. Essa costituisce lo schema di riferimento della colorimetria, che nasce nel 1931 con l'adozione di alcuni standard da parte della CIE, la Commission Internationale de l'Éclairage [Boynton 1979; Wyszecki e Stiles 1967]. La colorimetria consente di prevedere se due miscele fàsicamente differenti appaiono diverse oppure identiche. Nel secondo caso esse sono dette metanieri. Il metamerismo discende direttamente dalla natura del codice cromatico. Come abbiamo visto nelle figure 3.9 e 3.10, data una miscela di radiazioni, il sistema SML porta a individuare nel triangolo di Maxwell un unico punto, corrispondente a un certo colore. Ma non è vero l'inverso: ogni punto, cioè ogni colore, corrisponde a tutte le miscele che attivano il sistema SML nello stesso modo. 2.4. Analisi delle caratteristiche

II codice cromatico comporta quindi una particolare forma di cecità alle differenze di composizione spettrale, che ha una rilevanza paradigmatica. Molti modelli della visione ipotizzano infatti che anche gli aspetti spazio-temporali dell'immagine siano codificati più o meno nello stesso modo. La codificazione sensoriale del colore realizza un compromesso tra efficienza ed economicità. La natura aveva davanti un problema di ottimizzazione: descrivere il maggior numero di miscele di radiazioni (analiticamente rappresentabili come funzioni dello spettro) con il minimo numero di descrittori (i filtri corrispondenti alle varie classi di coni). Il costo di una soluzione con pochi filtri è il metamerismo, cioè l'equivalenza percettiva di miscele fisicamente diverse; il costo di una soluzione con molti filtri è la perdita di risoluzione spaziale (nella medesima area retinica bisogna impacchettare molti recet-tori... che quindi debbono essere piccoli... ma tanto piccoli non si possono fare...). Come sottolineano Churchland e Sejnowski [1992, cap. IV], tre

123

124

PERCEZIONE

Fio. 3.11. Non sempre gli occhi sanno cosa dire. Qui è difficile discriminare in base alla connessione [Minsky e Papert 1968].

filtri univarianti generano triplette di valori in grado di rappresentare una gran quantità di miscele differenti, con limitata perdita di informazione sulla composizione spettrale. Lo spazio delle radiazioni (di dimensionalità enorme) viene compresso in uno spazio a tre dimensioni. Più miscele metameriche vengono mappate nello stesso punto, ma la gamma di miscele distinguibili rimane comunque molto ampia. La codifica cromatica è quindi una sorta di categorizzazione per attributi, i tre filtri, che probabilmente tiene conto delle condizioni prevalenti nell'ambiente in cui il nostro sistema visivo si è evoluto [Maloney e Wandell 1986; Bruno 1992]. Alla codifica per attributi, o caratteristiche (features), si ispira un intero approccio della visione preattentiva, di orientamento esplicitamente analitico. L'oggetto viene concepito come fascio di caratteristiche, e le sue proprietà sono ricondotte alla combinazione delle proprietà delle caratteristiche costituenti. La dicotomia preattentivo/attentivo pervade la psicologia [Neisser 1967; Julesz 1971] (cfr. infra, cap. IV, par. 2.1). Un'elegante dimostrazione di Minsky e Papert [1968] ne chiarisce il significato rispetto alla percezione visiva. Guardando la figura 3.11 senza ispezionarla, sapreste decidere dove c'è un verme attoreigliato e dove due vermi? Distinguere una mela da due mele è un'operazione fenomenicamente immediata; ma Minsky e Papert hanno dimostrato che la differenza tra uno e due non sempre è disponibile in visione preattentiva. Potete verificare quale configurazione contiene un verme solo, ma per farlo dovete scrutare, non soltanto guardare, magari aiutandovi con la punta della matita. Lo studio della visione preattentiva condivide con la teoria tricromatica un importante presupposto. Un oggetto fenomenicamente unitario può corrispondere all'attivazione di più classi di rilevatori. Ogni oggetto è rappresentabile come un luogo nello spazio multidimensionale delle caratteristiche, identificato in base all'intensità con cui sono attivati i vari rilevatori. Ma quali sono le caratteristiche elementari utilizzate nella descrizione sensoriale dell'immagine, ammesso che tale alfabeto esista? I candidati sono: colore, contrasto, orientamento, grandezza, movi-

PERCEZIONE

FIG. 3.12. Effetto consecutivo di orientamento. Per un minuto muovete lo sguardo nel rettangolo a sinistra. Poi fissate il quadratino a destra.

mento, disparità binoculare (generalizzando alle coppie di immagini, cfr. par. 3.8). I sottosistemi specializzati nella rilevazione delle caratteristiche elementari sono oggetto di interi filoni di ricerca [Beck 1982; Julesz 1991; Treisman 1988], che cercheremo di illustrare utilizzando come esempio l'orientamento. Nella figura 3.12 le barre a destra sono (e di solito appaiono) verticali. Trascorrete un minuto sulla sinistra, ispezionando il rettangolino tra i reticoli obliqui senza fissare, per evitare immagini consecutive del tipo illustrato nella figura 3.7, e poi guardate il quadratino a destra. Ora i reticoli non appaiono verticali. Nell'erto consecutivo di orientamento {tilt after-effect) si verifica una rotazione in direzione opposta a quella dello stimolo di adattamento, spiegabile ipotizzando che l'orientamento percepito rifletta l'attivazione di più classi di rilevatori, sensibili su zone parzialmente sovrapposte del continuum dell'orientamento. L'affaticamento di una classe di rilevatori fa sì che lo stimolo verticale presentato dopo l'adattamento determini un pattern di attivazione squilibrato. Secondo il modello dell'analisi per caratteristiche elementari {feature analysis), a livello periferico i rilevatori sensibili a una caratteristica sono indipendenti dai rilevatori sensibili a un'altra; il che sembra confermato dagli effetti consecutivi semplici come quelli per il colore (fig. 3.7, p. 162) e per l'orientamento (fig. 3.12). Ma gli oggetti

125

126

PERCEZIONE

FIG. 3.14. Un reticolo orizzontale/verticale da utilizzare dopo la fig. 3.13.

m

percepiti sono unitari, e quindi a livello centrale le caratteristiche debbono venire combinate. Ciò significa forse che possiamo adattare il sistema visivo a congiunzioni di caratteristiche e ottenere degli effetti consecutivi complessi? Nel 1965 «Science» pubblicò un breve resoconto che avrebbe aperto un inesauribile filone di ricerche. Celeste McCollough scopre il primo effetto consecutivo contingente {contingent after-effect). Armatevi di pazienza, perché la preparazione del vostro sistema visivo richiederà parecchi minuti. Per l'adattamento utilizzate la figura 3.13 (cfr. p. 163) e per la fase secondaria la figura 3.14. La figura 3.13 contiene due reticoli, uno orizzontale rosso-nero e uno verticale verde-nero, che vanno osservati sotto una buona illuminazione. Dovete guardare il centro di uno per 10 s, poi dell'altro per 10 s, e così via per 5 min. Completato l'adattamento guardate il centro del reticolo bianco e nero (fig. 3.14). La porzione orizzontale apparirà verdastra e quella verticale rossastra. I colori indotti vanno nella direzione del contrasto, come nell'immagine consecutiva semplice, ma la loro localizzazione è contingente all'orientamento del reticolo di adattamento. L'effetto McCollough dura molto. Se l'adattamento è stato condotto ad arte potrete sperimentare l'effetto, riguardando la figura 3.14, anche fra un paio d'ore. Ma soprattutto è molto significativo, poiché suggerisce un'architettura del sistema visivo coerente con la codifica delle caratteristiche elementari e delle loro combinazioni. Sono stati scoperti effetti consecutivi contingenti praticamente per tutti gli accoppiamenti di caratteristiche elementari [per una teoria generale, cfr. Barlow 1990]. Un altro paradigma che ha messo in evidenza il ruolo dell'orientamento nella visione preattentiva è la segregazione di tessiture, un campo segnato dai contributi contrapposti di Jacob Beck e Bela Julesz. La migliore introduzione al problema si deve a Beck [1966; 1982].

PERCEZIONE

T

FIG. 3.15. La forma centrale è più simile a quella di destra o a quella di sinistra?

Nella figura 3.15 la forma centrale (T diritta) vi sembra più simile alla T obliqua o alla L? Se badate soltanto alla prima impressione, sarete d'accordo con i soggetti di Beck [1966], i quali, valutando la somiglianzà con un voto da 0 a 9, giudicarono molto simili la T diritta e la T obliqua (voto 8,0) e poco simili la T diritta e la L (voto 3,8). Sempre sulla base della prima impressione, dite ora se la figura 3.16 è uniforme oppure no. Dove vedete un confine che divide la tessitura in due parti? Verso destra o verso sinistra? Beck [1982] ha scoperto che la somiglianzà percepita sotto attenzione fecalizzata (fig. 3.15) non predice la segregazione di una tessitura contenente le stesse forme come elementi. Come dimostrano moltissime ricerche [Perona 1992], nella segregazione di tessiture conta la distribuzione spaziale delle caratteristiche di basso livello, e non la somiglianzà simbolica. Una delle caratteristiche critiche è appunto l'orientamento dei tratti costitutivi. Nella figura 3.16 la segregazione si realizza più facilmente tra le T diritte e le T oblique che non tra le T diritte e le L diritte perché queste ultime due forme contengono segmenti con lo stesso orientamento. Contrapponendo la figura 3.15 alla figura 3.16 Beck non ha messo in discussione il ruolo della somiglianzà uno dei fattori di unificazione descritti nel paragrafo 3.4 - ma ha contribuito a definire meglio le dimensioni di somiglianzà che contano nella visione preattentiva. Alcune peculiarità dell'orientamento come caratteristica elementare sono state messe in evidenza dal paradigma della ricerca visiva {visual search), reso popolare dagli ingegnosi esperimenti di Anne

FIG . 3.16. Contrariamente a quanto ci si aspetterebbe in base alla fig. 3.15, questa tessitura appare segregata lungo il confine tra le T diritte e le T oblique.

127

128

PERCEZIONE RT /

• Target presente

(ms)

A Target assente

900

800

Target verticale

L_L

Target verticale 700

600 Target obliquo 500

Target obliquo

12

N

Fic;. 3.17. Asimmetria nella ricerca visiva. A sinistra, in alto una prova positiva in cui si deve trovare un target verticale tra 11 distrattori obliqui, e in basso una prova positiva in cui si deve trovare un target obliquo tra 11 distrattori verticali. A destra i tempi di risposta in funzione della numerosità degli elementi e del tipo di prova [adattato da Treisman e Gormican 1988, fig. 6].

Treisman. La figura 3.17 illustra due stimoli e i tempi di risposta nelle varie condizioni di un esperimento di Treisman e Gormican [1988], in cui il target era un segmento o verticale od obliquo. Osservate lo stimolo a sinistra in alto e immaginate di dover segnalare la presenza di un target verticale; poi osservate lo stimolo in basso e immaginate di dover segnalare la presenza di un segmento obliquo. Nel secondo caso dire di sì è più facile! Si fa prima a trovare un segmento obliquo tra tanti segmenti verticali che non un segmento verticale tra tanti segmenti obliqui. \1 asimmetria nella ricerca visiva questo il nome dato all'effetto - dipende da ciò che il sistema percettivo considera deviante dalla norma, e non soltanto diverso dai distrattori; conta cioè il riferimento al valore standard della caratteristica, al suo punto àncora. Soffermiamoci ora sul grafico a destra, in cui l'ordinata indica il tempo medio di ricerca, cioè il tempo intercorrente tra l'inizio dello stimolo e la pressione del tasto con cui il soggetto da la risposta e fa sparire lo stimolo. I dati si riferiscono a due condizioni sperimentali, in ciascuna delle quali c'erano 4 tipi di prove (ecco perché in tutto ci sono 8 punti). In una condizione il target era verticale, nell'altra obliquo. Ovviamente il compito comprendeva prove positive (target presente) e prove negative (target assente). Veniva inoltre variata la numerosità degli elementi (o 6 o 12), per cui nelle prove positive il target era accompagnato o da 5 o da 11 distrattori.

PERCEZIONE

II grafico della figura 3.17 mostra due effetti. Il primo è una marcata asimmetria: rispetto ai 500 ms necessari in media per dire sì o no quando i distrattori sono verticali, ci vogliono altri 250 ms per eseguire il compito se i distrattori sono obliqui. Poi c'è un altro effetto. Quando la discriminazione è facile, con target obliquo e distrattori verticali, la numerosità di questi ultimi è irrilevante: il deviante salta fuori (pop-out) con la medesima facilità, pochi o molti che siano i normali. Quando la discriminazione è più difficile, con target diritto e distrattori obliqui, la numerosità di questi ultimi conta, e il tempo di ricerca cresce al crescere del numero di elementi. L'effetto pop-out non va confuso con la salienza soggettiva. Esso è definito operazionalmente da un tratto diagnostico: il tempo di ricerca costante al variare del numero di distrattori [Neisser 19641. L'irrilevanza della numerosità costituisce evidenza a favore di un'elaborazione parallela; mentre una funzione crescente costituisce evidenza a favore di un'elaborazione sequenziale. Ma l'argomento è trattato da Umiltà (cfr. infra, cap. IV, par. 2.1) e quindi ci fermiamo qui. 3. Organizzazione

La codificazione è soltanto il presupposto per la percezione; un presupposto necessario, come conoscere l'alfabeto cirillico per leggere il russo, ma non sufficiente. L'immagine, per quanto codificata in modo efficiente dai primi processi visivi (early visioni, rimane parzialmente indeterminata. La luce che arriva in un punto di vista è un formidabile mediatore di informazione sul mondo distale e sull'osservatore, ma è gravata da alcuni limiti peculiari che sono alla base di un'intera serie di problemi connessi con il recupero-ricostruzione [recovery] del mondo distale a partire dall'immagine. Riconsideriamo i tre anelli fondamentali della catena psicofisica: stimolo distale, stimolo prossimale e percetto. La validità dei percetti, cioè la loro corrispondenza con gli stimoli distali, non è ovvia, poiché il sistema visivo è in contatto soltanto con lo stimolo prossimale, che tipicamente è il prodotto di più fattori distali. Molti problemi di percezione visiva corrispondono ad altrettanti problemi mal posti di ottica inversa [Poggio 1985; Wechsler 1990], in quanto la rappresentazione percettiva del mondo distale sembra coinvolgere una sorta di recupero dell'informazione perduta nello stimolo prossimale. Un esempio aritmetico servirà a chiarire la nozione di problema mal posto. L'addizione è una funzione: dati due addendi (3 e 4) la somma è univocamente determinata (7). Ma poiché la corrispondenza addendi-somma è molti-uno, il problema inverso «data la somma trovare gli addendi» è mal posto: la soluzione è parzialmente indeterminata. La soluzione diventa determinata se si introducono dei vincoli: per esempio, se si sa che gli addendi sono due e che la differenza vale 1, allora gli addendi possono essere soltanto 3 e 4.

129

130

PERCEZIONE

3.1. Tipi di indeterminazione ottica

Per capire in che senso l'input ottico è indeterminato, sondiamo lo stimolo prossimale mediante uno schermo di riduzione: un ampio cartone nero con al centro una piccola apertura. Osservando in tal modo una porzione ridotta del campo visivo, si evidenzia che sull'informazione locale gravano vari tipi di indeterminazione [Gerbino e Bruno 1991]. Indeterminazione fotometrica

Usiamo lo schermo di riduzione per isolare la luce che arriva da una parete bianca. Vedremo comparire nell'apertura una zona chiara, localizzata sul cartoncino anche quando la superficie retrostante è lontana. La chiarezza della zona dipende dalla luminanza, la grandezza fotometrica appropriata per descrivere l'intensità dello stimolo prossimale, cioè la quantità di luce (registrata dai recettori) corrispondente ad un'unità di angolo ottico. La luce che arriva all'occhio dall'apertura è un ibrido. Tipicamente, la luminanza di una superficie come una parete omogeneamente illuminata è descritta dall'equazione L = rl; dove L è la luminanza (la quantità di luce che arriva al punto di vista entro un angolo ottico unitario); r la riflettanza (un coefficiente tra 0 e 1 che esprime la proporzione di luce che la superficie è in grado di riflettere); e I l'intensità dell'illuminazione incidente sulla superficie. Determinare il colore di una superficie distale equivale a risolvere il problema inverso r—L/I. Mettetevi nei panni dell'occhio: conoscendo il valore di L, l'intensità locale, ma non quello di I, l'illuminazione incidente, è impossibile determinare r. Il valore L = 90 u.a. (unità arbitrarie) può corrispondere a un cartoncino bianco poco illuminato (r = 90%; I— 100 u.a.), a un cartoncino grigio cupo molto illuminato ir = 9%; 1= 1000 u.a.), oppure a una qualsiasi altra combinazione. Come facciamo allora a distinguere un foglio bianco in ombra da un foglio nero sotto la luce solare? Un problema analogo si pone per la composizione spettrale: come facciamo a distinguere tra un foglio bianco sotto una lampada rossa e un foglio rosa sotto una lampada bianca? Sembrano problemi insolubili; e in assenza di ulteriori vincoli, questi come altri problemi mal posti sono effettivamente insolubili. Indeterminazione connettiva Nel 1929 Wo lfgang Kòhler cr iticav a così l'idea ch e l'im mag ine retinica contenga delle unità segregate, corrispondenti ai corpi distali: Ogni elemento di una superficie fisica riflette la luce indipendentemente dagli altri; e a questo riguardo due elementi della superficie di un oggetto

PERCEZIONE FIG. 3.18. I dischi sono tutti sovrapposti al triangolo oppure quelli a destra in realtà sono dei buchi?



quale, per esempio, una pecora non si connettono tra loro più strettamente di quanto faccia l'uno o l'altro dei due con l'elemento di una superficie nell'ambiente dell'animale. Così nella luce riflessa non resta alcuna traccia delle unità esistenti di fatto nel mondo fisico [...] Fisiologi e psicologi sono inclini a discorrere del processo retinico corrispondente a un oggetto, come se la stimolazione entro l'area retinica dell'oggetto già costituisse un'unità isolata. Eppure questi scienziati non possono mancare di rendersi conto che gli stimoli formano un mosaico di eventi locali del tutto indipendenti fra loro [Kòhler 1929]. L'ind eterm in azion e conn ettiv a non è leg ata a un a descr izion e dello stimolo prossimale come aggregato di radiazioni elementari, o

della stimolazione come mosaico di attivazioni di singoli recettori. Un oggetto distale connesso può dar luogo ad una proiezione ottica sconnessa se è parzialmente occluso (fig. 3.18); d'altra parte, due segmenti distali sconnessi possono dar luogo ad un unico stimolo prossimale connesso se, per una coincidenza, le estremità si trovano allineate con il punto di vista. Indeterminazione occlusiva

Poniamoci il problema della corrispondenza tra contorni dell'immagine e contorni dei corpi distali. Un medesimo tratto di contorno visibile, per esempio quello che divide una zona nera da una zona bianca, può corrispondere a superfici con differenti relazioni di occlusione. La figura 3.19 illustra tre eventi distali corrispondenti al medesimo tratto di contorno in moto traslatorio. Il mondo potrebbe contenere due superfici distinte: una che si ritrae progressivamente, rivelando l'altra, o una che avanza, coprendo l'altra. Oppure potrebbe

131

132

PERCEZIONE

4 a)

b) e)

FK;. 3.19. Tre diversi eventi distali corrispondenti ad un contorno in moto orizzontale: a) ritrarsi di una superficie bianca che scopre una superficie nera; b) avanzamento di una superficie nera che copre una superficie bianca; e) rotazione di un diedro intorno all'asse verticale.

contenere un unico oggetto tridimensionale, un diedro, che ruotando svela una faccia e nasconde l'altra. Il movimento rende il problema più evidente, ma un bordo statico è ugualmente indeterminato. Indeterminazione cinematica

II movimento di un elemento e il movimento di un contorno specificano solo parzialmente i corrispondenti movimenti distali. Esaminiamo i due casi a livello delle velocità istantanee. Nel vettore velocità istantanea associato a un elemento dell'immagine sono confusi tutti i moti dei sistemi cui appartiene il corrispondente elemento distale. La figura 3.20 illustra due tra le infinite combinazioni distali compatibili con lo stesso moto prossimale.

FIG. 3.20. L'elemento nell'apertura è ancorato al rettangolo bianco, che si sposta rispetto al rettangolo nero. In a il rettangolo bianco si muove verso sinistra-basso rispetto a quello nero che si muove verso destra-alto. In b il rettangolo bianco si muove verso destra rispetto a quello nero che si muove verso sinistra-basso.

PERCEZIONE

A / FIG. 3.21. Tre differenti traslazioni distali di un contorno continuo che danno luogo al medesimo evento prossimale.

La figura 3.21 illustra il cosiddetto problema dell'apertura, etichetta utilizzata da Ullman [1979] per l'indeterminazione cinematica dei contorni, ma adatta anche ad altri tipi di indeterminazione. I contorni continui complicano l'analisi locale del moto, in quanto la loro omogeneità fa sì che lo stimolo prossimale perda parte dell'informazione cinematica. Tutte le velocità distali con la stessa componente ortogonale al contorno determinano lo stesso stimolo prossimale, cioè possiedono la stessa informazione cinematica locale. Indeterminazione radiale

La distanza degli oggetti dal punto di vista è otticamente indeterminata: una stessa regione dell'immagine può corrispondere a un piccolo oggetto vicino o a un grande oggetto lontano. L'indeterminazione radiale (lungo la direzione dello sguardo) riguarda quindi l'assenza di informazione sulla distanza assoluta dal punto di vista, ma anche la perdita di informazione locale sulla grandezza degli oggetti. L'ampiezza dell'angolo ottico dipende sia dalla grandezza dell'oggetto distale sia dalla sua distanza. Questi fattori sono confusi nell'ampiezza proiettata proprio come riflettanza e illuminazione sono confusi nella luminanza. E infatti i fenomeni riconducibili all'indeterminazione fotometrica e quelli riconducibili all'indeterminazione radiale presentano molte analogie. 3.2. Superare l'indeterminazione ottica

Con Perkins e Cooper [1980] possiamo ora chiederci: come fa l'occhio a recuperare ciò che la luce si è lasciata sfuggire? Una risposta classica venne fornita da Helmholtz nel terzo volume dello Handbuch der Physiologischen Optik (1867). Lo stimolo prossimale determina le sensazioni prive di riferimento all'oggetto distale e osservabili in condizioni semplificate come quelle prodotte dallo schermo di riduzione. Le sensazioni (i dati) alimentano un motore inferenziale che determina i percetti sulla base di regole (le premes-

133

134

PERCEZIONE

ai

b)

e)

Fio. 3.22. Il profilo delle colline in a viene visto come in b e non come in e. Secondo Helmholtz, questa preferenza riflette la conoscenza tacita sulla forma più probabile delle colline, derivata dall'esperienza passata dell'osservatore.

se) derivate dall'esperienza passata. Per la teoria raziomorfa, la percezione è una inferenza inconscia. Un esempio discusso da Helmholtz è quello del profilo delle colline (fig. 3.22^): la plurivocità delle sensazioni, corrispondenti punto a punto ai tratti di contorno dell'immagine, verrebbe superata grazie alle conoscenze sulla forma delle colline, cioè alla minore probabilità soggettiva della soluzione e rispetto alla soluzione b. Una risposta alternativa venne proposta dagli psicologi della Gestalt [Kòhler 1929; Koffka 1935], secondo i quali l'indeterminazione è superabile, senza ricorrere a conoscenze sullo stato di cose più probabile nel mondo esterno, grazie all'attività ordinatrice di un piccolo insieme di fattori di organizzazione (par. 3.4). Il problema di segmentazione della figura ò.22a si risolve con la buona continuazione delle linee: la giunzione a T viene segmentata facendo appartenere allo stesso oggetto i due tratti che continuano uno nell'altro e isolando il tratto trasversale. La soluzione e è più complessa perché comporta tre tratti invece di due. Per i gestaltisti, l'organizzazione segue il principio di minimo, in quanto tende a minimizzare la complessità (massimizzare la semplicità) dell'output, compatibilmente con l'input. I processi di minimizzazione rifletterebbero direttamente la dinamica del sistema nervoso e solo indirettamente l'adattamento ambientale; infatti, gli stessi fattori che di norma portano a percetti veridici a volte portano a percetti non veridici. L'indeterminazione ottica, un presupposto comune alla teoria helmholtziana e a quella gestaltista, venne criticata da Gibson [1979], il quale poneva l'enfasi sulla ricchezza dell'informazione disponibile nelle regolarità spazio-temporali dell'input ottico, analizzato a livello non elementare. L'esistenza di tali regolarità, dette invarianti di ordine

PERCEZIONE

superiore, renderebbe superflua sia l'attività raziomorfa sia l'organizzazione sensoriale. Recentemente si sono affermati due approcci eclettici. Il primo è l'approccio computazionale, che ripropone la teoria raziomorfa depurata dal riferimento a conoscenze specifiche sul mondo esterno. L'indeterminazione viene superata grazie all'utilizzo di vincoli naturali [naturai constraints), cioè di assunzioni generali sulle regolarità ambientali [Poggio, Torre e Koch 1985]. Per esempio, siccome molti corpi fisici sono rigidi, l'assunzione di rigidità può guidare l'analisi di una trasformazione ottica che ammette un'infinità di soluzioni non rigide, oltre a quella rigida. L'altro approccio è Xutilitarismo percettivo di Ramachandran [1985; 1990], secondo il quale la percezione visiva riflette una quantità di processi eterogenei (« bag of tricks), non riconducibili a leggi o principi generali: il sistema visivo è il risultato di una lunga evoluzione in cui l'unico criterio per raffermarsi di uno specifico meccanismo è stata la sua utilità pratica, non la coerenza con altri meccanismi. Purché funzioni, qualunque trucco è buono. Tenendo presenti queste alternative teoriche, ci occuperemo dei fenomeni connessi con i vari tipi di indeterminazione (par. 3.1). Spesso i fenomeni significativi si presentano come costanze percettive, casi in cui la relazione tra lo stimolo distale e il percetto rimane costante anche al variare dello stimolo prossimale. Le costanze percettive sono fenomeni che falsificano la cosiddetta ipotesi della costanza — attenti alla possibile confusione! — la quale presuppone invece l'esistenza di un rapporto costante tra lo specifico stimolo prossimale e il corrispondente percetto [Koffka 1935, 86]. 3.3. Il colore superficiale

Ventanni fa un bel manuale avvertiva: «La visione del colore è un enigma. È chiaro che si tratta di un argomento molto importante, ma è quasi impossibile trovare dei testi che ne forniscano una trattazione intellegibile» [Lindsay e Norman 1972, 215]. La situazione non è molto cambiata. Per cui limitiamoci al colore acromatico, cercando di guadagnare in chiarezza ciò che andrà perduto in completezza. Se la codificazione della luce è un nodo risolto (parr. 2.2 e 2.3), resta irrisolto il problema della costanza del colore. È un fatto che ogni superficie tende a mantenere un colore costante, anche se la luminanza varia con l'illuminazione (par. 3.1); ma la spiegazione di tale fatto è controversa. Poiché la costanza del colore contraddice l'ipotesi della costanza, si potrebbe pensare che il colore non sia mai correlato alla luminanza. Non è così. Disponete sul tavolo tanti cartoncini di diversa riflettanza e ordinateli sulla scala che va dal nero perfetto al bianco perfetto, cioè sul continuum della bianchezza {lightness; oppure whiteness

135

136

PERCEZIONE

in Koffka [1935]). Se l'illuminazione è comune, ogni riflettanza corrisponde a una specifica luminanza, ogni luminanza a una specifica bianchezza, e viceversa. Sfruttiamo questo momento di fortuna dell'ipotesi della costanza per notare che comunque la bianchezza non è una funzione lineare della riflettanza: il grigio percettivamente intermedio tra due, non ha riflettanza media. Proviamo a usare un miscelatore a settori, detto disco di Maxwell, con cui si possono generare delle riflettanze a piacere. Per esempio, una riflettanza del 24% si ottiene miscelando un settore di 90° bianco (riflettanza a = 90%) e un settore di 270° nero (riflettanza b = 2%). In rotazione veloce, poiché l'alternanza bianco-nero è sotto la soglia di risoluzione temporale (o frequenza critica di sfarfallamento, criticai flicker frequency), la miscela di settori equivale a un disco omogeneo con riflettanza virtuale desiderata (24% = 1/4 90% + 3/4 2%). La non linearità è evidente, considerato che il disco non appare grigio scuro, come ci si aspetterebbe da una miscela con più nero che bianco, ma grigio medio, anzi un po' verso il bianco. La funzione bianchezza-riflettanza si può ricavare con la tecnica della bisezione, inventata da Plateau nel secolo scorso. Date due riflettanze estreme nero e bianco, l'osservatore aggiusta un disco di Maxwell a settori variabili e genera il grigio medio. Poi, dato un nuovo intervallo definito da questo grigio medio e da uno degli estremi precedenti, l'osservatore individua un altro grigio intermedio; e così via, finché l'intervallo risulta nullo. Sulla bisezione si basa il sistema di classificazione del colore proposto nel 1898 da Albert H. Munsell e poi sviluppato dalla fondazione Munsell [Boynton 1979]. TAB . 3.1. II valore al bianco

C/o)

Munsell V

Munsell (V) definisce una scala a (10). La scala è in relazione non

Nero

1,5 2

Grigio scuro 3,5 9

intervalli soggettivamente uguali dal nero lineare con la scala delle (0) riflettanze

Grigio

Grigio chiaro

Bianco

5,5

7,5

9,5

25

50

90

Riflettanz a

Nel sistema Munsell la bianchezza è chiamata valore (V) e varia da 0, nero assoluto, a 10, bianco assoluto (tab. 3.1). La scala V originaria era una funzione logaritmica della riflettanza, in accordo con la legge di Fechner; nella versione attuale la scala V approssima una funzione potenza con esponente intorno a 0,5, in accordo con la legge di Stevens (cfr. supra, cap. I, pp. 23-27). Come mostra la figura 3.23, si tratta di una funzione negativamente accelerata (all'aumentare della riflettanza la bianchezza cresce sempre meno), ma coerente

PERCEZIONE

con l'ipotesi della costanza: a ogni riflettanza corrisponde una bianchezza, e viceversa. Ma la figura 3.23 vale anche per la relazione bianchezza-luminanza? Sì, se tutte le riflettanze sono sotto la medesima illuminazione. Ma certamente no nell'ambiente ordinario, in cui ci sono luci e ombre. Se il colore acromatico di una superficie - il fatto che questa appaia bianca, grigia o nera - fosse esclusivamente funzione della luminanza locale, ogni mutamento dell'illuminazione dovrebbe produrre un cambiamento del colore percepito. Per fortuna ciò non accade: due pezzi ricavati dallo stesso cartoncino nero appaiono di colore simile anche quando uno dei due è collocato sotto un'illuminazione molto intensa. 1U *

8-

sei

t 6C

3 4•

2

bD

y

^^

1 log (Riflettanza)

100 2n.

/ 20

40 60 80 Riflettanza (%)

FIG. 3.23. Rappresentazione grafica della funzione potenza V = r"\ che lega la bianchezza (Munsell V) alla riflettanza. La curva diviene, in un sistema di coordinate logaritmiche, una retta con coefficiente angolare 0,5.

In laboratorio il fenomeno viene riprodotto usando il paradigma di Katz [1935; Musatti 1953]. In una stanza illuminata lateralmente da una finestra, un tramezzo crea una zona d'ombra in cui arriva soltanto luce riflessa dalle pareti e non luce diretta. Se il colore delle pareti è neutrale, l'illuminazione indiretta nella zona d'ombra avrà la stessa composizione spettrale della luce diretta ma un'intensità minore. L'osservatore confronta due dischi di Maxwell: uno collocato nella zona in luce e l'altro collocato nella zona in ombra. Il paradigma serve a contrapporre due ipotesi. I dischi potrebbero apparire di eguale bianchezza quando hanno uguale luminanza (ipotesi della costanza) oppure quando hanno uguale riflettanza (fenomeno della costanza del colore al variare dell'illuminazione). Anche se è difficile ottenere un uguagliamento perfetto (un grigio in luce non appare mai identico a un grigio in ombra), la massima somiglianzà si avvicina all'uguaglianza delle riflettanze. Quando le due luminanze sono identiche, il che si ottiene incrementando il settore bianco del disco in ombra fino a compensare la ridotta luce incidente, i due dischi appaiono molto diversi: quello collocato in ombra appare quasi bianco.

137

138

PERCEZIONE

II colore percepito dipende dall'informazione effettivamente utilizzata dall'osservatore. Secondo Rock [1977] il colore corrisponde alla riflettanza se prevale il normale atteggiamento esplorativo, che porta a vedere il mondo nel modo della costanza, mentre corrisponde alla luminanza se prevale un atteggiamento critico-pittorico, che porta a vedere il mondo nel modo prossimale. Si spiega così il fenomeno del diedro di Mach [Mach 1886]. Prendete un cartoncino bianco, del formato biglietto da visita, e piegatelo in modo da creare un diedro che collocherete in piedi su un piano omogeneo, meglio se scuro. Ruotate il diedro rispetto ad una sorgente di illuminazione in modo che una faccia riceva luce piena e l'altra soltanto luce indiretta o radente. In tal modo da una faccia arriverà molta più luce che non dall'altra. In visione binoculare e senza fissare - condizioni che favoriscono il modo della costanza — si vede quello che c'è nello stimolo distale: un cartoncino bianco con una faccia più illuminata dell'altra. Ma in visione monoculare e fissando lo spigolo - condizioni che favoriscono il modo prossimale - si ha un improvviso mutamento. Il diedro perde tridimensionalità e cambia colore: la faccia in luce appare quasi luminosa e quella in ombra grigio cupo. Qualunque sia la ragione della perdita di tridimensionalità (par. 3.7), essa influenza il colore oggettuale. Le due regioni di luminanza diversa vengono viste come zone complanari di diversa intensità e non come parti di un'unica superficie omogenea ma variamente orientata rispetto alla luce. Se l'osservatore possiede adeguata informazione ottica sulla differenza tra le rispettive illuminazioni, due superfici possono apparire eguali anche se le luminanze differiscono di parecchi ordini di grandezza. Jacobsen e Gilchrist [1988] lo hanno dimostrato in una variante dell'esperimento di Katz. L'osservatore regolava un grigio di confronto in una scatola poco illuminata uguagliandolo al grigio standard in una scatola molto illuminata. Nella condizione sperimentale gli stimoli erano presentati a entrambi gli occhi (visione binoculare). Nella condizione di controllo, per verificare il ruolo dell'adattamento alla luce, il grigio standard nella scatola molto illuminata veniva presentato soltanto all'occhio sinistro, e il grigio di confronto nella scatola poco illuminata soltanto all'occhio destro (visione dicottica). In entrambe le condizioni la costanza è quasi perfetta, anche quando l'illuminazione standard è un milione di volte superiore. I tentativi di spiegazione della costanza di bianchezza sono riconducibili a due approcci contrapposti, quello di Helmholtz e quello di Hering [Musatti 1953; Beck 1972]. Per Helmholtz il bianco continua ad apparire bianco anche quando all'occhio arriva un'intensità debole perché un meccanismo raziomorfo rimuove l'indeterminazione fotometrica locale tenendo conto del basso livello di illuminazione (sul taking-into-account, cfr. Epstein [1973] e Rock [1983]). Il problema inverso r = L/I verrebbe risolto pesando il dato sensoriale L con il valore di I, ricavato da una stima dell'illuminazione. Ma così il problema viene spostato, più che risolto, dato che anche l'illuminazione andrebbe stimata usando le luminanze in input. (A chi è venuto in

PERCEZIONE

Osservatore

Fase 2

FIG . 3.24. Effetto Gelb. Su un disco di riflettanza molto bassa cade un fascio di luce. Se nulla rivela la presenza del fascio aggiunto, il disco appare bianco luminoso. Accostando al disco una striscia ad alta riflettanza elevata si crea un sottosistema a chiarezza elevata, e il disco appare grigio scuro. Il disco perde in bianchezza quanto guadagna in chiarezza.

mente il mitico barone, che emerge dal pantano tirando il suo stesso codino?) Per Hering, invece, la costanza del colore dipende da meccanismi sensoriali di basso livello, come l'adattamento alla luce. L'adattamento è cruciale nelle misure di soglia, ma il suo ruolo nella costanza di bianchezza sembra escluso proprio dall'equivalenza tra visione binoculare e visione dicottica trovata da Jacobsen e Gilchrist [1988; in polemica con Jameson e Hurvich 1964]. Rifiutata la spiegazione di Hering, mettiamoci al riparo dalla circolarità dell'ipotesi helmholtziana, cercando anzitutto di capire quando il sistema visivo sembra tenere conto dell'illuminazione e quando invece sembra ignorarla. Il fenomeno critico è Xeffetto Gelb [Gelb 1929]. Dal soffitto di una stanza semibuia pende un disco a bassa riflettanza («ero nel linguaggio quotidiano), illuminato dal fascio di un proiettore in modo che la luce non intercettata cada dietro una quinta (fig. 3.24). Poniamo che la luminanza del disco sia 50 volte superiore a quella della stanza semibuia, le cui pareti hanno però una riflettanza superiore a quella del disco. L'osservatore, privato dell'informazione ottica sulla presenza dell'illuminazione aggiuntiva, vede brillare un disco bianco: l'equivalente della luna di notte. A questo punto lo sperimentatore accosta al disco appeso una striscia ad alta riflettanza {bianca nel linguaggio quotidiano). Sotto gli occhi dell'osservatore si verifica allora un curioso mutamento di colore del disco, da bianco a grigio scuro, o addirittura nero: il valore preciso dipende dai rapporti tra illuminazione della stanza, intensità del fascio, riflettanze in gioco. Come si spiega l'effetto Gelb? Secondo l'analisi di Koffka [1935, 245-247], il mutamento dipende da una diversa distribuzione dell'il-

139

140

PERCEZIONE

luminazione percepita. L'ambiente geografico contiene sempre due illuminazioni, mentre l'ambiente comportamentale (par. 1.2) contiene nella prima fase un'unica illuminazione e nella seconda due. Nella prima fase (illuminazione unica) il disco ha bianchezza massima, mentre le superfici della stanza si collocano vicine al nero. Nella seconda fase (sottosistema con disco e striscia più illuminati) la bianchezza massima è assunta dalla striscia, mentre il disco viene sospinto verso il nero, dove sta normalmente. Resta da definire un particolare. Nella seconda fase, quando il disco diventa nero, di che colore appaiono le pareti della stanza, cui corrispondono luminanze ancora minori? Qui va introdotta una dimensione percettiva che finora abbiamo volutamente trascurato. Ogni superficie acromatica ha una bianchezza, definibile come riflettanza percepita, e una chiarezza (brightness), definibile come luminanza percepita tArend e Goldstein 1987]. Nella seconda fase dell'esperimento di Gelb, quando l'ambiente si articola in due sottosistemi diversamente illuminati, disco e striscia occupano gli estremi del continuum della bianchezza, ma a un livello di chiarezza superiore a quello delle pareti. Il mutamento del disco è un decremento di bianchezza cui si accompagna un incremento di chiarezza. A parità di luminanza locale, nella prima fase il disco appare bianco ma poco illuminato; nella seconda appare nero ma molto illuminato. Questa compensazione, chiamata invarianza bianchezza x chiarezza in analogia con le invarianze proiettive (par. 3.7) [Koffka 1935], è una covariazione percetto-percetto [Epstein 1977; Rock 1983]. L'effetto Gelb dimostra che la variabile da cui dipende la bianchezza non è la luminanza locale. Ma esiste forse un'altra variabile prossimale? Una risposta viene dal principio del rapporto tra luminanze adiacenti proposto da Hans Wallach [1948; 1976], Depurando il paradigma di Katz si ottiene il paradigma di Wallach (fig. 3.25). L'informazione è ridotta a pochi rapporti di luminanza, ma sufficienti a indurre degli illusori colori di superficie. L'esperimento simula infatti un caso di costanza, con colori non veridici. Nel buio, quattro proiettori gettano su una parete omogenea quattro fasci di luce, di intensità regolabile a piacere: un fascio proietta un anello, il secondo un anello di intensità minore, il terzo un disco coincidente con il buco del primo anello, e il quarto un disco coincidente con il buco del secondo anello. L'osservatore regola l'intensità del disco di confronto in modo che i due dischi appaiano della stessa bianchezza. In queste condizioni l'uguagliamento non si ottiene quando la luminanza del disco standard è uguale alla luminanza del disco di confronto, ma quando il rapporto di luminanza tra disco e anello standard è uguale a quello tra disco e anello di confronto. Come nel paradigma di Katz, la bianchezza non corrisponde alla luminanza locale; ma a differenza del paradigma di Katz, non corrisponde nemmeno alla riflettanza, in quanto Wallach ha soltanto simulato i rapporti di luminanza normalmente disponibili quando

PERCEZIONE

DI = 10 Al = 5 0

D2 = 4 A2 = 20

Fio. 3.25. Nel paradigma di Wallach, il soggetto regola la luminanza del disco di confronto fino a quando la bianchezza è identica a quella del disco standard. L'ambiente è buio. Si ha uguagliamento quando i due rapporti di luminanza disco/anello sono uguali. Se DI = 10 e Al = 50, e se A2 — 20, l'osservatore regola il disco D2 intorno a 4 (luminanze in u .a .).

l'ambiente geografico contiene più illuminazioni. Il paradigma di Katz ricalca le condizioni naturali, in cui l'illuminazione comune fa sì che i rapporti tra luminanze adiacenti tendano a essere identici ai rapporti tra riflettanze, e in cui il principio del rapporto tra luminanze adiacenti ha significato ecologico. Il paradigma di Wallach riproduce lo stesso stimolo prossimale in condizioni artificiali: esiste un'unica riflettanza, quella della parete, e le luminanze sono ottenute manipolando le illuminazioni locali. Nell'esperimento di Wallach il sistema visivo si comporta come davanti a una scena naturale, generando un'illusione (comune a tutte le tecniche di proiezione) così efficace da neutralizzare la nostra meraviglia. Le quattro zone non vengono viste in modo veridico, quattro macchie di luce su una parete omogenea, ma come due configurazioni «disco su sfondo chiaro» sotto due illuminazioni diverse. L'illusione si spiega in base a un metaprincipio di organizzazione gestaltica: la dipendenza delle proprietà fenomeniche dal sistema di riferimento includente [Koffka 1935, cap. VI]. Date due regioni, una inclusa e una includente, il colore di quella inclusa sarà determinato dal rapporto di luminanza con quella includente, che definisce il livello di illuminazione in quella porzione della scena. Per definire una precisa posizione sulla scala delle bianchezze, non basta ipotizzare che il colore superficiale venga riferito aH'illuminazione. È necessario stabilire il valore di illuminazione che funge da àncora per l'intera scala. Il criterio per Xancoramento coinvolge un aspetto configurazionale: a parità di altre condizioni la scala si àncora al bianco rappresentato dalla luminanza della zona includente. In tal

141

142

PERCEZIONE

Visione binoculare

Visione monoculare

Modo della costanza

Modo prossim ale

F IG . 3.27. Princ ipio del r a pport o tra luminanze c om pl anari [Gilchri st 19 77]. L a fi gura il lu stra le bianchezze percepite nelle due modalità osservative, rimanendo identiche le lumi nanze in input. I due lembi hanno valore 30; la faccia su peri ore del di edr o 900; la faccia inferi ore 1 (valori di lumina nza i n u . a . ) .

modo viene minimizzata l'intensità dell'illuminazione, dato che questa è il sistema di riferimento includente per i colori delle superrìci. Il principio del rapporto tra luminanze adiacenti è il nucleo di una teoria relazionale del colore acromatico in grado di spiegare anche un effetto ben noto: il contrasto simultaneo di bianchezza (fig. 3.26, p. 163). A parità di dilettanze il grigio su sfondo nero appare più chiaro del grigio su sfondo bianco. Il contrasto di bianchezza è debole rispetto a quanto previsto dal principio di Wallach, ma va nella stessa direzione. Gli sfondi bianco e nero simulerebbero due zone diversamente illuminate. Poiché i due grigi hanno la stessa luminanza, l'invarianza bianchezza x chiarezza fa sì che il grigio nella zona scura appaia più bianco del grigio nella zona chiara. L'effetto è debole perché il dislivello di luminanza tra i rispettivi sfondi si traduce quasi completamente in un rapporto tra bianco e nero sotto un'illuminazione comune [Gilchrist 1988]. Il principio del rapporto tra luminanze adiacenti, combinato con un criterio per l'ancoramento, spiega la percezione veridica, ma a condizione che la zona includente sia un valido indicatore dell'illuminazione locale. L'effetto Gelb dimostra che l'anomalia sta negli oggetti sospesi, la cui immagine si staglia su uno sfondo diversamente illuminato. Il problema venne affrontato da Gilchrist [1977; Rock 1975] con un'elaborazione del diedro di Mach (fig. 3.27). Costruite un diedro con una faccia ad alta riflettanza (cartoncino bianco), una faccia a bassa riflettanza (cartoncino nero) e due lembi complanari alle facce del diedro: uno ad alta riflettanza complanare alla faccia nera e uno a bassa riflettanza complanare alla faccia bianca. Fate in modo che la faccia bianca e il lembo nero siano molto illuminati, e che la faccia nera e il lembo bianco siano poco illuminati. Nell'espe-

PERCEZIONE

rimento di Gilchrist le luminanze delle facce erano pari a 900 e 1 (in u.a.), mentre la luminanza di ciascun lembo era pari a 30. In visione binoculare {modo della costanza) i lembi appaiono nel loro effettivo orientamento tridimensionale e con una bianchezza corrispondente alla riflettanza: quello a bassa riflettanza appare nero e quello ad alta riflettanza appare bianco. In visione monoculare e in fissazione stabile {modo prossimale) le bianchezze si invertono: il lembo a bassa riflettanza, circondato prevalentemente da una luminanza ancora più bassa, appare quasi bianco, mentre il lembo ad alta riflettanza, circondato prevalentemente da una luminanza ancora più alta, appare quasi nero. Gilchrist [1977] spiega l'inversione in base al principio del rapporto tra luminanze complanari, una specificazione del principio di Wallach. Il colore dipende soltanto dai rapporti tra luminanze corrispondenti a superfici ugualmente orientate e quindi ugualmente illuminate. Questa analisi è generalizzabile ai colori cromatici. Una superficie apparirà rossa, gialla o verde in funzione della composizione spettrale del corrispondente stimolo prossimale, ma anche deH'illuminazione percepita. Come nel dominio acromatico, anche nel dominio cromatico la costanza prevale se l'illuminazione è comune; ma viene meno se l'ambiente contiene zone illuminate da sorgenti con diversa composizione spettrale. Avete mai notato le ombre colorate} Accendete una lampadina bianca e una rossa, e intercettate il fascio rosso con la mano facendo cadere l'ombra su un foglio bianco: l'ombra non è grigia ma verdastra. Dovreste essere sorpresi! La luce riflessa dalla zona d'ombra è neutrale (grigia), come potete verificare spegnendo la lampadina rossa. E allora? L'illuminazione è il sistema di riferimento per i colori di tutti gli oggetti, ombre comprese. Quando entrambe le lampadine sono accese, l'illuminazione fisica è spostata verso il rosso, ma quella percepita tende sempre al bianco. Una zona che riflette una miscela neutrale appare grigia se l'illuminazione è neutrale (lampadina rossa spenta); mentre appare verde se l'illuminazione è fàsicamente sbilanciata verso il rosso ma percettivamente controbilanciata verso il verde, per una tendenza verso il livello neutrale. Per i fondamenti della teoria relazionale del colore cromatico si vedano Koffka [1935, 256]; Land [1977]; Gerbino [1983]. 3.4. Unificazione/segregazione

II problema dell'indeterminazione connettiva (par. 3.1) è il comune denominatore di fenomeni superficialmente eterogenei. Cominciamo con il raggruppamento percettivo di elementi discreti. In un articolo classico, Wertheimer [1923] analizzò i casi in cui un raggruppamento predomina su un altro, più difficile da percepire oppure soltanto teorico, e ipotizzò che le preferenze percettive dipendano da un piccolo insieme di fattori di unificazione. Osservate la figura 3.28a. Con l'attenzione è possibile raggruppa-

143

144

PERCEZIONE

ai

b)

FtG. }.2H. La matrice a può essere organizzata per righe o per colonne mediante l'impostazione attentiva, ma spontaneamente appare come un tutto omogeneo. In b la prossimità favorisce il raggruppamento per colonne.

re i punti della matrice per righe o per colonne; oppure vedere dei quadrati. Ma si tratta di organizzazioni instabili, prive del carattere coercitivo normalmente posseduto dai dati visivi. Osservate ora la figura 3.28é>. Quando la distanza relativa tra i punti non è omogenea, la matrice appare naturalmente articolata in colonne: gli elementi di ogni colonna si appartengono più di quanto non si appartengano gli elementi di una medesima riga. Sotto forma di legge (la prima delle leggi di Wertheimer) il ruolo del fattore prossimità è formulatale così: «A parità di altre condizioni si unificano gli elementi prossimi». Ma la prossimità che conta è retinica o fenomenica? Al quesito hanno risposto Rock e Brosgole [1964] con la seguente dimostrazione. Osservate la figura 3.28£ nel modo illustrato nella figura 3.29,

Direzione dello sguardo

Vista prospettica Laterale Fic. 3.29. Osservate la tìg. }.2&b nel modo qui illustrato. In visione binoculare prevale sempre il raggruppamento in colonne. Il raggruppamento per righe (sulla pagina) si impone soltanto in visione monoculare, quando la pagina perde la sua inclinazione tridimensionale [Rock e Brosgole 1964].

PERCEZIONE

FIG. 3.30. Manipolando la prossimità tra gli elementi emerge una struttura ben riconoscibile, che era totalmente assorbita nella fig. 3.28a.

ruotando la pagina di 90° e inclinandola fino a quando i punti in riga (sulla pagina) sono retinicamente più vicini tra loro rispetto ai punti in colonna (sulla pagina): invertite cioè le relazioni di prossimità esistenti sul piano frontoparallelo. In visione binoculare la matrice si articola sempre in colonne sulla pagina (righe nel nuovo orientamento): predomina la prossimità fenomenica, che coincide con quella distale essendo favorito il modo della costanza. In visione monoculare la matrice si articola in righe sulla pagina (colonne nel nuovo orientamento): predomina la prossimità retinica, essendo favorito il modo prossimale. Il risultato di Rock e Brosgole {ibidem] non esclude che la prossimità operi a livello retinotopico, ma richiede che operi anche a livello dello spazio tridimensionale. Non vi sarà sfuggita l'analogia con l'esperimento sui rapporti tra luminanze complanari (par. 3.3) di un allievo di Rock [Gilchrist 1977]. Torniamo alla figura 3.28I:N SII:K O

B2

H3

B4 l'ic. 7.2.

dal momento in cui avviene la ristrutturazione e «si vede il punto» al processo attraverso il quale vi si giunge. L'insieme delle vie per raggiungere la soluzione a partire dalla situazione problemica costituisce l'albero genealogico della soluzione. Consideriamo, ad esempio, il problema della irradiazione, relativamente al quale Duncker ha studiato particolarmente a fondo il pro cesso di scoperta della soluzione: cercare un procedimento per liberare un uomo da un tumore inoperabile allo stomaco, con l'aiuto di raggi di intensità sufficiente a distruggere tessuti organici, evitando però nello stesso tempo di danneggiare il tessuto sano che circonda il tumore. I diversi

tentativi di soluzione vengono raggnippati da Duncker in base alla loro affinità con riguardo al modo immaginato per risolvere il problema, ossia in base al loro «mediante che cosa» o al loro valore funzionale. Nel caso del problema dell'irradiazione vengono identificati tre tipi di tentativi di soluzione, caratterizzati ciascuno da un distinto valore funzionale, e precisamente: 1) evitare il contatto tra raggi e tessuti sani; 2) immunizzare i tessuti sani; 3) ridurre l'intensità dei raggi prima e dopo il tumore. La forma finale della soluzione si svilupperà attraverso la successiva concretizzazione di Lino o più di questi principi, corrispondenti ciascuno ad un diverso valore funzionale. Ad esempio, il principio della minore intensità dei raggi prima e dopo il tumore potrà assumere la concretizzazione (inadeguata) di ritardare l'applicazione dei raggi a intensità piena oppure la più adeguala concretizzazione di una irradiazione diffusa con concentrazione dei raggi nel tumore, ulteriormente determinata con l'in-

l'KNSII-KO

dicazione dello strumento (una lente) oppure nella concretizzazione ottimale della concentra/ione, sul tumore di fasci di radiazioni deboli, in modi) ila produrre la distruzione di tessuti organici soltanto nel punto di convergenza. La torma Imale di una soluzione è raggiunta in genere attraverso fasi interini die, ciascuna delle quali possiede retrospettivamente il carattere di una soluzione e, in prospettiva, il carattere ili un problema. I.a genesi delle successive fasi di soluzione è favorita dai «metodi euristici», che soni) delle vie per raggiungere la soluzione (per una discussione sull'uso diverso di tale termine, cfr. infra, pp. 443-445). 1 metodi euristici possono assumere la forma di analisi della situazione, sia in quanto analisi di un conflitto (perché non va bene così? o qual è la causa dell'incongnienza?) sia in quanto analisi del materiale (di che cosa posso servirmi?), oppure la forma di analisi dell'obiettivo (che cosa voglio realmente raggiungere? e, talvolta, che cosa posso tralasciare?). Ventativi di revisione della ristrutturazione

Negli anni recenti sono stati effettuati diversi tentativi ili revisionare la ristrutturazione così come era stata deiinita dagli psicologi della Gestalt, particolarmente nel senso di incorporarla a costrutti teorici contemporanei o, per così dire, ili traclurla nel loro linguaggio. Il tentativo di Ohlsson di formulare Lina teoria della ristrutturazione e cXòXmsighl basata sulla elaborazione dell'inlormazione [Ohlsson 1984a; 1984b] prende le mosse da un doppio riconoscimento. Da un lato egli constata che «a prima vista le teorie sul problem solving della Gestalt e della Information Processing sono incompatibili». I gestaltisti infatti ritenevano che «la base del problem solving è la ristrutturazione, un tipo di processo nel quale il solutore arriva a veliere tutte le esigenze della situazione problemica in un modo nuovo». Mentre «l'approccio dell'Information Processing al problem solving è basato sull'idea di ricerca»: risolvere un problema e procedere gradualmente (step-wise) attraverso uno spazio di alternative, finché viene trovata una sequenza di azioni che guida dal problema alla sua soluzione. D'altro lato, a suo giudizio, «entrambe le teorie catturano un aspetto essenziale del pensiero umano e una teoria integrata deve essere capace di maneggiare sia la ristrutturazione sia la ricerca e deve spiegarne le relazioni» [Ohlsson 1984a, 651. Dopo ciò, un po' sorprendentemente e in modo non del tutto coerente, Ohlsson si propone di «interpretare la ristrutturazione nel quadro della Information Processing» libido?/}, senza neppure qualche revisione dell'idea di ricerca iseareh) e della identificazione del processo con la progressione graduale. Così, anche un lavoro notevole come quello di Ohlsson si risolve effettivamente in un tentativo di incorporazione e di ridurre la novità o il salto della ristrutturazione ad una progressio-

407

408

ne di piccoli passi, senza darci la teoria integrata promessa [Mosconi 1988, 176 ss.]. Si consideri l'applicazione, fatta dallo stesso autore, della nuova «teoria integrata» della ristrutturazione ad un problema tratto da Wertheimer, il già ricordato problema della somma delle aree del quadrato e del parallelogrammo sovrapposto. Per brevità ci dobbiamo limitare alla citazione del brano, la cui lettura basterà probabilmente a far apparire la banalità dell'esplicazione del processo di soluzione, basato sul generico ricorso al principio della ricerca (quest'ultima innescata da difficoltà non proprio attendibili, come la non conoscenza del teorema dell'area del parallelogrammo o del triangolo) e sull'introduzione di scoperte che restano misteriose («può scoprire che...»). Poiché la formulazione del compito menziona un quadrato e un parallelogrammo, è naturale codificare la figura come consistente di due differenti oggetti, come mostrato nella figura 7.3. In quella rappresentazione due operatori divengono applicabili, cioè i teoremi delle aree del quadrato e del parallelogrammo rispettivamente. Un tipico percorso di soluzione è mostrato sotto la rappresentazione in verticale. Supponi che il solutore non conosca il teorema dell'area di un parallelogrammo (e che non se la senta di affrontare un tale subgoal). Secondo la presente teoria allora entrerà in una ricerca attraverso le possibili descrizioni della figura data. Questo processo è indicato in figura 7.3 orizzontalmente. Durante questa ricerca, egli può scoprire che la figura può essere vista come due triangoli parzialmente sovrapponentesi. La rappresentazione rende i teoremi sui quadrati e sui parallelogrammi inapplicabili ma permette al solutore di applicare il teorema dell'area di un triangolo. Il percorso di soluzione è mostrato sotto la rappresentazione. Supponi poi che il solutore non conosca il teorema dell'area del triangolo. Può continuare a cercare lo spazio di descrizione, finché trova la rappresentazione alla destra. Ora vede che i due triangoli insieme compongono LUI rettangolo. Ciò rende applicabile il teorema dell'area di un rettangolo. Da questa rappresentazione c'è soltanto un passo alla soluzione. Così il solutore ora conosce in un colpo qual è la risposta. In questo caso abbiamo ristrutturazione seguita da insight [Ohlsson 1984b, 125-126J.

Nell'intento di «catturare l'approccio gestaltista alla ristrutturazione e [19881, in contrasto con la teoria basata sullo schema dell'Infonnation Processing proposta da Ohlsson, punta sul ruolo dei modelli mentali. all'insight con concetti della psicologia cognitiva contemporanea» Montgomery ' I modelli mentali sono modelli di qualche cosa. Fissi rappresentano più o meno accuratamente stati di cose nel mondo [ . . . I . Essi possono essere ispezionati e caratteristiche specifiche del modello possono essere registrate. I . . . 1 . Possono essere manipolati in modi che corrispondono a operazioni che possono essere l a t t e con oggetti f i s i c i . [ . . . 1 . La struttura analogica dei modelli mentali implica che i problemi possono essere risolti leggendo un modello mentali'. n:l!

:

! i trazione

■ 1.1 (I

l i c o l i i i c r i i c i a l r M . i ni

re mani-

409

Trovare la somma delle aree del quadrato ABCD e del parallelogrammo I-BCD

Dati: AB^a AG -= li

.odilicazione

_ -S B - ■

Risiniu U ------------- ^ --------------------

1 Arca ilei quadrali!

I

Uase del parallelogrammo

Area del parallelogrammo (h - a ) a

Alea del triangolo Area del ng Area del triango

Nointna ali 2 -t ali 2

Sonima

aM Ih - a) Fu,. 73. Da Olilsson I 1984bl.

polazioni appropriate del modello», manipolazioni che non conseguono automaticamente dagli esiti della ricerca e dai processi di propagazione nella memoria semantica [ibidem, 89]. Per quante) riguarda «il vedere che è associato con l'insight, potrebbe essere preso in un senso puramente letterale, se si assume che l'insight accade quando l'individuo "vede" qualcosa in un modello mentale» [ibidem, 91]. Indipendentemente dal latto che si possa o no ottenere m futuro le necessarie coni erme, la proposta di Montgomery può essere consider a l a i per così dire) biologicamente corretta, nel senso chi M t r a t t a di

410

l'KNSIKKO

un tentativo di traduzione fedele del concetto di ristrutturazione in termini di psicologia cognitiva contemporanea. La questione del rapporto tra Human Information Processing Theory e teoria gestaltista del pensiero produttivo, con particolare riguardo alla capacità della prima di dar conto e spiegare fenomeni messi in rilievo dai gestaltisti, come l'insight e la Aha-Erlebniss (e implicitamente la ristrutturazione, della quale tuttavia Simon non parla mai), è tratiata specificamente da Simon in un articolo di replica a Michael Wertheimer, figlio del famoso psicologo gestaltista. Dopo aver premesso che le spiegazioni dei processi cognitivi hanno frequentemente preso la forma di programmi per computer che simulano l'effettivo processo di pensiero, Simon afferma che «esistono ormai parecchi programmi di simulazione che torniscono veridiche spiegazioni di t a l i fenomeni come l'insight, la repentina Aha-Erlebniss, l'apprendimento intelligente e degli altri fenomeni cognitivi messi in rilievo dagli psicologi gestaltisti» [Simon 1986, 241]. Una rilevante novità sull'argomento si registra però in un articolo di qualche anno dopo I Kaplan e Simon 1990], Constatato che «l'Information Processing Theory ha avuto poco da dire sul lenomeno della AhaErlebniss o dell'insight in generale» L1990, 376], per la prima volta Simon riconosce che gli insight problema, che richiedono un cambio nella rappresentazione per la loro soluzione [ibidem, 376], «cadono fuori dai limiti della standard Inlormation Processing Theory del problem solving e darne conto richiede un'essenziale estensione di quella teoria» [ibidem, 378]. L'adeguamento o estensione della teoria viene ottenuto introducendo la distinzione tra la già nota ricerca nello spazio del problema e una ricerca per lo spazio del problema o della sua rappresentazione. La continuità con la teoria standard è però ottenuta, in modo poco plausibile, con la tesi che «i medesimi processi che sono ordinariamente usati per la ricerca nello spazio del problema possono essere usati nella ricerca per uno spazio del problema (rappresentazione del problema)» [ibidem, 376], II principio di ristrutturazione, così come inteso dai gestaltisti, ha forti e varie implicazioni teoriche. Nella letteratura psicologica sul problem solving fgestaltisti a parte) tuttavia la ristrutturazione è stata per lo più studiala e discussa, accettata o riluttata, nella sua generalità, come un costrutto teorico autonomo, piuttosto che con i vincoli che gli appartengono nella teoria gestaltista. Ciò che ha diviso gli psicologi che hanno studiato il problem solving è innanzitutto l'idea che nel corso del processo di soluzione vi siano dei ptinti critici che si differenziano profondamente dagli altri momenti della ricerca e dagli altri tentativi; in secondo luogo, l'idea che ciò che avviene in tali momenti è «improvviso» e rappresenta una svolta imprevedibile in relazione ai tentativi e alla direzione del processo che li precede o, in altre parole, che in questi punti critici avviene qualcosa di nuovo, non riducibile all'assommarsi dei tentativi precedenti o delle conoscenze già disponibili.

1T.NSIERO

Bisogna prendere atto di questa fortunata chiarificazione, avvenuta in certo senso di tatto, e distinguere l'idea nucleare di ristrutturazione, per continuare a chiamarla così, dalla ristrutturazione vincolata ai principi della psicologia della Gestalt, che ne rappresenta soltanto una particolare variante, anche se la più nota e storicamente importante [Mosconi 1986, 477]. // doppio codice

Non esiste alcuna situazione che in sé e per sé, od «oggettivamente», sia un problema. I problemi sono prodotti dalla nostra mente. La ricerca psicologica invece da sempre ha oggettivato il problema, assumendolo come un dato che sta all'inizio di una vicenda che si chiama soluzione o processo di soluzione del problema. Per evitare una sequela di citazioni o un laborioso esame critico di testi, si può semplicemente rilevare che la corrente denominazione dell'intero campo di ricerca sui problemi — problem solving — non accidentalmente si riferisce esclusivamente alla soluzione o al processo solutorio, ossia a qualcosa che viene dopo la costituzione o il formarsi del problema [Mosconi 1981], Ma la soluzione del problema è connessa e dipende dalla formazione del problema; ciò che avviene quando il problema viene risolto è connesso e dipende da ciò che è avvenuto quando il problema si è formato, quando è stato accettato da altri o è stato autonomamente pensato. Risolvere un problema corrisponde a disfare ciò che è stato fatto producendolo [Mosconi e D'Urso 1974a; Mosconi 1981; Mosconi 1990a, cap. XV]. Il problema dei nove punti, ad esempio, si costituisce precisamente per l'introduzione del riferimento al quadrato virtuale («questi nove punti» viene decodificato come «i punti di questo quadrato») e Tatto solutorio essenziale consiste precisamente nell'annullamento del riferimento al quadrato virtuale e nella neutralizzazione delle sue implicazioni. Il cambiamento nella comprensione dei termini del problema dipende dal cambiamento del codice secondo il quale viene letto il messaggio dato (enunciato più figura, nel caso del problema dei nove punti). La comprensione iniziale (o decodificazione primaria) viene prodotta dalla applicazione del codice naturale (per brevità, quello che seguiamo normalmente nella comune conversazione). La comprensione successiva, o decodificazione seconda, avviene grazie all'applicazione di un diverso codice, sofisticato o formale, che abbiamo chiamato codice legale (che nel problema dei nove punti, ad esempio, permette una lettura prettamente letterale della espressione considerata) [Mosconi e D'Urso 1974a]. Possiamo vedere in atto gli effetti della decodificazione primaria nella formazione del problema e del passaggio alla decodificazione seconda nella soluzione, prendendo in esame il seguente problema, che può essere considerato un caso esemplare di doppia codificazione per la puntualità dei luoghi critici interessati al fenomeno: Tre amici vanno al ristorante. Viene loro presentato un conto di 60.000

411

412

I'I'NSIMRO

lire. Ciascuno di loro da 20.000 lire, ma protestano chiedendo una riduzione. Il padrone allora restituisce 10.000 lire ai tre, i quali lasciano 4.000 lire al cameriere e prendono 6.000 lire. In conclusione, ciascuno di loro ha pagato 18.000 lire, che moltiplicato per tre fa 54.000 lire. 4.000 lire le ha prese il cameriere. E fa 58.000 lire. Dove sono andate a finire le 2.000 lire che mancano? Molti soggetti restano intrigati e impiegano parecchio tempo ad uscirne. In questa versione viene suggerito di sommare indebitamente le 4.000 lire lasciate al cameriere alle 54.000 lire pagate dagli avventori. Ma non è qtiesto il punto. Infatti i soggetti sbagliano nella stessa misura e allo stesso modo (alcuni producendo spontaneamente, nel ripetersi il problema, la versione precedente) con una versione «onesta» nella quale il suggerimento e la domanda tendenziosa vengono soppressi e sostituiti dalla irreprensibile domanda «come si sono distribuite le 60.000 lire iniziali?». Il punto critico è la decodificazione delle espressioni «pagare tot lire» e «lasciare tot lire al cameriere». Il contesto e i correnti usi linguistici favoriscono una decodificazione primaria corrispondente a «pagare un conto di tot lire» e «lasciare una mancia di tot lire al cameriere». Fatto questo, il resto viene da sé: al conto si somma la mancia e ci si trova con lo sbalorditivo risultato della mancanza delle famose duemila lire. Che il punto critico sia la decodificazione di «pagare» e di «lasciare al cameriere», responsabile della difficoltà e del costituirsi del problema, e che la soluzione consegua al passaggio alla decodificazione seconda, che annulla la precedente, lo dimostra il fatto che, se nella versione onesta si sostituisce pagare con sborsare e lasciare al cameriere con dover dare per il servizio, il problema diventa un facile esercizio scolastico che i soggetti risolvono agevolmente. Se nella sua generalità il meccanismo della doppia codificazione è presente ogni volta che c'è un problema, la sua realizzazione o attuazione può presentare variabilità da problema a problema. Per esempio, varia - per così dire - il punto di applicazione o la zona del messaggio effettivo interessata al fenomeno. (Il messaggio effettivo può essere definito come il correlato psicologico nel ricevente del messaggio dato, in quanto ottenuto mediante l'applicazione del codice naturale al messaggio dato.) Nel problema del conto al ristorante la doppia codificazione riguarda due singole espressioni che appaiono nel messaggio verbale. Nel problema dei nove punti, come si è visto, è alla percezione della figura che tocca il ruolo decisivo. Analogamente, dislocazioni diverse si registrano in altri problemi. La presenza del meccanismo della doppia codificazione discrimina i problemi dai compiti: decisivo per la formazione e la soluzione dei problemi, e assente nei compiti. Della distinzione tra compiti e problemi, della sua importanza e dei riflessi negativi che ha sulla ricerca psicologica trascurare tale distinzione abbiamo già trattato. Resta da precisare che ci sono problemi i quali, oltre alla costitutiva difficoltà di cui abbiamo parlato, comportano anche difficoltà di ese-

ÌT'NSIIIKO

cuzione o di calcolo. Li chiamo problemi composti. Quello dei nove punti ne è un esempio. Una volta che sia stato superato il blocco della limitazione entro i margini della figura, restano delle difficoltà. Resta il compito di determinare la giusta successione dei segmenti adatti a coprire i nove punti, e non tutti i soggetti riescono a farlo. Chiamo residuo del problema questo compito che, assieme all'elemento propriamente problemico, concorre a costituire il problema nella sua composita concretezza. Si è detto che il problema non è un dato ma è prodotto dal soggetto. Ne consegue che ogni situazione può essere l'occasione di una problematizzazione. Non possiamo mai sapere con certezza che i nostri modi di procedere, anche quelli più sperimentati, siano i migliori e non esista invece un'altra soluzione più intelligente. In particolare, occorre sottolineare che anche i compiti, che sono stati distinti tanto recisamente dai problemi, possono essere problematizzati. Ne è un esempio il caso famoso del piccolo Gauss già ricordato. Addizionare i numeri da 1 a IO è precisamente quello che noi consideriamo un compito. Il piccolo Gauss tuttavia, a differenza dei suoi condiscepoli, problematizza la situazione. Sommare i numeri da 1 a 10 nelle parole dell'insegnante vuoi dire, né più né meno, addizionare i numeri da 1 a 10. Ma il piccolo Gauss introduce una seconda possibile lettura o una decodificazione seconda: sommare diventa calcolare mediante una formula il valore corrispondente alla somma dei numeri da 1 a 10 (e risolve brillantemente il problema). Ovviamente si da il caso anche di problematizzazioni in negativo: compiti di per sé banali, affrontabili con sicuro successo da un pedissequo esecutore, possono trasformarsi in una diffìcile impresa proprio perché la gente cerca di risolverli «in modo intelligente», cercando di scoprire regole o ricorrendo a stratagemmi e strategie. (Ne è un esempio, noto e studiatissimo, il problema dei missionari e dei cannibali.) L'aneddoto di Gauss che da bambino, già ingegnoso e forse pigro, inventa un problema, ossia se lo propone da sé senza alcun intervento esterno, ci fornisce anche un esempio di problema autoposto. Poco studiati in letteratura, i problemi autoposti sono degni di interesse non solo in vista dello studio psicologico della scoperta scientifica ma anche per la loro non eccezionaiità nella vita quotidiana. Nonostante per alcuni aspetti faccia sicuramente una certa differenza che siano altri o siamo noi stessi a porci in situazione problemica, per quanto riguarda la presenza e il funzionamento del meccanismo del doppio codice le due situazioni non presentano sostanziali differenze, come forse appare anche da quel poco che si è detto sul caso del piccolo Gauss. Inhne, per quanto riguarda la funzione e il ruolo attribuibili alla ricerca {scardo) in una teoria che concepisce il problem solving come scoperta, è ovvio che, da un tale punto di vista, non è accettabile la concezione della ricerca come il metodo principe, ed anzi unico, per la soluzione dei problemi. Tuttavia, negare alla ricerca il ruolo privilegiato indebitamente attribuitole non impedisce di riconoscerle il ruolo che effettivamente ha nella soluzione del problema. Anzitutto

413

414

' I.NSI1.RO

la ricerca è il primo procedimento messo in atto da colui che affronta il problema, in quanto preliminare attività di indagine dell'enunciato, di esame dell'eventuale materiale disponibile, di considerazione delle limitazioni imposte e, oltre ad altre possibilità, ovviamente in quanto diretti tentativi di soluzione che possono protrarsi nel tempo. In secondo luogo, nel caso dei problemi composti la ricerca è il procedimento che, una volta avvenuto lo scioglimento del nodo problemico (o «capito il problema»), serve a portare a termine il compito, sistemando il residuo del problema. Insomma, la funzione della ricerca non muta nell'ambito dei problemi rispetto ai compiti, diverso è invece il rutilo, che nella soluzione dei problemi è soltanto subalterno. 2. Ragionamento

In questa parte del capitolo tratteremo le operazioni di tirare una conclusione, controllare un'ipotesi e valutare la probabilità di un evento. Sono operazioni o atti di pensiero di una certa complessità, che si compongono di più operazioni minori connesse e coordinate. Generalmente nella ricerca psicologica sul ragionamento esse sono trattate in isolamento, ossia prese in sé e considerate come autonome, all'infuori della loro possibile collocazione in operazioni o discorsi più ampi e ancora più complessi, come produrre una dimostrazione, una spiegazione, un discorso persuasivo, una decisione, ecc. Nella vita cosiddetta «reale», ossia nelle comuni situazioni non determinate dallo sperimentatore in sede sperimentale, un tale isolamento o una tale autonomia comunemente non si da e quello che per lo più la gente fa è proprio spiegare, persuadere, dimostrare, scegliere tra più possibilità, e così via. È bene tenerlo presente, ed è bene tenere presente anche che ciò non costituisce in sé un capo di imputazione per la ricerca scientifica. 2.1. Tirare una conclusione

Quando si asserisce o si accetta come vera una proposizione, ci si espone a doverne rigettare altre che si rivelino incompatibili con quella accettata e anche a doverne accogliere altre che siano ad essa connesse o che ne discendano. Questo può avvenire per riflessione propria o più Irequentemente per azione altrui, per le contestazioni o le argomentazioni dell'interlocutore in una discussione. Proprio pensando alle «regole di una sana discussione» Aristotele avrebbe cominciato a meditare sulle «regole del ragionamento» e sarebbe poi arrivato a elaborare la sua teoria del sillogismo [Bréhier 1989, cap. IVI. Per secoli il sillogismo ha goduto di un indiscusso prestigio come forma canonica eli ragionamento. Gli psicologi vi ricorsero fin dall'inizio per studiare il pensiero, probabilmente indottivi dalla con-

PI'.NSll'.RO

vinzione che tosse necessario disporre di una norma sicura alla quale fare riferimento e in base alla quale poter valutare il comportamento dei soggetti. Purtroppo rimase in ombra il profondo e complesso rapporto tra sillogismo — o logica in generale — e senso comune, già riconosciuto da Aristotele, e non ci si avvide delle sue rilevanti implicazioni, l'ale scelta ha avuto una notevole e sfavorevole influenza, non solo sulla tecnica sperimentale, ma anche sulla problematica affrontata e sugli obiettivi della ricerca. Tratteremo, qui di seguito, prima della ricerca sui sillogismi classici (sillogismi categorici), poi di una «variante» di sillogismo (sillogismi lineari). Sillogismi categorici

II sillogismo è un concatenamento di proposizioni (due premesse e una conclusione) atto a stabilire con certezza che la conclusione deriva necessariamente dalle premesse. «Si dicono sillogismi (più precisamente, sillogismi categorici) dei ragionamenti in cui una proposizione categorica è derivata come conclusione da due proposizioni categoriche quali premesse, e le tre proposizioni stanno in tale relazione che vi sono in tutto soltanto tre termini, ciascuno dei quali compare in due delle tre proposizioni» [Quine 1959; traci, it. 1964, 1001. Le proposizioni di un sillogismo possono essere universali affermative (tutti gli X sono Y), universali negative (nessun X è Y), particolari affermative (qualche X è Y), particolari negative (qualche X non è Y). Esse sono simbolizzate con le lettere A, E, 1, O (dalle vocali dei verbi latini Afflrmo e nEgO). Le possibili combinazioni delle quattro proposizioni categoriche nella premessa e nella conclusione determinano i modi del sillogismo. Oltre che dei modi, bisogna tener conto anche delle figure, che sono quattro. Le figure sono distinte in base alla posizione che occupa in ciascuna delle due premesse il termine medio (il termine che compare in entrambe le premesse, connettendole, e che non compare nella conclusione). Nella prima hgura il termine medio funge da soggetto nella prima premessa e da predicato nella seconda (Tutti gli esseri umani sono mortali. Tutti i greci sono esseri umani. Tutti i greci sono mortali). Nella seconda tigura il termine medio funge da predicato in entrambe le premesse; nella terza figura da soggetto in entrambe le premesse; nella quarta hgura il termine medio funge da predicato nella prima premessa e da soggetto nella seconda. Non da tutte le combinazioni di premesse derivano conclusioni necessarie o valide. La teoria del sillogismo permette di distinguere le conclusioni valide dalle conclusioni invalide. Il sillogismo, e in generale la logica formale, stabilisce regole di ragionamento «formali», indipendenti dal contenuto sul quale si ragiona. Una volta che date premesse siano assunte come vere, la conclusione che ne discende necessariamente è senz'altro «vera», non può non essere accettata finché si accettino quelle premesse, essendo fuori gioco o inlnfluenti le conoscenze relative al contenuto del siilo-

415

416

l'KNSIKRO

gismo, comprese quelle sulla verità fattuale della conclusione. Invece in un comune ragionamento, pur essendo praticabile la distinzione tra i due aspetti, l'assunzione di un punto di vista assimilabile a quello proprio della logica formale può avvenire solo «con segnalazione» (situazionale o dichiarata), vale a dire che non è la condizione normale o presupposta. L'influenza del contenuto sulla valutazione della conclusione (in debito, dal punto di vista logico) fu tra i primi temi affrontati dalla ricerca psicologica. Wilkins [1928] utilizzò quattro gruppi di sillogismi strutturalmente identici ma con materiale diverso: a) materiale concreto e familiare (con proposizioni come: «tutti gli studenti di letteratura frequentano le biblioteche»); b) materiale simbolico («tutti gli A sono B»); e) materiale non familiare, rappresentato da termini scientifici e pseudoscientihei («tutti i loraminiferi sono rizopodi»); ci) materiale suggestivo (nel senso che inferenze valide portano ad asserzioni fattualmente false e inferenze invalide portano ad asserzioni fattualmente vere). Wilkins trovò notevoli differenze nella correttezza «logica» della valutazione delle conclusioni a seconda del materiale, dai sillogismi con materiale concreto e familiare (i più facili) a quelli con materiale simbolico (i più diffìcili). L'influenza dell'«atteggiamento verso la conclusione» sulla valutazione della validità del sillogismo venne studiata da Janis e Frick [1943], i quali trovarono che quando i soggetti sono d'accordo sulle conclusioni vi è un numero significativamente maggiore di acccttazioni di sillogismi non validi rispetto ai rifiuti di sillogismi validi, mentre quando i soggetti non sono d'accordo sulla conclusione vi è un numero significativamente maggiore di rifiuti di sillogismi validi rispetto all'accettazione di sillogismi non validi. Qui ci limitiamo a segnalare la presenza e la precoce apparizione nella ricerca psicologica di questa problematica [in particolare, sul conflitto tra logica e credenze nel ragionamento sillogistico, cfr. Evans, Barston e Pollard 1983; McGuire I960]. Vorremmo segnalare che, poiché nei ragionamenti comuni l'aspetto «formale» e l'aspetto «contenutistico» non vengono trattati disgiuntamente, questo tipo di ricerche in realtà fornisce informazioni su questo modo di lavorare della nostra mente (sostanzialmente confermandolo) e sulla relativa difficoltà di separare i due elementi, piuttosto che direttamente sulle nostre capacità di ragionare «correttamente». Infatti è piuttosto improbabile che un tale che non sa neppure cosa sono i foraminiferi si impegni in un ragionamento sui foraminiferi e, d'altra parte, un «buon ragionatore» potrebbe trovarsi in difficoltà a trattare il solo aspetto formale ( per esempio, se si trova alle prese con sillogismi simbolici ). Basandosi anche sull'analisi dei dati della Wilkins, Woodworth e Sells 119351 tentarono di spiegare gli errori nel ragionamento sillogistico ipotizzando un c/jetto atwosjcrd, secondo il quale se le due premesse sono dell» stesso ti p o (AA, hb, I I , ( ) ( ) ) la conclusione sarà di quelle slesso t i p ■, mentre, se le premesse sono di tip o diverso ( u n i -

417

versale e particolare; affermativa e negativa): a) la presenza di una proposizione negativa nelle premesse crea un effetto atmosfera negativo, e la conclusione sarà negativa (E oppure O); b) la presenza di una proposizione particolare nelle premesse crea un effetto atmosfera particolare, e la conclusione sarà particolare (I oppure O). Inoltre, gli autori postularono due addizionali fattori che favoriscono l'accettazione di conclusioni invalide. Questi sono: a) il fattore di «cautela» o «prudenza», che favorisce l'accettazione di conclusioni deboli e caute piuttosto che di conclusioni forti: I piuttosto che A, O piuttosto che E; b) l'ambiguità della parola qualche, usata in senso distributivo in logica (almeno qualcuno) e molto spesso in senso partitivo nel linguaggio ordinario (soltanto qualcuno) [Sells 1936, 1-17]. Secondo gli autori, che presero in considerazione soltanto sillogismi con contenuto simbolico, quasi tutte le accettazioni di conclusioni invalide possono essere spiegate così. Un riesame dell'effetto atmosfera venne effettuato da Chapman e Chapman [1959]. Per ogni sillogismo, alle due premesse essi fecero seguire cinque conclusioni alternative (presentate in ordine casuale): 1) tutti gli Z sono X, 2) nessun Z è X, 3) alcuni Z sono X, 4) alcuni Z non sono X, 5) nessuna di queste. I soggetti dovevano indicare quale di queste conclusioni era valida. Per tutti i 42 sillogismi sperimentali (tutti invalidi) la risposta corretta era «nessuna di queste». La media delle risposte corrette fu solo del 20%. «Ci fu una notevole concentrazione di scelte su una delle quattro conclusioni erronee in tutti i tipi di premesse eccetto con le premesse EO e OE dove le preferenze si dividono tra una conclusione O e una conclusione E» [ibidem, 223-224]. Quest'ultima scelta (conclusione E) non è conforme all'ipotesi effetto atmosfera, così come non lo sono i risultati ottenuti con le premesse IE, per le quali l'errore preferito è E (mentre l'errore predetto dalla ipotesi dell'effetto atmosfera è O). Secondo Chapman e Chapman, dunque, l'effetto atmosfera non riesce a dar conto di tutti i risultati ottenuti. Per interpretare i dati sperimentali gli autori propongono due nuove ipotesi. 1) 1 «profani» tendono a considerare valida la conversione semplice delle proposizioni di tipo A (cioè da «Tutti gli A sono B» a «Tutti i B sono A»), delle quali invece è valida solo la conversione per accidens (cioè da «Tutti gli A sono B» a «Qualche B è A»), e la conversione delle proposizioni di tipo O (non convertibili). 2) Dato che gran parte delle inferenze della vita quotidiana ha solo carattere probabilistico, questa abitudine influenza il comportamento dei soggetti, secondo il criterio: «cose che hanno qualità ed effetti comuni sono verosimilmente lo stesso tipo di cose, mentre cose che mancano di qualità e di effetti comuni verosimilmente non sono le stesse cose» (e «nel sillogismo è il termine medio che fa da caratteristica comune»). Secondo Chapman e Chapman gli errori che non sono spiegati dal solo principio dell'accettazione della conversa delle proposizioni A e O, sono spiegati dalla sua combinazione con l'inferenza probabilistica [ibidem, 224-225]. Ne conseguirebbe che «i soggetti si sono compor-

418

l'I- N IS II -K O

tati come persone pienamente ragionevoli ma imprudenti: giudicano provato quello che è soltanto probabile» [ibidem, 225]. A questo punto ci sono due teorie che pretendono di dar conto degli errori nel ragionamento sillogistico formale (più precisamente, degli errori prodotti nelle situazioni sperimentali). Una mette in campo hit tori alogici (effetto atmosfera e prudenza), anche se Sells segnala le corrispondenze tra le regole dell'effetto atmosfera e quelle della logica classica. L'altra teoria ipotizza l'azione di tendenze razionali o fondamentalmente razionali (principio della conversione delle proposizioni di tipo A e di tipo O e principio delle inferenze probabilistiche). Entrambe sono teorie composite, che fanno intervenire principi eterogenei (effetto atmosfera più prudenza; principio della conversione più inferenze probabilistiche). Nella gran maggioranza dei casi le loro previsioni coincidono, situazione quest'ultima che rende piuttosto difficile il loro controllo, che ha impegnato gran parte delle ricerche successive. La riformulazione delle due ipotesi dell'atmosfera e della conversione nella forma di modelli del processo di ragionamento sillogistico e il loro controllo mediante il confronto tra i due corrispondenti modelli, con riguardo alla loro capacità di predire le scelte dei soggetti, venne tentata da Revlis [1975; cfr. anche Revlin e Leirer 1978; Revlin et al. 19781. Le previsioni basate su ciascun modello vengono confrontate con le scelte effettuate dai soggetti sperimentali (complessivamente 50), in riferimento ad un set di nove problemi critici. Per i problemi unitari (quelli in cui ciascun modello fa una sola predizione che si differenzia dalla predizione del modello alternativo) il modello basato sull'ipotesi atmosfera «è in modo schiacciante il miglior predittore delle decisioni dei soggetti. Per i sillogismi validi questo modello da conto dell'88,9% di tutte le decisioni, mentre il modello conversione predice accuratamente soltanto il 6,8% delle decisioni. [...] Per il solo sillogismo invalido che fa parte del set critico il primo modelli) è corretto per l'85,2% di tutte le decisioni, mentre il modello conversione è corretto per l'8,4% delle decisioni. Invece, c'è poca differenza tra i modelli nei problemi duali, quelli nei quali il modello basato sull'ipotesi atmosfera fa un'unica previsione mentre il modello conversione prevede due possibili decisioni: 79,4% contro 85,7%» [Revlis 1975, 191], Tuttavia, il modello basato sull'ipotesi atmosfera, se «è più accurato nelle sue predizioni», non sa prevedere le risposte corrette «nessuna di queste» e non presenta quella accuratezza uniforme per le diverse situazioni che dovrebbe invece dimostrare, dato il suo principio ispiratore che i soggetti non effettuano inferenze logiche ma procedono secondo un criterio alogico [ibidem, 192]. Gli effetti di addestramenti differenziali, l'uno destinato a ridurre gli errori attribuibili all'effetto atmosfera e l'altro a ridurre gli errori attribuibili alla conversione invalida, sono studiati nell'esperimento di Simpson e Johnson [1966], È un modo di controllare la validità delle due teorie a confronto: diversi effetti di terapie basate su diverse

419

diagnosi permettono di giudicare della bontà di queste ultime. «In generale l'addestramento differenziale diede risultati differenziati» [ibidem, 200]. Gli effetti dell'addestramento antiatmosfera erano abbastanza evidenti: il gruppo antiatmosfera commise un numero significativamente basso di errori atmosfera ma non di errori conversione. Gli effetti dell'addestramento anticonversione non risultano altrettanto evidenti. «Per quanto sia possibile che l'addestramento anticonversione non fosse così ben organizzato ed eseguito come 1 addestramento antiatmosfera», resta tuttavia un'indicazione a favore dell'ipotesi atmosfera [ibidem]. Istruzioni differenziali venivano utilizzate anche da Dickstein [1975], questa volta con risultati a favore delle ipotesi dei Chapman. Oltre alle istruzioni standard, date anche al gruppo di controllo, ad un terzo dei soggetti (che complessivamente erano 66) vennero date anche istruzioni supplementari antiatmosfera e all'altro terzo dei soggetti istruzioni supplementari anticonversione e inferenza probabilistica. I soggetti dovevano scegliere tra la solite cinque risposte alternative. Mentre con i sillogismi validi non vennero riscontrate differenze significative, con i sillogismi invalidi «il gruppo anticonversione e antiinferenza probabilistica diede una prestazione significativamente migliore sia del gruppo antiatmosfera sia del gruppo standard, che tra di loro non differirono significativamente». (Va segnalato che Dickstein, avendo dato a metà dei soggetti le premesse in un ordine e all'altra metà nell'ordine inverso, non trovò alcun importante effetto sequenza.) Controllare le due ipotesi dell'atmosfera e della conversione è un

obiettivo dichiarato anche dell'esperimento di Mazzocco, Legrenzi e Roncato [1974]. Viene chiesto ai soggetti di completare dei sillogismi mancanti della seconda premessa, scegliendola tra una lista di nove possibilità: le quattro proposizioni categoriali (come «Tutti gli A sono B»), le loro converse (come «Tutti i B sono A») e «nessuna di queste». Confrontando le risposte dei soggetti con le previsioni basate sull'ipotesi atmosfera da un lato e sull'ipotesi conversione e inferenza probabilistica dall'altro, gli autori conclusero che «è evidente che né l'ima né l'altra ipotesi rende conto della prestazione dei soggetti in questo esperimento» [ibidem]. Grazie alla tecnica adottata, è stato possibile evidenziare l'influenza dell'ordinamento dei termini nella prima premessa sulla scelta della seconda premessa da inserire. «Quando la premessa data, come seconda, ha il termine medio come predicato, il 73% dei soggetti sceglie una premessa nella quale il termine medio agisce come soggetto. Se invece la premessa data ha il termine medio come soggetto, allora c'è più equilibrio nelle scelte, rispettivamente 54% e 46%. Così, sembra ragionevole affermare l'esistenza nel ragionamento sillogistico di un "ordine naturale" definito dal fatto che il termine medio agisce come predicato nella prima premessa e come soggetto nella seconda» [ibidem, 1701. Questo interessante rilievo rende plausibile ritenere che l'ordine dei termini in un sillogismo può influire sulla difficoltà di capire e mettere

420

l 'I' NSI l- KO

in relazione le premesse e può influire sulla difficoltà di raggiungere una conclusione. Una critica metodologica alle ricerche di Woodworth e Sells e a quella dei Chapman viene sviluppata in un lavoro di Mosconi [1970] con riferimento a tre punti principali: la mancata segnalazione della «necessità» di una conclusione logica, l'insufficiente neutralizzazione del diverso significato di «qualche» in logica e nel discorso comune, l'impiego prevalente di sillogismi invalidi. Secondo Mosconi, bisogna inoltre considerare che, se dal punto di vista della logica accertare che dalle premesse non discende alcuna conclusione necessaria è una conclusione che vale qualsiasi altra, nel modo di pensare comune una siffatta soluzione del problema dato può facilmente apparire come una soluzione mancata, mentre conclusioni «positive» ritenute anche solo probabili o possibili sono già vissute come soluzioni, magari solo parzialmente soddisfacenti. Questo rende plausibile ipotizzare che «a) quando esigenze "logiche" (conclusione necessaria) ed esigenze "psicologiche" (arrivare ad una conclusione) coincidono, pensiero comune e logica tendono alla concordanza; b) quando esigenze "logiche" ed esigenze "psicologiche" non coincidono, il pensiero comune tende a ricorrere ad una logica più ampia e permissiva della teoria del sillogismo, più adatta all'appagamento delle esigenze psicologiche» [ibidem, 147]. In particolare, con sillogismi validi (caso di concordanza delle esigenze logiche e psicologiche) si prevede una netta prevalenza di conclusioni corrette anche secondo la teoria del sillogismo; con sillogismi non validi (caso di discordanza delle esigenze logiche e psicologiche) si prevede un basso numero di conclusioni logicamente corrette, che devono essere «negative», e un numero notevole di conclusioni corrette soltanto secondo la logica del pensiero comune (conclusioni «positive» compatibili con le premesse, anche se non «necessarie»). Nell'esperimento esplorativo, destinato ad un primo controllo di quest'ipotesi, vennero introdotte alcune innovazioni. Innanzitutto, invece di un sillogismo completo o di una coppia di premesse e più conclusioni, ai soggetti venivano fornite solo le premesse e il loro compito consisteva nel trame la conclusione, con la precisazione che le eventuali conclusioni potevano essere certe oppure soltanto possibili. «Questa soluzione, evitando sicuramente di limitare o incanalare le risposte del soggetto, consente il più sicuro e ampio rilievo degli autentici risultali del processo deduttivo» Vibidem, 1501. In secondo luogo le premesse venivano formulate come nell'esempio seguente: «Tutti t membri del gruppo B fanno parte del gruppo C. Almeno un membro del gruppo A fa parte del gruppo B». Per eliminare o ridurre i noti

inconvenienti connessi all'uso di «qualche» è stata usata l'espressione «almeno un membro di». Per eliminare l'ambiguità di «sono», segnalata dai Chapman, è stata usata l'espressione «fanno parte di» che esplicita il rapporto di inclusione tra i termini dell'enunciato. Infine, anziché con lettere, i termini sono stati individuati con l'espressione «membro/i del gruppo A/B/C». Complessivamente sono state

l'NSll'RO

1 A e B coincidono

2 A è incluso in B

DISTRIBUTIVA

o



'

( AI

3

4

A include B

5

A interseca B

PARTITIVA

■'

NII i u

A e B si escludono

INCL USIV A

I : u , . 7.4. Tipi tli relazioni tra insiemi I da Be^ e I larris 1^821.

utilizzate sedici coppie di premesse (otto ricavate da sillogismi validi e otto da sillogismi non validi). Conformemente alle ipotesi: a) con le coppie di premesse derivate da sillogismi validi le risposte logicamente corrette e date per certe dai soggetti corrispondono al 77"/», mentre le risposte accettabili solo secondo la logica del pensiero comune (compatibili con le premesse e date soltanto per possibili) corrispondono al 10%; b) con le coppie di premesse derivate da sillogismi non validi le risposte logicamente corrette corrispondono solo al 10,50%, mentre le risposte accettabili soltanto dal pensiero comune (compatibili con le premesse e date soltanto come possibili) corrispondono al 52%; e) la differenza tra le risposte accettabili secondo il pensiero comune con sillogismi validi e sillogismi invalidi (rispettivamente 87% e 62%) è considerevolmente inferiore a quella tra risposte corrette secondo la teoria del sillogismo (77% e 10,50%). L'autore propone di «considerare il piano logico semplicemente come una delle impostazioni possibili del pensiero», rigettando sia l'assunzione della logica come modello del pensiero, sia la contrapposizione tra logica e pensiero o discorso comune, di cui la logica costituirebbe un subsistema «specialistico» {ibidem, 154]. Formulazioni modificate delle premesse, nel senso di renderle «interamente esplicite» (ma anche complesse e macchinose), vennero utilizzate successivamente da Ceraso e Provitera [1971]. Ad esempio, invece della formulazione classica «Alcuni A sono B», che potrebbe adattarsi a tutte le relazioni da 1 a 4 nella figura 7.4, essi usarono una formulazione del tipo «Alcuni A sono B, alcuni A non sono B e alcuni B non sono A», che può riferirsi solo alla situazione 4 della figura 7.4. Quelle che Mosconi chiamava esigenze psicologiche, e più particolarmente le regole o condizioni della produzione e accettazione del discorso (cioè quelle regole alle quali normalmente si attiene colui che produce il discorso e che normalmente l'interlocutore si aspetta siano rispettate e secondo le quali in prima istanza interpreta o capisce ciò che viene detto), in seguito hanno sempre più attirato l'attenzione dei ricercatori. Woodworth e Sells [1935] avevano trovato che l'ordine in cui sono disposte le premesse non ha influenza sulla accettazione della conclusione e questo risultato venne in seguite) frequentemente presupposto o confermato [Sells 1936; Chapman e

421

422

I\NIS II-. KO

Chapman 1959; Dickstein 1975]. Questi risultati sono piuttosto sorprendenti. La sorpresa o i dubbi non appaiono ingiustificati se si pensa alla grande influenza che ha l'organizzazione del discorso nell'orientare l'ascoltatore e nel favorirne o ostacolarne la comprensione. Già Mazzocco, Legrenzi e Roncato [1974] avevano rilevato una preferenza nei loro soggetti che mal si accorda con l'asserita non influenza dell'ordine delle premesse (cfr. supra, p. 419). Johnson-Laird e collaboratori [Johnson-Laird e Steedman 1978; Johnson-Laird e Bara 1984] hanno trovato una forte influenza della figura del sillogismo (ossia della disposizione dei termini in ciascuna premessa e dell'ordine o successione tra le premesse) sulla conclusione (che i soggetti dovevano produrre). Sia quando era possibile tirare una o più conclusioni valide sia quando nessuna conclusione valida poteva essere dedotta, si registrò: a) una forte preferenza dei soggetti per conclusioni di forma AC, quando le premesse avevano la forma AB BC. Vale a dire, per esempio, premesse come «Alcuni genitori [A] sono scienziati [B]. Tutti gli scienziati [B] sono automobilisti [CI» tendono a far apparire la conclusione «Alcuni genitori [A] sono automobilisti [C]», piuttosto che l'altrettanto valida conclusione «Alcuni automobilisti [C] sono genitori [A]» [Johnson-Laird e Steedman 1978]; b) una forte preferenza per conclusioni della forma CA, quando le premesse erano del tipo BA CB, ossia quando il termine medio fungeva da soggetto nella prima premessa e da predicato nella seconda. I dati ottenuti in questi esperimenti vennero utilizzati per la formulazione di una teoria basata sull'ipotesi che il ragionatore costruisce modelli mentali delle premesse (l a teoria prevede un processo in tre stadi, e questo è precisamente il primo: l'interpretazione delle premesse); formula conclusioni «informative» sulle relazioni nel modello (è il secondo stadio); infine cerca modelli alternativi delle premesse che costituiscano dei controesempi e possano falsificare le conclusioni raggiunte (terzo stadio). «Due fattori principali potrebbero influire sulla difficoltà di un sillogismo: la figura delle premesse, la quale può rendere difficile costruire un modello iniziale (nello stadio uno) e può influenzare l'ordine nel quale una conclusione è formulata (nello stadio due), e il numero di modelli mentali che devono essere costruiti, il quale può produrre un peso addizionale per la memoria di lavoro (nello stadio tre)» []ohnson-Laird e Bara 1984, 41]. Una spiegazione «comunicazionale» della interpretazione da parte dei soggetti di proposizioni categoriali come quelle usate nei sillogismi è quella proposta da Begg e Ilarris [1982]. Dato che le convenzioni che regolano il discorso comune sono diverse da quelle della logica, le interpretazioni da parte dei soggetti delle proposizioni categoriali non saranno conformi alla lettura restrittiva voluta dalla interpretazione secondo i canoni della logica, e quindi alle convenzioni della logica. Jn particolare, vengono considerati due principi e gli effetti della loro applicazione: a) il principio di completezza e b) il principio di asimmetria. a) II principio di completezza può essere grosso modo espresso

l'KNSII-KO

così: «nel discorso normale l'ascoltatore può ragionevolmente aspettarsi che colui che parla tornisca un'informazione il più completa possibile» [.ibidem, 5%]. Se ci si attiene al principio della completezza, il campo di interpretaziune delle proposizioni categoriali subisce delle determinazioni e viene ristretto. Così, «una proposizione del tipo "alcuni" (particolare affermativa) verrebbe interpretata soltanto partitivamente (situazioni 4 e 3 della lig. 7 .4 ), eliminando le interpretaziuni distributive logicamente corrette (situazioni f e 2 della stessa figura), che nel discorso normale sarebbero meglio espresse da tutti. Allo stesso modo alcum-non sarebbe interpretato partitivamente (situazioni 4 e 3 della hg. 7.4), eliminando la relazione esclusiva (situazione 5 ), per la quale nessuno sarebbe una espressione più normale». Ne deriverebbe che le quattro proposizioni categoriali darebbero luogo a tre sole interpretazioni: «una interpretazione è quella negativa che include nessuno e la relazione esclusiva. Un'altra è l'interpretaziune affermativa che include tutti e le relazioni distributive. La terza interpretazione è quella partitiva che include alcuni e alcum-non e le due relazioni partitive» [ibidem, 598]. b) II principio di asimmetria riguarda un'altra differenza tra logica e discorso comune: nel discorso comune l'ordine dei termini produce informazione. Per esempio, «alcuni canadesi sono francotoni» invita l'ascoltatore a considerare l'insieme di tutti i canadesi e a isolare per una successiva considerazione quei canadesi che parlano trance-se. Invece, «alcuni francofoni sono canadesi» induce la considerazione di tutti i trancofoni, particolarmente quelli che vivono in Canada. L'insieme fecalizzato è il medesimo in entrambi i casi, ma la sua importanza differisce poiché nei due casi è contrastato con un insieme generale differente. La questione è che, per l'ascoltatore, l'introduzione di un termine come soggetto o come predicato trasmette informazione al di là delle funzioni sintattiche dei termini. Invece, nella logica formale, se un termine è introdotto come soggetto o come predicato non ha nessuna implicazione per quel che riguarda la sua importanza o generalità [ibidem]. Nel primo dei tre esperimenti attuati da Begg e Harris, veniva chiesto ai soggetti di interpretare le proposizioni categoriche scegliendo le appropriate relazioni espresse graficamente nella forma di diagrammi di Eulero (vedi fìg. 7.4). Per ciascuna premessa {tutti gli A sono B, nessun A è B, alcuni A sono B, alcuni A non sono B) essi dovevano distribuire cento punti tra le cinque relazioni dando più punti alle relazioni che consideravano interpretazioni più soddisfacenti. Con la proposizione universale negativa (nessun A è B) venne scelta soltanto la situazione 5 (relazione esclusiva); con la proposizione universale aifermativa (tutti gli A sono B) le preferenze si divisero all'interno della relazione di distribuzione: 57% alla situazione I e 43% alla situazione 2; con la proposizione particolare affermativa (alcuni A sono B) e con la pi ...posizione particolare negativa (qualche A non è B) le preferenze si concentrarono sulla relazione partitiva (63% e 36% alla situazione 4, 21% e 44% alla situazione 3), trascurando la

423

424

KN'SIKKO

relazione esclusiva (situazione 5). Anche gli altri due esperimenti sostanzialmente confermarono l'analisi e le previsioni degli autori. La comprensione delle proposizioni categoriali è stata studiata anche da Newstead [1989]. In uno degli esperimenti l'autore utilizzò un compito di inferenza immediata. Le quattro tradizionali proposizioni categoriali (tutti gli A sono B, nessun A è B, alcuni A sono B, alcuni A non sono B) vennero proposte una alla volta. Ogni volta sotto la proposizione c'erano otto proposizioni test: le quattro proposizioni categoriali e le loro converse. Stabilito che la proposizione sovrastante era vera, al soggetto veniva chiesto di indicare se le proposizioni sottostanti erano vere o false, data appunto la verità della prima. I soggetti potevano rispondere solo «vero», se la proposizione era necessariamente vera, o «falso», quando non fosse così. Le istruzioni indicavano anche che alcuni doveva essere interpretato nel suo significato logico. I soggetti mostrarono di credere che tutti implicasse la sua conversa: 57% delle risposte. Ancora più frequenti (90%) le conversioni illecite di alcuni-non. Assai comuni gli errori, prevedibili secondo la teoria di Grice delle implkature conversazionali, che alcuni implica alcuni-non e viceversa (93% e 83%, rispettivamente). Secondo l'autore, «l'afìermazione che nel ragionamento sillogistico gli errori sono causati da erronea interpretazione delle premesse è fortemente confortata dalla presente ricerca. La teoria della conversione in particolare sembra giocare una parte importante. Si è visto che gli errori di tipo griceano esistono e spiegano certi errori nel ragionamento sillogistico» [ibidem, 91]. Una teoria del conflitto tra logica e sistema del linguaggio comune è stata proposta da Politzer [1986]. Secondo questo autore «lo sviluppo logico precoce è contemporaneo allo sviluppo della componente pragmatica del linguaggio; lo sviluppo logico posteriore (durante l'adolescenza o anche nell'età adulta) avviene in contrasto con uno sfondo di principi già acquisiti dell'uso del linguaggio e della comunicazione che sono incompatibili con molte regole della logica formale. In altre parole, lo sviluppo del pensiero logico tende verso un sistema duale e internamente contraddittorio. Perciò, condizione necessaria per un effettivo uso della logica è che la situazione di conflitto sia risolta mediante la differenziazione e coordinazione dei due subsistemi. In generale, una tale coordinazione non verrà completamente raggiunta. I due sistemi entreranno in conflitto nel controllo del processo di ragionamento e il grado di coordinazione realizzato determinerà le differenze individuali nella prestazione in compiti logici. I numerosi adulti che danno basse prestazioni in compiti logici possiedono potenziali abilità logiche; cioè, le loro strutture logiche sono costituite ma non ben coordinate con le leggi dell'uso del linguaggio. Essi hanno due subsistemi contraddittori a loro disposizione e i loro errori sono causati dall'uso del sistema del linguaggio» [ibidem, 65]. Sulla base di questa teoria Politzer ha studiato la comprensione di semplici proposizioni categoriche (deduzione immediata) e ha proposto un modello per prevedere e dar conto delle risposte

PKNSIKRO

registrabili con sillogismi categorici, che tra l'altro fornisce una spiegazione dell'effetto atmosfera e dell'effetto figurale [Politzer 1990b]. Fin dall'inizio, o ben presto, ci si avvide almeno di alcune vistose «interferenze» delle regole secondo le quali viene prodotto e compreso il discorso comune sulla comprensione dei compiti sperimentali e la loro soluzione da parte dei soggetti. È il caso, per esempio, della comprensione o del significato attribuito al termine qualche o della necessità richiesta per la conclusione di un sillogismo o dell'impiego di sillogismi per l'enorme maggioranza dei quali non vi era alcuna conclusione valida. I rimedi escogitati furono in generale semplicistici e inadeguati, consistendo per lo più nel semplice inserimento di avvertenze o spiegazioni nelle istruzioni preliminari (piuttosto che in modificazioni delle formulazioni utilizzate), segno anche questo della sostanziale sottovalutazione o della disattenzione per questo aspetto della ricerca. In seguito, anche per effetto dello sviluppo delle indagini filosofìche linguistiche e psicologiche sul discorso (per lo più si parla di conversazione, con riguardo alla sola comunicazione), nelle ricerche sul ragionamento sillogistico l'attenzione verso gli aspetti linguistico-conversazionali o pragmatici è venuta continuamente crescendo. Un ulteriore sviluppo richiede — a mio parere — l'accoglimento di una concezione del rapporto tra discorso comune e discorso logico secondo la quale la logica, né norma per il pensiero né subsistema in conflitto con il subsistema del discorso comune, sia considerata come un discorso speciale (in questo caso, specialistico) derivato (e non in conflitto, ma distinto) dal discorso comune. Sillogismi lineari o problemi seriali a tre termini

«Tom corre più veloce di Jim, Jack corre più lento di Jim. Chi è il più lento?» oppure «Edith è più bionda di Susanna, Edith è più bruna di Lilli. Chi è la più scura?» sono esempi di sillogismi lineari [Burt 1919; Piaget 1921]. Come si vede, essi si compongono di due premesse, che indicano la posizione dei termini in una serie o su una linea, e di una conclusione, che è precisamente la soluzione richiesta. Di qui viene la denominazione di sillogismi lineari. Si usa anche l'espressione problemi seriali a tre termini perché nell'enunciato figurano appunto tre termini in serie (Tom, Jim e Jack oppure Edith, Susanna e Lilli), dei quali è determinata la posizione relativa, mentre la domanda precisa il compito posto al solutore. Il punto di partenza tradizionale per le ricerche sui sillogismi lineari è la constatazione che la relazione esistente tra i tre termini, che è stata simbolizzata con A > B > C e C < B < A (dove al posto dei segni > e < si possono mettere i comparativi di aggettivi come veloce-lento, biondo-bruno, grande-piccolo, alto-basso, buonocattivo, e via dicendo), può essere espressa in più modi. Hunter [1957a], per esempio, ha distinto quattro tipi di formulazioni e all'interno di ciascun tipo due forme parallele, considerate psicologica-

425

426 T \ n . i , \ . ii/>/ e lumie Jet' silliìgismt lineari Uhi lìnn/cr Tipo

[orma R

Forma A Do

Domanda

di! C. p i ù basso di B

li Al C H C A più a l t o di B a l io di C ! a l t o di B t l u sso d i B l l u sso d i A i l u sso d i B i basso i li A ili! a l t o di ( -

B p pi ù b a sso di A I M I basso di B i i ù alto di B m i a lt o d i ( . l i ù a l t o di B ) iù a lto d i C n ù b a sso d i A

- c hi e il p iù a lto ? - chi e i l p iù ba sso?

mente corrispondenti (per esempio, A > B : B > C e C < B: B < A) per un totale di otto formulazioni. La domanda che segue questi enunciati, e che precisa il compito per il soggetto, viene espressa ora nella forma «Chi è il > ?» ( i l maggiore, il più alto, il migliore, il più veloce, il più biondo, e così via) ora nella forma «Chi è il