Il Cognitivismo: Storia, Teorie e Sviluppi

Il Cognitivismo: Storia, Teorie e Sviluppi

Il cognitivismo emerse negli anni ’60 e ’70 come una delle correnti di ricerca più influenti, segnando una svolta paradigmatica nella psicologia. Questa scuola di pensiero concepisce la mente umana come un elaboratore di informazioni, caratterizzata da processi di organizzazione sequenziali e da una capacità computazionale intrinsecamente limitata. L’analogia tra mente e calcolatore è al centro del paradigma, offrendo un modello esplicativo che collega il comportamento degli organismi ai principi dell’elaborazione dati. Tale prospettiva innovativa nacque in risposta alle limitazioni del comportamentismo e fu ulteriormente rafforzata dalle scoperte in neuroscienze e dalla nascente teoria dell’informazione, contribuendo a ridefinire radicalmente la comprensione dei processi mentali.


In questo video esploriamo il cognitivismo, il rivoluzionario paradigma che ha trasformato la psicologia da misteriosa “scatola nera” a un supercomputer umano!

Origini e Sviluppo del Cognitivismo

I Precursori del Cognitivismo

Il cognitivismo non si configurò come un movimento forgiato da un manifesto univoco, bensì come il risultato di un graduale processo , in cui differenti correnti di pensiero e ricerche empiriche si sono progressivamente integrate. Sebbene l’opera Cognitive Psychology di Ulric Neisser, pubblicata nel 1967, sia spesso considerata un punto di svolta simbolico, essa rappresenta in realtà la sintesi e la formalizzazione di una tradizione di studi che aveva già preso forma da circa un decennio, contribuendo a superare il paradigma comportamentista dominante.

Ulric Neisser (1928-2012): Il padre della psicologia cognitiva
Ulric Neisser, nato l’8 dicembre 1928 a Kiel, in Germania, è riconosciuto come il fondatore della psicologia cognitiva moderna. Di origini ebree, fuggì con la famiglia negli Stati Uniti nel 1933 per sfuggire al regime nazista, stabilendosi a New York. Questo contesto storico segnò la sua vita, spingendolo a integrarsi nella società americana e a sviluppare un interesse precoce per temi come la percezione e la memoria, influenzato anche da esperienze personali, come il suo amore per il baseball, che lo portarono a riflettere sui meccanismi mentali alla base dei ricordi vividi.
Dopo gli studi ad Harvard, dove si laureò in psicologia nel 1950, Neisser approfondì la sua formazione alla Swarthmore College, attratto dalla psicologia della Gestalt. Qui lavorò con figure come Hans Wallach e strinse amicizia con Henry Gleitman. Completò il dottorato ad Harvard nel 1956, specializzandosi in psicofisica, e iniziò una carriera accademica che lo portò a insegnare in prestigiose università, tra cui Cornell, dove trascorse gran parte della sua vita professionale.
Neisser rivoluzionò la psicologia con la pubblicazione di Cognitive Psychology (1967), un testo che sfidò il comportamentismo, introducendo un approccio centrato sui processi mentali interni. Tuttavia, fu con Cognition and Reality (1976) che espresse critiche radicali alla disciplina, sostenendo la necessità di esperimenti in contesti reali (“validità ecologica”) e integrando le teorie della percezione diretta di J.J. Gibson. La sua visione della memoria come processo attivo di ricostruzione, e non come riproduzione fedele del passato, emerse chiaramente nell’analisi delle testimonianze di John Dean sul caso Watergate, dove dimostrò come i ricordi possano essere distorti da emozioni e auto-narrazione.
Tra le sue ricerche più iconiche, spiccano gli studi sulle “memorie flashbulb”: analizzando i ricordi dell’esplosione dello Space Shuttle Challenger (1986) e del terremoto della California (1989), Neisser dimostrò che persino eventi traumatici e sorprendenti possono generare ricordi inaccurati, nonostante la fiducia assoluta dei soggetti nella loro precisione. Contribuì anche allo studio dell’intelligenza, coordinando un task force dell’APA sul controverso The Bell Curve e curando il primo studio accademico sull’Effetto Flynn, il misterioso aumento del QI nel tempo.
Neisser fu un accademico di grande impatto: membro della National Academy of Sciences, professore alla Cornell University e fondatore dell’Emory Cognition Project, nel 2002 fu classificato come il 32° psicologo più citato del XX secolo. La sua eredità include non solo teorie innovative, ma anche un impegno nel dibattito pubblico, come la partecipazione alla False Memory Syndrome Foundation, per sensibilizzare sui rischi delle testimonianze oculari. (Fonte)

Il testo di Neisser evidenzia come, nonostante l’importanza di queste scuole, sia la psicanalisi di Freud che il comportamentismo di Watson e Skinner abbiano finito per marginalizzare lo studio dei processi cognitivi. La psicanalisi, con la sua enfasi sull’inconscio e sulle pulsioni libidiche come motore primario del comportamento umano, e il comportamentismo, focalizzato esclusivamente sul comportamento osservabile e sul condizionamento, hanno entrambi contribuito a mettere in secondo piano l’indagine sui meccanismi interni della mente. La Gestalt, in questo panorama, rappresenta una parziale eccezione, mantenendo un interesse per la percezione, seppur in un contesto in cui le due scuole dominanti si concentravano su altre dimensioni dell’esperienza umana.

Neisser individua nell’avvento del calcolatore (computer) un fattore cruciale per la rinascita di interesse verso i processi mentali. Il computer non solo offriva nuove possibilità sperimentali e di analisi dati, ma soprattutto forniva una metafora potente per comprendere il funzionamento della mente umana. L’analogia mente-computer, basata sull’elaborazione delle informazioni, sull’esistenza di memoria, input e output, e sulla capacità di manipolare simboli e riconoscere pattern, ha fornito una “sicurezza” teorica e concettuale per tornare a studiare i processi cognitivi in modo rigoroso e scientifico. Il cognitivismo, quindi, si pone l’obiettivo di comprendere il flusso di informazioni all’interno del sistema mente, analizzando come gli input vengono elaborati e trasformati in output comportamentali.

È importante evidenziare come le basi concettuali del paradigma dell‘Human Information Processing (HIP) siano riconducibili al lavoro di Kenneth J. W. Craik. Con il suo libro The Nature of Explanation (1943), Craik introdusse l’idea che il pensiero umano si fonda su modelli interni della realtà, capaci di anticipare e simulare eventi futuri, in analogia a un sistema computazionale. Già dalla metà degli anni ’50 e proseguendo nei primi anni ’60, i primi contributi teorici ed empirici posero le fondamenta per quella che sarebbe divenuta la rivoluzione cognitiva.

Il testo di Neisser formalizzò il paradigma HIP, ponendo l’accento sull’analisi dettagliata dei processi di elaborazione delle informazioni. Questa visione, ispirata sia alle prime analogie con i dispositivi meccanici sia, successivamente, ai modelli dei computer digitali, ha rappresentato un cambio di paradigma decisivo, contribuendo a ridefinire lo studio dei processi mentali interni.

Tra i precursori più significativi del cognitivismo, spiccano i nomi di Frederic Bartlett, Jean Piaget e Lev Vygotskij. Le loro teorie e ricerche, sebbene sviluppate in contesti e con approcci diversi, hanno gettato le basi concettuali per la successiva affermazione del paradigma cognitivista in psicologia.

  • Frederic Bartlett è considerato un precursore fondamentale per aver introdotto il concetto di schema e per aver formulato una prospettiva costruttivista sulla memoria. Nelle sue ricerche sulla memoria, Bartlett si distanziò dagli approcci associazionisti e meccanicistici dell’epoca, dimostrando come la memoria non fosse una registrazione passiva e fedele di eventi, ma un processo attivo di ricostruzione. Secondo Bartlett, la memoria è influenzata da schemi, strutture cognitive preesistenti che organizzano la nostra conoscenza del mondo e guidano sia la codifica che il recupero delle informazioni. Questi schemi non sono statici, ma dinamici e in continua evoluzione, influenzati dall’esperienza e dalla cultura. L’ ipotesi costruttivista della memoria di Bartlett, con la sua enfasi sull’attività interpretativa e organizzativa della mente, rappresentò una rottura epistemologica anticipando temi centrali del cognitivismo, come il ruolo attivo del soggetto nella costruzione della conoscenza.
  • Jean Piaget, con la sua monumentale opera sull’ epistemologia genetica, affrontò in modo sistematico il problema dello sviluppo dell’intelligenza e della percezione attraverso un approccio operatorio. Piaget si concentrò sullo studio delle strutture cognitive che sottendono il pensiero e l’azione, indagando come queste strutture si sviluppano nel corso dell’infanzia e dell’adolescenza attraverso l’interazione con l’ambiente. Il suo approccio operatorio si focalizzava sull’analisi delle operazioni mentali, azioni interiorizzate e reversibili che permettono al soggetto di manipolare mentalmente gli oggetti e le relazioni tra essi. Le fasi dello sviluppo cognitivo descritte da Piaget (senso-motorio, pre-operatorio, operatorio concreto, operatorio formale) hanno fornito un quadro teorico dettagliato e influente per comprendere l’evoluzione delle capacità cognitive umane. Sebbene Piaget non si definisse un cognitivista in senso stretto, la sua enfasi sulle strutture mentali, sui processi di assimilazione e accomodamento e sulla natura attiva e costruttiva della conoscenza ha esercitato un’influenza profonda sul cognitivismo.
  • Lev Vygotskij, psicologo russo di fondamentale importanza, mise in luce la relazione intrinseca tra processi cognitivi, maturazione organica e contesto socio-culturale. A differenza di Piaget, che pur riconoscendo l’importanza dell’ambiente si concentrò maggiormente sugli aspetti individuali dello sviluppo cognitivo, Vygotskij propose una prospettiva socio-culturale, sottolineando come lo sviluppo cognitivo sia profondamente radicato e plasmato dalle interazioni sociali e dagli strumenti culturali (come il linguaggio) messi a disposizione dalla società. Vygotskij introdusse concetti chiave come la “zona di sviluppo prossimale”, la distanza tra ciò che un bambino riesce a fare autonomamente e ciò che può fare con l’aiuto di un adulto o di un pari più competente, e il ruolo cruciale del linguaggio come strumento di mediazione culturale e cognitiva. La teoria socio-culturale di Vygotskij, con la sua enfasi sul contesto sociale e culturale come motore dello sviluppo cognitivo e sull’importanza del linguaggio e della mediazione sociale, ha rappresentato un’altra importante fonte di ispirazione per il cognitivismo.

Il Ruolo delle Conferenze nel 1956

 Il 1956 è considerata la data fondamentale del cognitivismo in quell’anno al Massachusetts Institute of Technology (MIT) si tenne un Simposio sull’Information Theory che rappresentò una svolta storica per la psicologia. In quell’occasione, infatti, furono presentate tre importanti relazioni che avrebbero profondamente modificato l’oggetto di indagine di questa disciplina.

L’oggetto dell’indagine psicologica subì un cambiamento cruciale: non più focalizzato esclusivamente sul comportamento osservabile, ma esteso all’esplorazione della mente, intesa come la fonte primaria da cui il comportamento stesso trae la sua organizzazione.

I relazione

La prima relazione presentata al simposio, “Logic Theory Machine” di Newell e Simon, descriveva un calcolatore innovativo, capace di elaborare e risolvere dimostrazioni complete di teoremi matematici. Questo lavoro gettò le basi per lo sviluppo del concetto di Intelligenza Artificiale (IA), suscitando un notevole entusiasmo nel campo.

In questo clima numerosi studiosi confluirono nell’ambito dell’IA, impegnandosi nella costruzione di programmi sempre più sofisticati, con l’obiettivo ambizioso di superare il test di Turing. Il presupposto fondamentale che guidava questa ricerca era che sia i sistemi naturali (come la mente umana) che quelli artificiali (come i computer) fossero intrinsecamente capaci di apprendere e migliorare a partire dalle proprie esperienze passate. Di conseguenza, si riteneva che lo studio degli elaboratori euristici – ovvero sistemi in grado di risolvere problemi – potesse fornire un modello valido per comprendere e simulare i processi cognitivi umani.

Questa intrinseca capacità di apprendere dall’esperienza, resa possibile dai processi cognitivi che attivano continue trasformazioni delle informazioni, definì una nuova concezione dell’essere umano. Non più visto come un semplice risponditore a stimoli esterni, ma come un elaboratore attivo e dinamico di informazioni, dotato di una capacità di sviluppare forme di adattamento e di riflessione sempre nuove e complesse, caratterizzandosi, in definitiva, per la sua intelligenza.

II relazione

Nella seconda relazione discussa al Simposio, Chomsky presentò un’argomentazione rivoluzionaria, affermando che il linguaggio non può essere adeguatamente descritto all’interno di un modello finito. Questa affermazione si basa su due principali osservazioni. Innanzitutto, il numero di frasi grammaticalmente corrette in una lingua è potenzialmente infinito, rendendo impossibile una descrizione esaustiva basata su un insieme finito di regole o esempi. In secondo luogo, Chomsky criticò l’approccio frequentista all’apprendimento linguistico, sostenendo che è impensabile che un bambino possa apprendere la complessità del linguaggio semplicemente sperimentando e memorizzando tutte le possibili frasi per poi dedurre le corrette associazioni linguistiche.

Di fronte a queste limitazioni, Chomsky propose l’esistenza di una predisposizione biologica innata per il linguaggio. Secondo questa visione, gli esseri umani possiedono una sorta di “meccanismo innato di regole“, che organizza e guida la formazione di frasi grammaticalmente corrette. Questa competenza linguistica innata, tuttavia, non opera in isolamento. Chomsky riconobbe che la correttezza linguistica interagisce inevitabilmente con altre competenze cognitive, come ad esempio la memoria, che di fatto pone dei vincoli concreti alla realizzazione e alla produzione effettiva di frasi, limitando, ad esempio, la lunghezza e la complessità delle strutture sintattiche che possiamo effettivamente elaborare e comprendere.

III relazione

La terza relazione è stata quella pubblicata da Miller. Egli evidenziò come un considerevole numero di studi indicassero nel “numero magico 7, più o meno 2” il limite intrinseco della capacità della memoria di lavoro (o memoria a breve termine). Questa osservazione cruciale portò Miller a concludere che l’essere umano deve essere considerato un elaboratore di informazioni a capacità limitata, contrariamente a una visione di una mente con risorse illimitate.

Altri eventi importanti del 1956

Sempre nel 1956, si verificarono altri due eventi di fondamentale importanza per lo sviluppo della psicologia. Il primo fu la Conferenza di Dartmouth College, un incontro storico a cui parteciparono figure chiave come McCarthy, Minsky, Simon e Newell. Questo evento è considerato l’atto di nascita dell‘Intelligenza Artificiale (IA). Infatti, proprio in quell’anno si concretizzò un avanzamento cruciale nell’ambito dell’IA, basato sull’idea che l’intelligenza umana potesse essere descritta in modo sufficientemente preciso da permetterne la simulazione attraverso una macchina.

Il secondo evento di rilievo fu la pubblicazione del libro “A Study of Thinking” di Jerome Bruner (in italiano tradotto come “Il Processo Mentale” o “Studio del Pensiero“). Bruner, nelle sue ricerche, proponeva una visione innovativa dei processi cognitivi. Contrariamente all’approccio comportamentista che vedeva i soggetti come passivi ricettori di stimoli, Bruner, adottando una prospettiva costruttivista, sosteneva che l’attività cognitiva umana non si limitasse a selezionare risposte predefinite, ma implicasse un attivo processo di costruzione dell’informazione, basato su strategie complesse. Nel suo saggio “Beyond the Information Given” (tradotto in italiano come “Andare oltre l’informazione data”), Bruner analizzò le modalità di sviluppo dell’attività simbolica in relazione al ragionamento e al linguaggio, delineando una teoria dello sviluppo cognitivo. In questa teoria, Bruner, pur riconoscendo l’importanza delle intuizioni di Vygotsky, mise in evidenza come la cultura contribuisca a definire le modalità in cui la psiche si esprime e si realizza.

Jerome Seymour Bruner
Jerome Seymour Bruner (1 ottobre 1915 – 5 giugno 2016) è stato uno psicologo americano di straordinaria influenza, la cui opera ha segnato profondamente il campo della psicologia cognitiva e dell’apprendimento in ambito educativo. Nato a New York da immigrati ebrei polacchi, Bruner perse la vista a causa di cataratte fin dalla nascita, ma un intervento chirurgico all’età di due anni ripristinò la sua visione, aprendo la strada a una carriera accademica brillante. Dopo aver conseguito la laurea in psicologia presso la Duke University nel 1937, proseguì i suoi studi a Harvard, dove ottenne sia il master nel 1939 che il dottorato nel 1941. Durante la Seconda Guerra Mondiale, Bruner contribuì al lavoro della Psychological Warfare Division sotto il Generale Eisenhower, conducendo ricerche sui fenomeni sociali e psicologici in contesti di guerra.
Al termine del conflitto, tornò all’insegnamento e alla ricerca, occupando posizioni di rilievo a Harvard, poi all’Università di Oxford e infine a New York University, dove ricoprì anche il ruolo di Senior Research Fellow presso la School of Law. Fin dai primi studi, Bruner si distinse per la sua visione innovativa della percezione, considerata come un processo attivo e dinamico. Con esperimenti pionieristici come quello pubblicato nel 1947, in cui dimostrò come il valore e il bisogno potessero influenzare la percezione (ad esempio, nella stima delle dimensioni di monete e dischi), contribuì alla nascita di quella che fu definita la “New Look” psychology, spostando l’attenzione dalla mera risposta agli stimoli all’interpretazione interna di essi.
Negli anni successivi, Bruner rivolse il suo interesse alla psicologia dello sviluppo, evidenziando come i bambini apprendono attraverso un processo di rappresentazione che evolve da modalità enattive (basate sull’azione), iconiche (basate sulle immagini) a simboliche (basate sul linguaggio). Fu lui a coniare il termine “scaffolding” per descrivere il supporto progressivo fornito dall’insegnante, un concetto che, insieme al suo approccio del “spiral curriculum” – in cui le conoscenze vengono riprese e approfondite ciclicamente – ha influenzato profondamente le teorie e le pratiche educative a livello internazionale.
Durante il suo periodo a Oxford, Bruner si dedicò in particolare allo sviluppo precoce del linguaggio, opponendosi alle teorie nativiste di Chomsky e abbracciando un approccio interazionista che poneva al centro l’interazione sociale nel processo di acquisizione linguistica. I suoi innovativi studi, spesso basati su osservazioni video in ambienti naturali, hanno aperto nuove prospettive su come i bambini imparino a comunicare e a costruire significato.
Nella fase finale della sua carriera, Bruner si concentrò sulla costruzione narrativa della realtà, sostenendo che l’esperienza umana si organizza in storie che conferiscono senso al mondo. In opere fondamentali come Acts of Meaning e Actual Minds, Possible Worlds, egli mise in luce la differenza tra il pensiero paradigmatico, tipico della scienza, e quello narrativo, intrinseco alla vita quotidiana, offrendo così un nuovo quadro interpretativo della mente umana.
I contributi di Bruner hanno lasciato un’impronta indelebile non solo nel campo della psicologia cognitiva, ma anche in quello dell’educazione e della linguistica, rendendolo una figura di riferimento imprescindibile per comprendere come la mente elabora, organizza e dà significato all’esperienza.

Successivamente, nel 1960, insieme a Miller, Bruner fondò il Center for Cognitive Studies ad Harvard. Questo centro divenne rapidamente un punto di riferimento cruciale per gli psicologi che vedevano nella teoria dell’elaborazione umana dell’informazione uno strumento fondamentale per comprendere l’organizzazione e il funzionamento della mente.

Critica al Comportamentismo e Riscoperta dei Classici

L’affermazione del cognitivismo non avvenne in modo repentino o come una rottura immediata e totale con il passato. Al contrario, si impose gradualmente, evolvendosi nel tempo.

La sua genesi fu strettamente intrecciata con una reazione critica nei confronti del comportamentismo. Significativamente, questa reazione nacque anche dalle riflessioni interne di alcuni comportamentisti stessi, come Miller e Broadbent. Questi studiosi, pur provenendo dal comportamentismo, gradualmente riconobbero i limiti e l’inadeguatezza di un approccio che si focalizzava esclusivamente sul comportamento osservabile, trascurando i processi mentali interni.

Queste riflessioni emergono in particolare nel dibattito sulle “variabili intervenienti”, concetti teorici introdotti per mediare tra stimolo e risposta, e nel concetto di “mappa cognitiva” di Tolman. Quest’ultimo, in particolare, suggeriva l’esistenza di rappresentazioni mentali interne dello spazio. Già negli anni ’30 e ’40, Clark Hull propose un approccio di tipo simulazionale, con l’ambizioso progetto di simulare meccanicamente i processi di formazione dei riflessi condizionati e di costruire vere e proprie “macchine psichiche“. Questi tentativi, sebbene nati in un contesto comportamentista, dimostrano una precoce apertura verso l’idea di modellizzare e comprendere i processi mentali, aprendo involontariamente la strada al successivo sviluppo del cognitivismo.”

Nel contesto della letteratura cognitivista, si assistette a una riscoperta di autori classici della psicologia, come William James e Wilhelm Wundt. Questi pionieri, insieme alle ricerche della Scuola di Würzburg, suscitarono un rinnovato interesse, offrendo preziose intuizioni sui processi mentali che anticipavano in qualche modo le tematiche cognitiviste. Inoltre, il cognitivismo cercò attivamente punti di convergenza e di dialogo con scuole psicologiche classiche, in particolare con la Psicologia della Gestalt (o Teoria della Forma), riconoscendo l’importanza della percezione e dell’organizzazione strutturata dell’esperienza

SCUOLA DI WÜRZBURG
Fondazione e Contesto Storico
Nel 1896 Oswald Külpe, ex assistente di Wilhelm Wundt a Lipsia, fondò un laboratorio a Würzburg, dando inizio a una corrente innovativa nella psicologia sperimentale. Attorno a lui si riunirono giovani ricercatori – tra cui Narziß Ach, Karl Bühler, Ernst Dürr, Karl Marbe e Henry Jackson Watt – che formarono quella che oggi è conosciuta come la “Scuola di Würzburg”.
Innovazione Metodologica
A differenza della metodologia wuntiana, che distingueva tra la “Selbstbeobachtung” (autosservazione prolungata) e l’“innere Wahrnehmung” (percezione interna momentanea), i Würzburgers adottarono un approccio retrospettivo. Dopo che il soggetto aveva elaborato uno stimolo complesso (ad esempio un aforisma nietzscheano o un problema logico), veniva chiesto di riportare tutte le esperienze coscienti intervenute durante il processo di elaborazione.
Scoperte e Contributi Teorici
Attraverso questi esperimenti, il gruppo individuò nuove componenti della coscienza oltre alle sensazioni, ai sentimenti e alle immagini, definite come: Bewußtseinslagen (stati di coscienza), Bewußtheiten (consapevolezze), Gedanken (pensieri).
In letteratura questi fenomeni vengono spesso raggruppati sotto il termine “imageless thoughts”.
Impatto e Dibattito Scientifico
La metodologia della Scuola di Würzburg suscitò un acceso dibattito con Wundt, il quale definì tali esperimenti come “falsi”. Successivamente, Edward Bradford Titchener, allievo di Wundt, intervenne sostenendo la validità dell’introspezione e cercando di ricondurre gli “imageless thoughts” alle categorie sensoriali tradizionali. Questo confronto contribuì a mettere in discussione la legittimità dei metodi introspettivi, favorendo l’ascesa del comportamentismo in psicologia.
Eredità e Influenze Posteriori
Nonostante il declino degli approcci introspettivi, il lavoro della Scuola di Würzburg ha lasciato un’impronta duratura. In particolare, l’operato di Otto Selz ispirò lo sviluppo di noti algoritmi per il problem solving (come Logic Theorist e General Problem Solver) e influenzò, in via indiretta, il pensiero filosofico di Karl Popper. (Fonte)

La Cibernetica

La cibernetica, in quanto disciplina interdisciplinare nata negli anni ’40, si proponeva di studiare i sistemi di controllo e comunicazione, sia negli organismi viventi che nelle macchine, con l’obiettivo di individuare principi e meccanismi comuni al loro funzionamento.

Un aspetto centrale della cibernetica era l’analogia che essa tracciava tra il comportamento di un organismo e l’attività di una macchina. Entrambi, secondo la prospettiva cibernetica, erano accomunati dalla necessità di risolvere problemi e di raggiungere degli obiettivi. Sia un organismo che una macchina ricevono informazioni dall’ambiente, le elaborano internamente e producono delle risposte o azioni orientate a uno scopo. Questo parallelismo suggeriva che i principi che regolano il funzionamento delle macchine, in particolare i sistemi di controllo basati sul feedback (o retroazione), potessero fornire un modello utile per comprendere anche i processi mentali umani.

Figure chiave della cibernetica, come Norbert Wiener, e concetti fondamentali come la teoria dell’informazione di Shannon e Weaver, influenzarono direttamente i primi cognitivisti, fornendo un linguaggio e un quadro concettuale per descrivere e analizzare i processi mentali in termini di flusso e trasformazione di informazioni. Inoltre, il concetto di feedback mutuato dalla cibernetica divenne cruciale per comprendere i meccanismi di autoregolazione e correzione degli errori nei sistemi cognitivi.

Norbert Wiener (26 novembre 1894 – 18 marzo 1964), matematico, informatico e filosofo statunitense, fu una delle menti più visionarie del XX secolo. Docente al MIT, già bambino prodigio, rivoluzionò lo studio dei processi stocastici e del rumore matematico, con applicazioni fondamentali nell’ingegneria elettronica, nelle telecomunicazioni e nei sistemi di controllo. Considerato il fondatore della cibernetica – scienza che esplora le analogie tra comunicazione umana, organismi viventi e macchine – il suo lavoro influenzò campi eterogenei: dall’informatica (John von Neumann) alla teoria dell’informazione (Claude Shannon), dall’antropologia (Margaret Mead, Gregory Bateson) alle neuroscienze. Wiener teorizzò che ogni comportamento intelligente derivi da meccanismi di feedback, intuizione pionieristica per lo sviluppo dell’intelligenza artificiale. La sua eredità interdisciplinare unisce scienza, tecnologia e filosofia, plasmando una visione olistica del rapporto tra uomo, macchina e società.

L‘omeostato è stato uno dei primi dispositivi capaci di adattarsi all’ambiente circostante, mostrando comportamenti quali l’assuefazione, il rinforzo e l’apprendimento attraverso la sua capacità di mantenere l’omeostasi in un ambiente mutevole. Fu costruito da William Ross Ashby nel 1948 presso il Barnwood House Hospital. (Immagine da: Mick Ashby, on behalf of the Estate of W. Ross Ashby, CC BY-SA 4.0, via Wikimedia Commons)

L’Omeostato di Ashby: Un Cervello Artificiale Pionieristico
L’omeostato, ideato da William Ross Ashby, è un dispositivo elettromeccanico rivoluzionario che ha segnato la storia della cibernetica. Costruito nel 1948 con materiali di recupero bellico, questo strumento ambizioso è stato concepito per esplorare il concetto di “ultrastabilità” nei sistemi complessi.
Struttura e Funzionamento
L’omeostato è composto da quattro unità identiche, ciascuna dotata di un magnete mobile e di indicatori visivi. Lo “stato” della macchina è determinato dalla posizione di questi indicatori. Ogni unità è controllata da due circuiti elettrici: uno misura la deviazione del magnete dalla posizione centrale (l’uscita), mentre l’altro genera un campo magnetico che ne influenza il movimento (l’ingresso). Le quattro unità sono interconnesse da circuiti di retroazione, creando un sistema dinamico in cui ogni unità influenza le altre.
Configurazioni e Stabilità
L’omeostato può essere “configurato” per variare il modo in cui le unità interagiscono. A seconda della configurazione, il sistema può raggiungere uno stato di equilibrio (magneti stabili al centro) o di non equilibrio (magneti bloccati a fine corsa). La macchina può anche auto-riconfigurarsi automaticamente grazie a degli interruttori speciali, passando da una configurazione all’altra fino a trovare uno stato di equilibrio.
Ultrastabilità e Apprendimento
La capacità dell’omeostato di auto-riconfigurarsi per raggiungere l’equilibrio è ciò che Ashby definisce “ultrastabilità”. Questo processo, che simula alcuni aspetti del sistema nervoso, è stato paragonato all’apprendimento, in quanto la macchina adatta il suo comportamento per raggiungere uno stato stabile.
Un’Intuizione Visionaria
L’omeostato ha suscitato grande interesse, tanto che la rivista Time lo ha definito “l’oggetto più vicino ad un cervello sintetico”. Anche Alan Turing, pioniere dell’informatica, riconobbe il potenziale dell’idea di Ashby, suggerendo di simulare il funzionamento dell’omeostato su un computer, anziché costruirlo fisicamente.

Tre Approcci al Cognitivismo negli Anni Sessanta

Dunque, negli anni ’60, il panorama della ricerca psicologica si presentava articolato e dinamico, delineandosi in tre principali direzioni, ciascuna con le proprie specificità e prospettive:

  1. Lo studio dei processi cognitivi secondo il paradigma dell’Elaborazione dell’Informazione: Questa direzione, che divenne rapidamente la corrente dominante all’interno del cognitivismo, si focalizzava sull’analisi dei processi mentali attraverso la lente della Teoria dell’Elaborazione dell’Informazione (Human Information Processing – HIP). In questa prospettiva, la mente veniva concettualizzata come un sistema di elaborazione che riceve, codifica, immagazzina, trasforma e recupera informazioni in modo sequenziale, simile al funzionamento di un computer. La ricerca in questo ambito si concentrava sull’identificazione degli stadi di elaborazione (input, elaborazione centrale, output), sulla misurazione dei tempi di reazione, sull’analisi delle capacità di memoria e sull’individuazione delle strategie cognitive utilizzate dai soggetti per risolvere compiti. L’approccio HIP si caratterizzava per la rigorosità metodologica, l’uso di modelli formali e l’impiego di esperimenti di laboratorio altamente controllati, spesso ispirati alla psicologia sperimentale e alla cibernetica.
  2. Lo studio della Simulazione: Parallelamente allo sviluppo della teoria dell’elaborazione dell’informazione, si avviava un’altra promettente direzione di ricerca, quella della simulazione dei processi cognitivi attraverso modelli computazionali. In questi primi anni, la simulazione era ancora in una fase iniziale e sperimentale, ma già si intravedevano le potenzialità di utilizzare il computer non solo come analogia per la mente, ma come vero e proprio strumento per modellizzare e riprodurre i processi mentali. I primi tentativi di simulazione si concentrarono su compiti relativamente semplici, come la dimostrazione di teoremi logici (come nel caso della “Logic Theory Machine” di Newell e Simon) o la risoluzione di problemi in contesti ben definiti. L’obiettivo di questa linea di ricerca era di costruire programmi in grado di esibire comportamenti intelligenti e di utilizzare questi programmi come modelli per comprendere i meccanismi sottostanti alla cognizione umana. Questo approccio pose le basi per il successivo sviluppo dell’Intelligenza Artificiale (IA) simbolica e, più in generale, per l’uso sempre più diffuso della simulazione computazionale in psicologia.
  3. La prospettiva critica di Bruner: In questo panorama variegato, emergeva la figura di Jerome Bruner, che pur riconoscendosi all’interno del movimento cognitivista e utilizzando la terminologia dell’elaborazione dell’informazione, rappresentava una voce critica e originale. Bruner, infatti, rifiutava l’equiparazione diretta e acritica tra sistema artificiale e sistema umano, sottolineando le differenze fondamentali tra il modo in cui un computer elabora le informazioni e la natura intenzionale, culturale e narrativa della mente umana. Mentre l’approccio HIP tendeva a considerare la cognizione come un insieme di processi algoritmici e computazionali, Bruner poneva l’accento sull’importanza del significato, dell’interpretazione, del contesto culturale e delle narrazioni nella costruzione della conoscenza e nella comprensione del mondo. La prospettiva di Bruner, con la sua enfasi sulla dimensione qualitativa e culturale della cognizione, rappresentò un importante visione critica all’approccio più strettamente “computazionale” del cognitivismo, anticipando sviluppi successivi come il cognitivismo culturale e narrativo.

Principali Teorie Cognitiviste

Oltre all’aspetto interdisciplinare la psicologia cognitiva si interessò ai processi cognitivi: percezione, attenzione, memoria, linguaggio, pensiero e creatività che erano stati considerati dai comportamentisti dei prodotti dell’apprendimento che non potevano essere direttamente studiati. Con il cognitivismo, invece, a questi processi viene riconosciuta sia un autonomia strutturale che una interdipendenza reciproca.

Il Filtro di Broadbent

Broadbent (1958) ipotizzò che l’informazione fosse percepita dalla struttura sensoriale, filtrata in base al meccanismo dell’attenzione (filtro di Broadbent) e trasmessia ad altre strutture per l’immagazzinamento in memoria. La mente, perciò, era concepita come un elaboratore di informazione con una organizzazione di tipo sequenziale e con una capacità limitata di elaborazione.

Filtro di Broadbent

Filtro di Broadbent: questo modello prevede che i dati sensoriali in entrata incontrano un canale a capacità limitata in grado di far passare solo una certa quantità d’informazione.

Il Filtro di Broadbent: Attenzione Selettiva e Selezione Precoce
Il filtro di Broadbent è un modello teorico che spiega come gli esseri umani gestiscono l’enorme quantità di informazioni sensoriali che ricevono dall’ambiente. Secondo Broadbent, il nostro sistema cognitivo ha una capacità limitata di elaborazione, quindi deve selezionare solo alcune informazioni per un’ulteriore elaborazione, ignorando il resto.
Come funziona il filtro?
Elaborazione iniziale: Tutti gli stimoli esterni (suoni, immagini, ecc.) vengono inizialmente elaborati per le loro caratteristiche fisiche di base, come il tono, il volume, la direzione o il colore.
Filtro selettivo: Sulla base di queste caratteristiche fisiche, un filtro seleziona quali stimoli sono rilevanti e meritano ulteriore attenzione. Gli stimoli non rilevanti vengono scartati e perduti.
Attenzione e memoria: Solo le informazioni che superano il filtro vengono inviate alla memoria a breve termine per essere elaborate ulteriormente e, successivamente, immagazzinate nella memoria a lungo termine.
Broadbent propose che il filtraggio avviene in una fase precoce dell’elaborazione delle informazioni, prima che vengano analizzati i significati (aspetti semantici). Questo è noto come teoria della selezione precoce.
Esperimenti e Prove
Broadbent utilizzò l’ascolto dicotico per testare la sua teoria. In questi esperimenti, i partecipanti ascoltavano messaggi diversi in ciascun orecchio contemporaneamente. I risultati mostrarono che le persone ricordavano meglio le informazioni provenienti dall’orecchio a cui prestavano attenzione, mentre ignoravano quasi completamente quelle dell’altro orecchio. Questo supporta l’idea che il filtro selettivo agisca in base all’attenzione.

L’Unità TOTE: Test Operate Test Exit

Viene proposta l’analogia tra mente e calcolatore basata sulle nozioni di informazione, canale, sequenza, trasmissione, ed elaborazione dell’informazione e per spiegare tale organizzazione si ricorse all’uso di diagrammi di flusso.

TOTE


Unità TOTE: acronimo di Test-Operate-Test-Exit, proposta da Miller, Galanter e Pribram nel 1960. Il modello descrive un ciclo di feedback che mira a raggiungere un determinato scopo verificando costantemente la corrispondenza tra la realtà effettiva e quella desiderata.

Negli anni 60-70 furono presentati modelli che misero in evidenza la possibilità di retro-azioni (feedback). Il comportamento,  era visto come il prodotto finale dell elaborazione dell’informazione. Questa elaborazione è il risultato di un processo di una continua verifica secondo l’unità TOTE (test operate text exit) proposta da Miller, Galanter e Pribram nel 1960.

In questo modello, il primo passo consiste nel compiere un test che ha per oggetto quello di verificare la congruenza tra la realtà esterna e lo scopo. Successivamente, è avviata una operazione per provocare dei cambiamenti; ed infine, una fase di retest per verificare che il risultato desiderato è stato raggiunto. In caso affermativo, l’algoritmo si conclude (exit) altrimenti ripropone le fasi precedenti fino ache il problema non è stato risolto.

Inoltre, attraverso il meccanismo a feedback potevano essere interpretati i fenomeni osservati in natura, e Cannon sviluppò il concetto di omeostasi come un meccanismo in grado di auto-regolarsi e mantenere l’equilibrio di determinati parametri fisiologici dell’organismo.

Kenneth Craik: dai Modelli Mentali alla Teoria del Servomeccanismo

Il contributo di Kenneth Craik ha inaugurato il filone della psicologia dei processi cognitivi, fondamento del modello Human Information Processing (HIP).

Infatti, Craik ha posto le basi per il concetto di modelli mentali—quelle rappresentazioni interne, di scala ridotta, che fungono da simulazioni semplificate della realtà esterna. Secondo Craik, se l’organismo possiede al suo interno un modello in miniatura dell’ambiente e delle possibili azioni che può intraprendere, esso diventa capace di sperimentare, in modalità simulata, vari scenari alternativi, individuando in anticipo la strategia ottimale per affrontare le situazioni future.

“if the organism carries a small scale model of external reality and of its own possible actions within its head it is able to try out various alternatives conclude which is the best of them react to future situations before they arise utilize the knowledge of past events in dealing with the present and the future and in every day react in a much fuller safer and more competent manner to the emergencies which face it”

Questa citazione riassume in maniera esaustiva il nucleo del pensiero di Craik: la capacità di simulazione mentale non solo consente il “replay” di eventi passati, ma permette anche di sperimentare ipotetici “what if” scenarios, facilitando una risposta comportamentale più agile ed efficiente di fronte alle emergenze. È importante sottolineare che tali modelli non rappresentano una copia esatta e completa del mondo, bensì una serie di schemi “small scale” attivati in funzione delle specifiche esigenze del momento.

In termini tecnici, questa visione anticipa alcune delle odierne teorie della cognitive simulation e del predictive processing, in cui il cervello viene concepito come un sistema che utilizza rappresentazioni interne per predire eventi futuri basandosi su esperienze pregresse. La costruzione di questi modelli mentali si fonda su informazioni parziali e, pertanto, si configura come una forma di percezione indiretta della realtà: la nostra interpretazione del mondo non è una registrazione oggettiva, ma il risultato di una complessa elaborazione cognitiva che integra dati sensoriali, memoria ed aspettative.

Inoltre, secondo la sua visione, l’individuo opera come un servomeccanismo, in grado di auto-correggersi entro intervalli temporali dell’ordine di mezzo secondo attraverso un funzionamento intermittente. Di conseguenza, la percezione del presente si configura come una ricostruzione retrospettiva del mondo, caratterizzata da un lieve ritardo—misurabile in frazioni di secondo—ma in grado di garantire una continua sensazione di contemporaneità e coerenza.

In seguito, il collega Welford ha esteso queste intuizioni sviluppando la teoria del canale unico, contribuendo ulteriormente all’evoluzione del paradigma HIP.

Kenneth James William Craik (1914 – 1945)
Kenneth James William Craik (1914 – 1945) è stato un filosofo e psicologo scozzese, figura pionieristica della cibernetica. Craik ipotizzò che il comportamento umano fosse fondamentalmente quello di un servomeccanismo controllato a intervalli discreti di tempo. La sua opera influenzò Warren McCulloch, il quale raccontò che persino Einstein considerava “The Nature of Explanation” un libro eccezionale.
Nato a Edimburgo il 29 marzo 1914, Kenneth Craik era figlio di James Bowstead Craik, avvocato, e Marie Sylvia Craik (nata Robson), una scrittrice. La famiglia risiedeva al numero 13 di Abercromby Place, nella Seconda New Town di Edimburgo, precedentemente dimora di William Trotter. Dopo aver frequentato l’Edinburgh Academy, studiò filosofia all’Università di Edimburgo. Nel 1940 conseguì il dottorato presso l’Università di Cambridge, ottenendo poi una fellowship al St John’s College nel 1941. Qui collaborò con Magdalen Dorothea Vernon, pubblicando con lei studi sull’adattamento al buio nel 1941 e 1943. Nel 1944 fu nominato primo direttore della Applied Psychology Unit del Medical Research Council con sede a Cambridge.
Durante la Seconda Guerra Mondiale, Craik prestò servizio nelle sezioni antincendio della Protezione Civile. Insieme a Gordon Butler Iles, apportò importanti progressi ai simulatori di volo per la RAF e condusse studi significativi sugli effetti della fatica sui piloti.
La sua vita fu tragicamente interrotta all’età di 31 anni a causa di un incidente: il 7 maggio 1945, a Cambridge, una macchina lo investì mentre andava in bicicletta lungo Kings Parade. Morì in ospedale il giorno seguente, ironicamente il VE Day (Victory in Europe Day, giorno della vittoria in Europa). Kenneth Craik è sepolto nella sezione nord del Dean Cemetery. In seguito, anche i suoi genitori, Marie Sylvia Craik e James Craik, furono sepolti accanto a lui.
In omaggio alla sua memoria, il Kenneth Craik Club (un ciclo di seminari interdisciplinari nel campo delle scienze sensoriali e neurobiologia) e il Craik-Marshall Building a Cambridge portano il suo nome. Nel 1945, il St John’s College istituì in suo onore il Kenneth Craik Research Award.
Nel suo libro più importante, “The Nature of Explanation”, pubblicato nel 1943, Craik gettò le basi per il concetto di modelli mentali, teorizzando che la mente crea modelli della realtà per prevedere eventi futuri simili. È oggi riconosciuto come uno dei fondatori delle moderne scienze cognitive.
Tra le sue opere postume, spicca l’articolo in due parti “Theory of Human Operators in Control Systems”, pubblicato nel 1947 e 1948 dal British Journal of Psychology. In questo lavoro, Craik sosteneva che l’essere umano è un servomeccanismo intermittente che esegue un controllo balistico seriale. Basandosi su esperimenti pionieristici sul controllo cognitivo e motorio umano, ipotizzò che nella pianificazione del movimento, l’uomo operi come un circuito di feedback negativo. L’individuo riceve continuamente informazioni sensoriali, ma non agisce in modo continuativo. Invece, circa ogni 0,5 secondi, seleziona un’azione, che viene poi implementata da un controllore open-loop per circa 0,2 secondi (“movimento balistico”). Con l’apprendimento, il movimento eseguito dal controllore open-loop diventa più preciso, permettendo al sistema umano di avvicinarsi a un servomeccanismo ideale a tempo continuo.
Nel 1966, una raccolta degli scritti di Craik, curata da Stephen L. Sherwood, fu pubblicata con il titolo “The Nature of Psychology: A Selection of Papers, Essays and Other Writings by Kenneth J. W. Craik”. (Fonte)

La Legge di Hick e il Magico Numero 7

Un concetto di  notevole rilievo del cognitivismo è quello della capacità limitata. Una prima dimostrazione è data dalla legge di Hick (1952) che afferma che in un compito, il tempo di reazione è proporzionale alla quantità di informazione che l’individuo deve elaborare.

Dati sperimentali tratti da Hick (1952) che illustrano la “Legge di Hick”: il grafico evidenzia la relazione logaritmica tra il tempo di reazione e il numero di opzioni di risposta. La serie in rosso rappresenta i risultati dell’Experiment 1 di Hick, mentre la serie in blu riprende i dati storici di Merkel (1885). I dati sono stati adattati dalla Figura 2 di Hick (1952).. On the rate of gain of information. Quarterly Journal of Experimental Psychology, 4(1), 11-26.” (Immagine da: Emily Willoughby, CC BY-SA 4.0, via Wikimedia Commons)


Ma la dimostrazione più celebre della capacità limitata della mente arrivò nel 1956 con l’articolo di George A. Miller intitolato “Il magico numero sette, più o meno due“. Miller dimostrò sperimentalmente che la memoria a breve termine ha una capacità limitata: possiamo tenere a mente contemporaneamente solo circa sette elementi, con una variazione di più o meno due. Questi “elementi”, chiamati “chunks“, possono essere unità di informazione singole o raggruppamenti di informazioni complesse.

Miller utilizzò una metafora efficace: è come se la nostra mente fosse un borsellino capace di contenere solo sette monete, ma queste monete possono essere sia piccole monete da pochi centesimi, sia grandi monete da un euro. Questo concetto di “chunking”, o raggruppamento, spiega come, attraverso la lingua e altre strategie cognitive, riusciamo ad elaborare quantità di informazione enormemente superiori rispetto ad altri animali che non possiedono queste capacità.

George Armitage Miller (3 febbraio 1920 – 22 luglio 2012)
George Armitage Miller (3 febbraio 1920 – 22 luglio 2012) è stato uno psicologo americano, considerato uno dei padri fondatori della psicologia cognitiva e, più in generale, delle scienze cognitive. Fu anche tra i pionieri della psicolinguistica. Miller è autore di numerosi libri e ha diretto lo sviluppo di WordNet, una banca dati online di collegamenti tra parole utilizzabile da programmi informatici. È noto soprattutto per il suo articolo “The Magical Number Seven, Plus or Minus Two”, in cui osservava come molteplici risultati sperimentali convergessero nel rivelare un limite medio di sette elementi per la capacità della memoria a breve termine umana. Questo articolo è ampiamente citato in psicologia e nella cultura popolare. Miller ha ricevuto numerosi riconoscimenti, tra cui la National Medal of Science.
Miller iniziò la sua carriera in un periodo in cui la teoria dominante in psicologia era il comportamentismo, che rifiutava lo studio dei processi mentali concentrandosi esclusivamente sul comportamento osservabile. In contrasto con questo approccio, Miller sviluppò tecniche sperimentali e metodi matematici per analizzare i processi mentali, concentrandosi in particolare sul linguaggio e sulla parola. Nel 1960, insieme a Jerome S. Bruner, co-fondò il Center for Cognitive Studies ad Harvard. Il termine “cognitivo” rappresentava una rottura con la scuola dominante del comportamentismo, che insisteva sul fatto che i processi cognitivi non fossero accessibiliallo studio scientifico. Il centro attirò visitatori illustri come Jean Piaget, Alexander Luria e Chomsky. Miller divenne poi presidente del dipartimento di psicologia. Miller ebbe un ruolo determinante all’epoca per aver reclutato Timothy Leary per insegnare ad Harvard. Miller conosceva Leary dai tempi dell’Università dell’Alabama, dove Miller insegnava psicologia e Leary si laureò in dipartimento.  
Lavorando principalmente presso l’Università di Harvard, il MIT e l’Università di Princeton, divenne uno dei fondatori della psicolinguistica e una figura chiave nella nascita del più ampio campo delle scienze cognitive, intorno al 1978. Collaborò e fu co-autore di opere con altre figure di spicco delle scienze cognitive e della psicolinguistica, come Noam Chomsky. Per aver spostato la psicologia verso lo studio dei processi mentali e per aver allineato questo movimento con la teoria dell’informazione, la teoria della computazione e la linguistica, Miller è considerato uno dei più grandi psicologi del XX secolo. Un sondaggio di Review of General Psychology, pubblicato nel 2002, lo ha classificato come il 20° psicologo più citato di quell’epoca. (Fonte)

La Teoria della Grammatica Generativo-Trasformazionale

Noam Chomsky

Noam Chomsky (nato a Filadelfia, 1928) riconosciuto come il fondatore della grammatica generativo-trasformazionale, teoria che ha rivoluzionato la linguistica del XX secolo, è professore emerito al Massachusetts Institute of Technology (MIT).
Nato da una famiglia ebraica di origine est-europea, studiò linguistica all’Università della Pennsylvania sotto Zellig Harris. Ha insegnato al MIT a partire dal 1955, diventando una figura di riferimento a livello globale.Chomsky ha ricevuto numerosi riconoscimenti internazionali, tra cui lauree honoris causa dalle università di Firenze, Bologna e dalla Scuola Internazionale Superiore di Studi Avanzati di Trieste, testimoniando il suo impatto sia nel mondo accademico che come intellettuale impegnato. Immagine da:Trey Jones [CC-BY-3.0], via Wikimedia Commons

Noam Chomsky affermò che la linguistica doveva diventare una branca della psicologia cognitiva, in quanto lo studio del linguaggio rientrava in quello più generale dei processi cognitivi.
Con la teoria della grammatica generativo trasformazionale, Chomsky parte dalla constatazione che il parlante nativo di una lingua, è perfettamente in grado di distinguere quali frasi della sua lingua materna sono o meno meno ben formate.

La sua teoria generativo trasformazionale si basa su due ipotesi: il comportamento verbale è un’ comportamento specie specifico dell’uomo e si fonda su strutture biologiche innate. Chomsky postura l’esistenza di un dispositivo per l’acquisizione del linguaggio.

La competenza linguistica è l’insieme delle conoscenze implicite che ognuno ha della propria lingua, intese come un “sapere come” piuttosto che un “sapere cosa“. Conoscere una lingua, per Chomsky, significa “sapere come” produrre e comprendere frasi in quella lingua. La sua teoria enfatizza quindi le conoscenze procedurali, quelle che ci permettono di “fare”, rispetto alle conoscenze dichiarative, quelle che possiamo verbalizzare. Quindi una persona conosce una lingua se sa come produrre frasi in quella lingua.

Secondo Chomsky, ognuno di noi possiede implicitamente, anche senza esserne consapevoli, le regole per “generare” (da qui “grammatica generativa“) infinite frasi grammaticalmente corrette e per “trasformare” queste frasi (da qui “trasformazionale“) nelle diverse forme possibili, come attiva, passiva, interrogativa, e così via.

Chomsky introdusse anche la distinzione tra “struttura superficiale” e “struttura profonda” delle frasi. La struttura profonda rappresenta il significato essenziale della frase, la sua struttura predicativa fondamentale, in cui un agente (bambino) compie un’azione (mangia) su una cosa (la mela) . Questa frase può essere espressa in diverse forme superficiali.

Prendiamo ad esempio la frase ambigua “la vecchia porta la sbarra”. Attraverso la sua analisi tramite struttura ad albero, Chomsky dimostrò come questa frase superficiale può derivare da due diverse strutture profonde: una in cui “la vecchia” è il sintagma nominale che compie l’azione di “portare la sbarra” (sintagma verbale), e un’altra in cui “la vecchia porta” è il sintagma nominale che compie l’azione di “sbarrare” (sintagma verbale). La teoria di Chomsky fornì un potente strumento per analizzare la complessità del linguaggio e confermò l’importanza di studiare i processi mentali sottostanti.

da Gengiskanhg via wikipedia.commons.org

Contributi delle Neuroscienze e Critiche al Comportamentismo

Scoperte Degli Anni ’50 nelle Neuroscienze

Infine, negli anni 50 sono state fatte scoperte sorprendenti nel campo delle neuroscienze . Il cervello considerato dai comportamentisti una scatola nera risultava, invece, un insieme di strutture ben differenziate sul piano funzionale.
Fino agli anni della seconda guerra mondiale, la mente era ritenuta come l’operatore di un centralino che trasmetteva le informazioni dal sistema sensoriale a quello motorio da cui partivano le vie efferenti fino agli organi periferici. I comportamentisti avevano ben poco modificato questo modello. Essi si limitarono ad indicare che tra sistema sensoriale e sistema motorio si sarebbero potute stabilire delle connessioni apprese attraverso il condizionamento.

Non era ancora chiaro che il sistema nervoso fosse capace di elaborare le informazioni perché nessuno pensava che fosse in primo luogo in grado di trattenere le informazioni al proprio interno le vie nervose erano viste solo come canali di di transito.

Il Contributo di Donald O. Hebb

Un altro grande contributo fu quello di Lorente de Nò (1938) sui circuiti riverberanti. Egli, dimostrò che nel sistema nervoso esistono neuroni che sono organizzati in circuiti in modo tale che quando una eccitazione giunge ad questi,  possono mantenerla per un certo periodo.

Nel 1949, Donald O. Hebb pubblicò il suo influente trattato The Organization of Behavior, in cui propose una visione innovativa del funzionamento del sistema nervoso centrale, ispirandosi ai circuiti riverberanti descritti da Lorente de Nó. In quest’opera, Hebb ipotizzò che l’apprendimento e la memoria emergessero dalla formazione di unità funzionali, denominate cell assemblies, costituite da gruppi di neuroni che, attivati sincronicamente, rinforzano reciprocamente le loro connessioni sinaptiche. Tale processo, in seguito noto come Hebbian learning (sintetizzato nella celebre massima “neuroni che scaricano insieme, si connettono insieme”), suggerisce che la plasticità sinaptica sia il fondamento della capacità cerebrale di adattarsi e consolidare nuove informazioni.

Regola di Hebb

«se un neurone A è abbastanza vicino ad un neurone B da contribuire ripetutamente e in maniera duratura alla sua eccitazione, allora ha luogo in entrambi i neuroni un processo di crescita o di cambiamento metabolico tale per cui l’efficacia di A nell’eccitare B viene accresciuta»

L’ispirazione tratta dai circuiti riverberanti di Lorente de Nó risiede nella loro abilità di sostenere l’attività elettrica in assenza di uno stimolo continuo, generando una memoria attiva all’interno dei circuiti neuronali. Questa dinamica permette ai gruppi neuronali di mantenere l’eccitazione, offrendo un meccanismo plausibile per la conservazione temporanea dell’informazione e la sua successiva integrazione nei processi cognitivi superiori.

Sempre nello stesso anno Moruzzi e Magoun (1949) scoprirono il ruolo della sostanza reticolare del tronco cerebrale, rappresentata dal sistema reticolare attivatore ascendente, che ha il compito di attivare e mantenere in stato di vigilanza la corteccia cerebrale.
Il cervello, quindi, riceve, elabora e trasmette i segnali provenienti dalle diverse modalità sensoriali attraverso il sistema reticolare.

Illustrazione schematica del tronco encefalico che evidenzia diverse strutture neurologiche. Nel contesto della scoperta del sistema reticolare ascendente (ARAS) da parte di Moruzzi e Magoun, la formazione reticolare, indicata nell’immagine, riveste un ruolo cruciale. L’ARAS è un sistema diffuso di nuclei neuronali situato nel tronco encefalico, responsabile della regolazione del ciclo sonno-veglia, del livello di coscienza e dell’attenzione. Mentre altre strutture indicate nell’immagine, come il talamo e nuclei sensoriali come il lemnisco laterale e mediale, contribuiscono all’attivazione corticale, la formazione reticolare è considerata il nucleo centrale di questo sistema. Gli esperimenti di Moruzzi e Magoun negli anni ’40 e ’50 dimostrarono l’importanza della stimolazione della formazione reticolare nel promuovere la veglia corticale e nel risveglio da stati di sonno o coma, rivoluzionando la comprensione dei meccanismi neurali della coscienza. (Immagina da: Henry Gray (1918) Anatomy of the Human Body

Evoluzione del Cognitivismo negli Anni ’70

La Rivoluzione Cognitivistica nella Psicologia Sociale e Psicopatologia

Nei primi anni ’70, il cognitivismo iniziò a influenzare profondamente diversi settori della psicologia, portando a quella che viene spesso definita una “rivoluzione cognitivistica”. Questo movimento segnò un cambiamento paradigmatico significativo, propagandosi al di là dei confini della psicologia cognitiva tradizionale per abbracciare la psicologia sociale e la psicopatologia.

Nel campo della psicologia sociale, la rivoluzione cognitivistica portò a un rinnovato interesse per i processi mentali che influenzano il comportamento umano in contesti sociali. Gli studiosi iniziarono a esaminare come le percezioni, le credenze e le attribuzioni influenzino le interazioni sociali. Concetti come la dissonanza cognitiva, in cui le persone cercano di ridurre l’incoerenza tra le loro credenze e le loro azioni, divennero centrali. Questo periodo vide anche lo sviluppo di teorie sulle rappresentazioni mentali di sé e degli altri, che contribuivano a modellare le dinamiche relazionali e i comportamenti sociali.

📌 Dissonanza Cognitiva: Il Conflitto Mentale e le Strategie di Riduzione
🔹 Cos’è la dissonanza cognitiva?
La dissonanza cognitiva è un fenomeno psicologico in cui un individuo sperimenta un conflitto mentale a causa della coesistenza di credenze, valori o comportamenti contraddittori. Questo stato di disagio psicologico porta le persone a cercare di ridurre l’incoerenza per ristabilire un senso di coerenza interna.
🔹 Come si manifesta?
La dissonanza cognitiva non ha segnali visibili, ma si manifesta attraverso stress psicologico quando un’azione contraddice un sistema di credenze preesistente. Le persone tendono a risolvere questa tensione cambiando le proprie convinzioni o modificando il proprio comportamento.
🔹 Strategie di riduzione della dissonanza
Secondo Leon Festinger, che ha formulato la teoria nel 1957, gli individui adottano diverse strategie per ridurre la dissonanza:
Razionalizzazione – Aggiungere nuove idee per giustificare il comportamento.
Fallacia del mondo giusto – Credere che le persone ottengano ciò che meritano.
Percezione selettiva – Accettare solo informazioni coerenti con le proprie convinzioni.
Bias di conferma – Evitare fonti di informazione che mettono in discussione il proprio sistema di credenze.
🔹 Esempio pratico
Se una persona crede di essere ambientalista ma utilizza frequentemente l’auto, potrebbe ridurre la dissonanza convincendosi che le auto elettriche siano la soluzione, oppure minimizzando l’impatto del proprio comportamento rispetto ad altri problemi ambientali.
📖 Riferimenti chiave:
When Prophecy Fails (1956) e A Theory of Cognitive Dissonance (1957) di Leon Festinger.

Parallelamente, nella psicopatologia, l’approccio cognitivista contribuì a cambiare la comprensione e il trattamento dei disturbi mentali. Le teorie cognitive suggerirono che molti disturbi psicologici potevano essere spiegati e in qualche modo trattati considerando i modelli di pensiero dei pazienti. Ad esempio, la terapia cognitivo-comportamentale (CBT) emerse come una delle applicazioni pratiche più influenti del cognitivismo, concentrandosi sul cambiamento delle convinzioni disfunzionali e dei processi di pensiero negativi per migliorare il benessere psicologico.

Questa rivoluzione portò a una maggiore integrazione tra teoria e pratica, stimolando inoltre la nascita di molteplici linee di ricerca e nuovi approcci terapeutici. La capacità del cognitivismo di offrire spiegazioni dettagliate dei processi mentali rappresentò un contributo fondamentale per l’espansione della psicologia in nuove aree di studio e pratica clinica.

Sviluppi e Auto-Critiche Successive

Negli stessi anni si assistette a una profonda revisione metodologica e teorica, che portò addirittura a vere e proprie auto-critiche. Neisser, nel 1976, nel suo libro Cognition and Reality, osservava che molti degli aspetti negativi che i cognitivisti avevano attribuito ai comportamentisti erano in realtà presenti anche nei modelli cognitivi, come l’uso eccessivo di situazioni di laboratorio e una tendenza a privilegiare l’interesse teorico rispetto a quello applicativo. Parallelamente, il modello di Gibson, alla base dell’approccio ecologico, proponeva una visione radicalmente diversa della percezione.

Secondo Gibson, la percezione non è il risultato di elaborazioni cognitive complesse, ma un processo diretto e funzionale, che si sviluppa attraverso l’interazione continua tra l’organismo e l’ambiente. La sua teoria, che introduce il concetto di “affordance“, evidenzia come l’ambiente offra immediatamente opportunità d’azione all’organismo, senza bisogno di trasformare i segnali sensoriali in rappresentazioni cognitive astratte. Questa prospettiva sottolinea il carattere adattativo ed economico dei sistemi percettivi, frutto di un’evoluzione che ha permesso all’organismo di sviluppare meccanismi altamente efficienti per il reperimento e l’elaborazione delle informazioni ambientali.

James Jerome Gibson
James Jerome Gibson, nato il 27 gennaio 1904 a McConnelsville, Ohio, e deceduto l’11 dicembre 1979 a Ithaca, New York, è stato un pioniere della psicologia della percezione visiva. La sua opera ha rivoluzionato il campo, mettendo in discussione l’idea tradizionale secondo cui il sistema nervoso costruisce attivamente una percezione visiva cosciente. Gibson, invece, ha sostenuto che la mente percepisce direttamente gli stimoli ambientali senza necessità di ulteriori elaborazioni cognitive, dando così origine al concetto di psicologia ecologica.
Il suo percorso accademico, iniziato in filosofia a Princeton e culminato con il conseguimento del dottorato nel 1928, ha rappresentato la base per una carriera intensa sia come docente che come ricercatore, con esperienze formative presso istituzioni come Smith College e, successivamente, Cornell University. Durante la Seconda Guerra Mondiale, la sua attività si è estesa al campo dell’aviazione, dove ha diretto una unità del programma di psicologia dell’aviazione dell’U.S. Army Air Forces, contribuendo allo sviluppo di test di idoneità visiva per i piloti.
Le sue opere principali, tra cui The Perception of the Visual World (1950), The Senses Considered as Perceptual Systems (1966) e The Ecological Approach to Visual Perception (1979), hanno fornito un nuovo quadro interpretativo della percezione. In particolare, Gibson ha introdotto il concetto di “affordance”, ovvero le opportunità d’azione offerte dall’ambiente, un’idea che ha avuto un impatto notevole non solo sulla psicologia ma anche sul design e sull’ergonomia.
L’approccio innovativo di Gibson, che sottolinea l’interazione dinamica tra l’organismo e l’ambiente, ha segnato una svolta nel modo di concepire la percezione. La sua visione, che abbandona l’idea di una percezione mediata da complesse elaborazioni cognitive, ha aperto la strada a una comprensione più diretta e realistica del rapporto tra individuo e ambiente, lasciando un’eredità duratura e influente nel panorama della psicologia contemporanea. (Fonte)

Il richiamo alla validità ecologica, unito all’esigenza di integrare nel flusso dell’elaborazione dell’informazione processi finora trascurati – come la coscienza e la produzione di immagini – e alle nuove scoperte nel campo delle neuroscienze, contribuì a far perdere interesse al cognitivismo nei primi anni ’80, aprendo la strada a nuove prospettive che riflettessero in modo più autentico il funzionamento reale degli organismi in interazione con il loro ambiente.

/ 5
Grazie per aver votato!

Hey, ciao 👋
Piacere di conoscerti.

Vuoi immergerti nel affascinante mondo delle neuroscienze, psicologia e filosofia?

Non perdere questa occasione! Iscriviti subito alla newsletter di Altrimondi!

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.

Pubblicato da altrimondi

S.Aboudan PhD in Psicofisiologia del sonno Università degli Studi di Firenze

Una risposta a “Il Cognitivismo: Storia, Teorie e Sviluppi”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *