1.
E' indubbio, a mio avviso, che le discipline umanistiche e le scienze che hanno come oggetto l'uomo siano destinate lentamente a convergere nella direzione di un modello panantropologico che integri i vari saperi inerenti l'uomo, dalla neurobiologia alla storia sociale. L'ostacolo più rilevante su questa via è indubbiamente il problema mente-corpo, che assilla gli studiosi dall'epoca di Cartesio.
Il dibattito concernente tale problema è al centro della disciplina che va sotto il nome di filosofia della mente, la quale, pur tenendo conto dei contributi delle neuroscienze, tenta di affermare il primato della riflessione filosofica laddove è in gioco un "oggetto" - l'attività mentale, appunto - che da sempre occupa un posto centrale nella sua lunga storia. Alla filosofia della mente si oppongono, anche se in maniera sostanzialmente soft, i neuroscienziati, i quali rivendicano il primato della loro disciplina che, se non ha risolto tutti i problemi, si candida a risolverli su di una base empirica e sperimentale.
Il dibattito in questione ha avuto uno svolgimento storico significativo. Per un periodo piuttosto lungo, precedente lo sviluppo vertiginoso delle neuroscienze, esso si è articolato su due tematiche: il linguaggio e l'intenzionalità.
Le analisi filosofiche del linguaggio, incentrate sullo sforzo di elaborare una descrizione generale di ciò che costituisce il significato delle espressioni linguistiche, sono approdate ad un nulla di fatto. Ancora oggi alcuni filosofi si riconducono alla teoria del riferimento - per cui le parole denotano oggetti del mondo - mentre altri ritengono che il linguaggio assuma significato solo nel contesto degli usi che se ne fanno.
Analogo discorso vale per l'intenzionalità, vale a dire per il fatto che uno stato mentale è generalmente relativo a qualcosa: caratteristica questa che distinguerebbe gli stati mentali da altri fenomeni naturali.
Anche a questo riguardo, il dibattito tra i filosofi della mente si è arenato. Il compito di spiegare come le proposizioni o le rappresentazioni siano relative a oggetti o eventi del mondo, alcuni dei quali esistono mentre altri non esistono, non è stato "ancora" portato a termine. Difficilmente lo sarà, visto che tra i vari autori che si sono affannati su questo problema, c'è addirittura chi, come Quine, sostiene che l'intenzionalità vada definitivamente accantonata.
Praticamente frustrati nelle loro pretese di chiarire qualcosa del funzionamento mentale utilizzando i loro strumenti, che comportano complesse argomentazioni ricche di esempi che, però, possono essere sistematicamente confutate da altri, i filosofi della mente si sono lentamente spostati sul terreno del problema mente-corpo, soprattutto con l'intento prevalente di contestare il riduzionismo prevalente tra i neuroscienziati, che riconducono le attività mentali ad epifenomeni dell'attività cerebrale.
Su questo terreno, come si vedrà, il dibattito è stato molto intenso negli ultimi venticinque anni, ma sostanzialmente poco produttivo, perché le ipotesi e le teorie prodotte si trovano ancora oggi in aperta opposizione.
Sembrerebbe di doversi arrendere alla realtà per cui un essere singolare come l'uomo non può giungere, né attraverso la scienza né attraverso la filosofia, a qualche solida verità su se stesso.
Io non sono affatto convinto di questo, anche se naturalmente escludo che la panantropologia possa giungere ad una verità ultima e totale. Tale convinzione è supportata dal rilievo di un difetto metodologico comune ai filosofi della mente e ai neuroscienziati. Essi, infatti, analizzano l'attività mentale facendo costantemente riferimento ad un cervello adulto astratto, senza tenere conto che un cervello del genere esiste solo nella loro astrazione. Come organo esso è il prodotto di una lunga evoluzione culturale. Il suo funzionamento, poi, è non solo "incarnato" ma soprattutto influenzato dalla storia e dall'ambiente,
La realtà materiale del cervello è un dato ovvio, come pure che esso è dotato, fin dalla sua strutturazione a livello fetale, di un'attività intrinseca che attesta non già la sua indipendenza dagli stimoli ambientali bensì la sua predisposizione ad interagire "creativamente" con tali stimoli dando ad essi una "forma" imprescindibile dai vincoli strutturali biologici. Per quanto l'attività intrinseca del cervello sia per alcuni aspetti misteriosa, in quanto è impossibile definire se ad essa, che concorre indubbiamente a mantenere e a testare la plasticità dei canali interneuronali, corrispondano "contenuti" psichici, è fuor di dubbio che le prestazioni "mentali" del cervello, vale a dire il suo pervenire alla coscienza e all'autoconsapevolezza, postulano l'interazione con un ambiente intersoggettivo e culturale, che inesorabilmente lo "storicizzano" sia sotto il profilo strutturale che funzionale. In difetto di tale interazione, vale a dire nell'ipotesi di un cervello umano che evolvesse in un contesto non intersoggettivo e non culturale (come pare sia avvenuto nei rari casi di bambini "selvaggi" abbandonati precocemente e allevati a contatto con gli animali), la coscienza e soprattutto l'autoconsapevolezza, vale a dire gli attributi propri della mente, non si darebbero.
E' sorprendente che questo problema sia scarsamente valorizzato, se non addirittura misconosciuto, da gran parte dei neuroscienziati e dei filosofi della mente, sicché la mente di cui parlano, sia essa concepita in termini materialistici o spiritualistici, sia essa connessa indissolubilmente al corpo o considerata in qualche misura autonoma rispetto ad esso, risulta costantemente astratta: al limite incarnata (come in A. Damasio) ma non strutturata sulla base dell'intersoggettività (vale a dire dell'interiorizzazione dell'Altro) e in qualche misura "destoricizzata".
Ciò giustifica il mio scarso interesse per la filosofia della mente, che è caratterizzata non solo da vivaci dibattiti che, nella più pura tradizione della filosofia, non si concludono mai, perché ogni autore risponde puntualmente alle critiche rilanciando le sue ipotesi, ma soprattutto dal fatto che le tematiche in questione, che sono sostanzialmente tre (il linguaggio, l'intenzionalità e il rapporto mente-cervello), danno sistematicamente luogo ad una produzione di libri in genere sovrabbondanti.
Un esempio significativo di tale tendenza - oserei dire quasi un precursore - è L'io della mente che Douglas Richard Hofstadter ha curato con Daniel C. Dennett (CDE, Milano 1990). Libro affascinante ma dispersivo, che concede un po' troppo spazio alla retorica e all'immaginazione.
Affronto, dunque, il tema della filosofia della mente, che è già stato analizzato nell'articolo Fisica-mente, perché si tratta di una tendenza culturale che fa "moda" (soprattutto a dire il vero a livello accademico) e, con le sue contraddizioni, anticipa la necessità di una disciplina panantropologica. Comincio dal citare alcune esposizione sintetiche della materia, ricavandole da manulai di uso corrente..
La prima è tratta dall'Enciclopedia di Filosofia, Garzanti, Milano 2004, e riguarda due voci: filosofia della mente e mente-cervello:
Espressione usata soprattutto in area anglo-americana per designare una serie estremamente complessa di indagini e questioni riguardanti l'universo mentale. Sotto vari aspetti la filosofia della mente è quindi strettamente intrecciata con la psicologia. Se ne differenzia anzitutto per il carattere accentuatamente teorico dei suoi problemi e per il fatto che si riferisce e si intreccia a una vasta gamma di altre discipline: la neurofisiologia, la scienza cognitiva, la teoria dell'informazione, I'intelligenza artificiale, la teoria dell'azione e quella dell'identità e della persona.
Le domande più generali della filosofia della mente concernono: la natura della mente e il suo rapporto col corpo; le condizioni d'essere e di operare di funzioni quali il sentire, il percepire, il pensare, l'esser-coscienti; la relazione tra la sfera mentale e la sfera dell'io, dell'azione, del rapporto col mondo e coll'altro.
Sul piano epistemologico la Filosofia della mente si interroga sui modi più rigorosi e più adeguati di esaminare gli eventi e i processi mentali. A questo proposito una delle questioni di fondo è se tali modi possono essere stessi impiegati nell'esame degli eventi e dei processi fisici. Ciò implica naturalmente una risposta positiva a delicati quesiti circa l'oggettività o l'oggettivabilità dei fenomeni mentali (che parrebbero invece costituiti, almeno in parte, di componenti irriducibilmente soggettive).
Ci si domanda anche quale sia il grado di attendibilità delle indagini introspettive, delle descrizioni degli stati mentali compiute in prima persona, e se le une e e altre possono essere tradotte in termini non soggettivo-personali. Da quest'ultimo punto di vista almeno una classe di stati mentali - i cosiddetti qualia (gusti, dolori, sapori ecc. in quanto percepiti soggettivamente dagli individui) e, più in generale, i modi in cui i singoli esseri umani colgono il loro mondo interno e le loro relazioni con quello esterno - crea per vari studiosi problemi assai ardui.
Un'altra questione cruciale riguarda la natura dei concetti mentali. Il problema è se essi esprimano direttamente altrettanti dati oggettivi (o se, almeno, si riferiscano a funzioni o processi esistenti in sé, anche se denominabili e interpretabili in modi diversi), o se vadano invece considerati come costrutti linguistico-teorici costituenti in maniera relativamente autonoma il mondo mentale nelle sue articolazioni interne (la memoria, il ricordo, la nostalgia, la gelosia, la rivalità, la competitività ecc.).
Anche indipendentemente da quest'ultima posizione, la filosofia della mente riflette sul rapporto esistente tra la componente simbolico-culturale e sociale dell'universo, che chiamiamo mentale, e la sua componente endopsichica, biofisica, naturale.
Un ulteriore problema concerne infine quelle che potrebbero essere definite l'omogeneità e la legalità degli eventi mentali: 1) E' possibile concepire l'insieme di tali eventi come un sistema fondamentalmente unitario, o si devono ammettere nette differenze tra certe classi di eventi mentali e altre? 2) E' possibile cogliere nei processi mentali delle regolarità sottoposte a leggi, oppure tali processi non obbediscono a norme fisse, tanto meno del tipo di quelle operanti nel mondo fisico? Di recente quest'ultimo interrogativo (insieme con quelli circa l'oggettività/oggettivabilità di certi atti mentali) è stato riproposto dagli studi di intelligenza artificiale, in quanto il progetto di far eseguire a determinate 'macchine' operazioni implicanti l'uso di funzioni mnestiche, inferenziali, decisionali implica non solo che tali funzioni risultino individuabili o oggettivabili, ma anche che seguano regole relativamente precise.
Le teorie generali elaborate nell'ambito della filosofia della mente sono assai numerose. Esse si possono suddividere in tre orientamenti fondamentali: uno materialistico-identitistico, uno mentalistico-funzionalistico, uno ermeneutico-personologico.
Per il primo di essi (H. Feigl, D.M Armstrong) la mente non è in alcun modo un ente autonomo. Quanto ai cosiddetti fenomeni mentali, essi sono considerati identificabili con corrispondenti fenomeni corporeo-materiali (neurocerebrali, biochimici ecc.). Anche le funzioni e le facoltà tradizionalmente concepite come "psichiche" sono in realtà meccanismi che solo le bio- e le neuroscienze possono cogliere con rigore. Ne consegue: a) che la scienza della mente deve essere rifondata e riespressa in termini bio e/o neuroscientifici; b) che il metodo e le procedure da impiegare nello studio del mondo "mentale" sono quelli impiegati da tali scienze; e) che tale mondo appare perfettamente oggettivabile in fatti e processi obbedienti a leggi, ed esaminabili con ben precisi strumenti scientifici. Nonostante i successi ottenuti in certi ambiti di ricerca, la prospettiva identitistica si è scontrata con serie difficoltà di principio. Anche per questo vari studiosi hanno cercato di realizzare un approccio all'universo mentale di tipo diverso, "mentalistico".
In linea generale il mentalismo afferma la relativa specificità di un polo o sistema "mente" e la non-identità dei singoli eventi mentali con corrispondenti fenomeni neurofisiologici c/o biochimici. Questa prospettiva ha però avuto sviluppi teorici assai diversi tra loro. Si è così delineato un mentalismo di carattere ontologico (K. Popper e J. Eccles), che interpreta la mente come una vera e propria realtà autonoma, E si è delineato un mentalismo di carattere funzionalistico (J. Fodor e H. Putnam), che ha esercitato un'influenza particolarmente viva nella filosofia della mente contemporanea. Per tale indirizzo la mente non si identifica col corpo, e tuttavia non si configura come una res meta-corporea. Essa va invece concepita come una funzione, che se certo si "incarna" in determinati organi o processi fisici non perciò coincide con essi. Al contrario, la funzione-mente mantiene una propria indipendenza che le consente di avere caratteristiche sue proprie, da studiare con metodi anche diversi da quelli bio-e/o neuro-scientifici.
Lo sviluppo della scienza cognitiva e dell'intelligenza artificiale ha insieme utilizzato e convalidato questa interpretazione del mentale: la mente è effettivamente apparsa concepibile come un insieme di funzioni nello stesso tempo autonome da rigide corrispondenze con la struttura biochimica c/o neurofisiobogica dell'uomo, eppure obbedienti a sequenze causali e nomologiche tali da consentire una rigorosa "scienza del mentale". Una parte della ricerca di punta sul modus operandi del mentale si è riferita sempre più alle procedure e ai concetti elaborati dalle discipline di cui sopra: la mente si configura sostanzialmente come un sistema di informazioni acquisite ed "elaborate" secondo regole formali (H. Simon, D.A. Norman, Z. Pylyshyn).
In anni recenti questo orientamento è stato tuttavia sottoposto a critiche assai consistenti (H. Dreyfus) e a significativi mutamenti o integrazioni teoriche (T. Winograd, M. Minsky). Si è sottolineato in particolare (J. Searle) che la modellistica di ascendenza computazionale privilegia l'architettura puramente "sintattica" delle funzioni mentali, trascurandone l'aspetto intenzionale-semantico. Si è tornati ad approfondire la specifica organizzazione e azione della mente in sé (che secondo la teoria "modulare"" di Fodor sarebbe costituita da un lato da sistemi centrali deputati alle funzioni psichiche superiori e dall'altro da sistemi periferici, o "moduli", operanti in modi indipendenti e interattivi). Si è, soprattutto, proposto di utilizzare come modello interpretativo della mente lo stesso cervello, con la sua struttura insieme estremamente complessa e relativamente semplice di connessioni neurali (donde il nome di connessionismo attribuito a questa prospettiva).
Su un altro versante, quello che si è definito l'indirizzo ermeneutico-personologico ha invece proposto un approccio assai diverso ai problemi della filosofia della mente (H. Dreyfus, J. Margolis, Ch. Taylor). Per esso, le concezioni cui ci si è riferiti fin qui delineano un'interpretazione per più versi riduttiva del mentale, in quanto considerano l'evento mentale un mero fatto, e un fatto tendenzialmente oggettivo e generale. Ciò che tali concezioni trascurano è la dimensione esperienziale e soggettivo-particolare di tale evento. Quest'ultimo è non solo e non tanto un fenomeno standard obbediente a leggi, quanto un'esperienza vissuta da un soggetto secondo un determinato contesto socio-culturale, un determinato sistema simbolico, determinate maniere individuali. Come dire che, per es., una credenza è non solo e non tanto un fatto connesso a meri meccanismi endogeni (biofisiologici o funzionali-informazionali), quanto un evento coinvolgente una persona entro un sistema di relazioni e significati di cui vanno colti, con procedure opportune (fenomenologiche, ermeneutiche, idiografiche), anche le ragioni, i contenuti e i modi culturali e soggettivi.
Al centro di questa prospettiva si colloca non tanto il dato mentale quanto l'atto mentale e ancor più il suo agente, coi suoi fini, le sue intenzioni, i suoi valori (R. Rorty); ovvero, non tanto il complesso di corredi bio-fisiologici o di funzioni e facoltà psichiche dell'uomo, quanto la persona (la persona nel mondo) come produttrice di azioni caratterizzate anche dalle intenzioni e dai sensi secondo cui vengono compiute e vissute. (Se. Mo.)
Dalla fine degli anni Settanta, la filosofia della mente è divenuta la principale disciplina filosofica in area angloamericana, soppiantando in tale ruolo la filosofia del linguaggio. Le ragioni di tale affermazione vanno ricercate da un lato nel forte sviluppo della scienza cognitiva, che ha offerto svariati spunti alla riflessione filosofica, e dall'altro nella convinzione che le proprietà semantiche del linguaggio derivino da quelle del pensiero, che diventa così l'oggetto primo e privilegiato dell'indagine filosofica. La discussione si è sviluppata attorno a tre aree tematiche principali relativamente distinte: 1) il tradizionale problema mente-corpo, formulato preferibilmente come un problema di causalità mentale ("come possono gli eventi mentali essere cause di eventi fisici?"); 2) il problema dell'intenzionalità ("come possono gli stati mentali vertere su situazioni e oggetti del mondo?"); 3) il problema della coscienza ("come possono gli stati cerebrali accompagnarsi a esperienze vissute in prima persona?"). Il dibattito sulla questione mente-corpo si è riacceso nell'ultimo ventennio soprattutto per iniziativa di J. Kim, che ha messo in discussione il funzionalismo non riduzionista affermatosi tra gli anni Sessanta e gli anni Settanta del Novecento.
Nella sua versione standard, la cosiddetta teoria rappresentazionale della mente, il funzionalismo identifica gli stati mentali del senso comune, come credenze e desideri, con stati computazionali (stati di una macchina di Turing), e asserisce che uno stato computazionale ammette una pluralità di realizzazioni fisiche diverse. Per esempio, nel nutrire in questo momento il pensiero che P mi trovo in uno stato fisico che sarà in generale differente da quello in cui mi troverò domani nel nutrire lo stesso pensiero. Ciò non toglie che il mio stato fisico in un certo istante determini completamente lo stato mentale in cui mi trovo in quello stesso istante. In questo quadro teorico gli stati mentali dipendono ontologicamente dagli stati fisici, senza tuttavia poter essere con questi identificati (ed è per questo che si parla di funzionalismo non riduzionista), un tipo di relazione noto come sopravvenienza psicofisica.
Questa soluzione aveva goduto di una considerevole popolarità, perché da un lato consentiva di dirsi materialisti (o fisicalisti), in virtù della dipendenza ontologica del mentale dal fisico, e dall'altro salvaguardava l'autonomia teorica della psicologia, come scienza speciale dotata di leggi sue proprie.
Secondo Kim questa posizione non scioglie un'ambiguità riguardo alla presunta efficacia causale delle proprietà mentali: o queste possono essere dette cause soltanto in quanto hanno dei realizzatori fisici, o sono causalmente efficaci di per sé, cioè in quanto mentali. Nel primo caso ne consegue l'epifenomenismo del mentale, vale a dire l'irrilevanza causale delle proprietà mentali. Nel secondo caso si incorre nella violazione del principio di chiusura causale del mondo fisico, in base al quale ogni evento fisico ha una e una sola causa fisica sufficiente, che costituisce una delle formulazioni standard del fisicalismo. Kim ne conclude che l'unico modo per conciliare l'efficacia causale dei fenomeni mentali col fisicalismo è quella di ipotizzare l'identità delle proprietà mentali con le proprietà fisiche, propugnando così un ritorno a una versione di riduzionismo psicofisico già proposta negli anni Sessanta, per esempio da DA. Armstrong. I più tenaci difensori del funzionalismo non riduzionista, come J. Fodor, hanno insistito sulla rilevanza causale delle proprietà mentali, sostenendo che il rapporto tra predicati mentali e predicati fisici è analogo a quello che sussiste tra i predicati di qualsiasi scienza speciale (di alto livello) e le scienze della natura: non si capisce perché il problema dell'epifenomenismo dovrebbe porsi soltanto nel caso del mentale.
Una soluzione più drastica, che con la riduzione elimina anche la sopravvenienza, è stata proposta da autori come T. Burge o l'ultimo Putnam, secondo i quali è preferibile rinunciare al fisicalismo, di cui è molto difficile fornire formulazioni plausibili sufficientemente perspicue, piuttosto che alla tesi dell'efficacia causale dei fenomeni mentali: la metafisica fisicalistica alla base di posizioni come quella di Kim sarebbe in realtà meno solida dello schema concettuale del senso comune in base al quale non c'è niente di sbagliato nel dire, per esempio. che la mia intenzione di farmi passare il mal di testa è la causa della mia azione di prendere un'aspirina. L'idea è che le cause sono strutture esplicative, non relazioni oggettive tra enti fisici. In effetti, allo stato attuale sembra difficile venire a capo del problema della causalità mentale se non si chiarisce quale o quali concetti di causa sono in gioco. Posizioni come quella di Burge tendono a restaurare, sfumature a parte, un quadro teorico wittgensteiniano nel quale le connessioni tra stati mentali appartengono a uno spazio logico diverso da quello dei nessi causali fisici. In altri termini, gli stati mentali sono ragioni, e non cause, del comportamento. In questa prospettiva l'idea che il mentale si riduca al fisico risulta essere inintelligibile.
Questioni di riduzione e di sopravvenienza sono in gioco anche nel problema della coscienza. La difficoltà di ridurre gli stati mentali a quelli fisici è infatti particolarmente acuta nel caso degli stati di coscienza fenomenica, caratterizzati, secondo molti (per es., D. Chalmers, F. Jackson, S. Kripke, Tb. Nagel) da proprietà intrinseche o qualitative non suscettibili di un'analisi scientifica. Nella migliore delle ipotesi, la coscienza emergerebbe o dipenderebbe ontologicamente dalle proprietà biologiche e in ultima istanza fisiche del sistema nervoso, senza tuttavia che la prima possa essere spiegata, nel senso di dedotta, dalle seconde. Il problema dell'intenzionalità è quello di spiegare in che modo gli stati mentali possano vertere su oggetti e proprietà del mondo. Diversi autori (tra cui F. Dretske, J. Fodor, RG. Millikan, D. Papineau) hanno cercato di ricondurre questa caratteristica a una proprietà naturale, identificata, a seconda dei casi, con una relazione causale, una funzione selezionata dall'evoluzione, o una combinazione delle due. Sul fronte opposto, autori come D. Davidson e D. Dennett hanno negato che le proprietà mentali, considerate come stati intenzionali, siano enti completamente naturali, suggerendo, con accenti diversi, che esse siano costrutti logici di un'attività interpretativa volta a dare senso (razionalizzare) il comportamento.
Tutti e tre i problemi evidenziano come il dibattito filosofico sui fenomeni mentali continui a essere caratterizzato da una polarità tra istanze naturalistiche, volte a spiegare in modi più o meno riduzionisti la mente con il cervello e con il corpo, e un atteggiamento antinaturalistico, che tende a preservare l'autonomia dei fenomeni mentali in quanto mentali, come un ambito di problemi che la scienza può affrontare da un punto di vista che è tuttavia in larga misura irrilevante per la filosofia.
Antinaturalisti e riduzionisti hanno finito per trovarsi alleati nella critica al funzionalismo non riduzionista, che cercava di coniugare le istanze naturalistiche con l'autonomia del mentale; in tal modo il funzionalismo ha perso la posizione egemonica che aveva tra gli anni Sessanta e gli anni Ottanta, pur restando una dottrina ancora influente.
Tra i temi più dibattuti negli ultimi anni si possono ancora menzionare i seguenti: il contenuto non concettuale degli, stati mentali, che investe la natura della percezione e il suo rapporto con la cognizione; la natura della psicologia ingenua, la capacità di attribuire stati mentali agli altri e a noi stessi; il ruolo che la teoria dell'evoluzione può svolgere nella spiegazione dei processi mentali, particolarmente rilevante per l'ipotesi della modularità. Tutti questi temi evidenziano un rapporto motto stretto tra filosofia e scienza, e si nutrono dei risultati prodotti dalle più recenti ricerche empiriche. Per esempio, l'idea che la percezione abbia contenuto non concettuale, ovvero la tesi secondo cui un agente non ha bisogno di possedere concetti per poter percepire, ha trovato un forte sostegno empirico nell'ipotesi della modularità dei sistemi percettivi. La modularità della percezione, infatti, esclude che le credenze di un agente possano influenzare il contenuto delle sue percezioni, come testimoniano, paradigmaticamente, i casi delle illusioni percettive. (A. P.)
Espressione che sintetizza il problema filosofico del rapporto tra la mente e il cervello. Tale problema è la riformulazione odierna del più antico problema del rapporto mente-corpo che Platone ha posto con la sua concezione dualistica dell'uomo diviso in anima e corpo e che ha trovato una radicalizzazione in Cartesio nella dicotomia tra res estensa e ires cogitans. La questione del rapporto tra la sfera mentale o psicologica e quella fisica dell'individuo rinvia a tre problemi inestricabilmente collegati: 1) qual è la natura degli stati o proprietà mentali, come credenze, desideri, percezioni ecc.; 2) se e come gli stati mentali possano essere cause di stati fisici, e specificamente del comportamento (questione mente-corpo propriamente detta); 3) che relazione sussiste tra gli stati mentali e gli stati cerebrali (questione mente/cervello propriamente detta).
A questo triplice problema metafisico si deve aggiungere una quarta questione strettamente collegata, di ordine epistemologico-esplicativo: quale statuto epistemologico si deve accordare alla psicologia? E una scienza naturale oppure no? Se lo è, quali sono i suoi fondamenti'? Non è possibile rispondere a una di queste domande senza impegnarsi a fornire una risposta anche alle altre tre.
Come già ricordato, secondo una tradizione filosofica che risale a Cartesio, gli stati mentali hanno una natura metafisica loro propria, distinta da quella fisica, corporea. Questa posizione, definita dualismo ontologico, è divenuta nel secolo scorso radicalmente minoritaria, sebbene non siano mancati suoi sostenitori, tanto tra i filosofi (K. Popper), quanto tra gli scienziati (J. Eccles). AI di là della sua scarsa plausibilità empirica e della sua dubbia coerenza con un caposaldo dell'immagine scientifica del mondo qual è la teoria dell'evoluzione, il dualismo ontologico incorre in gravi difficoltà nello spiegare l'apparente efficacia causale degli stati mentali: come può la mente influire sul corpo se è ontologicamente altro da esso?
Furono in particolare il comportamentismo filosofico di G. Ryle e la filosofia della psicologia dei secondo Wittgenstein a screditare il dualismo, sostenendo che gli stati mentali, lungi dall'essere res, sostanze, sono costruzioni logiche prive di contenuto empirico; il rapporto tra stati mentali e comportamento non va quindi letto in termini causali, bensì in termini di nessi logico-concettuali: gli stati mentali sono ragioni (in quanto opposte a cause) del comportamento.
Più o meno negli stessi anni, l'influenza del positivismo logico e i progressi scientifici nello studio del cervello favorirono l'affermarsi di una versione naturalistica di monismo materialista (o fisicalista), nella quale alle proprietà mentali era riconosciuta un'efficacia causale autentica. Il monismo fisicalista ha dapprima assunto la forma di un riduzionismo psiconeurale (o teoria dell'identità di tipo: H. Feigl, J. J. Smart, U. Place), secondo cui la mente è identica al cervello: gli stati mentali non sono che stati cerebrali sotto una diversa descrizione. Il problema della causalità mentale veniva così risolto tramite la semplice identificazione delle cause mentali con le cause fisiche. Ma assai più di questa tesi doveva avere influenza, una decina d'anni dopo, il funzionalismo computazionale, che al monismo sul piano ontologico affiancava un dualismo epistemologico, assimilando il rapporto tra mente e cervello a quello tra software e hardware di un elaboratore.
In questa prospettiva tra le proprietà mentali e quelle cerebrali vige una relazione di sopravvenienza: le prime dipendono dalle seconde senza poter essere identificabili con esse (funzionalismo non riduzionista). La psicologia è una scienza della natura autonoma dalla neuroscienza, perché la mente è essenzialmente un dispositivo computazionale, un sistema di elaborazione delle informazioni: la natura funzionale, astratta, dei processi mentali comporta che questi possano essere studiati indipendentemente dal supporto fisico che li realizza.
Alle fortune della metafisica della mente imperniata sulla nozione di sopravvenienza contribuì anche il monismo anomalo di D. Davidson, che tuttavia, a differenza del funzionalismo computazionale, sostiene che i fenomeni mentali non sono sussumibili sotto leggi.
Cruciale per il funzionalismo computazionale è la tesi secondo cui uno stato mentale ammette una pluralità di realizzazioni fisiche, così da rendere possibile l'attribuzione di uno stesso tipo di stato mentale a esseri umani, animali non umani e agenti artificiali; ed è stato proprio questo principio di realizzabilità multipla, affermato da H. Putnam nel 1967, a convincere buona parte della comunità dei filosofi dell'insostenibilità del riduzionismo psiconeurale nella versione della teoria dell'identità di tipo. Ma, come già era successo al dualismo ontologico, anche il funzionalismo non riduzionista (che, del resto, è una versione di dualismo, pur se epistemologico invece che ontologico) doveva scontrarsi, non diversamente dal monismo anomalo, con il problema della causalità mentale: in base al cosiddetto argomento dell'esclusione causale, dovuto a J. Kim, la sopravvenienza psicofisica comporta che a ogni causa mentale sia possibile associare una causa fisica; ma allora o le cause mentali si riducono a cause fisiche (riduzionismo psiconeurale) o non sono vere cause (epifenomenismo del mentale), e in ambedue i casi se ne può fare a meno. Ne consegue che solo una genuina riduzione psiconeurale può assicurare un ruolo causale agli stati mentali ed essere coerente con una visione fisicalistica della realtà.
Una posizione ancora più radicale è quella del fisicalismo eliminativo di P.M. Churchland e P.S. Churchland, secondo i quali, scientificamente parlando, la mente non esiste: gli stati mentali del senso comune sono costruzioni concettuali di una teoria sbagliata, e una compiuta spiegazione dei fenomeni mentali non potrà che essere di carattere neurologico.
Se il fisicalismo eliminativo critica il funzionalismo non riduzionista da un punto di vista, per così dire, ultranaturalista, sul fronte opposto il funzionalismo è stato fatto bersaglio della critica di autori come T. Burge e H. Putnam, che hanno adottato una strategia "deflazionistica", di evidente ascendenza wittgensteiniana, volta a demistificare, piuttosto che risolvere, il problema della causalità mentale e il dilemma mente-cervello. L'idea è che gli stati mentali del senso comune non hanno alcuna controparte fisica; nondimeno è del tutto legittimo dire che gli stati mentali sono cause del comportamento, perché il tipo di relazione causale a cui si allude rientra a pieno titolo nelle nostre pratiche esplicative ordinarie, che non abbiamo ragione di mettere in discussione. In questa prospettiva il dominio del mentale è sottratto all'indagine scientifica: chi si occupa di mente non si occupa di cervello.
La psicologia non è una scienza della natura, e la psicologia computazionale tipica della scienza cognitiva classica è considerata per lo più un'impresa teorica compromessa con una forma di protodualismo incline alla reificazione della mente. (A. P.)
G. Fornero e S. Tassinari ne Le filosofie del Novecento (Bruno Mondadori, Milano 2002) ricostruiscono la storia del problema con la consueta limpidezza (pp. 1423-1441):
Da alcuni decenni la riflessione attorno alla natura della mente ha assunto un ruolo di sempre maggiore rilievo, al punto da costituire un vero e proprio ambito disciplinare: la filosofia della mente. Le domande riguardanti che cos'è uno stato mentale, quale rapporto esiste tra la mente e il corpo, che cos'è la coscienza e quali sono le sue proprietà, si susseguono a ritmo incalzante e coinvolgono non soltanto la filosofia, ma anche la psicologia, le scienze cognitive, la linguistica, la computer science e le neuroscienze. Gli studi sulla configurazione e le capacità del cervello umano dominano uno scenario in continua evoluzione e sviluppo, al punto che il decennio appena conclusosi è stato definito il "decennio del cervello": gli sviluppi delle neuroscienze hanno infatti determinato negli ultimi trent'anni una vera e propria "rivoluzione copernicana".
Le indagini sul sistema nervoso centrale, sulla corteccia cerebrale, su neuroni e sinapsi, assoni e dendriti, lobi frontali e prefrontali si sono susseguite a un ritmo esplosivo. Ciononostante, un consenso diffuso su come la mente effettivamente lavora, su che cosa sono gli stati mentali, che cos'è la coscienza, che cosa sono l'intenzionalità e la razionalità, sembra ben lontano dall'essere raggiunto. Scuole di pensiero e indirizzi di ricerca spesso discordanti e contrapposti continuano a dibattere il problema della mente e del cervello: mentalisti, materialisti, eliminativisti, dualisti e antidualisti si confrontano su un terreno fragile e sdrucciolevole, dove i confini non sono netti, ma indefiniti e talvolta addirittura inesistenti.
Tale varietà di prospettive di indagine sembra tuttavia accomunata da un unico, ampio, interesse fondamentale: il rapporto tra i fenomeni mentali e la realtà, ovvero l'uomo e il suo porsi nel mondo. Un problema filosofico antico, che già Aristotele poneva nel De anima chiedendosi che cos'è la psyché, l'anima, e in che rapporto essa sta con il noùs, l'intelletto. La psyché è la forma di un corpo vivente, è l'"atto primo", il principio in virtù del quale si compiono le varie attività vitali, ed è inscindibile dal corpo, mentre il noùs può esserne separato. Aristotele non giungeva a porre compiutamente il problema del rapporto mente-corpo, che solo con Cartesio avrebbe avuto la sua piena formulazione, ma poneva con grande forza la questione del rapporto uomo-mondo. Questione che ancora oggi, pur con il grande progresso delle Scienze mediche, biologiche, fisiche e matematiche, della psicologia, delle scienze cognitive e delle neuroscienze, dell'informatica e dell'intelligenza artificiale, rimane in un certo senso aperta.
Se dunque la filosofia della mente non sembra possa prescindere da un confronto diretto con la scienza contemporanea, le questioni che essa pone sono questioni antiche che, sebbene formulate in termini diversi, mantengono una forte continuità con la tradizione poiché, come cercheremo di porre in evidenza, le soluzioni che in varie forme sono state proposte alla questione del mentale sono essenzialmente tre: 1) il dualismo, di origine cartesiana, 2) il materialismo e 3) l'ilomorfismo o funzionalismo.
Nonostante il problema della mente abbia una sua prima formulazione già nella filosofia greca, è nell'epoca moderna che esso trova una trattazione specifica e puntuale e che si configura nei termini del rapporto tra pensiero e materia, dando origine a quel dualismo, affermato da Cartesio, che segnerà l'intero dibattito sulla mente nell'epoca successiva, fino ai giorni nostri.
Il rapporto tra materia e pensiero riveste un ruolo centrale nell'intero sviluppo della storia della filosofia moderna per due ragioni: da un lato mette in luce quella relazione unitaria tra scienza e filosofia che caratterizza il pensiero moderno; dall'altro evidenzia, per la prima volta, l'identificazione dell'anima, la psyché greca, con il pensiero.
E' a partire dalla metafisica della soggettività elaborata da Cartesio - che contrappone il pensiero, la res cogitans, e la materia, la res extensa - che nasce il problema del rapporto tra la mente e il corpo nel senso di una contrapposizione dualistica tra enti diversi, su cui si focalizzerà gran parte del dibattito contemporaneo sulla natura della mente.
Nell'antichità, in particolare per Aristotele, la psyché era la "forma" del corpo, era cioè intesa come entelechia, perfezione di un corpo che ha la vita in potenza. La determinazione dell'anima era dunque strettamente legata alle funzioni proprie del vivere (alimentarsi, percepire, riconoscere ecc.). Nel De anima, Aristotele afferma che per i viventi l'essere è il vivere e quindi, poiché per tutte le cose l'essenza è la causa dell'essere e per i viventi l'essenza è l'anima, l'anima sarà la causa del vivere. La funzione intellettiva dell'anima non incontra il problema del rapporto con qualcosa di corporeo perché essa è "inseparabile dalla materia naturale". Anche se l'anima non è corpo, Aristotele dichiara inaccettabile l'ipotesi secondo cui essa è separabile dal corpo. Ed è in tale prospettiva che egli giunge a distinguere ciò che è animato da ciò che è inanimato nel "vivere", che costituisce dunque la nozione che unisce anima e corpo. Con Cartesio si produce uno slittamento semantico del termine psyché: l'anima da vita diviene invece pensiero e finisce per confrontarsi con il problema del corpo e per contrapporsi a esso, producendo quel dualismo che era del tutto assente in Aristotele.
Il rapporto tra la mente e il corpo, che nella filosofia antica e medievale non si poneva come problema ma trovava soluzione nella nozione unitaria di vita, nell'epoca moderna emerge così come questione filosofica aperta: con l'affermazione di un'identificazione tra la nozione di mente, o psyché, e la nozione di pensiero - la res cogitans - ci troviamo dinanzi al problema di una contrapposizione tra il pensiero e la materia. Una contrapposizione che manifesta in modo esplicito il contrasto sotteso tra la nozione geometrizzata della natura, che implica un concetto di estensione senza libertà, e la nozione assolutamente inestesa di pensiero, in cui dominano la libertà, la volizione, la creazione.
Abbiamo dunque, con Cartesio, un radicale spostamento semantico dal termine "vita" al termine cogito: egli sostiene che il pensiero, la res cogitans, non necessita di altro che di se stesso e che esso è la sostanza dell'anima. "Conclusi che ero una sostanza la cui essenza non consiste in altro se non nel pensare, una sostanza che per essere non ha bisogno di alcun luogo, né dipende da alcuna cosa materiale". E da questo segue, in modo consequenziale, la tesi a sostegno del dualismo tra la mente (pensiero) e il corpo (materia):
Di modo che questo io, cioè l'anima grazie alla quale io sono quello che sono, è del tutto distinta dal corpo e a paragone del corpo anche più facile a conoscersi, l'anima che non cesserebbe di essere tutto quello che è anche se il corpo non fosse.
L'esito di tale percorso è il dualismo, cioè una profonda differenza ontologica tra il pensiero, la materia inestesa, intesa come "cosa che pensa" (la res cogitans), e la materia estesa (la res extensa): i due concetti costituiranno, da Cartesio in poi, gli elementi problematici delle diverse risposte che verranno fornite al problema della mente e del suo rapporto con il corpo.
Il dualismo che emerge dalla metafisica soggettivistica di Cartesio ha influenzato fortemente le ricerche della filosofia della mente contemporanea, al punto che proprio la relazione tra la mente e il corpo, tra la res cogitans e la res extensa, costituisce uno dei nuclei essenziali del dibattito attuale sulla natura della mente e degli stati mentali. Tra le soluzioni che le diverse teorie sulla mente hanno cercato di elaborare negli ultimi cinquant'anni, il dualismo mente-corpo riveste un ruolo centrale poiché anche soluzioni che cercano di superare l'eredità dualistica di Cartesio sembrano spesso restarne ancora all'interno. E anche gli altri orientamenti che caratterizzano le linee generali della filosofia della mente si connettono alla questione del dualismo: materialismo, ilomorfismo o funzionalismo, naturalismo biologico hanno il comune obiettivo di superare la pervasiva eredità cartesiana.
a) Dualismo
Oggi si è soliti indicare due diversi tipi di dualismo tra la mente e il corpo, uno di tipo concettuale e uno di tipo ontologico. Il dualismo ontologico è in realtà il solo che si pone come radicalmente alternativo al materialismo poiché, sul piano concettuale, anche un materialista può accettare che lo stesso processo possa essere descritto ora in termini psicologici, ora in termini neurologici e che le due descrizioni siano intraducibili. Si presenta a sua volta in due diverse forme: il dualismo delle sostanze e il dualismo delle proprietà. Secondo la prima forma, mente e corpo, anche se strettamente uniti, sono due sostanze distinte e, almeno potenzialmente, separabili, come, per esempio, la polpa e il nocciolo di un'albicocca. Secondo il "dualismo delle proprietà", mente e corpo sono invece due proprietà distinte di una medesima sostanza, come per esempio il colore arancio e la forma sferica di un'albicocca. Tra i filosofi contemporanei, potremmo dire "seguaci" di Cartesio, troviamo Karl Popper (La conoscenza e il problema mentecorpo, 1994), John C. Eccles (Evoluzione del cervello e creazione dell'io, 1990) e David Chalmers (La mente cosciente, 1996).
La maggior parte delle teorie della mente si pone tuttavia l'obiettivo di superare il dualismo tra la mente e il corpo, cercando di "ridurre" la mente a enti osservabili e definibili, se non sempre in termini fisici, perlomeno in termini analitici e concettuali. Teorie di questo tipo sono quelle proposte dal materialismo, dalle teorie dell'identità, dall'eliminativismo e dal funzionalismo.
b) Materialismo, teorie dell'identità, eliminativismo
Il materialismo sostiene che tutto ciò che esiste in modo indipendente dall'osservatore è fisico o ha comunque un fondamento nel mondo fisico; pertanto anche gli stati mentali sono stati fisici. Tale dottrina, che pure ha origine nell'antichità con Democrito e gli atomisti, nella filosofia della mente contemporanea riveste un ruolo alquanto significativo e si presenta in forme diverse.
La prima di queste è il "fisicalismo", che si sviluppò a opera degli empiristi logici, in particolare di Rudolf Carnap (An Excerpt from "Psychology in Physical Language", 1932), Herbert Feigl (The "Mental" and the "Physical", 1932) e Carl Gustav Hempel (Psychology in Physical Language, 1935), i quali elaborarono una "concezione fisicalista della psicologia" che prese il nome di "comportamentismo logico", che si distingue da quello psicologico perché non nega l'esistenza degli stati mentali e accetta la possibilità di utilizzare termini psicologici, ma ritiene che interrogarsi sull'esistenza o meno degli stati mentali sia uno pseudoproblema destinato a dissolversi quando essi vengano intesi come "abbreviazioni" di ciò che potrebbe essere descritto in termini fisicalistici facendo riferimento unicamente a comportamenti osservabili.
La teoria dell'identità, elaborata da Ullin T. Place (Is Consciousness a Brain Process? 1956), JJ.C. Smart (Sensation and Brain Processes, 1959) e David M. Armstrong (A Materialist Theorie of the Mind, 1968) nella seconda metà degli anni cinquanta, propone poi una particolare forma di materialismo contrapposto al dualismo e all'idea che esista un qualche ente misterioso, la mente, che nulla ha a che vedere con il corpo; un materialismo per il quale il problema mente-corpo non è affatto uno pseudo-problema, ma un vero e proprio problema filosofico e il fisicalismo è la via per risolverlo, non per dissolverlo. La soluzione è data appunto dalla "teoria dell'identità" tra la mente e il corpo, ovvero tra processi mentali e processi cerebrali.
Una terza forma di materialismo è quella più estrema, nota come "eliminativismo": essa ha origine da un articolo di William V. 0. Quine (On Mental Entities, 1953) in cui egli si chiede se aggiungere "all'ontologia degli oggetti esterni [...] l'ipostatizzazione di oggetti addizionali di tipo mentale sia di aiuto o piuttosto di intralcio alla scienza". Per Quine gli oggetti di tipo mentale sono chiaramente un intralcio: presumere l'esistenza di stati soggettivi interni non serve per spiegare il comportamento umano. Questo non significa tuttavia eliminare le esperienze e la coscienza, ma vuol dire eliminare la teoria ontologica dualistica sottesa dalla psicologia del senso comune: "Ripudiare le entità mentali - scrive Quine - non significa negare che abbiamo sensazioni o che siamo consci; significa soltanto riferire e cercare di descrivere questi fatti senza assumere entità di tipo mentale". L'interpretazione della tesi eliminativista intesa come negazione dell'esistenza della coscienza o del dolore viene dunque da Quine esclusa, a favore appunto di un eliminativismo di tipo concettuale e ontologico. Tale orientamento si riscontra nelle tesi di Feigl e di Feyerabend (Mental Events and the Brain, 1963) e, in forma un po' diversa, in Rorty (La filosofia e lo specchio della natura, 1979). Quest'ultimo propone una "dissoluzione" del problema mente-corpo che mira a "decostruirlo" in quanto falso problema che nasce da pregiudizi filosofici, in particolare dal pregiudizio del dualismo cartesiano.
Una versione molto particolare di eliminativismo è stata fornita da Paul M. Churchland (Una prospettiva neurocomputazionale, 1989; Il motore della ragione, la sede dell'anima. Un viaggio filosofico nel cervello, 1995) e Patricia Churchland (Neurophilosophy, 1986), i quali hanno proposto una teoria materialista ed eliminativista della mente e del problema mente-corpo che si propone di criticare la psicologia del senso comune a partire dall"epistemologia naturalizzata" di Quine e dallo studio del cervello. La concezione naturalistica del mentale proposta dai Churchland ha l'obiettivo di creare uno stretto legame tra filosofia della mente e le neuroscienze, e insieme di tracciare un ponte tra la filosofia e gli studi "artificiali" della mente come le reti neurali artificiali e il connessionismo che costituiscono una fase avanzata dell'intelligenza artificiale e dell'analogia mente-computer, ovvero del progetto di creare delle macchine "intelligenti" intrapreso da Alan Turing (Intelligenza meccanica, 1992) negli anni cinquanta. Per i Churchland, l'affermarsi di una nuova scienza dell'uomo su basi biologiche e neuroscientifiche consentirà di porre il problema mente-corpo su nuove basi e di mutare l'ontologia del mentale.
A queste forme di eliminativismo radicale, che giungono a negare l'esistenza degli stati mentali e della coscienza, è stato obiettato che tale negazione risulterebbe assurda poiché negare l'assunto cartesiano della certezza dell'io cosciente impedirebbe la possibilità di pensare se stessi. Ma a questo i Churchland hanno risposto precisando che con il negare l'esistenza di stati mentali come le credenze e i desideri, essi non intendono negare le cause interne dei nostri comportamenti ma il sistema categoriale cui esse si riferiscono: essi non mettono in dubbio la realtà in sé che quel sistema categoriale falsamente descrive.
Il mondo è come è; le teorie vanno e vengono e il mondo rimane lo stesso. Pertanto la modificazione di una teoria non implica che la natura del mondo stesso venga ipso facto modificata.
Ciò di cui dobbiamo liberarci non sono dunque le cause interne dei nostri comportamenti, i nostri stati mentali, ma l'immagine complessiva dell'uomo legata alla tradizione cartesiana del cogito. Se riusciremo a emanciparci da tale immagine saremo in grado di considerare i nostri stati mentali e quelli degli altri esseri umani in termini completamente nuovi. E' la psicologia del senso comune il bersaglio critico dei Churchland. Soltanto superando alcuni condizionamenti di essa potremo modificare l'interpretazione che spontaneamente diamo dei nostri stessi dati sensoriali introspettivi, ossia la percezione stessa che abbiamo di noi.
I Churchland non negano l'esistenza dei fenomeni che vengono descritti dalla psicologia del senso comune, come gli stati coscienti o intenzionali; essi negano piuttosto l'adeguatezza scientifica delle varie modalità di descrivere tali fenomeni, perché lo schema concettuale psicologico ordinario è una concezione falsa e fuorviante del comportamento e dell'attività cognitiva umane.
Tuttavia, anche a questa precisazione, coloro che sostengono che la coscienza non può essere "eliminata" pongono forti obiezioni.
Tra i sostenitori più accesi di un materialismo eliminativista è oggi fermamente schierato Daniel Dennett (La coscienza, 1991): egli definisce la coscienza come un "teatro cartesiano", un "modello dalle molteplici versioni" (Multiple Drafts), una continua riedizione di storie, fittizie e inconsistenti, che danno origine all'ipotesi illusoria della coscienza. In altre parole, Dennett dà una spiegazione della coscienza negandone l'esistenza stessa. Il medesimo atteggiamento, egli lo propone in riferimento alla questione delle "altre menti", ovvero al quesito: "come posso essere certo che gli altri uomini non sono soltanto degli zombies incoscienti?", come possiamo cioè garantire l'attribuzione di stati mentali ad altri esseri se non siamo certi nemmeno dei nostri propri stati coscienti? Obiettivo di Dennett è dimostrare la pretesa illusorietà della natura dell'azione umana, cosciente e intenzionale. Il progresso nella comprensione della mente non può che basarsi sul rifiuto dell'idea dell'esistenza di una coscienza interiore, di un Sé che governa il nostro comportamento. Possiamo comprendere il nostro mondo interiore soltanto riducendolo a parti meccaniche e materiali. Il dualismo cartesiano si risolve dunque nel materialismo. Non esiste un problema di irriducibilità della mente a qualcos'altro, non esiste un hard problem poiché, per Dennett, il problema della coscienza riguarda soltanto il mondo fenomenico, materiale. Quando avremo risolto i cosiddetti soft problems, gli aspetti meccanici e tecnologici del cervello e della mente, avremo risolto anche il problema della coscienza.
Osserveremo più avanti come la posizione di Dennett sia anch'essa oggetto di forti discussioni tra coloro che, come John Searle o David Chalmers, sostengono invece che vi sia qualcosa di irriducibile nella coscienza umana, così come sono irriducibili i concetti di spazio e di tempo.
c) Funzionalismo e Intelligenza artificiale
La teoria della mente denominata funzionalismo, se pure storicamente molto lontana dall'ilomorfismo aristotelico (da hyle, materia e morphé, forma), ne riprende il tipo di rapporto tra l'anima, o mente, e il corpo. L'anima non è corporea e tuttavia non è nemmeno qualcosa che si unisce al corpo: essa è la forma o la funzione del corpo. Tale teoria antidualista condivide con il materialismo l'idea che esistano stati mentali interni distinti dai comportamenti, ma a differenza del materialismo (per cui uno stato mentale equivale a uno stato cerebrale) ritiene che uno stato mentale sia identico solo al suo stato funzionale, non anche a uno stato cerebrale. Il funzionalismo ha dato origine all'analogia mente-computer e alla teoria computazionale della mente: per i funzionalisti contemporanei la mente è un software implementato dal cervello, e questo ha successivamente fornito lo sfondo per gli sviluppi dell'Intelligenza artificiale (AI, Artificial Intelligence) e dei diversi tentativi di riprodurre artificialmente la mente umana.
Nell'idea originaria di Hilary Putnam (Cervelli e comportamento, 1963) che può essere considerato il fondatore del funzionalismo, il concetto di stato funzionale viene concepito in analogia a stati descrivibili da una "macchina di Turing" e questo spiega come il funzionalismo si sia fin dal principio strettamente legato al modello computazionale della mente secondo il quale i processi mentali sono concepibili come "programmi" che "girano" nel cervello. In termini ontologici, il funzionalismo afferma che gli stati mentali esistono e sono identificabili con stati funzionali. In questo modo esso sottolinea il tipo di operazioni che svolge la mente, non quali sostanze (fisico-chimiche o magari spirituali) siano impiegate per la realizzazione delle operazioni mentali. Questo permette di sostenere che, sebbene sia l'organizzazione biologica a rendere possibile in noi le funzioni mentali, un"organizzazione elettronica" che realizzasse le medesime funzioni potrebbe creare una macchina pensante, secondo il progetto dell'intelligenza artificiale.
Putnam, nel considerare gli stati mentali come stati funzionali dell'organismo che esistono solo in quanto sono implementati, realizzati, da stati cerebrali, non ritiene tuttavia che tali stati funzionali siano riducibili a stati del cervello, ed è per questo che il funzionalismo si ricollega alla tesi di Aristotele per cui l'anima è la forma (o "funzione") del corpo. "Arrivato a questo punto - scrive Putnam nel 1975 - ho scoperto con piacere che la mia posizione era sostanzialmente uguale a quella di Aristotele". E di recente egli è giunto ad affermare che se rifiutare l'idea che la mente sia riducibile al cervello significa essere aristotelici, allora "sì, noi siamo "aristotelici".
Nonostante lo stesso Putnam sia oggi tra coloro che attaccano criticamente il funzionalismo, tale dottrina ha avuto ampia diffusione e fortuna nell'attuale dibattito sulla mente: Daniel Dennett, oltre a essere un fermo sostenitore del materialismo eliminativista è anche un fautore del funzionalismo, poiché, egli afferma, "la relazione tra il software e l'hardware di un computer è ciò che ci mostra meglio di ogni altra cosa come una mente possa essere realizzata da un cervello senza essere a esso riducibile".
Il funzionalismo di Dennett si sviluppa in un'articolata teoria computazionale della mente che propone un'esplicita analogia mente-computer. Come in un computer un'operazione eseguita da un certo programma è implementata da più operazioni compiute dal sistema operativo e ciascuna di esse, a sua volta, è realizzata da certi processi determinati dalla "fisica" del computer, così si può presumere che, quando agiamo in modo intelligente, tale azione venga compiuta da un "omuncolo", dall'esistenza esclusivamente virtuale e meccanica, e coincida con particolari processi fisico-chimici del cervello. Il cervello umano, in quanto prodotto dell'evoluzione biologica, è, secondo Dennett, un hardware che funziona in parallelo.
Jerry Fodor (The Language of Thought, 1975), a partire dal funzionalismo di Putnam, ha sviluppato una "teoria computazionale e rappresentazionale della mente" - che ha successivamente costituito la base teorica della scienza cognitiva secondo la quale la mente è quella organizzazione funzionale del cervello che, indipendentemente dalla struttura fisica di questo, è capace di spiegare causalmente il comportamento dell'organismo: il cervello sarebbe simile a un computer che elabori l'informazione fornita dagli stimoli sensoriali e li converta in risposte motorie. La mente è il software, il programma, che consente al cervello di svolgere tale operazione. Le attività mentali sono dunque per Fodor dei "processi computazionali" determinati da "regole sintattiche": tali processi si manifestano come "rappresentazioni mentali" che la nostra mente combina tramite alcune regole. La teoria di Fodor è dunque "computazionale" e "rappresentazionale", è una teoria della mente secondo la quale esistono realmente degli stati intenzionali "scritti nel cervello", cioè dei simboli dotati di valore semantico combinabili secondo regole sintattiche. Qualsiasi attività mentale risulta così una computazione che il cervello opera manipolando simboli, rappresentazioni che esso trova dentro di sé "scritte" in un qualche linguaggio neurologico, il "linguaggio del pensiero" (language of thought).
Nel sostenere la tesi fondamentale del funzionalismo, ovvero l'equazione secondo cui il software, il programma, sta all'hardware, il computer, come la mente sta al cervello, Fodor approda a un particolare tipo di funzionalismo-fisicalista che egli definisce una sorta di "naturalismo", poiché ha l'obiettivo di dimostrare che i fenomeni mentali sono strettamente connessi a fenomeni fisici senza tuttavia venire completamente "ridotti" alla fisica, ma piuttosto "naturalizzati". In questo modo egli non nega l'esistenza dei fenomeni mentali, ma si oppone fermamente all"eliminativismo"; ciononostante la teoria computazionale di Fodor sembra implicare un'idea fortemente riduttiva del cervello che le recenti scoperte neuroscientifiche hanno messo in discussione, un'idea che era già presente nel "sogno di un'intelligenza artificiale immaginato da Turing e von Neumann negli anni cinquanta e che si fondava sulla speranza che un giorno gli studi neuroscientifici avrebbero dimostrato che il cervello non è poi così complesso come pensiamo. Ma le ricerche in ambito neuroscientifico hanno invece evidenziato l'estrema complessità del cervello già a livello quantitativo. Il numero di neuroni presenti in alcune aree e il numero di connessioni che essi stabiliscono è sbalorditivo: i conteggi delle cellule nervose che costituiscono la struttura della corteccia cerebrale non sono molto accurati, ma pare vi siano circa dieci miliardi di neuroni. E il numero di sinapsi che, nello strato corticale, collegano le cellule nervose è impressionante: circa un milione di miliardi di connessioni. Se volessimo contarle, ci ricorda Gerald Edelman, una connessione (sinapsi) al secondo, si finirebbe dopo circa trentadue milioni di anni.
Come abbiamo cercato di fare emergere fino ad ora, la rilevanza del problema mente-corpo è sostanziale e decisiva nell'intero dibattito sulla natura della mente: essa delinea orientamenti e teorie alquanto diverse tra loro e insieme evidenzia il tema centrale della filosofia della mente, che è costituito dall'intenzionalità e dalla coscienza. Le varie forme di fisicalismo e di materialismo che abbiamo esposto rimangono tuttavia in qualche modo all'interno della prospettiva dualista inaugurata dalla metafisica soggettivista di Cartesio poiché, per produrre un superamento della contrapposizione tra res cogitans e res extensa, giungono a negare l'esistenza stessa della res cogitans, della coscienza.
Abbiamo osservato come il "naturalismo" di Fodor, pur opponendosi all'eliminativismo, rimanga una forma di fisicalismo che, sebbene non neghi completamente l'esistenza della coscienza, la "riduce" a stati funzionali e computazionali. Il naturalismo di Fodor considera i fenomeni mentali solamente dal punto di vista quantitativo, misurabile: egli esclude l'indagine dei qualia, gli stati qualitativi soggettivi sensazioni, emozioni, percezioni, coscienza -, gli stati riguardo ai quali ci chiediamo "che cosa si prova a essere ciò che siamo, che cosa sentiamo?". Fodor non si occupa della coscienza, o delle emozioni e delle sensazioni, poiché tali fenomeni non presentano caratteri misurabili e oggettivamente certi e non possono dunque costituire materia di indagine scientifica.
Le teorie della mente che costituiscono la maggiore sfida al dualismo cartesiano sono quelle che ne propongono un superamento radicale, cercando di produrre delle teorie del mentale di carattere unitario in cui mente e corpo non si escludono l'un l'altro e dove gli stati mentali e la coscienza rivestono un ruolo centrale: pensiamo al "monismo anomalo" di Donald Davidson, al "naturalismo biologico" di John Searle e alla teoria neurobiologica della coscienza di Gerald Edelman che propone una naturalizzazione "non riduzionista" della mente e del cervello umano.
a) L'intenzionalità e la coscienza
I tentativi di superamento del dualismo di eredità cartesiana si intrecciano inevitabilmente con il tema dell'intenzionalità e della coscienza: Thomas Nagel iniziava il suo articolo del 1974, Che cosa si prova a essere un pipistrello?, affermando che "la coscienza è ciò che rende veramente ostico il problema del rapporto fra la mente e il corpo [...] senza la coscienza il problema mente-corpo sarebbe molto meno interessante: con la coscienza esso appare senza speranza di soluzione".
La vera sfida per una teoria della mente che intenda confrontarsi anche con il problema dell'io e della soggettività è dunque la coscienza, termine che si connette strettamente a quello di intenzionalità, nel senso del riferirsi a o di dirigersi consapevolmente verso qualche cosa, sia esso un oggetto esistente o meno.
Nell'ambito delle ricerche filosofiche sulla mente, il problema dell'intenzionalità occupa un ruolo di primo piano: già la tradizione filosofica medioevale, con la dottrina scolastica, aveva introdotto il termine intentio per indicare l'essenzialità del fenomeno mentale dell'intenzione e la sua caratteristica di direzionalità, di tensione verso un fine di carattere conoscitivo. Intenzionalità, per gli scolastici, significa il tendere dell'atto cognitivo verso altro da sé, cioè verso un oggetto che viene raggiunto e fatto proprio mediante l'atto stesso.
Ma il padre del moderno concetto di intenzione e di intenzionalità è il filosofo tedesco Franz Brentano che ha reintrodotto nel diciannovesimo secolo il termine medievale intentio. Per Brentano l'intenzionalità è la caratteristica fondamentale che separa tutti i fenomeni mentali da quelli fisici. Solo i primi hanno un contenuto come oggetto proprio: per esempio un desiderio ha un desiderato, che ne è il contenuto, e una credenza ha un qualcosa che è creduto, e così le speranze, le intenzioni, le rappresentazioni, la volontà:
Ogni fenomeno psichico contiene in sé qualcosa come oggetto, anche se non ogni fenomeno lo fa nello stesso modo. Nella rappresentazione qualcosa è rappresentato, nel giudizio qualcosa viene accettato o rifiutato, nell'amore c'è un amato, nell'odio un odiato, nel desiderio un desiderato ecc. Tale inesistenza intenzionale (intentionale Inexistenz) caratterizza esclusivamente i fenomeni psichici. Nessun fenomeno fisico mostra qualcosa di simile. Di conseguenza, possiamo definire fenomeni psichici quei fenomeni che contengono intenzionalmente in sé un oggetto.
L'intenzionalità non è solo "direzionalità verso un oggetto", essa è un fenomeno mentale "irriducibile" a qualcos'altro, è l'elemento fondamentale per la comprensione dei fenomeni mentali e psicologici. Per Brentano l'intenzionalità è ciò che caratterizza la coscienza stessa: "Definiamo con il termine coscienza qualsiasi fenomeno psichico dotato di un contenuto". Edmund Husserl, allievo di Brentano, spingendosi oltre le indicazioni del maestro, giungerà a fondare la sua intera teoria della conoscenza sull'intenzionalità. Con Husserl l'intenzionalità non è più un concetto esteso che caratterizza gli stati mentali in generale, ma diviene il carattere specifico della coscienza, il punto di partenza per la costruzione di un vero e proprio metodo filosofico, una nozione filosofica capace di penetrare il mondo della coscienza dell'uomo, "ciò che caratterizza la coscienza in senso pregnante, poiché è la proprietà degli Erlebnisse di essere coscienti". Scopo di Husserl è quello di fornire una teoria generale dell'intenzionalità che permetta di rispondere in modo appropriato alla domanda: che cos'è che rende uno stato di coscienza intenzionale? Egli definisce gli stati mentali dotati di intenzionalità Erlebnisse intenzionali o più semplicemente atti: "Eviteremo completamente l'espressione "fenomeno psichico", parlando invece di Erlebnisse intenzionali. [...] Useremo anche, come espressione più breve, la parola "atto"".
Le successive ricerche di filosofia della mente, sebbene abbiano preso le distanze dagli esiti trascendentali della teoria della coscienza di Husserl, hanno mantenuto sostanzialmente inalterate le caratteristiche dell'intenzionalità poste in evidenza da Brentano e Husserl: per filosofi come Gertrude E. Anscombe (Intention, 1957), Georg H. von Wright (Spiegazione e comprensione, 1971), Roderick Chishoim (Perceiving. A Philosophical Study, 1957; The Structure of Intention, 1970), Donald Davidson (Essays on Action and Events, 1980) e John Searle (Dell'intenzionalità, 1983) il carattere dell'intenzione come "direzione verso un oggetto" rimane una proprietà fondamentale di questo stato mentale. Diversamente dalla tradizione psicologistica e fenomenologica, per la filosofia della mente contemporanea l'intenzionalità non è sempre un'esplicita proprietà di carattere psichico: essa è semplicemente la proprietà generale di ciò che è diretto verso qualcosa, che riguarda qualcosa, ovvero il riferimento, l'aboutness.
Nell'ambito della filosofia della mente contemporanea, in particolare John Roger Searle (1932) ha fornito una teoria originale dell'intenzionalità che, a partire dal carattere irriducibile degli stati mentali intenzionali, giunge a criticare radicalmente le ipotesi di riproduzione artificiale della mente dell'uomo. Pur accettando i presupposti fondamentali della fenomenologia di Brentano e di Husserl, l'indagine di Searle si pone in una prospettiva molto diversa rispetto a quella della tradizione fenomenologica. La comprensione del fenomeno dell'intenzionalità non può limitarsi al livello psicologico e mentale, ma deve considerare anche aspetti linguistici e comportamentali, nonché gli aspetti relativi alla struttura biologica del cervello.
Gli oggetti che per Brentano erano oggetti psichici, per Searle sono gli oggetti del mondo, della realtà fenomenica: la direzionalità dell'intenzione è direzionalità verso un oggetto fisico che esiste realmente, non è solo contenuto nella nostra mente. Gli stati mentali sono tanto reali quanto lo sono fenomeni biologici quali la fotosintesi, la mitosi e la digestione. A partire dalla teoria generale dell'intenzionalità, Searle giunge a elaborare una teoria della coscienza che ha l'obiettivo di superare il dualismo cartesiano e le varie forme di computazionalismo e funzionalismo e che va nel senso di una "naturalizzazione" non riduzionista della coscienza.
b) Il naturalismo biologico e la "naturalizzazione" della coscienza
Searle è convinto che sia possibile fornire una spiegazione di come il cervello possa produrre l'esperienza qualitativa che ciascuno di noi ha in quanto soggetto e che caratterizza la coscienza dell'uomo. Per fare questo è necessario innanzitutto superare le teorie computazionali della mente e il dualismo da esse implicato, ovvero, posizioni come quella di Daniel Dennett, che rifiuta l'esistenza stessa degli stati qualitativi e della coscienza, o di David Chalmers, che difende invece l'irriducibilità della mente fenomenica e quindi un materialismo estremo. Per tali autori, afferma Searle,
i candidati favoriti per i fenomeni a cui la coscienza può essere ridotta sono gli stati cerebrali descritti in termini puramente "fisici" e i programmi per computer [...] Ma i tentativi riduzionisti di eliminare la coscienza sono senza speranza, come il dualismo che essi vorrebbero soppiantare. Essi finiscono con il negare il fatto evidente che tutti noi abbiamo stati interiori qualitativi e soggettivi quali le gioie e i dolori, i ricordi e le intuizioni, i pensieri e i sentimenti, gli umori, i rimpianti e le bramosie.
Al materialismo, al riduzionismo e all'Intelligenza artificiale Searle oppone due argomenti.
Il primo è l'argomento della "stanza cinese", una versione sofisticata del "test di Turing" (secondo cui se un uomo non è in grado di distinguere se dietro a uno schermo chi risponde alle sue domande è un altro uomo oppure una macchina, se la macchina è in grado di vincere il "gioco dell'imitazione", allora la macchina deve essere considerata "intelligente"), argomento elaborato da Searle negli anni ottanta e che ha costituito uno dei maggiori attacchi all'AI e all'idea che i programma di un computer sia analogo alla mente umana.
Il secondo argomento è dato dalla teoria del "naturalismo biologico", dalla tesi cioè che i fenomeni mentali sono fenomeni reali, naturali e biologici. Per Searle i computer sono in grado di manipolare sintatticamente simboli ma non sono assoutamente in grado di interpretarli, cioè di comprenderne il significato o di attribuirgliene uno. Solo il cervello è capace di consapevolezza, coscienza e intenzionalità. I fenomeni mentali sono fenomeni primitivi, cioè irriducibili sia a eventi fisici sia a enti o fenomeni più "profondi" e misteriosi; essi sono tanto reali e naturali quanto lo sono fenomeni biologici quali la fotosintesi, la mitosi e la digestione, i tramonti sul mare e le montagne che intravediamo dalla nostra finestra. Il classico dualismo cartesiano, il problema mente-corpo, non si risolve - come vorrebbero i funzionalisti - riducendo la mente e il cervello al programma di usi computer, ma con la comprensione del fatto che i fenomeni mentali sono esattamente tutto ciò che accade nella struttura fisica del cervello.
La coscienza è un processo biologico che accade nel cervello ed è insieme un processo soggettivo, irriducibile a qualcos'altro, a funzioni, rappresentazioni, neuroni e sinapsi. L'ambizioso tentativo del "naturalismo biologico" di Searle è quello di elaborare una teoria della coscienza di tipo materialista, senza tuttavia cadere nel materialismo che ridurrebbe la coscienza a qualcos'altro, a stati cerebrali, a neuroni, sinapsi e cellule nervose. La coscienza è dunque un'entità che ha una realtà epistemicamente oggettiva e ontologicamente soggettiva. E per giungere a comprenderla è necessaria una ridefinizione delle categorie della causazione, del rapporto mente-corpo e linguaggio-realtà, a partire da una ridefinizione dei concetti di materiale e mentale.
Il naturalismo biologico di Searle, sebbene presenti delle ambiguità e una forma di materialismo che non sembra oltrepassare il dualismo, costituisce un tentativo di gettare un ponte tra filosofia e neuroscienze che è stato seriamente accolto, sul versante scientifico, da Gerald Edelman (1929) il quale ha sviluppato una teoria della coscienza "non riduzionista" che presenta notevoli affinità con il naturalismo di Searle
Gli stati mentali hanno, per Edelman, la medesima realtà dei neuroni e delle sinapsi che determinano il funzionamento dei nostri cervelli. "Sono i fatti stessi della biologia che ci costringono a concludere che la mente non è trascendente." Il numero di neuroni e di connessioni presenti nel cervello è, per Edelman, un primo indizio di ciò che rende il cervello di animali complessi come gli uomini così straordinario da lasciar pensare che esso dia origine a caratteristiche mentali. Se l'organizzazione della materia della mente, formata da neuroni, sinapsi, cellule, strati, lamine e nuclei è già di per sé complessa, essa lo diviene ancor di più quando gli elementi che la compongono interagiscono tra loro e con il mondo esterno. E nell'interazione con il mondo esterno la materia della mente si traduce anch'essa, come l'intenzionalità, in agire pratico, in linguaggio e in comportamenti.
Anche Edelman, come Searle, ha una posizione fortemente critica nei confronti dei tentativi di riproduzione artificiale della mente umana, sostenuti dal funzionalismo e dall'Intelligenza artificiale, poiché essi non giungono a considerare gli aspetti fondamentali della mente umana, che sono l'intenzionalità e la coscienza.
La critica di Edelman all'Intelligenza artificiale si fonda sulla premessa che lo sviluppo del sistema nervoso e la sua capacità di modificare le sue proprietà in conseguenza dell'esperienza devono essere visti come processi di selezione continua di gruppi di neuroni preesistenti e delle loro connessioni sinaptiche, in risposta a sfide o costrizioni ambientali.
A partire dalle indagini nel campo della biologia dello sviluppo, Edelman è giunto a elaborare una teoria "neodarwiniana" dello sviluppo delle funzioni del cervello, per la quale i neuroni vengono considerati come una popolazione sottoposta a diversi meccanismi di selezione successiva. Tale ipotesi evoluzionista del cervello è per Edelman estendibile alla mente e alla coscienza dell'uomo. Il "darwinismo neurale" di Edelman mette in discussione, in linea di principio, l'idea che nell'uomo siano presenti modelli uniformi di localizzazione delle funzioni superiori. La neuropsicologia classica tendeva ad assumere che la localizzazione di funzioni seguisse un corso abbastanza simile in ciascun individuo, che vi fosse quindi un notevole grado di uniformità tra individui diversi. Le osservazioni di Edelman hanno invece dimostrato che la competitività imposta dall'ambiente di sviluppo dei neuroni, a livello microbiologico, e l'immensità dei cambiamenti cognitivi da essa provocati, indicano la singolarità dei processi del cervello: ciascun cervello umano sviluppa un'organizzazione funzionale sua propria a livello rappresentativo. Le regioni cerebrali più caratteristicamente umane - in particolare le due grandi espansioni del lobo frontale e della parte anteriore del lobo temporale - sono probabilmente le più plastiche strutture neurologiche esistenti in natura e sono in grado di assumere forme diverse. Esse sono altamente configurabili e riconfigurabili perché le loro risorse sono attribuite su base competitiva.
In questo modo Edelman ha elaborato una Teoria scientifica della coscienza fondata su basi neurali e sulla selezione, cioè la teoria della selezione dei gruppi neuronici (TSGN): essa si propone come un serio e fondato tentativo di "riportare la mente nella natura", di ricomprendere la mente all'interno delle scienze naturali, senza snaturarne le peculiarità. La mente non viene ridotta alla materia, ma spiegata in termini materiali. E tale spiegazione non impedirebbe l'efficacia della coscienza e preserverebbe l'unicità di ogni mente individuale, nonché la sua infinita creatività. Edelman delinea un nuovo tipo di paradigma scientifico basato sul concetto di selezione naturale e sull'accettazione dell'esperienza soggettiva come elemento della scienza.
La naturalizzazione "non riduzionista" che Searle ed Edelman propongono, pur lasciando aperti problemi come le esperienze percettive soggettive (i qualia) e la spiegazione del rapporto tra processi coscienti soggettivi e processi neurali oggettivi, costituisce un'interessante ipotesi per una comprensione unitaria della mente e della coscienza, facendo incontrare biologia, scienza del cervello e filosofia.
Nella direzione di una teoria unitaria si è mosso anche il "monismo anomalo" di Donald Davidson, teoria peculiare del rapporto mente-corpo, elaborata negli anni settanta" e che ha sollevato un acceso dibattito sulla causalità mentale che ancora oggi costituisce uno dei maggiori argomenti di discussione nella filosofia della mente.
c) Monismo anomalo e leggi psicofisiche
Obiettivo della tesi del "monismo anomalo" (anomalous monism) di Davidson che coniuga due assunti apparentemente inconciliabili come il monismo ontologico-fisicalista e la completa autonomia del mentale dal sistema nomologico-deduttivo delle scienze naturali - è quello di fornire una giustificazione dei fenomeni mentali senza tuttavia accettare una descrizione di tipo nomologico-deduttiva di tali fenomeni e delle azioni umane, negando dunque la possibilità che esistano leggi psicofisiche (psychophysical laws) in grado di spiegare gli eventi mentali.
Per Davidson tra mentale e fisico non vi è alcuna distinzione ontologica, ma non vi è nemmeno una qualche correlazione nomologica:
Questo punto di vista merita il nome di "monismo anomalo": monismo in quanto sostiene che gli eventi mentali sono eventi fisici; anomalo in quanto insiste sul fatto che gli eventi, quando sono descritti in termini psicologici, non ricadono sotto leggi rigorose (strict laws)
Per Davidson, tradurre le spiegazioni psicologiche in spiegazioni fisicaliste è impossibile, sebbene ogni singolo evento mentale sia in effetti un evento cerebrale, perché non esiste alcuna legge psicofisica che correli eventi mentali tra loro simili a eventi fisici tra loro altrettanto simili. Questa differenza tra spiegazioni psicologiche e spiegazioni fisico-chimiche non impedisce tuttavia che ogni singolo evento mentale coincida con un evento cerebrale: non impedisce, per esempio, che se vedo una mela e la prendo per mangiarla, il mio vedere la mela e il mio desiderio di mangiarla coincidano in effetti con dei processi cerebrali che causano, secondo leggi fisiche e chimiche, le contrazioni di certi muscoli e perciò il movimento della mia mano nell'atto di afferrare la mela per mangiarla.
Lo strumento fondamentale per tenere insieme il monismo fisicalistico e l'irriducibilità del mentale è dato, per Davidson, dalla teoria delle identità delle occorrenze (token-identities theory): le condizioni antecedenti, a cui ci si riferisce nelle spiegazioni causali dell'azione, coincidono sempre con determinati eventi fisici, ma non sempre questi eventi sono dello stesso tipo. Davidson sembra sostenere una token-identity theory in forma debole : ciò che viene a coincidere sono infatti gli eventi in quanto occorrenze (tokens) individuali. Secondo le token identities quindi, eventi mentali individuali di un certo tipo possono coincidere con eventi di tipo fisico del tutto differente. In altre parole, l'anomalia del mentale impedisce la corrispondenza tra tipi di eventi mentali e tipi di eventi fisici, ma non impedisce quella tra le singole occorrenze.
L'originalità del tentativo di soluzione di Davidson è che, secondo la sua variante "debole" della token identity, egli non solo non presuppone alcuna correlazione nomologica tra il dominio del mentale e quello fisico, ma nemmeno correlazioni all'interno del dominio del mentale. Eventi mentali come le intenzioni, i desideri, i ricordi, le decisioni non sono soggetti a nessuna legge né, tanto meno, possono essere "ridotti" a eventi fisici e quindi descrivibili in termini nomologico-deduttivi.
Davidson caratterizza dunque il suo monismo ontologico come "anomalo" in quanto esso si differenzia radicalmente dal monismo nomologico e dal riduzionismo da questo implicato: l'ambito dell'agire, del pensare e del decidere è dominato da una certa autonomia degli agenti e quindi anche da una certa imprevedibilità delle loro azioni.
Egli ritiene che gli eventi mentali si sottraggano alla "rete nomologica" ma da ciò non segue il fatto che essi non abbiano nessuna incidenza causale e che non possano influire sul dominio fisico; anzi, proprio perché gli eventi mentali coincidono con quelli fisici, essi hanno un potere causale e possono essere identificati come "cause d'azione". E tuttavia essi non sono descrivibili da leggi rigorose, di carattere psicofisico: come abbiamo osservato, la tesi fondamentale di Davidson, che caratterizza la sua teoria del "monismo anomalo", è che non esistono leggi psicofisiche. Non vi sono delle così dette "leggi ponte" (bridge-laws) in grado di consentire la riduzione del mentale al fisico. La peculiarità e originalità del monismo anomalo è data dunque dall'affermare che gli eventi mentali hanno un'incidenza causale anche se non sono sottoposti ad alcuna legge in senso stretto: il mentale, per Davidson, "sopravviene" sul fisico.
d) Il lavoro sperimentale di Damasio
Come emerge dai diversi orientamenti e teorie che caratterizzano la discussione attuale sulla mente, rintracciare un filo conduttore o una teoria dominante risulta pressoché impossibile a causa dell'estrema eterogeneità delle proposte avanzate, sia da una prospettiva strettamente filosofica sia dalla prospettiva della scienza. Vi sono tuttavia dei temi essenziali che abbiamo cercato di mettere in luce, come il problema del rapporto mente-corpo e il tema della coscienza. Attorno a queste due questioni fondamentali si è sviluppata una serie di proposte che abbiamo suddiviso in risposte di tipo "dualista" e "antidualista": a quest'ultimo tipo appartengono teorie della mente che cercano in qualche modo di ridurre la res cogitans a una res extensa. Le diverse forme di materialismo, di eliminativismo, il funzionalismo e l'intelligenza artificiale rientrano, in senso generale, in questo primo tipo di orientamento. Al primo tipo, alle teorie "dualiste" della mente, hanno invece cercato di dare risposte le teorie naturaliste non riduzioniste e forme particolari di monismo, come il "monismo anomalo" di Davidson.
Al di là delle diverse tendenze, tra loro così varie ed eterogenee, e delle numerose soluzioni che si è cercato di fornire ai problemi filosofici che riguardano la mente umana, il tema della coscienza continua a rappresentare una delle maggiori sfide alle teorie computazionali della mente e ai tentativi di ricreare artificialmente la mente dell'uomo. Per quanto si cerchi di "ridurre" la coscienza a stati funzionali, a neuroni e sinapsi, a reti neurali artificiali, a comportamenti meccanici e a stati fisici, essa riemerge come dato problematico poiché, come ha evidenziato di recente il neuroscienziato Antonio Damasio, essa si accompagna inesorabilmente a stati emotivi che difficilmente si possono descrivere nel linguaggio simbolico delle macchine e dei computer.
Le affascinanti indagini condotte da Damasio sul cervello di individui che avevano subito delle menomazioni neurologiche hanno evidenziato la stretta connessione tra intelligenza razionale e intelligenza emotiva: pazienti che prima di subire una lesione in zone del cervello responsabili delle capacità emotive (in particolare, le cortecce prefrontali ventromediane) producevano dei comportamenti coerenti ed equilibrati, successivamente al danno subito, cioè con il venir meno di una normale attività cerebrale riferita alla sfera emotiva, presentavano forti compromissioni anche nelle attività pratiche che richiedevano un intervento puramente razionale.
Le indagini di Damasio convergono verso un medesimo risultato: dimostrano cioè l'essenzialità del valore cognitivo delle emozioni e l'importanza del loro legame con la coscienza e con il corpo. Per Damasio, le emozioni sono un aspetto essenziale e produttivo del pensiero umano e dell'azione: esse pongono una sfida radicale alla teoria computazionale della mente.
La teoria biologica della mente che egli propone, rovesciando Cartesio, sostiene la tesi fondamentale che corpo e cervello formino un organismo indissolubile: pensare la mente come un computer, significherebbe invece accettare in pieno la frattura cartesiana tra res cogitans e res extensa, tra un software, che dovrebbe essere la mente, e un hardware che sarebbe il cervello o il corpo in senso esteso.
Lo studio dei disturbi della memoria, del linguaggio e della ragione, presenti in pazienti colpiti da lesioni al cervello, ha portato Damasio alla convinzione, teoretica e sperimentale, che l'attività mentale richiede sia il cervello sia il resto del corpo. Il corpo stesso fornisce la materia di base per le rappresentazioni cerebrali. Amore e odio, gentilezza e ferocia, la soluzione di complicati problemi matematici o la creazione di un nuovo artefatto, si basano tutti su eventi neurali che avvengono all'interno di un cervello, purché questo interagisca con il corpo cui appartiene.
Damasio sembra tradurre nel linguaggio attuale della scienza neurobiologica ciò che, oltre un secolo fa, Friedrich Nietzsche scriveva in Così parlò Zarathustra:
"Corpo io sono e anima" - così parla il fanciullo. E perché non si dovrebbe parlar come i fanciulli? Ma il risvegliato e sapiente dice: corpo io sono in tutto e per tutto, e null'altro; e anima non è altro che una parola per indicare qualcosa del corpo. Il corpo è una grande ragione, una pluralità con un solo senso, una guerra e una pace, un gregge e un pastore. Strumento del corpo è anche la tua piccola ragione, fratello, che tu chiami "spirito", un piccolo strumento e un giocattolo della tua grande ragione. {...] Dietro i tuoi pensieri e sentimenti, fratello, sta un possente sovrano, un saggio ignoto - che si chiama Sé. Abita nel tuo corpo, è il tuo corpo. Vi è più ragione nel tuo corpo che nella tua migliore saggezza."" (pp. 1423-1441)
Nella sua Enciclopedia di Psicologia (Garzanti, Milano 2004) U. Galimberti fornisce una panoramica altrettanto chiara:
Espressione che sintetizza il problema filosofico del rapporto tra la mente e il cervello (in sigla MBP, dall'espressione anglosassone Mind-Brain-Problem). Tale problema è la riformulazione che le neuroscienze hanno dato del più antico problema «mente-corpo» che la filosofia greca aveva inaugurato con Platone e la sua concezione dualistica dell'uomo diviso in anima e corpo. Da allora il problema ha ricevuto differenti impostazioni che da un lato riflettevano l'orizzonte concettuale dell'epoca e dall'altro offrivano soluzioni che diventavano a loro volta occasioni per riproporre la questione su nuove basi concettuali.
Il problema «mente-corpo» è inaugurato da Platone il quale indica nell'anima (psyché): i ) il fondamento dell'individualità del soggetto, la cui identità è salvaguardata rispetto ai tratti mutevoli del corpo, sottoposti al divenire, alla forza dissolvente delle passioni, alla malattia e alla morte: 2) la sede esclusiva del rapporto con la verità contro l'inganno dei sensi corporei incapaci di approdare a un sapere universale e valido per tutti. Così connotata, l'anima diventa espressione dell'autosufficienza della ragione che procede «senza uscire da quel che risulta dai soli termini del discorso» (Sofista, 240 a).
Questi due motivi ricompaiono immutati nella tradizione cristiana, luogo eminente della cultura dell'anima e dell'elaborazione dell'antropologia occidentale. Con essa infatti si ribadisce che la verità abita l'interiorità e rifugge il mondo. I motivi agostiniani: «In interiore homine habitat veritas» (389-391. p. 204-205) e «Amare mundum non est cognoscere Deum» (415, p. 148-153) ripropongono alla lettera la concezione platonica dell'anima separata dal corpo e raccolta nella sua interiorità assunta come luogo proprio della verità.
Nell'età moderna il dualismo platonico trova la sua radicalizzazione nel sistema delle scienze esatte inaugurato da Cartesio. La conquista dell'oggettività, che è il primo tratto tipico della scienza moderna, richiede la netta separazione nell'uomo di anima e corpo; così il corpo, da soggetto che esplora con i suoi sensi il mondo, viene risolto in oggetto, relegato nella res extensa, e compreso, al pari di tutti gli altri corpi, in base alle leggi fisiche che governano l'estensione e il movimento. L'anima, sottratta a ogni influenza corporea, viene pensata come puro intelletto (res cogitans), come ego intersoggettivo nelle cui cogitazioni, rigorosamente condotte con metodo matematico, si raccoglie ogni possibile senso del mondo e di ogni io personale e soggettivo che abita il mondo. Da allora ogni produzione di senso cessa di inscriversi nell'originario e immediato rapporto dell'uomo con il mondo; l'uomo e il mondo ricevono il loro senso dalle cogitazioni dell'ego che complessivamente vanno componendo la nuova scienza.
Diviso dall'anima, il corpo incomincia la sua storia come somma di parti senza interiorità, mentre l'anima è ridotta a interiorità senza distanze. Corpo e anima costituiscono due idee chiare e distinte, come voleva Cartesio, per il quale si danno solo due forme di esistenza: come cosa (res extensa) e come coscienza (res cogitans). Ma siccome delle due a pensare è solo la res cogitans si ottiene un corpo quale è concepito dall'intelletto e non quale è vissuto dalla vita, un corpo in idea e non in carne e ossa, un corpo anatomico e non un soggetto di vita. In questo modo il corpo diventa un fascio di processi in terza persona: la vista, l'udito, il tatto, la motilità; a ciascun processo corrispondono il suo organo, le sue cause, la sua scienza specifica. Anche se Cartesio non nega la differenza tra il corpo quale è concepito dall'uso della vita e il corpo quale è concepito dall'uso dell'intelletto, il primo viene senza esitazione subordinato al secondo perché, scrive Cartesio: «Posso dubitare che il mio corpo esista, ma non posso dubitare che io esisto; perciò il mio corpo non è essenziale alla mia esistenza» (1641, p.209).
Il dualismo mente-corpo viene attenuato dallo stesso Cartesio, che ammette un'interazione tra le due entità tramite la ghiandola pineale deputata a connettere la res cogitans con la res extensa. Questa spiegazione, apparsa da subito insoddisfacente, ha generato negli sviluppi del pensiero moderno altre soluzioni che si possono così riassumere.
a) Negazione dell'interazione. E la posizione espressa dal parallelismo psicofisico di Spinoza, Malebranche e Leibniz. Il primo concepisce il corpo e la mente come due attributi dell'unica sostanza che può essere visualizzata sia dal punto di vista delle idee sia dal punto di vista delle cose, per cui «L'ordine e la connessione delle idee è identico all'ordine e alla connessione delle cose» (1665, p. 73). Secondo Malebranche mente e corpo seguono ognuno le proprie leggi, e la loro coordinazione è «di volta in volta» garantita dall'intervento di Dio. Leihniz, con la sua concezione dell'armonia prestabilita, prevede che la coordinazione tra il mentale e il corporeo sia garantita «originariamente» da Dio, come quella di due orologi ideali perfettamente sincronizzati in origine.
b) Attenuazione del dualismo. E questa la via percorsa dall'empirismo inglese, prima con J. Locke che sottolinea il carattere «funzionale» e non «sostanziale» della mente, poi con D. Hume che risolve la mente in un «fascio di percezioni», dove la mente è da pensare più come un palcoscenico in cui si succedono collezioni di percezioni che come un soggetto d'esperienza. In linea con l'attenuazione del dualismo è anche la posizione di I. Kant, che depotenzia il dualismo mente-corpo spostando il problema a livello trascendentale con la teoria de1l'"Io puro».
c) Negazione del dualismo. E questa la soluzione indicata dalle filosofie idealiste e da quelle materialiste che hanno in comune il fatto di non riconoscere una delle due «sostanze» cartesiane o con una esplicita negazione o con una radicale subordinazione dell'una all'altra.
Nel Novecento il problema «mente-corpo» viene riformulato come problema «mente-cervello» in seguito alla progressiva autoaffermazione delle neuroscienze nell'ambito delle quali si fa largo l'idea che il nocciolo della questione stia nel capire se e come le funzioni mentali derivino dalle funzioni cerebrali.
Questa riformulazione segna anche lo spostamento del problema dall'area propriamente filosofica a quella specificatamente scientifica. Qui di seguito vengono passate in rassegna le più significative posizioni emerse nel dibattito filosofico ed epistemologico.
a) Il materialismo scientifico. Proposto da J.J.C. Smart, sostiene che «nel mondo tutte le cose si risolvono nelle entità ultime della fisica, non essendoci alcuna entità non fisica e alcuna legge non fisica, per cui uomini e animali altro non sono che complicati meccanismi fisici» (1963, p. 651). A partire da questa premessa Smart sostiene che «le esperienze interne sono o potrebbero dimostrarsi strettamente identiche ai processi cerebrali», al punto che è possibile «ipotizzare di mantenere un cervello umano vivente in vitro e constatare, attraverso opportuni elettrodi inseriti, che questo cervello è in grado di percepire cose e anche di avere dolori, nonché la sensazione di muovere le sue membra inesistenti, e così via. Per questo diciamo che ciò che è importante in psicologia è ciò che avviene nel sistema nervoso centrale, non ciò che avviene nella faccia, nella laringe o nelle membra» (1963, p. 659).
b) II comportamentismo logico. Sostenuto da R. Carnap, afferma che il significato di parole relative a stati mentali come «pensiero», «collera», «intenzione» può essere interamente spiegato in termini di comportamento corporeo, facendo riferimento alle circostanze fisiche in cui questi fenomeni si verificano; per questo scrive Carnap: «La psicologia è un ramo della fisica», nel senso che, muovendo dalla descrizione di stati e movimenti fisici, si può passare, per mezzo di costruzioni logiche o per mezzo di inferenze fondate su leggi fisiche, a descrizioni mentali e viceversa, perché il rapporto di trasferibilità è simmetrico, anche se il lato fisico di questa equivalenza è quello fondamentale e il lato mentale quello derivato. Il punto di vista del comportamentismo logico, secondo cui le asserzioni psicologiche sono espressioni approssimative di comportamenti fisici, va tenuto distinto da quello del comportamentismo metodologico, che non prende posizione circa l'autonomia di un universo psichico rispetto all'universo fisico, ma si limita a escludere nella ricerca l'impiego di un vocabolario mentalista, così come ogni riferimento all'introspezione o a eventi interni inosservabili, per attenersi, in ossequio alle esigenze del metodo, alla sola elaborazione teorica dei comportamenti osservabili.
c) La teoria dell'identità. La teoria dell'identità tra fenomeni mentali e fenomeni neurofisiologici, introdotta dal filosofo H. Feigl e sostenuta dal neurofisiologo J-P. Changeux, prevede o un'identità di tipo, per cui gli eventi mentali corrispondono agli eventi cerebrali con conseguente riducibilità della psicologia a neurobiologia, o un'identità di occorrenza, secondo cui ogni evento mentale può essere tradotto in evento cerebrale senza che ciò comporti la traducibilità della tassonomia psicologica in quella neurologica. E questa la tesi sostenuta da V. B. Mountcastle e da D. Davidson per il quale esiste una «differenza categoriale tra il mentale e il corporeo, per cui i legami tra questi due apparenti poli dell'umano sono infinitamente più tenui e problematici di quanto si sia amato credere» (1980, p.223).
d) La teoria interazionistica. Sostiene una sorta di circolarità tra mente e cervello nel senso che il cervello è alla base della mente e la mente controlla a sua volta il cervello. Questa tesi, che evita di declinare la teoria dell'identità in termini materialistici, è sostenuta da K. Popper e J.C. Eccles per i quali, oltre al corpo («Mondo I », comprendente la sfera materiale) e alla mente (»Mondo 2», costituito dal pensiero, dagli stati di coscienza e dall'inconscio), esistono anche i prodotti dell'attività psichica come per esempio la cultura, il linguaggio, la conoscenza scientifica e artistica («Mondo 3») che, retroagendo sia sulla mente sia sul cervello, mettono capo a quel terzo polo che si chiama Io, per cui, scrive Popper: "Impariamo che siamo un lo per il l'atto che parliamo con altri lo» (1977, p. 84). E questa una tesi condivisa anche da A. Oliverio, per il quale la mente, come la cultura, è frutto del cervello, ma la cultura, come la mente, modifica a sua volta il cervello. Sulla stessa linea interpretativa si colloca S. Moravia che, rifacendosi alla distinzione binswangeriaria tra l'homo naturalis e l'homo existentialis, ritiene che quelli che tradizionalmente vengono chiamati fenomeni «mentali» sono semplicemente fenomeni «umani», dove per «umano» si intende qualcosa di irriducibile all'ordine meccanicistico della materia.
e) Il funzionalismo computazionale. Sostenuto da D.C. Denneit, J. Fodor e H. Putnam, ritiene che la mente sia una funzione tipica degli organismi superiori in grado di scegliere, per adattarsi all'ambiente, soluzioni non garantite dal semplice automatismo cerebrale. Anche se la mente si «incarna» in organi e processi fisiologici, non per questo si identifica con essi. Tra mente e cervello si deve immaginare un rapporto analogo a quello che esiste nel computer tra software e hardware, nel senso che la mente costituisce il software che si muove nell'hardware cerebrale, dove l'identità riguarda le funzioni, ma non le strutture (analogia computazionale): come i programmi di un calcolatore possono essere installati su macchine diverse, così le funzioni mentali non sono intrinsecamente legate a un determinato supporto materiale, quale il cervello umano; per questo i processi cognitivi da un lato possono essere studiati anche indipendentemente dalla loro realizzazione cerebrale, e dall'altro possono essere realizzati anche da sistemi artificiali. Questa tesi è condivisa anche da M. Barucci che invita a sostituire il termine «mente» con il termine «mentale» che consente di desostanzializzare la mente, per risolverla in un «processo» da intendersi a sua volta come espressione funzionale del cervello formatasi nel percorso evolutivo di miliardi di anni.
f) Il connessionismo. Questa posizione porta in un certo senso alle estreme conseguenze l'analogia computazionale ma rimette in discussione il modello dei calcolatore di Von Neumann, che prevede un'elaborazione seriale delle informazioni. I processi cognitivi possono essere simulati solo da una macchina la cui struttura e il cui funzionamento siano simili a quelli del cervello per l'elevato numero di connessioni tra unità neuronali, per l'elaborazione parallela anziché sequenziale delle informazioni (per cui molti processi di elaborazione avvengono contemporaneamente interagendo gli uni con gli altri) e per il livello di complessità raggiunto nell'elaborazione stessa, che fa emergere nel sistema caratteristiche nuove e non prevedibili,
g) La teoria eliminazionista. Sostenuta da P.M. Churchland, nega che esista un'entità mentale intesa come realtà determinata sussistente in se stessa, per cui il linguaggio mentalistico è privo di riferimento. Come è stato possibile, attraverso le moderne tecniche di analisi non invasive, svelare particolari sempre nuovi della struttura fisica del cervello, come per esempio lo schema per le funzioni senso-motorie, allo stesso modo si potrà in futuro giungere a evidenziare lo schema che governa le espressioni emotive e morali, fino a ricondurre la stessa coscienza a un meccanismo fisico analizzabile.
h) La teoria coscienzialista. Sostenuta da JR. Searle, reagisce agli eccessi riduzionistici del materialismo, del fisicalismo e del funzionatismo computazionale rivendicando l'esperienza irriducibile della coscienza che non può essere ricondotta a semplice stato neurologico, perché il livello neurologico non è sufficiente a «determinare» gli stati e i comportamenti osservabili negli individui e tanto meno a rendere conto del «carattere sociale della nostra mente» (1992, p. 265). Nel filone antiriduzionista si inscrive anche l'emergentismo di C. Broad. condiviso in parte da D. Hebh e R.W. Sperry, che pur sostenendo che le proprietà mentali emergono dalle funzioni cerebrali nega che la conoscenza dei meccanismi neuronali possa dare un'esauriente spiegazione dei funzionamento della mente."
Una panoramica sui problemi citati la fornisce anche William Bechtel in Filosofia della mente (Il Mulino, Bologna 1992). L'analisi è abbastanza approfondita, ma tendenziosa: filosofo, Bechtel è esplicito nel rivendicare l'autonomia, se non addirittura il primato della filosofia della mente rispetto alle discipline empiriche. Egli scrive nel capitolo primo:
"[…] La filosofia si è interessata delle caratteristiche della mente molto tempo prima che nascessero [le] discipline empiriche. I filosofi i sono posti domande come: quali sono i tratti distintivi della mente? Come dovrebbero essere caratterizzati gli stati mentali? Che rapporto c'è fra il corpo e la mente? Com'è che la mente è capace di conoscere il mondo fisico?..
Ci sono due domande che gli scienziati cognitivi che non hanno familiarità con la filosofia probabilmente porranno a proposito della filosofia della mente: a) qual è il metodo utilizzato dai filosofi per analizzare i fenomeni mentali? b) in che misura le ricerche dei filosofi si collegano alle indagini effettuate dalle altre discipline della scienza cognitiva?..
Per quanto riguarda la questione del metodo, la filosofia si distingue dalle altre discipline della scienza cognitiva per il fatto di non avere una sua peculiare base empirica. I filosofi distinguono sovente fra conoscenza a priori, che può essere ottenuta senza il ricorso all'indagine empirica, e conoscenza a posteriori, che invece si fonda sui risultati della ricerca empirica. Molti filosofi hanno pensato che importanti verità circa la mente potessero essere determinate a priori. Essi sostengono che tali verità possono essere stabilite semplicemente tramite il ragionamento su ciò che la mente deve essere, oppure per mezzo dell'analisi della struttura del linguaggio con il quale noi parliamo dei fenomeni mentali. Altri filosofi, benché ritengano che l'ultima parola sulla validità delle loro teorie spetti all'indagine empirica, hanno cercato di stabilire delle verità sulla mente traendo le logiche conseguenze dai risultati conseguiti dagli scienziati attraverso la ricerca empirica.
In filosofia, il dibattito sulla natura della mente si svolge generalmente in due ambiti: in quello della teoria della conoscenza e in quello della metafisica. La teoria della conoscenza, che cerca di definire che cos'è la conoscenza e di determinare come la otteniamo, si occupa di quei processi per mezzo dei quali la mente è in grado di conoscere. La metafisica è stata tradizionalmente definita come lo studio dei principi fondamentali del mondo e delle sue origini. L'ontologia, una branca della metafisica, si è preoccupata di identificare e di caratterizzare i tipi di cose che esistono nel mondo. E' soprattutto in tale branca che vengono dibattuti i caratteri della mente. Alcuni studi contemporanei su questioni ontologiche sono strettamente legati ai risultati conseguiti nel corso delle ricerche scientifiche e costituiscono un tentativo di esaminare qual è il genere di oggetti di cui le scienze assumono l'esistenza. La filosofia si è occupata di temi come quello relativo ai criteri mediante i quali possiamo determinare se le entità teoriche presupposte dalle scienze (per esempio: i quark o gli stati mentali) esistano realmente o se siano semplicemente finzioni utili per fare scienza. Quine ha proposto di utilizzare un criterio (col quale non tutti concordano) secondo cui ciò che dobbiamo assumere come esistente sono le entità poste dalle teorie scientifiche. La prospettiva di Quine vincola strettamente l'indagine concernente i problemi della metafisica ai risultati della scienza empirica, ma rimane il problema di quando è che dobbiamo considerare una teoria scientifica come una descrizione esatta della natura. Quine pensa che le teorie che intendano utilizzare il concetto di stato mentale siano teorie scientificamente inaccettabili.
La maggior parte dei filosofi contemporanei sosterrebbe che la ricerca empirica è importante sia per la teoria della conoscenza sia per la discussione circa gli aspetti ontologici della mente, ma continuerebbe anche a sostenere che i problemi filosofici sono distinti da quelli empirici dei quali si occupano altre discipline della scienza cognitiva. In genere, tale distinzione è considerata una conseguenza del fatto che la filosofia si occupa di questioni concettuali fondamentali. Questioni di tale tipo riguardano la capacità di un particolare quadro teorico di comprendere certe determinazioni caratteristiche degli stati mentali come l'intenzionalità o il loro aspetto affettivo o qualitativo. Si tratta di problemi per i quali non possiamo semplicemente escogitare esperimenti empirici. Pertanto, i tentativi di risolverli implicano spesso ragionamenti complessi che ci conducono alquanto lontano dai risultati conseguibili con l'esperienza.
Il fatto che le opinioni dei filosofi si collochino così lontano dalla ricerca empirica costituisce un problema per chiunque passi dall'indagine sperimentale a quella filosofica. Per valutare un'affermazione filosofica dobbiamo seguire i passaggi spesso complicati di un ragionamento che viene addotto a sostegno di quell'affermazione. Ciò, tuttavia, non deve scoraggiare i profani dall'entrare nell'arena del dibattito filosofico. La loro partecipazione è, infatti, la benvenuta; uno dei benefici che i filosofi possono ottenere dal partecipare a gruppi di ricerca interdisciplinare della scienza cognitiva consiste nell'apprendere le nuove prospettive sulla mente che sono offerte da altri scienziati cognitivi.
Tutto ciò che è richiesto affinché coloro che non si occupano professionalmente di filosofia possano prender parte alle discussioni dei filosofi della mente è cominciare ad affrontare i problemi. Questo significa partecipare attivamente al dibattito suggerendo argomenti pro o contro le differenti posizioni. Non basta appellarsi all'autorevolezza di un filosofo e citare ciò che questi ha sostenuto come risposta a qualcuno dei problemi fondamentali che si presentano. Poiché le idee sostenute dai filosofi dipendono da lunghe catene di ragionamenti, esse sono frequentemente controverse. Filosofi diversi sostengono opinioni differenti su ciascuno degli argomenti sopra menzionati…
Non solo molte delle idee che sono alla base delle ricerche dell'odierna scienza cognitiva discendono direttamente da quelle elaborate da filosofi delle epoche passate come Platone, Descartes, Hume e Kant, ma anche le stesse teorie filosofiche contemporanee della mente sono le eredi di tale tradizione." (pp. 9-14)
2.
Nonostante la chiarezza espositiva degli articoli citati, è evidente che la filosofia della mente è un vero e proprio ginepraio, caratterizzato da un tratto costante nella storia del pensiero: il contrapporsi di opinioni, ipotesi e teorie contrastanti tra loro che possono fondarsi solo sulla forza delle argomentazione. Dato che è sempre possibile opporre ad un'argomentazione un'altra che la confuta, il rischio è che il dibattito rimanga aperto indefinitamente senza giungere ad alcuna conclusione.
E' questa la critica che Cartesio ha rivolto alla filosofia e che lo ha orientato verso la ricerca di un metodo che potesse permettere di pervenire alla verità. Il Discorso sul metodo ha ancora un suo fascino. I suoi limiti, però, dipendono, per un verso, dal fatto che Cartesio con il suo "metodo" giunge a corroborare la sua visione del mondo incentrata su di una fede acritica e a "dimostrare" irrefutabilmente l'esistenza di Dio; per un altro, dal fatto che, sulla base della fede, egli introduce la distinzione tra mente e corpo che ancora oggi grava sulla cultura occidentale.
La critica di Cartesio rimane, però, a mio avviso, valida. Per prendere atto della sua fondatezza, basterà leggere gli articoli che riporto in appendice.
Per quanto la lettura, per molti aspetti faticosa, lasci pensare che gli autori si muovono ad un livello di straordinaria profondità, l'impressione globale è che la filosofia della mente sia, nel suo complesso, poco più di uno sterile esercizio accademico. Sia la filosofia che la scienza devono andare al di là del senso comune, ma al fine, per dirla con Gramsci, di generare un nuovo senso comune di livello più elevato. Se il dibattito all'interno della filosofia della mente servisse a questo, se ne potrebbero accettare le contraddizioni e la complessità. Il problema è che esso sembra dare luogo troppo spesso ad un'esibizione di genialità prevalentemente retorica che serve a poco.
Da "profano", che non intende entrare nel tempio fin troppo frequentato delle argomentazioni fini a se stesse, mi limito a qualche osservazione di fondo sul problema mente-corpo.
E' fuori di dubbio che, a livello di astrazione logico-matematica e di uso dei simboli, la mente può esibire prestazioni singolari e misteriose. Per procedere, però, verso un modello panantropologico, occorre tenere conto che il rapporto corpo-mente si realizza all'interno di ogni esperienza umana, sicché esso va esplorato non solo con l'intento di spiegare quelle prestazioni, ma di interpretarlo in ordine all'esperienza universale, così come esso si pone nelle indefinite esperienze che caratterizzano gli esseri appartenenti alla specie umana.
Da questo punto di vista, il sapere prodotto dai neurobiologi sembra meno brillante di quello prodotto dai filosofi della mente, ma, nel complesso, più pertinente. Anche tale sapere, però, se esibisce una tendenza del tutto positiva a "incarnare" la mente, riconducendo le sue funzioni alle esigenze supreme dell'adattamento dell'uomo all'ambiente, al tempo stesso la destoricizza non tenendo conto dei presupposti che la mettono in grado di funzionare.
Penso che una soluzione panantropologica del problema corpo-mente dovrebbe tenere conto soprattutto di tre presupposti.
Il primo fa riferimento al fatto che il cervello è un prodotto dell'evoluzione naturale, le cui potenzialità sono in parte adattive, ma in parte exattative, cioè ridondanti. Se il concetto di ridondanza funzionale fosse acquisito dai filosofi della mente, che sembrano invece in maggioranza irretiti dall'ideologia adattamentista, potrebbe risolvere molti dei problemi che essi si pongono. La ridondanza funzionale, infatti, implica che il cervello umano, quando giunge a regime, può inoltrarsi nell'universo indefinito dei simboli alla ricerca delle più varie combinazioni logiche e immaginarie, e esibire una sconcertante libertà e creatività.
Il problema, però, è come il cervello umano giunge a regime, vale a dire come esso consegue la capacità di acquisire e di manipolare i simboli.
Oggi non si possono nutrire dubbi sul fatto che l'attività mentale è una conseguenza dell'immersione del singolo cervello in un ambiente intersoggettivo e culturale. E' la relazione perpetua con un contesto sociale, tessuta di valenze emozionali e di uno scambio continuo di informazioni tra soggetti, che promuove l'"umanizzazione" del cervello.
E' dunque la socialità che trasforma un organo dotato di potenzialità adattive e ridondanti in un organo capace di parlare, ricordare, pensare, immaginare, ecc. Mentre il cervello è, dunque, un organo individuato, la mente è sempre e comunque un "prodotto" sociale, anche se chi la usa può avere riguardo ad essa un senso di assoluta proprietà.
Non si può trascurare, insomma, il fatto che senza l'Altro l'Io semplicemente non esisterebbe, e non potrebbe né pensare, né parlare, né filosofare. E' ingenuo riferire questo aspetto solo alle fasi evolutive, laddove esso risulta evidente. In realtà, anche l'Io adulto è vincolato all'Altro interiorizzato. La struttura della personalità umana in breve è intrinsecamente dialogica.
La dipendenza dell'Io dall'Altro significa anche che ogni Io riceve una tradizione culturale, che funziona come un "recinto". Il recinto, che canalizza l'indefinito flusso dei pensieri, dei ricordi, delle emozioni, delle fantasie e delle percezioni stesse, entro l'alveo del senso comune, non esclude che un soggetto, come attestano la genialità e la creatività, possa "tracimare". Non basta però che un soggetto si senta libero di pensare per attestare che il suo pensiero è veramente libero.
Se questo è vero, come non c'è da sorprendersi che Cartesio abbia distinto corpo e mente, attribuendo ad esse uno statuto ontologico radicalmente diverso, non c'è da sorprendersi che i filosofi della mente e i neurobiologi contemporanei, con qualche rara eccezione, parlino per un verso della mente in astratto, come se essa esistesse al di là degli usi che gli uomini ne fanno, e, per un altro, come di una dimensione strettamente inerente l'individuo.
La verità, a mio avviso, è che il corpo ha una sua individualità biologica indubbia, della quale partecipa anche il cervello come organo, mentre la mente è sempre e comunque relativamente individuata. Le sue espressioni, infatti, passano tutte, tra l'altro, attraverso il linguaggio, che è un prodotto sociale.
In questa ottica, oserei dire che il problema mente-corpo è un falso problema.
La mente è l'espressione funzionale di un organo socializzato, a tal punto sensibile alle influenze intersoggettive e culturali che esse sono riconoscibili in tutte le sue espressioni.
Il cogito ergo sum di Cartesio va dunque riformulato in questi termini: io penso perché sono un essere altamente socializzato che ha acquisito, attraverso l'interazione con gli altri, la capacità di usare simboli astratti. Dato che l'interazione in questione, poi, comporta, perché l'io giunga ad avere consapevolezza di se stesso, una rilevante componente di sintonizzazione empatica, la formulazione potrebbe essere ancora più radicale: io penso perché sento, o, per dire meglio, con-sento (nella duplice accezione di un sentire comune a più soggetti e di un'adesione inconsapevole ai valori culturali propri di un determinato ambiente socio-storico) e dis-sento (vale a dire intuisco che ci sono verità che vanno esplorate al di fuori dei recinti culturali).
Approfondire questa tematica potrebbe portare sulla via di una reale e produttiva integrazione tra discipline umanistiche e scienze umane e sociali.
Prefazione
Che cos'è la mente? Chi sono io? Può la mera materia pensare o sentire? Dov'è l'anima? Chiunque si trovi ad affrontare queste domande precipita in un mare di perplessità. Questo libro vuole essere un tentativo di rivelare queste perplessità e portarle in piena luce. Il nostro scopo non è tanto rispondere direttamente alle grandi domande, quanto scuotere tutti: sia coloro che hanno del mondo una visione rigida, concreta, scientifica, sia coloro che hanno una visione religiosa o spiritualistica dell'anima umana. Siamo persuasi che per il momento non esistano risposte semplici alle grandi domande e che occorrerà un ripensamento radicale dei problemi in gioco prima di poter raggiungere un accordo sul significato della parola "io". Questo libro vuole dunque provocare, infastidire e confondere i lettori, vuole rendere strano ciò che è ovvio e, magari, rendere ovvio ciò che è strano (p. 13)
Introduzione
Vite private
Che cosa ti fa essere te, e quali sono i tuoi confini? La risposta sembra in parte ovvia: tu sei un centro di coscienza. Ma che cos'è mai la coscienza? La coscienza è il connotato più ovvio e insieme più misterioso della nostra mente. Da un lato, che cosa potrebbe essere più certo o manifesto a ciascuno di noi del fatto di essere un soggetto di esperienza, che gode percezioni o sensazioni, patisce dolori, nutre idee e delibera coscientemente? Dall'altro, che cosa mai può essere la coscienza? Come fanno i corpi fisici viventi del mondo fisico a dar luogo a questo fenomeno? La scienza ha svelato i segreti di molti fenomeni naturali un tempo misteriosi - il magnetismo, la fotosintesi, la digestione, perfino la riproduzione - ma la coscienza sembra diversissima da essi. Tanto per cominciare, i vari casi particolari di magnetismo o di fotosintesi o di digestione sono in linea di principio, ugualmente accessibili a qualsiasi osservatore in possesso degli strumenti adatti, mentre ogni caso particolare di coscienza sembra avere un osservatore favorito o privilegiato, che al fenomeno ha un accesso interamente diverso e migliore dell'accesso di tutti gli altri osservatori, quali che siano i loro strumenti. Per questa e per altre ragioni non esiste finora una teoria soddisfacente della coscienza. Non c'è neppure un accordo su come sarebbe una teoria della coscienza. Alcuni sono giunti perfino ad affermare che non esiste alcuna entità reale corrispondente al termine "coscienza".
Il fatto stesso che un aspetto così familiare della nostra vita abbia resistito per tanto tempo a tutti i tentativi di caratterizzarlo fa pensare che l'idea che ce ne facciamo sia sbagliata. Ciò che serve non sono semplicemente altre prove, altri dati sperimentali e climici, bensì un accurato ripensamento degli assunti che ci portano a supporre l'esistenza di un fenomeno unico e familiare, la coscienza, rispondente a tutte le descrizioni autorizzate dal senso che diamo correntemente a questo termine. Consideriamo le sconcertanti domande che sorgono inevitabilmente quando riflettiamo sulla coscienza. Gli altri animali sono coscienti? Sono coscienti allo stesso modo in cui lo siamo noi? Un calcolatore o un robot potrebbero essere coscienti? Una persona può avere pensieri inconsci? Oppure dolori o sensazioni o percezioni inconsci? Un bambino è cosciente alla nascita, o addirittura prima? Siamo coscienti quando sogniamo? Un essere umano potrebbe ospitare in un unico cervello più soggetti o io o agenti coscienti? Certo, le risposte soddisfacenti a queste domande dipenderanno in gran parte dalle scoperte empiriche sulle capacità comportamentali e sulle condizioni interne dei vari candidati ipotetici alla coscienza, ma a proposito di ognuna di queste scoperte empiriche possiamo chiederci: qual è il suo rapporto con il problema della coscienza, e perché? Queste domande non sono di natura empirica; sono domande concettuali, a cui forse siamo in grado di rispondere con l'aiuto di esperimenti ideali.
Il nostro comune concetto di coscienza sembra ancorato a due distinti insiemi di considerazioni, che possono essere grosso modo etichettati "dall'interno" e "dall'esterno". Dall'interno la nostra coscienza sembra evidente e diffusa: sappiamo che intorno a noi e perfino nel nostro corpo accadono molte cose di cui siamo del tutto inconsapevoli o non coscienti, ma nulla potrebbe esserci più intimamente noto di quelle cose di cui siamo, individualmente, coscienti. Le cose di cui io sono cosciente e i modi in cui ne sono cosciente determinano ciò che si prova a essere me. Io so come nessun altro potrebbe sapere che cosa si prova a essere me. Dall'interno la coscienza sembra essere un fenomeno di tipo tutto o niente: una luce interna che è o accesa o spenta. E sì vero che talvolta siamo assonnati o disattenti o addormentati, e che altre volte la nostra coscienza raggiunge un'acutezza fuori del normale; ma quando siamo coscienti, il nostro essere coscienti è un fatto che non ammette gradazioni. Esiste dunque un punto di vista dal quale la coscienza sembra essere un connotato che scinde l'universo in due generi di cose estremamente diverse: quelle che ce l'hanno e quelle che non ce l'hanno. Quelle che ce l'hanno sono soggetti, esseri per i quali le cose possono essere in questo o in quel modo, e a essere questi esseri si prova qualcosa. Viceversa non c'è niente o nessuno che possa provare qualcosa a essere un mattone o una calcolatrice tascabile o una mela. Queste cose hanno un interno, ma non il tipo giusto di interno: non hanno una vita interiore, un punto di vista. Si prova invece qualcosa di ben preciso a essere me (qualcosa che io conosco "dall'interno") e quasi sicuramente si prova qualcosa a essere te (perché tu mi hai detto, in termini convincentissimi, che per te è la stessa cosa), e probabilmente si prova qualcosa a essere un cane o un delfino (se soltanto potessero dircelo!), e forse perfino a essere un ragno.
Le altre menti
Quando consideriamo questi altri (le altre persone e gli altri esseri viventi), li consideriamo necessariamente dall'esterno, e allora varie loro caratteristiche osservabili ci appaiono interessare direttamente il problema della loro coscienza. Gli animali reagiscono in modo appropriato agli eventi che cadono sotto i loro sensi: riconoscono le cose, evitano le situazioni dolorose, apprendono, fanno progetti e risolvono problemi. Manifestano intelligenza. Ma a mettere le cose in questo modo si potrebbe essere accusati di pregiudicare la questione: parlare dei loro "sensi", per esempio, o di situazioni "dolorose" può far credere che abbiamo già risolto il problema della coscienza; si osservi infatti che se avessimo impiegato questi termini per descrivere un robot, l'intento polemico della scelta delle parole sarebbe stato evidente (e molti vi si sarebbero opposti). In che cosa differiscono gli animali dai robot, reali o immaginari? Nell'essere simili a noi sotto il profilo organico e biologico, e noi siamo il paradigma dell'animale cosciente. E ovvio che ci possono essere vari gradi di somiglianza e probabilmente non possiamo fidarci dell'intuizione per decidere quali generi di somiglianza siano importanti. L'aspetto pisciforme dei delfini ci rende meno convinti che essi siano coscienti come noi, ma tale scetticismo non ha validi motivi. Nel caso degli scimpanzé, fossero anche ottusi come lumache, non c'è dubbio che la somiglianza della loro faccia con la nostra ci spingerebbe ad accoglierli ugualmente entro il circolo magico. Se le mosche domestiche avessero le nostre dimensioni o fossero animali a sangue caldo, ci sarebbe molto più facile credere che se strappiamo loro le ali esse provano dolore (un dolore come il nostro, che è il tipo che conta). Che cosa ci fa pensare che alcune considerazioni come queste siano importanti e altre no?
La risposta più ovvia è che i vari indicatori "esterni" sono segni o sintomi più o meno veridici della presenza di quel qualcosa che ogni soggetto cosciente conosce dall'interno. Ma come averne una conferma? E questo il famigerato "problema delle altre menti". Quando si tratta di noi, si pensa, è possibile osservare direttamente la coincidenza della nostra vita interiore con il nostro comportamento osservabile dall'esterno. Ma se ciascuno di noi vuole superare in modo rigoroso il solipsismo, bisogna essere capaci di fare qualcosa che sembra proprio impossibile: confermare la coincidenza fra interiore ed esteriore negli altri. Una conferma di questa coincidenza che ci viene da loro non serve, ufficialmente, perché ci dà soltanto una maggiore coincidenza tra esteriore ed esteriore: la capacità dimostrabile di percepire e di agire in modo intelligente si accompagna di solito con la capacità di parlare, e in particolare di dare resoconti "introspettivi". Se un robot progettato in modo ingegnoso potesse (stando alle apparenze) parlarci della sua vita interiore (se potesse emettere i suoni appropriati nei contesti appropriati), avremmo ragione ad ammetterlo nel circolo magico? Forse sì, ma come faremmo a essere certi di non venir ingannati? Qui il problema sembra essere: quella speciale luce interiore è davvero accesa oppure dentro non c'è altro che tenebra? E questa domanda appare senza risposta. Quindi forse abbiamo già compiuto un passo falso.
Il mio uso di "noi" e di "nostro" nelle ultime pagine e il fatto che esso venga accettato tranquillamente indicano che noi non prendiamo sul serio il problema delle altre menti, almeno per quanto riguarda noi e gli esseri umani ai quali ci accompagniamo normalmente. E forte la tentazione di concludere che, in quanto esiste un problema serio ancora da risolvere a proposito del robot immaginario (o di qualche creatura problematica), esso deve dimostrarsi risolvibile mediante l'osservazione diretta. Alcuni teorici pensano che, una volta che noi possederemo teorie migliori sull'organizzazione del nostro cervello e sul modo in cui esso controlla il nostro comportamento, saremo in grado di usare quelle teorie per distinguere le entità coscienti dalle entità non coscienti. Ciò equivale a supporre che i fatti che noi ricaviamo individualmente "dall'interno" si riducano in qualche modo a fatti ottenibili pubblicamente dall'esterno. Una quantità sufficiente di fatti esteriori del tipo giusto risolverà il problema se una data creatura sia cosciente o no. Si consideri ad esempio il recente tentativo del neurofisiologo E.R. John di definire la coscienza in termini oggettivi:
un processo in cui le informazioni relative a modalità individuali multiple di sensazione e di percezione sono combinate in una rappresentazione multidimensionale unificata dello stato del sistema e del suo ambiente e integrate da informazioni relative ai ricordi e ai bisogni dell'organismo, generante reazioni emotive e programmi di comportamento per adattare l'organismo al suo ambiente.
Stabilire se questo ipotetico processo interno avvenga in un particolare organismo è presumibilmente un compito difficile ma di carattere empirico, che rientra nell'ambito di una scienza nuova dell'elaborazione dell'informazione neuronica. Supponiamo che esso venga portato a termine con esito positivo: l'animale in questione risulterebbe dunque cosciente. Se abbiamo capito bene la proposta, non avremmo allora alcun motivo di continuare a dubitare. Avere delle riserve in questo caso sarebbe come farsi mostrare in tutti i particolari il funzionamento di un motore d'automobile e poi chiedere: "Ma è veramente un motore a combustione interna? Non potremmo ingannarci pensando che lo sia?". Qualunque descrizione scientifica corretta del fenomeno della coscienza deve inevitabilmente fare questo passo alquanto dottrinario, richiedere cioè che il fenomeno sia considerato oggettivamente accessibile; ma ci si può sempre chiedere se, una volta compiuto questo passo, il fenomeno veramente misterioso non venga scavalcato e dimenticato. Prima di liquidare questo sospetto scettico come una fantasia romantica, è consigliabile esaminare una straordinaria rivoluzione avvenuta nella storia recente della riflessione sulla mente, una rivoluzione dalle conseguenze sconvolgenti.
La stampella di Freud
Per John Locke e per molti pensatori dopo di lui nulla era più essenziale per la mente che la coscienza, e più in particolare l'autocoscienza. In tutte le sue attività e i suoi processi, la mente era vista come trasparente a se stessa; nulla era celato sulla sua vista interiore. Per scorgere ciò che accadeva nella propria mente, bastava "guardare" - compiere un atto di "introspezione" - e i limiti di ciò che in tal modo si scopriva erano i limiti stessi della mente. La nozione di pensiero o percezione inconsci non esisteva o, se esisteva, veniva liquidata come un non-senso incoerente e autocontraddittorio. Per Locke, in realtà, esisteva il serio problema di come descrivere tutti i ricordi di un individuo che devono essere necessariamente presenti con continuità nella sua mente pur non essendo continuamente "presenti alla coscienza". Tuttavia l'idea della trasparenza della mente ebbe un'influenza così profonda che quando Freud ipotizzò per la prima volta l'esistenza di processi mentali inconsci, la sua proposta si scontrò con una diffusa incomprensione e un deciso rifiuto. Non si trattava solo di un'offesa al senso comune: era addirittura una contraddizione interna asserire che potessero esistere credenze e desideri inconsci, sentimenti inconsci di odio, disegni inconsci di autodifesa e di rappresaglia. Ma Freud fece degli adepti. Questa "impossibilità concettuale" divenne concepibile e rispettabile quando i teorici si resero conto che essa permetteva loro di spiegare certe forme di psicopatologia altrimenti inesplicabili.
Questo nuovo modo di pensare si reggeva su una stampella: ci si poteva aggrappare a una seppur pallida versione del credo di Locke immaginando che questi pensieri, desideri e disegni "inconsci" appartenessero ad altri sé interni alla psiche. Così come io posso tener nascosti i miei piani a qualcuno, il mio Es può tenere nascosto qualcosa al mio lo. Suddividendo il soggetto in molti soggetti, si poteva salvare l'assioma che ogni stato mentale deve essere lo stato mentale cosciente di qualcuno e spiegare l'inaccessibilità di alcuni di questi stati ai loro proprietari putativi postulando per loro l'esistenza di altri proprietari interiori. Questa mossa era proficuamente oscurata nelle brume del gergo cosicché si poteva tenere a bada, per esempio, la sconcertante questione se si provasse qualcosa a essere un Super-lo.
L'ampliamento operato da Freud dei confini del pensabile rivoluzionò la psicologia clinica, e inoltre spianò la strada per lo sviluppo più recente della psicologia sperimentale "cognitivista". Siamo giunti ad accettare senza la minima ombra d'incomprensione un gran numero di affermazioni secondo le quali in noi avvengono raffinati processi di verifica delle ipotesi, ricerca in memoria e inferenza - in breve, di elaborazione dell'informazione peraltro del tutto inaccessibili all'introspezione. Non si tratta di un'attività inconscia del genere scoperto da Freud, cioè di un'attività sottratta alla "vista" della coscienza, ma semplicemente di un'attività mentale che è in qualche modo completamente al di sotto o al di là della portata della coscienza. Freud sosteneva che le sue teorie e le sue osservazioni cliniche lo autorizzavano a respingere i sinceri dinieghi dei suoi pazienti su ciò che accadeva nella loro mente. Analogamente lo psicologo cognitivista sciorina prove sperimentali, modelli e teorie per dimostrare che la gente esegue processi di ragionamento straordinariamente complessi, dei quali non è in grado di fornire alcun resoconto introspettivo. Non solo la mente è accessibile agli estranei, ma addirittura alcune attività mentali sono più accessibili agli estranei che al "proprietario" stesso della mente!
Nelle teorie più recenti, tuttavia, la stampella è stata gettata via. Benché le nuove teorie abbondino di metafore di "homunculi" volutamente fantasiose - di sottosistemi descritti come omini posti nel cervello che mandano messaggi avanti e indietro, chiedono e offrono aiuto e obbediscono -, si ritiene che i veri sottosistemi siano particelle di macchinario organico non coscienti e non problematiche, non più dotate di un punto di vista o di una vita interiore di quanto lo siano un rene o una rotula. (E certo che l'avvento di calcolatori "privi di mente" ma "intelligenti" ha avuto una parte fondamentale in questa ulteriore dissoluzione dell'idea lockiana).
Ma ora l'estremismo di Locke è stato capovolto; se prima era l'idea di attività mentale inconscia a sembrare incomprensibile, oggi stiamo perdendo di vista l'idea di attività mentale cosciente. A che cosa serve la coscienza, se un'elaborazione dell'informazione perfettamente inconscia, addirittura priva di soggetto, è capace, in linea di principio, di conseguire tutti i fini per i quali si supponeva che esistesse la mente cosciente? Se le teorie della psicologia cognitivista possono valere per noi, potrebbero valere anche per gli zombie o per i robot, e queste teorie non sembrano avere alcun modo di distinguerci. Com'è possibile che una quantità per quanto grande di elaborazione dell'informazione priva di soggetto (del tipo che abbiamo da poco scoperto in noi) arrivi a dar luogo a quella caratteristica speciale con la quale è in così netto contrasto? Perché il contrasto non è scomparso. Una volta lo psicologo Karl Lashley affermò provocatoriamente che "nessuna attività della mente è mai conscia"; con queste parole egli intendeva attirare la nostra attenzione sull'inaccessibilità dell'elaborazione che noi sappiamo deve necessariamente svolgersi quando pensiamo. Lashley fece un esempio: se si chiede di formulare un pensiero in forma di esametro dattilico, chi conosce il ritmo di questo verso è subito in grado di produrlo. Per esempio: Cosa mi ha dato l'idea d'un esametro fatto di dattili? Come lo facciamo, che cosa succede in noi perché si produca questo pensiero, è qualcosa che ci è assolutamente inaccessibile. A prima vista può sembrare che l'osservazione di Lashley sia l'annuncio che la coscienza cessa di essere un fenomeno da studiare in psicologia, ma in realtà il suo effetto è proprio il contrario. Essa attira senza possibilità di equivoci la nostra attenzione sulla differenza fra tutta l'elaborazione inconscia dell'informazione - senza la quale, certo, non potrebbe esistere alcuna esperienza cosciente - e il pensiero cosciente stesso, che è in qualche modo direttamente accessibile. Accessibile a che cosa o a chi? Dire che è accessibile a un qualche sottosistema del cervello non significa ancora distinguerlo dalle attività e dagli eventi inconsci, che sono anch'essi accessibili a vari sottosistemi del cervello. Se un qualche sistema particolare e specifico sia costituito in modo tale che i suoi rapporti col resto del sistema facciano sì che nel mondo esista un altro sé, un'altra "cosa a essere la quale si prova qualcosa", tutto ciò è ben lungi dall'essere ovvio.
Può sembrare strano, ma questa è una vecchia conoscenza: è il problema delle altre menti, risuscitato come problema serio ora che la psicologia cognitivista ha cominciato ad analizzare la mente umana nelle sue componenti funzionali. Questo fatto salta agli occhi nel modo più lampante nei famosi casi di rescissione del cervello. Non c'è alcun problema serio a riconoscere che coloro che hanno subito la rescissione del corpo calloso posseggono due menti in una certa misura indipendenti, una associata con l'emisfero cerebrale dominante, l'altra con l'emisfero non dominante. Non c'è alcun problema, perché siamo ormai abituati a pensare alla mente di una persona come a un sottosistema organizzato di sottomenti comunicanti Le linee di comunicazione, in questi casi, sono state semplicemente tagliate, e si è così rivelato con particolare evidenza il carattere indipendente di ciascuna parte. Ma ciò che resta problematico è se entrambe le sottomenti "hanno una vita interiore". Da un certo punto di vista non vi è ragione di riconoscere una coscienza all'emisfero non dominante, poiché l'unica cosa che è stata dimostrata è che questo emisfero, come molti altri sottosistemi cognitivi inconsci, è in grado di elaborare una grande quantità d'informazione e di controllare in modo intelligente certi comportamenti. Ma possiamo anche chiederci che ragione c'è di riconoscere una coscienza all'emisfero dominante, o addirittura al sistema completo e intatto di una persona normale. Avevamo giudicato questo problema futile e neppur meritevole di essere discusso, ma imboccando questa strada siamo costretti a prenderlo di nuovo in esame seriamente. Se viceversa riconosciamo all'emisfero non dominante (o più propriamente alla persona che abbiamo appena scoperto il cui cervello è l'emisfero non dominante) una coscienza piena con una "vita interiore", che cosa dovremo dire di tutti gli altri sottosistemi che elaborano l'informazione postulati dalla teoria odierna? Dobbiamo raccogliere di nuovo la stampella di Freud, a costo di popolare la nostra testa, alla lettera, con una moltitudine di soggetti di esperienza?
Consideriamo per esempio la straordinaria scoperta, compiuta dagli psicolinguisti James Lackner e Merrill Garrett, di quello che si potrebbe chiamare un canale inconscio per la comprensione delle frasi. Nelle prove di ascolto dicotico i soggetti sentono in cuffia due canali diversi e sono invitati a seguirne uno solo. Di solito essi sono in grado di parafrasare o di riferire con precisione ciò che hanno udito attraverso il canale seguito, ma riescono a dire poco su ciò che veniva trasmesso contemporaneamente sul canale non seguito. Così, se il canale non seguito ha trasmesso una frase, di solito i soggetti sono in grado di dire che hanno sentito una voce, precisando magari che era una voce di uomo o di donna. Arrivano forse anche a dire con una certa sicurezza che la voce parlava nella loro lingua, ma non sono in grado di riferire ciò che è stato detto. Negli esperimenti di Lackner e Garrett i soggetti udivano sul canale seguito frasi ambigue come ad esempio "La paura dei nemici fece rimandare l'attacco". Allo stesso tempo sul canale non seguito un gruppo di soggetti riceveva una frase che suggeriva una delle possibli interpretazioni della frase ascoltata sull'altro canale (ad esempio: "I nemici avevano paura"), mentre un altro gruppo riceveva una frase neutra o irrilevante. I soggetti del primo gruppo non riuscivano a riferire che cosa fosse stato trasmesso sul canale non seguito, ma sceglievano l'interpretazione della frase ambigua suggerita da quel canale in numero significativamente maggiore che non i soggetti del gruppo di controllo. L'influenza del canale non seguito sull'interpretazione del messaggio ascoltato può essere spiegata soltanto facendo l'ipotesi che il segnale non seguito subisca un'elaborazione completa fino al livello semantico, cioè che il messaggio non seguito sia compreso; ma, a quanto pare, si tratta di una comprensione inconscia della frase! O dovremmo dire che ciò prova la presenza nei soggetti di almeno due coscienze, diverse e solo in parte comunicanti? Se si chiederà ai soggetti che cosa si prova a comprendere il canale non seguito, essi risponderanno con sincerità che loro non provano niente - che non hanno avuto affatto coscienza di quella frase. Ma forse, come si sostiene spesso a proposito dei pazienti commissurotomizzati, questa domanda dovrebbe essere rivolta in realtà a un altro, e cioè al soggetto che ha compreso coscientemente la frase e ha poi suggerito il suo significato al soggetto che risponde alle nostre domande.
Quale delle due ipotesi dovremmo scegliere, e perché? Siamo tornati, sembra, al nostro problema insolubile, il che ci fa pensare che dovremmo trovare prospettive diverse da cui considerare la situazione. Un'idea della coscienza che tenga nel debito conto tutte queste complicazioni esigerà quasi certamente una rivoluzione nelle nostre abitudini di pensiero. (pp. 19-26)
D.C.D.
Negli ultimi cent'anni circa nella scienza si è andata sviluppando una situazione singolare. Molti ricercatori non se ne rendono conto, altri non lo ammetterebbero nemmeno coi loro colleghi; eppure c'è qualcosa di strano nell'aria.
Ciò che è accaduto è questo: i biologi, che un tempo postulavano per la mente umana una posizione privilegiata nella gerarchia della natura, si sono inesorabilmente avvicinati al rigido materialismo che caratterizzava la fisica dell'Ottocento. Nel frattempo i fisici, di fronte a prove sperimentali assai convincenti, sono venuti allontanandosi dai modelli strettamente meccanici dell'universo per accostarsi a una concezione in cui la mente ha una funzione essenziale in tutti gli eventi fisici. E come se queste due discipline procedessero su due treni lanciati a grande velocità in direzioni opposte, senza accorgersi di ciò che accade sull'altro binario.
Questo scambio di parti tra biologi e fisici ha lasciato lo psicologo contemporaneo in una posizione ambivalente. Dal punto di vista della biologia, lo psicologo studia fenomeni che sono molto lontani dal cuore della certezza, cioè dal mondo submicroscopico degli atomi e delle molecole. Dal punto di vista della fisica, lo psicologo si occupa della "mente", un'entità primitiva indefinita che sembra allo stesso tempo essenziale e impenetrabile. Chiaramente entrambe le concezioni contengono una certa parte di verità; e una risoluzione del problema è essenziale per approfondire ed estendere le fondamenta della scienza del comportamento.
Lo studio della vita a tutti i livelli, dal comportamento sociale a quello delle molecole, è ricorso, nei tempi moderni, al riduzionismo come concetto esplicativo principale. Questo modo di procedere verso la conoscenza cerca di comprendere i fenomeni scientifici di un certo livello in termini di concetti relativi a un livello inferiore e presumibilmente più fondamentale. In chimica le reazioni a livello macroscopico sono spiegate esaminando il comportamento delle molecole. Analogamente i fisiologi studiano l'attività delle cellule viventi in termini di processi svolti da organelli e da altre componenti subcellulari. E in geologia le formazioni e le proprietà dei minerali sono descritte usando le caratteristiche dei cristalli costituenti. Tutti questi casi sono essenzialmente una ricerca di spiegazioni nelle strutture e nelle attività soggiacenti.
Un esempio di riduzionismo a livello psicologico è rappresentato dal punto di vista esposto da Carl Sagan nel suo fortunato libro I draghi dell'Eden. Egli scrive: "La mia premessa fondamentale riguardo al cervello è che le sue attività ciò che talora chiamiamo 'mente' - sono una conseguenza della sua anatomia e della sua fisiologia e nulla più". Una conferma ulteriore di questa linea di pensiero è che il glossario di Sagan non contiene le parole mente, coscienza, percezione, consapevolezza o pensiero; e comprende invece voci come sinapsi, lobotomia, proteine ed elettrodi.
Siffatti tentativi di ridurre il comportamento umano alle sue basi biologiche hanno una lunga storia, che risale ai primi darwinisti e ai loro contemporanei che studiavano la psicologia fisiologica. Prima dell'Ottocento il dualismo mente-corpo, al centro della filosofia di Descartes, era stato incline a situare la mente umana fuori dell'ambito della biologia. Poi l'accento posto dagli evoluzionisti sulla nostra "scimmiosità" ci rese suscettibili di essere studiati sotto il profilo biologico con metodi adatti ai primati diversi dall'uomo e, per estensione, agli altri animali. La scuola pavloviana rafforzò questa impostazione, che divenne una pietra angolare di molte teorie comportamentiste. Benché tra gli psicologi non sia emerso alcun accordo generale circa il limite fino al quale si può spingere il riduzionismo, la maggior parte di essi non avrà difficoltà ad ammettere che le nostre azioni hanno componenti ormonali, neurologiche e fisiologiche. La premessa di Sagan, pur rientrando in una tradizione generale della psicologia, ha un carattere radicale, in quanto vuoi giungere a una spiegazione completa esclusivamente nei termini del livello sottostante. E questo, secondo me, il valore della clausola "e nulla più".
Nel momento in cui varie scuole di psicologia tentavano di ridurre la loro scienza alla biologia, altri studiosi della vita erano in cerca di livelli di spiegazione più fondamentali. Il loro punto di vista è esemplificato dagli scritti di un noto portavoce della biologia molecolare, Francis Crick. Nel libro Uomini e molecole, che è un attacco contemporaneo contro il vitalismo (la dottrina secondo cui la biologia deve essere spiegata ricorrendo a forze vitali che esulano dal campo della fisica), Crick afferma: "Lo scopo ultimo dell'indirizzo biologico moderno è in realtà quello di spiegare tutta la biologia in termini di fisica e di chimica". Egli continua precisando che per fisica e chimica intende il livello atomico, dove la nostra conoscenza è solida. Usando il corsivo tutta, esprime la posizione del riduzionismo radicale, che è il punto di vista dominante di un'intera generazione di biochimici e di biologi molecolari.
Se ora combiniamo il riduzionismo psicologico con quello biologico e supponiamo che essi si sovrappongano, otteniamo una sequenza esplicativa che va dalla mente all'anatomia e alla fisiologia, alla fisiologia cellulare, alla biologia molecolare, alla fisica atomica. Tutto questo corpus di conoscenze, inoltre, lo si presuppone basato su una solida comprensione delle leggi della meccanica quantistica, che è la teoria più recente e completa delle strutture e dei processi atomici. In questo contesto, la psicologia diventa una branca della fisica, risultato che può causare qualche disagio fra gli studiosi di entrambe le discipline.
Questo tentativo di spiegare tutto ciò che riguarda gli esseri umani nei termini dei principi primi delle scienze fisiche non è un'idea nuova e aveva anzi raggiunto una posizione definitiva nelle concezioni dei fisiologi europei della metà del secolo scorso. Un rappresentante di questa scuola, Emil Du Bois-Reymond, espose le sue opinioni estremiste nell'introduzione a un libro sull'elettricità animale del 1848. Egli scriveva che "se i nostri metodi fossero sufficienti, sarebbe possibile costruire una meccanica analitica [fisica newtoniana] dei processi generali della vita che potrebbe in sostanza giungere addirittura fino al problema del libero arbitrio".
Nelle parole di questi savants ormai lontani vi è una certa presunzione ripresa da Thomas Huxley e dai suoi colleghi nella difesa del darwinismo e che ancora oggi riecheggia nelle teorie dei riduzionisti moderni, i quali vorrebbero risalire dalla mente ai principi primi della fisica atomica; la si nota inoltre con la massima chiarezza negli scritti dei sociobiologi le cui discussioni animano la scena intellettuale contemporanea. Nel riduzionismo radicale moderno si ritrovano dunque concezioni analoghe a quelle di Du Bois-Reymond, con la differenza che oggi la disciplina soggiacente non più la meccanica newtoniana, bensì la meccanica quantistica.
Gli psicologi e i biologi, mentre facevano costanti progressi nella riduzione delle loro discipline alle scienze fisiche, erano tuttavia in gran parte ignari dell'emergere di prospettive, nella fisica, che gettavano una luce completamente nuova sulle loro concezioni. Verso la fine del secolo scorso la fisica presentava un quadro molto ordinato del mondo: gli eventi vi si svolgevano in modi caratteristici e regolari, in conformità con le equazioni di Newton nella meccanica e con quelle di Maxwell nell'elettricità. Questi processi si svolgevano inesorabili e indipendenti dallo scienziato, che era un semplice spettatore. Molti fisici consideravano la loro disciplina sostanzialmente compiuta.
A partire dal 1905, quando Albert Einstein introdusse la teoria della relatività, questo quadro così lindo fu sconvolto senza tanti complimenti. La nuova teoria postulava che osservatori situati in sistemi diversi in moto l'uno rispetto all'altro percepirebbero il mondo in maniera diversa. L'osservatore diventava così partecipe della specificazione della realtà fisica. Lo scienziato perdeva il ruolo di spettatore per acquistare quello di elemento attivo all'interno del sistema studiato.
Con lo sviluppo della meccanica quantistica, il ruolo dell'osservatore divenne una componente ancora più fondamentale della teoria fisica, una componente essenziale per definire un evento. La mente dell'osservatore si rivelò un elemento necessario della struttura della teoria. Le implicazioni del paradigma che si stava sviluppando sorpresero moltissimo i primi fisici quantistici e li indussero a studiare l'epistemologia e la filosofia della scienza. Per quanto ne so io, non era mai accaduto, nella storia della scienza, che tutti i ricercatori più eminenti scrivessero libri e articoli per esporre il significato filosofico e "umanistico" dei loro risultati.
Werner Heisenberg, uno dei fondatori della nuova fisica, studiò a fondo questi problemi filosofici e umanistici; in Philosophical Problems of Quantum Physics egli scrisse che i fisici dovevano rinunciare all'idea di una scala dei tempi oggettiva e comune a tutti gli osservatori, e anche all'idea che nello spazio e nel tempo esistano eventi che sono indipendenti dalla nostra capacità di osservarli. Heisenberg mise in rilievo il fatto che le leggi della natura non avevano più a che fare con le particelle elementari, bensì con la conoscenza che noi abbiamo di queste particelle, cioè con il contenuto della nostra mente. Nel, 1958 Erwin Schrödinger, il fisico che formulò l'equazione fondamentale della meccanica quantistica, scrisse un saggio straordinario intitolato Spirito e materia. In questa raccolta di saggi egli partiva dai risultati della nuova fisica per giungere a una visione misticheggiante dell'universo, che egli identificava con la "filosofia perenne" di Aldous Huxley. Schrödinger fu il primo dei teorici della meccanica quantistica a manifestare interesse per le Upanisad e per il pensiero filosofico orientale. Ora questo punto di vista è esposto in un numero crescente di opere, tra cui sono molto note Il Tao della fisica di Fritjof Capra e The Dancing Wu Li Masters di Gary Zukav.
Il problema che dovevano affrontare i fisici quantistici può essere illustrato nel modo migliore ricorrendo al famoso paradosso: "Chi ha ucciso il gatto di Schrödinger?". Per darne una formulazione ipotetica, s'immagini che un gattino sia messo in una scatola chiusa insieme con una fiala di veleno. Un martelletto, che può scattare e infrangere la fiala, è attivato da un contatore che registra eventi casuali, ad esempio la disintegrazione radioattiva. L'esperimento dura abbastanza perché si venga a determinare una probabilità uguale a un mezzo che il martelletto venga a scattare. La meccanica quantistica rappresenta questo sistema, in termini matematici, come la somma di una funzione gatto-vivo e di una funzione gatto-morto, ciascuna con una probabilità di un mezzo. Il problema è se l'atto di guardare (cioè la misurazione) uccide o risparmia il gatto, dal momento che, prima che lo sperimentatore guardi nella scatola, entrambe le soluzioni hanno la stessa probabilità.
Questo esempio un po' frivolo riflette una profonda difficoltà concettuale. In termini più formali, un sistema complesso può essere descritto soltanto usando una distribuzione di probabilità che lega tra loro i risultati possibili di un esperimento. Per decidere fra le varie alternative, è necessaria una misurazione: questa misurazione è ciò che costituisce un evento, mentre la probabilità è un'astrazione matematica. Tuttavia l'unica descrizione semplice e coerente che i fisici erano in grado di assegnare a una misurazione comportava il prendere atto del risultato da parte di un osservatore. Quindi l'evento fisico e il contenuto della mente umana erano inseparabili. Questo legame spinse molti ricercatori a considerare seriamente la coscienza come parte integrante della struttura della fisica. Tali interpretazioni spostavano la scienza verso una concezione idealistica, invece che realistica, della filosofia.
Le opinioni di un gran numero di fisici contemporanei sono riassunte nel saggio "Remarks on the Mind-Body Question" del premio Nobel Eugene Wigner. Wigner comincia con l'osservare che la maggior parte dei fisici è tornata a riconoscere il primato del pensiero - cioè della mente. Poi continua con questa affermazione: "Non era possibile formulare le leggi della meccanica quantistica in modo pienamente coerente senza far riferimento alla coscienza". E conclude notando quanto sia straordinario il fatto che lo studio scientifico del mondo abbia portato al contenuto della coscienza come realtà ultima.
Un ulteriore sviluppo in un altro campo della fisica suffraga l'opinione di Wigner. L'avvento della teoria dell'informazione e la sua applicazione alla termodinamica hanno portato alla conclusione che l'entropia, concetto fondamentale di questa disciplina, è una misura dell'ignoranza da parte dell'osservatore delle caratteristiche del sistema a livello atomico. Quando misuriamo la pressione, il volume e la temperatura di un corpo, ci rimane un'ignoranza residua sulla posizione e sulle velocità esatte degli atomi e delle molecole che lo compongono. Il valore numerico della quantità d'informazione mancante è proporzionale all'entropia. Nella termodinamica del passato l'entropia aveva rappresentato, in termini ingegneristici, la porzione dell'energia del sistema non utilizzabile per compiere un lavoro esterno. Nella concezione moderna entra in scena ancora una volta la mente umana, e l'entropia è legata non solo allo stato del sistema ma anche alla conoscenza che noi abbiamo di questo stato.
I fondatori della teoria atomica moderna non partirono con l'intenzione di imporre al mondo un quadro "mentalistico"; al contrario, essi partirono dalla concezione opposta e furono obbligati ad adottare la posizione odierna per poter spiegare i risultati sperimentali.
Siamo ora in grado di integrare fra loro le prospettive di tre vasti campi: la psicologia, la biologia e la fisica. Combinando insieme le posizioni di Sagan, di Crick e di Wigner, come rappresentanti dei vari punti di vista, otteniamo un quadro globale davvero inaspettato.
In primo luogo la mente umana, comprese la coscienza e la riflessione, può essere spiegata mediante le attività del sistema nervoso centrale, attività che a loro volta possono essere ridotte alla struttura biologica e al funzionamento di questo sistema fisiologico. In secondo luogo, i fenomeni biologici a tutti i livelli possono essere totalmente compresi in termini di fisica atomica, cioè mediante l'azione e l'interazione degli atomi di carbonio, azoto, ossigeno e così via che li compongono. In terzo e ultimo luogo, la fisica atomica, che ora viene compresa nel modo più completo grazie alla meccanica quantistica, deve essere formulata considerando la mente come una delle componenti primarie del sistema.
Abbiamo così percorso, in una serie di tappe, un circolo epistemologico che, partendo dalla mente, torna alla mente. I risultati di questa catena di ragionamenti daranno probabilmente più sostegno e conforto ai mistici orientali che ai neurofisiologi e ai biologi molecolari; tuttavia questo anello chiuso è conseguenza di una combinazione diretta dei processi esplicativi forniti da esperti riconosciuti di ciascuna delle tre discipline. Poiché è raro che la stessa persona lavori con più di uno di questi paradigmi, il problema generale ha ricevuto scarsa attenzione.
Se respingiamo questo circolo vizioso epistemologico, ci restano due concezioni opposte: una fisica che pretende di essere completa perché descrive tutto ciò che vi è in natura, e una psicologia che abbraccia tutto poiché si occupa della mente, che è l'unica nostra fonte di conoscenza del mondo. Dati i problemi esistenti in ciascuna di queste concezioni, è forse bene ritornare al nostro circolo vizioso e provare a considerano con più interesse e simpatia. Se da un lato ci priva di sicurezze assolute, esso almeno racchiude in sé il problema mente-corpo e fornisce una cornice entro la quale le singole discipline possono comunicare tra loro. La chiusura del circolo costituisce la migliore impostazione possibile per i teorici della psicologia.
L'impostazione rigorosamente riduzionista del problema del comportamento umano così caratteristica della sociobiologia s'imbatte in difficoltà anche per motivi più specificamente biologici. Essa infatti contiene l'assunto che ci sia continuità nell'evoluzione dai primi mammiferi all'uomo, e ciò implica che la mente, o la coscienza, non abbia rappresentato un cambiamento radicale. E difficile giustificare questo assunto se si considerano gli spettacolari esempi di discontinuità nell'evoluzione. L'origine stessa dell'universo, il "big bang", è un esempio cosmico di discontinuità. L'inizio della vita, benché meno cataclismatico, ne è certo un altro esempio.
La codifica dell'informazione nelle molecole genetiche introdusse la possibilità di profondi turbamenti nelle leggi che governavano l'universo. Prima dell'avvento della vita genetica, ad esempio, le fluttuazioni della temperatura o del rumore si smorzavano nella media, dando origine a leggi precise dell'evoluzione planetaria. A partire da tale avvento, invece, anche un singolo evento molecolare a livello di rumore termico è in grado di produrre conseguenze macroscopiche. Infatti, se l'evento fosse una mutazione in un sistema che si autoreplica, l'intero corso dell'evoluzione biologica potrebbe esserne alterato. Un singolo evento molecolare potrebbe uccidere una balena procurandole un cancro o distruggere un ecosistema producendo un virus virulento che aggredisce una specie chiave di quell'ecosistema. L'origine della vita non abroga le leggi soggiacenti della fisica, ma aggiunge un elemento nuovo, cioè la vasta portata delle conseguenze di certi eventi molecolari. Questo cambiamento di regole rende indeterminata la storia evolutiva e costituisce quindi una discontinuità nettissima.
Un certo numero di biologi e psicologi contemporanei ritengono che anche la nascita del pensiero riflessivo, che ebbe luogo nel corso dell'evoluzione dei primati, rappresenti una discontinuità che ha cambiato le regole. Anche in questo caso la nuova situazione non abroga le leggi biologiche soggiacenti, ma aggiunge un elemento che esige una nuova impostazione concettuale del problema.
Il biologo evoluzionista Lawrence B. Slobodkin ha identificato il nuovo elemento come un'immagine introspettiva di sé. Questa proprietà, egli afferma, modifica la risposta ai problemi evolutivi e rende impossibile far risalire certi eventi storici importanti a cause inerenti alle leggi evolutive biologiche. Sbbodkin sostiene che le regole sono cambiate e che l'uomo non può essere compreso facendo appello a leggi applicabili ad altri mammiferi che hanno un cervello con una fisiologia molto simile.
Questa caratteristica emergente dell'uomo è stata esaminata nelle sue svariate forme da numerosi antropologi, psicologi e biologi. Essa fa parte dei dati empirici che non si possono accantonare semplicemente per conservare la purezza del riduzionismo. Questa discontinuità deve essere studiata e valutata a fondo, ma prima di tutto è necessario riconoscerla. I primati sono molto diversi dagli altri animali, e gli esseri umani sono molto diversi dagli altri primati.
Ora comprendiamo i guai cui va incontro chi si affida pienamente a un riduzionismo acritico per trovare una soluzione del problema della mente. Abbiamo esaminato le debolezze di questa posizione; ma, oltre che debole, essa è una concezione pericolosa, poiché il modo in cui ci comportiamo nei confronti dei nostri congeneri dipende dal concetto che ci formiamo di loro nelle nostre formulazioni teoriche. Se consideriamo i nostri simili soltanto come animali o macchine, svuotiamo le nostre interazioni di ricchezza umana. Se andiamo a cercare le nostre norme di comportamento nello studio delle società animali, trascuriamo quelle caratteristiche uniche dell'uomo che tanto arricchiscono la nostra vita. Il riduzionismo radicale offre assai poco nella sfera degli imperativi morali. Inoltre, esso offre una terminologia che non serve a un'indagine "umanistica".
La comunità scientifica ha compiuto progressi notevoli nella comprensione del cervello e io condivido l'entusiasmo per la neurobiologia che caratterizza la ricerca attuale. Ciò nondimeno dovremmo guardarci dal permettere che questo slancio produca enunciati che vanno oltre la scienza e che ci ingabbiano in posizioni filosofiche che, rifiutando gli aspetti più interessanti della nostra specie, impoveriscono la nostra umanità. Sottovalutare l'importanza della comparsa e del carattere del pensiero riflessivo è un prezzo troppo alto da pagare per celebrare la liberazione della scienza dalla teologia compiuta parecchie generazioni fa dai nostri predecessori riduzionisti. La psiche umana fa parte dei dati di osservazione della scienza. Possiamo conservarla ed essere ugualmente buoni biologi e psicologi empirici.
Il gioco dell'imitazione
Mi propongo di considerare la domanda "Le macchine possono pensare?". Si dovrebbe cominciare col definire il significato dei termini "macchina" e "pensare". Le definizioni potrebbero essere formulate in modo da riflettere al massimo grado l'uso normale di queste parole, ma in ciò vi sono dei pericoli. Se il significato delle parole "macchina" e "pensare" è da ricavarsi in base al loro uso comune, è difficile sfuggire alla conclusione che per scoprire il significato e la risposta alla domanda "Le macchine possono pensare?" si debba ricorrere a un'indagine statistica, come può esserlo un sondaggio Gallup. Il che è assurdo. Invece di tentare di dare una definizione del genere, sostituirò quella domanda con un'altra, che è strettamente connessa alla prima ed è espressa con parole relativamente non ambigue.
La nuova forma del problema può essere descritta ricorrendo a un gioco che chiameremo "gioco dell'imitazione". Vi sono tre giocatori: un uomo (A), una donna (B) e un interrogante (C), che può essere dell'uno o dell'altro sesso. L'interrogante sta in una stanza da solo, separato dagli altri due. Scopo del gioco per l'interrogante è quello di determinare quale delle altre due persone sia l'uomo e quale la donna. Egli le conosce tramite le etichette X e Y, e alla fine del gioco dirà "X è A e Y è B", oppure "X è B e Y è A". L'interrogante ha facoltà di porre ad A e a B domande del tipo:
C: X, vuole dirmi per favore quanto sono lunghi i suoi capelli?
Ora, supponendo che X sia A, è A che deve rispondere. Scopo di A nel gioco è quello d'ingannare C e d'indurlo a sbagliare l'identificazione. La sua risposta quindi potrebbe essere:
"Ho i capelli pettinati alla maschietta e le ciocche più lunghe sono circa venti centimetri".
Per evitare che il tono della voce possa aiutare l'interrogante, le risposte dovrebbero essere scritte, o meglio ancora battute a macchina. La soluzione migliore sarebbe quella di collegare le due stanze con una telescrivente. Oppure le domande e le risposte potrebbero essere riportate da un intermediario. Scopo del gioco per il terzo giocatore (B) è quello di aiutare l'interrogante. Probabilmente la strategia migliore per B, cioè per la donna, è di dare risposte veritiere. Essa può aggiungere alle sue risposte frasi del tipo: "Sono io la donna, non dargli ascolto!"; ma ciò non approderà a nulla, dato che anche l'uomo può fare osservazioni analoghe.
Ora chiediamoci: "Che cosa accadrà se in questo gioco una macchina prenderà il posto dì A?". L'interrogante sbaglierà altrettanto spesso in questo caso di quando il gioco è effettuato fra un uomo e una donna? Queste domande sostituiscono la nostra domanda originaria "Le macchine possono pensare?".
Critica del nuovo problema
Oltre a chiedere: "Qual è la risposta alla domanda in questa sua nuova formulazione?", si può anche chiedere: "Vale la pena indagare su questo nuovo problema?". Ci occuperemo senz'altro indugio di quest'ultima domanda, interrompendo così un regresso all'infinito.
Il nuovo problema ha il vantaggio di tracciare una linea di demarcazione abbastanza netta tra le capacità fisiche e quelle intellettuali dell'uomo. Nessun ingegnere o chimico sostiene di poter fabbricare un materiale indistinguibile dalla pelle umana. E possibile che prima o poi forse ci si riesca ma anche supponendo che questa invenzione sia già stata fatta, dovrebbe esser chiaro che rivestire una "macchina pensante" di questa carne artificiale non servirebbe granché a renderla più umana. La forma che abbiamo dato al problema riflette questo fatto nella condizione che l'interrogante non deve vedere o toccare i suoi compagni di gioco o udirne la voce. Altri vantaggi del criterio proposto possono essere messi in luce attraverso esempi di domande e risposte. Eccone uno:
D.: per cortesia, mi scriva un sonetto che tratti del Ponte sul Forth
R.: Non faccia affidamento su di me per questo, non ho mai saputo scrivere poesie.
D.: Sommi 34957 e 70764
R.: (pausa di trenta secondi e poi la risposta) 105621
D: Gioca a scacchi?
R.: Sì.
D.: Ho il Re in e1 e nessun altro pezzo. Lei ha solo il Re in c3 e una Torre in h8. Tocca a lei muovere. Che mossa fa?
R.: (Dopo una pausa di 15 secondi) Torre in h1, matto.
Il metodo basato su domanda e risposta sembra essere quello più adatto a consentirci d'introdurre quasi tutti i campi dell'attività umana che desideriamo considerare. Non vogliamo penalizzare la macchina per la sua incapacità di brillare in un concorso di bellezza, né penalizzare l'uomo perché perde una corsa contro un aeroplano. Le condizioni in cui si svolge il nostro gioco rendono non pertinenti questi difetti. I "testimoni", se lo ritengono opportuno, possono gloriarsi quanto vogliono del loro fascino, della loro forza o del loro eroismo, ma l'interrogante non può pretendere dimostrazioni pratiche.
Il gioco può forse essere criticato sulla base del fatto che è troppo nettamente a sfavore della macchina. Se l'uomo dovesse fingere di essere la macchina, farebbe certamente una ben misera figura. Sarebbe tradito immediatamente dalla sua lentezza e imprecisione nell'aritmetica. Non potrebbe darsi che le macchine si comportino in una maniera che non può non essere descritta come pensiero, ma che è molto differente da quanto fa un essere umano? Questa obiezione è molto forte, ma almeno possiamo dire che, se ciò nonostante si può costruire una macchina in grado di giocare soddisfacentemente il gioco dell'imitazione, non c'è bisogno di preoccuparsene.
Si potrebbe obiettare che, giocando al "gioco dell'imitazione", la strategia migliore per la macchina potrebbe forse non essere l'imitazione del comportamento umano. Può anche darsi; ma non credo che si possa dare gran peso a una possibilità del genere. In ogni caso, non è nostra intenzione esaminare qui la teoria di questo gioco, e sarà dato per scontato che la strategia migliore per la macchina sia quella di provare a formulare le risposte che sarebbero date spontaneamente da un essere umano.
Le macchine ammesse al gioco
La domanda che abbiamo posto all'inizio non sarà del tutto definita finché non avremo specificato che cosa intendiamo con il termine "macchina". Naturalmente noi vogliamo consentire, per la costruzione delle nostre macchine, l'uso di ogni possibile sorta di tecnica ingegneristica. Desideriamo anche ammettere la possibilità che un ingegnere o un gruppo di ingegneri costruisca una macchina funzionante, ma il cui funzionamento non possa essere descritto in modo soddisfacente dai suoi costruttori perché il metodo da essi impiegato per costruirla è in gran parte empirico. Infine dal novero delle macchine vogliamo escludere gli uomini nati nel modo solito. E difficile formulare le definizioni così da soddisfare queste tre condizioni. Si potrebbe ad esempio pretendere che tutti gli ingegneri del gruppo fossero del medesimo sesso, ma ciò non sarebbe soddisfacente, poiché è probabile che si possa far sviluppare un individuo completo da una sola cellula (della pelle, per esempio) di un uomo. Riuscire a far ciò sarebbe una conquista della tecnica biologica degna del più alto elogio, ma non ci sentiremmo disposti a considerano un caso di "costruzione di una macchina pensante". Questo ci spinge ad abbandonare la richiesta che debbano essere permesse tecniche di ogni genere. Siamo tanto più disposti a questa rinuncia in quanto l'interesse attuale per le "macchine pensanti" è stato destato da un genere particolare di macchina, chiamato di solito "calcolatore elettronico" o "calcolatore digitale". Alla luce di questa considerazione, ammetteremo al nostro gioco solo i calcolatori elettronici digitali...
Questa speciale proprietà dei calcolatori digitali di poter imitare qualsiasi macchina a stati discreti viene espressa dicendo che essi sono macchine universali. L'esistenza di macchine dotate di questa proprietà ha una conseguenza importante: a prescindere da considerazioni di velocità, non è necessario progettare macchine sempre diverse per eseguire diversi processi di calcolo. Essi possono essere eseguiti tutti da un solo calcolatore digitale opportunamente programmato per ciascun caso. Vedremo che, in conseguenza di ciò, tutti i calcolatori digitali sono in un certo senso equivalenti.
Opinioni contrastanti sul problema principale
A questo punto possiamo ritenere sgombro il terreno e siamo pronti a iniziare dibattito sulla nostra domanda "Le macchine possono pensare?"... Non possiamo abbandonare del tutto la formulazione originale del problema, poiché vi saranno opinioni contrastanti quanto alla legittimità della sostituzione e dobbiamo almeno ascoltare ciò che altri hanno da dire a questo proposito.
Aiuterò il lettore a orientarsi meglio se, per cominciare, gli esporrò le mie convinzioni sulla questione. Consideriamo dapprima la formulazione più precisa della domanda. Io credo che tra una cinquantina d'anni sarà possibile programmare calcolatori aventi una capacità di memoria di circa 109, in modo da farli giocare così bene al gioco dell'imitazione che un interrogante medio avrà una probabilità non superiore al 70% di compiere l'identificazione giusta dopo cinque minuti di interrogatorio. Credo che la domanda iniziale "Le macchine possono pensare?" sia troppo priva di senso per meritare una discussione. Ciò nonostante, credo che alla fine del secolo l'uso delle parole e l'opinione corrente saranno talmente mutati che si potrà parlare di macchine pensanti senza aspettarsi di essere contraddetti. Credo inoltre che nascondere queste convinzioni non abbia nessuna utilità. L'opinione popolare che gli scienziati procedano in modo inesorabile da un fatto ben stabilito a un altro, senza esser mai influenzati da congetture non dimostrate, è assolutamente sbagliata. Purché sia chiaro quali sono i fatti dimostrati e quali sono le congetture, non può esserci alcun inconveniente. Le congetture hanno una grande importanza, poiché suggeriscono utili linee di ricerca.
Passo ora a considerare alcune opinioni opposte alla mia.
(1) Obiezione teologica. Pensare è una funzione dell'anima immortale dell'uomo. Dio ha dato un'anima immortale a tutti gli uomini e a tutte le donne, ma non agli altri animali o alle macchine. Perciò né gli animali né le macchine sono in grado di pensare.
Non riesco ad accettare neanche una parola di ciò, ma cercherò di rispondere in termini teologici. L'argomento sarebbe a mio parere più convincente se gli animali fossero collocati nella stessa categoria degli uomini, poiché ritengo che vi sia una differenza maggiore tra l'essere animato in genere e l'essere inanimato che non fra l'uomo e gli altri animali. Il carattere arbitrario della concezione ortodossa diventa più chiaro se consideriamo come essa potrebbe apparire a un membro di qualche altra confessione religiosa. Che cosa pensano i cristiani dell'idea musulmana che le donne non hanno anima? Ma lasciamo perdere questo punto e torniamo all'argomento principale. A me sembra che l'argomento riportato sopra implichi una seria limitazione dell'onnipotenza dell'Onnipotente. Pur ammettendo che ci sono certe cose che Egli non può fare, ad esempio rendere uno uguale a due, non dovremmo credere che Egli ha la libertà di dare l'anima a un elefante se lo ritiene opportuno? Potremmo attenderci che Egli eserciterebbe questo potere solo in concomitanza con una mutazione che desse all'elefante un cervello opportunamente potenziato per prendersi cura di quest'anima. Nel caso delle macchine si può fare un ragionamento di forma esattamente simile. Esso può sembrare diverso perché è più difficile da "mandar giù", ma in realtà ciò significa soltanto che noi riteniamo meno probabile che Egli giudichi tali circostanze idonee al conferimento di un'anima. Le circostanze in questione sono discusse nel seguito di questo articolo. Cercare di costruire macchine siffatte non sarà da parte nostra un'empia usurpazione del Suo potere di creare anime più di quanto non lo sia la procreazione dei bambini: in entrambi i casi siamo piuttosto strumenti della Sua volontà, in quanto procuriamo dimore per le anime che Egli crea.
Queste tuttavia sono mere speculazioni. Non mi lascio impressionare molto dagli argomenti teologici, qualunque sia la tesi che vogliono sostenere. Già in passato essi sono spesso risultati insoddisfacenti. All'epoca di Galileo si sosteneva che i versetti "Si fermò il Sole.., e non si affrettò a calare quasi un giorno intero" (Giosuè 10, 13) e "Hai fondato la terra sulle sue basi, mai potrà vacillare" (Salmi 104, 5) costituissero una confutazione soddisfacente della teoria copernicana. Alla luce delle conoscenze attuali questo argomento appare inconsistente, ma quando non si disponeva ancora ditali conoscenze, esso faceva un'impressione molto diversa.
(2) Obiezione dello "struzzo". "Se le macchine pensassero, le conseguenze sarebbero terribili; speriamo e crediamo che esse non possano farlo".
E raro che questo argomento venga espresso in forma così esplicita. Tuttavia, se ci si pensa appena un pò, è quasi inevitabile esserne influenzati. Ci piace credere che, sotto sotto, l'Uomo sia superiore al resto del creato. La cosa migliore sarebbe poter dimostrare che egli è necessariamente superiore, poiché allora non correrebbe nessun pericolo di perdere la sua posizione di comando. La popolarità dell'argomento teologico è chiaramente legata a questa convinzione. E probabile che essa sia molto forte tra gli intellettuali, poiché essi apprezzano più degli altri la facoltà di pensare e sono più inclini a basare su questa facoltà la loro fede nella superiorità dell'Uomo.
Non ritengo questo argomento tanto importante da meritare una confutazione: ha piuttosto bisogno di consolazione, forse da ricercarsi nella metempsicosi.
(3) Obiezione matematica. Vi sono molti risultati della logica matematica che possono essere usati per dimostrare l'esistenza di limitazioni a ciò che le macchine a stati discreti possono fare. Il più noto di questi risultati è conosciuto col nome di teorema di Gödel; esso mostra come in qualunque sistema logico sufficientemente potente si possono formulare enunciati non dimostrabili né confutabili all'interno del sistema, a meno che, forse, il sistema stesso non sia incoerente. Altri risultati, simili sotto certi aspetti, sono dovuti a Church, Kleene, Rosser e Turing. Quest'ultimo risultato è quello che si presta meglio a essere esaminato, poiché si riferisce direttamente alle macchine, mentre gli altri possono essere usati solo in un'argomentazione relativamente indiretta: se vogliamo ad esempio usare il teorema di Gödel dobbiamo anche poter descrivere i sistemi logici in termini di macchine e le macchine in termini di sistemi logici. Il risultato in questione riguarda un tipo di macchina che è in sostanza un calcolatore digitale con capacità infinita; esso asserisce che vi sono certe cose che una tale macchina non può fare. Se è predisposta per rispondere a delle domande, come nel gioco dell'imitazione, vi saranno domande alle quali o risponderà in modo erroneo oppure non risponderà affatto, anche dandole tutto il tempo che si vuole per rispondere. Le domande del genere sono naturalmente molte, e quelle che non ricevono risposta soddisfacente da una macchina possono riceverla da un'altra. Per il momento supponiamo naturalmente che le domande siano del genere cui si può rispondere con un "sì" o con un "no", e non quelle del tipo: "Che cosa pensi di Picasso?". Le domande alle quali sappiamo che la macchina non saprà rispondere sono di questo tipo: "Considera la macchina che abbia le seguenti caratteristiche... Questa macchina risponderà mai 'sì' a qualche domanda?". Al posto dei puntini ci dovrà essere la descrizione in forma standard di una qualche macchina... Quando la macchina descritta sta in una qualche relazione abbastanza semplice con la macchina interrogata, si può dimostrare che la risposta o è sbagliata o non viene data. Questo è il risultato matematico: si sostiene che esso dimostra una limitazione delle macchine di cui l'intelletto umano non soffre.
Per rispondere in poche parole a questa argomentazione si può dire che, pur essendo stato accertato che qualunque macchina particolare soffre di limitazioni della propria potenza, il fatto che limitazioni di questa sorta non valgano per l'intelletto umano è stato soltanto enunciato, ma non suffragato da qualche dimostrazione. Non penso tuttavia che di questa opinìone ci si possa sbarazzare in modo così sbrigativo. Quando a una di queste macchine si pone la domanda critica appropriata ed essa dà una risposta precisa, sappiamo che questa risposta deve essere erronea, e questo ci dà una certa sensazione di superiorità. E illusoria questa sensazione? Non c'è dubbio che essa sia genuina, ma non credo che dovremmo attribuirle troppa importanza. Noi stessi diamo troppo spesso risposte sbagliate perché sia giustificato il nostro compiacimento di fronte a questa dimostrazione di fallibilità da parte delle macchine. Inoltre, in queste occasioni, possiamo sentirci superiori solo nei confronti della macchina particolare sulla quale abbiamo riportato il nostro meschino trionfo. Trionfare contemporaneamente su tutte le macchine non sarebbe affatto possibile. In breve, dunque, vi potrebbero essere uomini più intelligenti di una qualsiasi macchina data, ma vi potrebbero anche essere altre macchine più intelligenti ancora, e così via.
Coloro che sostengono l'argomento matematico sarebbero per la maggior parte disposti, io credo, ad accettare il gioco dell'imitazione come base per la discussione. Coloro che credono nelle due obiezioni precedenti non avrebbero probabilmente nessun interesse per alcun criterio.
(4) Argomento della coscienza. Questo argomento è stato ottimamente esposto dal professor Jefferson nella Lister Oration del 1949, dalla quale cito: "Fino a quando una macchina non potrà scrivere un sonetto o comporre un concerto in base a pensieri ed emozioni che ha provato, e non per giustapposizione casuale di simboli, non potremo accettare che la macchina eguagli il cervello, cioè che non solo scriva ma sappia di aver scritto. Fino a quel momento, nessun meccanismo potrà sentire (e non semplicemente segnalarlo artificialmente, il che sarebbe un facile trucco) piacere per i suoi successi o dolore quando una sua valvola si brucia; né potrà inorgoglirsi per l'adulazione, deprimersi per i propri errori, essere attratto dal sesso, arrabbiarsi o abbattersi quando non può ottenere quel che desidera".
Questo argomento sembra proprio confutare la validità del nostro test. Secondo la versione più radicale di questa posizione, l'unico modo per essere sicuri che una macchina pensa è di essere quella macchina e sentirsi pensare. Si potrebbe allora descrivere questa sensazione al mondo, ma naturalmente nessuno sarebbe tenuto a prenderne atto. Allo stesso modo, secondo questa concezione, l'unica maniera per sapere che un dato uomo pensa è di essere quell'uomo. Si tratta in effetti della posizione solipsistica. Può essere la concezione più logica da sostenere, ma rende difficile la comunicazione delle idee. Si crea questa situazione: A è convinto che "A pensa ma B no", mentre B crede che "B pensa ma A no". Invece di discutere continuamente su questo punto, di solito per educazione si adotta la convenzione che tutti pensano.
Sono sicuro che il professor Jefferson non desidera assumere il punto di vista estremo e solipsistico. Probabilmente egli sarebbe dispostissimo ad accettare come test il gioco dell'imitazione. Questo gioco (senza la partecipazione del giocatore B) è usato spesso, e conosciuto col nome di "esame orale", per scoprire se una persona ha davvero capito una cosa o se l'ha imparata "a pappagallo". Ascoltiamo un brano di un tale esame orale:
INTERROGANTE: Nel primo verso del suo sonetto che dice "Ti paragonerò a un giorno d'estate?", "un giorno di primavera" andrebbe bene lo stesso, o magari meglio?
INTERROGATO: Non quadrerebbe metricamente.
INTERROGANTE: E "un giorno d'inverno"? Metricamente andrebbe bene.
INTERROGATO: Sì, ma nessuno vorrebbe essere paragonato a un giorno d'inverno.
INTERROGANTE: Lei direbbe che il signor Pickwick le ricorda Natale?
INTERROGATO: In un certo senso.
INTERROGANTE: Eppure Natale è un giorno d'inverno, e non credo che il paragone dispiacerebbe al signor Pickwick.
INTERROGATO: Credo che lei voglia scherzare. Dicendo "un giorno' d'inverno" si pensa a un tipico giorno d'inverno, piuttosto che a un giorno speciale come Natale.
E così via. Che cosa direbbe il professor Jefferson se la macchina che scrive sonetti fosse capace di rispondere in questo modo in un esame orale? Non so se egli riterrebbe che la macchina sta solo "segnalando artificialmente" queste risposte, ma se le risposte fossero soddisfacenti e senza esitazioni, come nel passo precedente, non credo che parlerebbe di "facile trucco". Esprimendosi così egli intende riferirsi, io credo, a certi espedienti come l'inserimento nella macchina della registrazione di un sonetto letto da qualcuno, con un interruttore apposito che di quando in quando la faccia partire.
In breve, dunque, ritengo che la maggior parte di coloro che sostengono l'argomento della coscienza si persuaderebbero ad abbandonarlo piuttosto che vedersi obbligati alla posizione solipsistica. A questo punto sarebbero probabilmente disposti ad accettare il nostro test.
Non voglio dar l'impressione di pensare che riguardo alla coscienza non ci sia alcun mistero: ad esempio, ogni tentativo di trovarne la sede porta a qualche forma di paradosso. Tuttavia non penso che sia necessario risolvere questi misteri prima di poter dare una risposta alla domanda di cui ci occupiamo in questo articolo.
(5) Argomenti fondati su incapacità varie. Tali argomenti si presentano in questa forma: "Ammetto che si possa far fare alle macchine tutto quello cui si è accennato, ma non si potrà mai costruirne una capace di fare X". Vengono proposti a questo riguardo numerosi X. Eccone alcuni:
Essere gentile, piena di risorse, bella, cordiale... avere iniziativa, avere il senso dello humour, distinguere il bene dal male, commettere errori.., innamorarsi, gustare le fragole con la panna... far sì che qualcuno si innamori di lei, imparare dall'esperienza.., usare le parole in modo appropriato, essere l'oggetto dei propri pensieri.., avere un comportamento vario quanto quello umano, fare qualcosa di realmente nuovo...
Di solito queste affermazioni non vengono suffragate in alcun modo. Credo che per lo più esse siano basate sul principio dell'induzione scientifica. Nel corso della propria vita un uomo vede migliaia di macchine e, da ciò che di esse vede, trae un gran numero di conclusioni generali: sono brutte, sono progettate ciascuna per uno scopo ben preciso e quando le si vuole usare per uno scopo anche solo un po’ diverso diventano inutili; la varietà di comportamento di ognuna di esse è molto limitata, ecc., ecc. Naturalmente egli conclude che tutte queste sono proprietà necessarie delle macchine in generale. Molte di queste limitazioni sono legate alla piccolissima capacità di memoria della maggior parte delle macchine. (Parto dall'assunto che il concetto di memoria venga esteso, in qualche modo, anche a macchine diverse da quelle a stati discreti. La definizione esatta non ha importanza, poiché in questa discussione non si mira alla precisione matematica). Fino ad alcuni anni fa, quando si parlava ancora poco di calcolatori digitali, era possibile suscitare molta incredulità se si illustravano le loro proprietà senza descrivere come erano costruiti. Ciò era dovuto presumibilmente a un'applicazione analoga del principio dell'induzione scientifica. Queste applicazioni del principio sono naturalmente in ampia misura inconsce. Quando un bambino che una volta si è scottato teme il fuoco e dimostra questo timore sfuggendolo, direi che egli applica l'induzione scientifica. (Naturalmente potrei descrivere il suo comportamento anche in molti altri modi). Le attività e le abitudini degli uomini non sembrano costituire un buon terreno di applicazione per l'induzione scientifica. Se si vogliono ottenere risultati attendibili, si deve prendere in esame una porzione vastissima dello spazio-tempo; altrimenti si finirà magari col credere (come fanno gran parte dei bambini inglesi) che tutti parlino inglese e che è stupido imparare il francese.
A proposito di molte delle incapacità che abbiamo ricordato sopra, dobbiamo tuttavia fare alcune osservazioni specifiche. Il lettore può aver pensato che l'incapacità di gustare le fragole con la panna sia futile. Forse si potrebbe costruire una macchina capace di gustare questo delizioso dessert, ma qualunque sforzo in questo senso sarebbe idiota. Il fatto importante è che questa incapacità concorre ad aggravare qualcuna delle altre, ad esempio aumenta la difficoltà che tra uomo e macchina si stabilisca lo stesso genere di cameratismo che c'è fra due bianchi oppure fra due neri.
L'affermazione che "le macchine non possono commettere errori" sembra curiosa. Si è tentati di ribattere: "Forse che per questo sono peggiori?". Ma assumiamo un atteggiamento più comprensivo e cerchiamo di capire il vero significato di questa critica. Credo che ne troveremo la spiegazione proprio col gioco dell'imitazione. Si sostiene che l'interrogante potrebbe distinguere la macchina dall'uomo semplicemente sottoponendo loro un certo numero di problemi aritmetici. La macchina sarebbe tradita dalla sua tremenda precisione. E facile ribattere a questa obiezione: la macchina (programmata per giocare quel gioco) non cercherebbe di dare le risposte giuste ai problemi aritmetici: introdurrebbe a bella posta errori calcolati in modo da confondere l'interrogante. Un difetto meccanico probabilmente si manifesterebbe attraverso una decisione inadeguata sul tipo di errori da inserire nelle operazioni aritmetiche. Neppure questa interpretazione della critica ne coglie tutto il significato, ma non possiamo permetterci, per ragioni di spazio, di approfondirla oltre.
A me sembra che questa critica derivi da una confusione fra due generi di errori, che possiamo chiamare "errori di funzionamento" ed "errori di conclusione". Gli errori di funzionamento sono dovuti a qualche difetto meccanico o elettrico che porta la macchina a comportarsi diversamente da com'era stata progettata. Nelle discussioni filosofiche si preferisce ignorare la possibilità di tali errori e ci si occupa quindi di "macchine astratte". Queste macchine astratte sono finzioni matematiche, e non oggetti fisici; per definizione esse non sono soggette a errori di funzionamento. In questo senso possiamo dire a buon diritto che "le macchine non possono mai commettere errori". Gli errori di conclusione possono presentarsi solo quando ai segnali che escono dalla macchina viene attribuito qualche significato. La macchina, ad esempio, potrebbe scrivere equazioni matematiche o frasi in inglese. Quando la macchina scrive una proposizione falsa, diciamo che essa ha commesso un errore di conclusione. E' chiaro che non c'è alcuna ragione per affermare che una macchina non può commettere errori di questo genere: essa potrebbe non fare altro che scrivere ripetutamente "0= 1". Per fare un esempio meno esagerato, la macchina potrebbe disporre di un metodo per trarre conclusioni basate sull'induzione scientifica. Dobbiamo aspettarci che ogni tanto questo metodo porti a risultati erronei.
All'affermazione che una macchina non può essere oggetto, o argomento, del proprio pensiero naturalmente si può rispondere solo se si riesce a dimostrare che la macchina ha qualche pensiero su qualche oggetto, o argomento. Nondimeno l'espressione "oggetto delle operazioni di una macchina" sembra avere un qualche significato, almeno per le persone che se ne occupano. Se per esempio la macchina stesse tentando di trovare una soluzione dell'equazione x2 - 40x - 11 = 0, si sarebbe tentati di dire che questa equazione fa parte in quell'istante dell'argomento su cui la macchina opera, cioè dell'oggetto della macchina. In questo senso la macchina può senza dubbio costituire oggetto di se stessa. La si può usare per allestire i suoi stessi programmi o per prevedere quale effetto avranno le alterazioni della sua struttura. Osservando i risultati del proprio comportamento, essa può modificare i propri programmi per conseguire in modo più efficace un qualche obiettivo. Si tratta di possibilità di un futuro prossimo e non di sogni utopistici.
Criticare una macchina perché non può manifestare una grande varietà di comportamenti è solo un modo per dire che essa non può avere una grande capacità di memoria. Fino a tempi piuttosto recenti una memoria anche solo di un migliaio di cifre era rarissima.
Le critiche che stiamo considerando ora sono spesso travestimenti dell'argomento della coscienza. Anche se qualcuno sostiene che una macchina riesce a fare una di queste cose e descrive il tipo di metodo che la macchina potrebbe seguire, di solito non produce una grande impressione. Si pensa infatti che il metodo, qualunque esso sia, poiché deve essere meccanico, sia in realtà piuttosto meschino. Si vedano le parole tra parentesi nella dichiarazione di Jefferson citata sopra.
(6) Obiezione di Lady Lovelace. Le informazioni più dettagliate che possediamo sulla Macchina Analitica di Babbage sono tratte da un saggio di Lady Lovelace. In esso si afferma: "La Macchina Analitica non ha la pretesa di creare alcunché. Può fare qualunque cosa siamo in grado di ordinarle di fare" (corsivo dell'autrice). Questa affermazione è citata da Hartree, il quale aggiunge: "Ciò non significa che non sia possibile costruire un'apparecchiatura elettronica che 'pensi per conto proprio' o nella quale, per esprimersi in termini biologici, si possa inserire un riflesso condizionato che costituirebbe una base per l"apprendimento'. Se ciò sia possibile o no in linea di principio è un problema emozionante e stimolante sollevato da alcuni degli sviluppi più recenti. Ma non sembrava che le macchine costruite o progettate a quel tempo avessero questa proprietà".
Su questo punto concordo perfettamente con Hartree. Si noterà che egli non afferma che le macchine in questione non avessero quella proprietà, ma piuttosto che gli elementi a disposizione di Lady Lovelace non l'incoraggiavano a ritenere che l'avessero. E tuttavia possibile che le macchine in questione possedessero in un certo senso questa proprietà. Supponiamo infatti che una macchina a stati discreti la possegga. La Macchina Analitica era un calcolatore digitale universale, e di conseguenza, se la sua capacità di memoria e la sua velocità fossero state sufficienti, opportunamente programmata essa avrebbe potuto imitare la macchina in questione. Probabilmente questo ragionamento non venne in mente alla Contessa o a Babbage; comunque essi non erano tenuti a sostenere tutto ciò che si poteva sostenere.
Tutto questo problema sarà ripreso in considerazione quando parlerò delle macchine che apprendono.
Una variante dell'obiezione di Lady Lovelace asserisce che una macchina "non può mai fare qualcosa di realmente nuovo". A questo si può opporre per un momento il detto "Non c'è nulla di nuovo sotto il sole". Chi può essere sicuro che il "lavoro originale" da lui compiuto non sia soltanto il frutto del seme gettato in lui dall'insegnamento o un risultato ottenuto applicando principi generali ben noti? Secondo una variante migliore dell'obiezione, una macchina non può mai "coglierci di sorpresa". Quest'asserzione è una sfida più diretta e può essere affrontata direttamente. Le macchine mi colgono di sorpresa molto di frequente; questo dipende in gran parte dal fatto che non mi applico abbastanza a calcolare che cosa devo aspettarmi da loro, o piuttosto dal fatto che, per quanto mi applichi a questo calcolo, lo faccio in modo sciatto, affrettato e arrischiato. Magari mi dico: "Qui la tensione dovrebbe essere la stessa che lì; be', supponiamo che sia così". Naturalmente spesso mi sbaglio, e il risultato è per me una sorpresa, perché ora che l'esperimento è concluso queste supposizioni sono già state dimenticate. Tali ammissioni mi espongono a lunghe tirate sulla riprovevolezza del mio comportamento, ma non gettano alcun dubbio sulla mia credibilità quando attesto le mie sorprese.
Non mi aspetto che questa risposta chiuda la bocca al mio critico: probabilmente egli dirà che queste sorprese sono causate da qualche mio atto mentale creativo e non riflettono un merito della macchina. Questo ci allontana dall'idea della sorpresa e ci riporta all'argomento della coscienza. E un argomento che dobbiamo considerare concluso, ma forse vale la pena osservare che per trovare sorprendente qualcosa occorre un "atto mentale creativo" tanto se l'evento sorprendente è causato da un uomo quanto se è causato da un libro, da una macchina o da qualunque altra cosa.
L'idea che le macchine non possano procurarci sorprese è dovuta, a mio parere, a un errore in cui cadono particolarmente i filosofi e i matematici. Si tratta dell'assunto che non appena un fatto si presenta alla mente, contemporaneamente a esso balzino alla mente tutte le conseguenze di quel fatto. In molte circostanze questo assunto è utilissimo, ma ci si dimentica troppo facilmente che è falso. Esso porta, come conseguenza naturale, a svalutare totalmente il lavoro di deduzione delle conseguenze dai dati e dai principi generali.
(7) Argomento fondato sulla continuità nel sistema nervoso. Il sistema nervoso non è certo una macchina a stati discreti. Un piccolo errore d'informazione sulla grandezza di un impulso nervoso che colpisce un neurone può essere cruciale per quanto riguarda la grandezza dell'impulso in uscita. Si può sostenere che, stando così le cose, non si può pensare di riuscire a imitare il comportamento del sistema nervoso con un sistema a stati discreti.
E vero che una macchina a stati discreti deve essere diversa da una macchina continua, ma se ci atteniamo alle condizioni del gioco dell'imitazione, l'interrogante non sarà in grado di trarre alcun vantaggio da questa differenza. La situazione può essere chiarita prendendo in considerazione qualche macchina continua più semplice. A questo scopo andrà benissimo un analizzatore differenziale. (Si tratta di un tipo di macchina non a stati discreti, usata per certi calcoli particolari). Alcuni analizzatori differenziali forniscono risposte stampate e sono quindi adatti a partecipare al gioco. Un calcolatore digitale non sarebbe in grado di prevedere esattamente le risposte che un analizzatore differenziale darebbe a un problema, ma sarebbe comunque capace di dare il tipo giusto di risposta. Ad esempio, richiesto di fornire il valore di r (che è circa 3,1416), sarebbe ragionevole che esso scegliesse a caso tra i valori 3,12; 3,13; 3,14; 3,15; 3,16 con probabilità, diciamo, 0,05; 0,15; 0,55; 0,19; 0,06. In queste condizioni sarebbe assai difficile per l'interrogante distinguere l'analizzatore differenziale dal calcolatore.
(8) Argomento del comportamento senza regole rigide. Non è possibile offrire un insieme di regole miranti a descrivere ciò che un uomo dovrebbe fare in ogni circostanza immaginabile. Ad esempio, può esistere la regola che ci si deve fermare a un semaforo quando è acceso il rosso e proseguire quando è acceso il verde; ma che si deve fare se per un guasto i due colori si accendono insieme? Forse si può decidere che la cosa più sicura è fermarsi, ma questa decisione può procurare in seguito qualche altra difficoltà. Tentare di fornire regole di condotta per qualsiasi eventualità, anche solo quelle relative ai semafori, appare impossibile. E su questo sono d'accordo.
Sulla base di ciò si sostiene che noi non possiamo essere macchine. Tenterò di riassumere l'argomentazione, ma temo che non riuscirò a farlo adeguatamente. Dovrebbe essere pressappoco di questo tipo: "Se ogni uomo avesse un insieme definito di regole di condotta secondo le quali regolare la propria vita, non sarebbe migliore di una macchina. Ma non esistono tali regole, quindi gli uomini non possono essere macchine". Salta all'occhio che qui il termine medio è equivoco. Non penso che l'argomentazione venga mai enunciata in questo modo, nondimeno credo che l'argomento usato sia questo. La questione è oscurata tuttavia dalla confusione tra "regole di condotta" e "leggi di comportamento". Per "regole di condotta" intendo precetti del tipo: "Se a un semaforo è acceso il rosso, fermati", in base a cui si può agire e di cui si può essere consci. Per "leggi di comportamento" intendo leggi di natura riferite al corpo umano, come: "Se lo pizzichi, strilla". Se nell'argomentazione riportata sopra, invece di "regole di condotta secondo le quali regolare la propria esistenza" diciamo "leggi di comportamento che governano la propria vita", l'equivocità del termine medio può essere superata. Infatti non solo crediamo che se si è regolati da leggi di comportamento allora si è una macchina di qualche genere (benché non necessariamente una macchina a stati discreti), ma anche, viceversa, che se si è una siffatta macchina allora si è regolati da leggi siffatte. Tuttavia convincersi che non esistono leggi di comportamento complete non è tanto facile quanto convincersi che non esistono regole di condotta complete. L'unica via che conosciamo per scoprire queste leggi è l'osservazione scientifica e certamente non conosciamo alcuna circostanza nella quale si possa dire: "Abbiamo cercato abbastanza: non esistono tali leggi".
Possiamo anzi dimostrare in modo più efficace che qualunque affermazione del genere sarebbe ingiustificata. Supponiamo infatti di poter essere sicuri di trovare tali leggi, nel caso esistessero. Allora, data una macchina a stati discreti, dovrebbe essere certamente possibile raccogliere su di essa con l'osservazione informazioni sufficienti a consentire di prevedere il suo comportamento futuro, e ciò in un tempo ragionevole, diciamo mille anni. Ma le cose non sembrano stare così. Per il calcolatore di Manchester ho allestito un programmino che fa uso di solo mille unità di memoria, con il quale, se si fornisce alla macchina un numero di sedici cifre, essa dà in risposta un altro numero di sedici cifre in due secondi. Sfido chiunque a raccogliere, da queste risposte, informazioni sufficienti a consentire di prevedere le risposte ai numeri non ancora provati.
(9) Argomento fondato sulla percezione extrasensoriale (ESP). Do per scontato che il lettore sappia che cos'è la percezione extrasensoriale e conosca il significato delle sue quattro branche, cioè la telepatia, la chiaroveggenza, la precognizione e la psicocinesi. Questi fenomeni imbarazzanti sembrano contraddire tutte le nostre usuali idee scientifiche. Come saremmo contenti di screditarli! Purtroppo, almeno per la telepatia, le prove statistiche sono schiaccianti. E molto difficile ristrutturare le nostre idee così da farvi rientrare questi fatti nuovi. Una volta che li si è accettati, non dovrebbe esser difficile arrivare a credere ai fantasmi e ai folletti. L'idea che il nostro corpo si muova semplicemente in conformità con le leggi note della fisica, insieme con alcune altre non ancora scoperte ma in qualche modo simili, sarebbe una delle prime a scomparire.
A mio parere questo argomento è molto forte. Si può ribattere facendo notare che molte teorie scientifiche rimangono utilizzabili in pratica, pur scontrandosi con la percezione extrasensoriale; e che anzi possiamo andare avanti benissimo se di essa non ci curiamo affatto. E' una consolazione piuttosto magra, tuttavia, e ho il sospetto che il pensiero sia proprio il genere di fenomeno dove la percezione extrasensoriale può forse essere particolarmente pertinente.
Un'argomentazione più specifica basata sulla percezione extrasensoriale potrebbe essere enunciata così: "Giochiamo il gioco dell'imitazione prendendo come testimoni un uomo che abbia eccellenti doti di ricezione telepatica e un calcolatore. L'interrogante può porre domande del tipo: 'A che seme appartiene la carta nella mia destra?'. L'uomo, per telepatia o chiaroveggenza, dà la risposta esatta centotrenta volte su quattrocento carte. La macchina può solo indovinare a caso, per esempio dando centoquattro volte la risposta esatta, sicché l'interrogante può giungere alla giusta identificazione". Qui si apre una possibilità interessante. Supponiamo che il calcolatore digitale contenga un generatore di numeri casuali; allora sarà naturale che se ne serva per decidere la risposta da dare. Ma allora il generatore di numeri casuali sarà soggetto ai poteri psicocinetici dell'interrogante. Questo effetto psicocinetico potrebbe far sì che la macchina indovinasse più sovente di quanto non ci si attenderebbe su basi probabilistiche, sicché l'interrogante non sarebbe più in grado di giungere all'identificazione esatta. D'altra parte, egli potrebbe essere capace di indovinare senza fare alcuna domanda, per chiaroveggenza. Con I'ESP può accadere di tutto.
Se si ammette la telepatia, è necessario rendere più rigoroso il nostro test. La situazione potrebbe essere considerata analoga a quella che si presenterebbe se l'interrogante pensasse ad alta voce e uno dei giocatori ascoltasse con l'orecchio al muro. Se i giocatori fossero chiusi in una "stanza a prova di telepatia", tutte le esigenze sarebbero soddisfatte.
Quale importanza psicologica e filosofica dovremmo attribuire ai tentativi compiuti di recente per simulare col calcolatore le capacità cognitive dell'uomo? Per rispondere a questa domanda ritengo utile distinguere tra un'lA (intelligenza artificiale) che chiamerò "forte" e un'lA che chiamerò "debole" o "cauta". Secondo l'IA debole, il pregio principale del calcolatore nello studio della mente sta nel fatto che esso ci fornisce uno strumento potentissimo: ci permette, ad esempio, di formulare e verificare le ipotesi in un modo più preciso e rigoroso. Secondo l'IA forte, invece, il calcolatore non è semplicemente uno strumento per lo studio della mente, ma piuttosto, quando sia programmato opportunamente, è una vera mente; è cioè possibile affermare che i calcolatori, una volta corredati dei programmi giusti, letteralmente capiscono e posseggono altri stati cognitivi. Per l'IA forte, poiché il calcolatore programmato possiede stati cognitivi, i programmi non sono semplici strumenti che ci permettono di verificare le spiegazioni psicologiche: i programmi sono essi stessi quelle spiegazioni.
Non ho alcuna obiezione da fare contro le tesi dell'lA debole, almeno in questo articolo. La discussione che svolgerò qui riguarderà le tesi che ho definito tipiche dell'lA forte, in particolare la tesi che il calcolatore opportunamente programmato possegga letteralmente stati cognitivi e che quindi i programmi spieghino la capacità cognitiva dell'uomo. D'ora in poi, quando parlerò di IA, ne intenderò la versione forte, caratterizzata da queste due tesi.
Prenderò in esame il libro di Roger Schank e dei suoi colleghi dell'Università di Yale (Schank e Abelson, 1977), perché lo conosco meglio di altri testi che sostengono tesi analoghe e perché esso costituisce un esempio assai chiaro del tipo di impostazione che desidero discutere. Ma nulla di ciò che segue dipende dai caratteri particolari dei programmi di Schank. Le stesse argomentazioni sarebbero valide per SHRDLU di Winograd (Winograd, 1973), per ELIZA di Weizenbaum (Weizenbaum, 1965), e anzi per qualunque macchina di Turing che simuli i fenomeni mentali dell'uomo)
Molto brevemente e tralasciando i vari particolari, il programma di Schank può essere descritto in questo modo: scopo del programma è di simulare la capacità dell'uomo di capire le storie. E' caratteristico di questa capacità che un uomo sia in grado di rispondere a domande relative a una storia anche se l'informazione che egli fornisce con queste risposte non era esplicitamente presente in essa. Supponiamo ad esempio che venga raccontato questo episodio: "Un uomo entra in un ristorante e ordina una bistecca. Quando la bistecca arriva, è carbonizzata e l'uomo, pieno di rabbia, esce come una furia dal ristorante senza pagare la bistecca e senza lasciare mancia". Se ora si chiede a un ascoltatore umano: "L'uomo ha mangiato la bistecca?" è presumibile che egli risponda: "No, non l'ha mangiata". Analogamente, se gli raccontano quest'altro episodio: "Un uomo entra in un ristorante e ordina una bistecca; quando la bistecca arriva, l'uomo ne è molto soddisfatto; al momento di andarsene, prima di pagare il conto, dà alla cameriera una mancia generosa", alla domanda: "L'uomo ha mangiato la bistecca?" è presumibile che egli risponda: "Sì, l'ha mangiata". Ebbene, anche le macchine di Schank sono in grado di rispondere in questo modo a domande sui ristoranti. Per farlo esse si basano su una "rappresentazione" del corredo di informazioni sui ristoranti posseduto dagli uomini, grazie alla quale essi possono rispondere a domande come quelle indicate sopra, per quel genere di storie. Dopo che si è fornita alla macchina la storia e le si è fatta la domanda, essa stamperà risposte dello stesso tenore di quelle che ci attenderemmo da esseri umani cui si raccontassero storie simili. I fautori dell'lA forte sostengono non solo che in questa successione di domande e risposte la macchina simula una capacità umana, ma anche (1) che si può affermare che la macchina, nel vero senso dei termini, capisce la storia e dà le risposte alle domande e (2) che ciò che la macchina e il suo programma fanno spiega la capacità che ha l'uomo di capire la storia e di rispondere a domande su di essa.
A me pare che nessuna di queste due tesi sia minimamente suffragata dal lavoro di Schank, e nel seguito tenterò di dimostrarlo. Naturalmente non sto dicendo che Schank stesso sostenga queste tesi.
Un modo per verificare una qualunque teoria della mente è di chiedersi come andrebbero le cose se la mia mente funzionasse davvero in base ai princìpi che quella teoria pone a fondamento di tutte le menti. Eseguiamo questa verifica sul programma di Schank mediante il seguente Gedankenexperiment. Supponiamo che io mi trovi chiuso in una stanza con un grande foglio di carta tutto coperto di ideogrammi cinesi. Supponiamo inoltre che io non conosca il cinese (ed è proprio così), scritto o parlato, e che io non sia nemmeno sicuro di riuscire a distinguere la scrittura cinese dalla scrittura, diciamo, giapponese o da sgorbi privi di significato: per me gli ideogrammi cinesi sono appunto sgorbi privi di significato. Ora supponiamo che, dopo questo primo foglio in cinese, mi venga fornito un secondo foglio scritto nella stessa scrittura, e con esso un insieme di regole per correlare il secondo foglio col primo. Le regole sono scritte in inglese e io capisco queste regole come qualsiasi altro individuo di madrelingua inglese. Esse mi permettono di correlare un insieme di simboli formali con un altro insieme di simboli formali; qui "formale" significa semplicemente che io posso identificare i simboli soltanto in base alla loro forma grafica. Supponiamo ancora che mi venga data una terza dose di simboli cinesi insieme con alcune istruzioni, anche queste in inglese, che mi permettono di correlare certi elementi di questo terzo foglio coi primi due, e che queste regole mi insegnino a tracciare certi simboli cinesi aventi una certa forma in risposta a certi tipi di forme assegnatemi nel terzo foglio. A mia insaputa le persone che mi forniscono tutti questi simboli chiamano il contenuto del primo foglio "scrittura", quello del secondo "storia" e quello del terzo "domande". Inoltre chiamano "risposte alle domande" i simboli che io do loro in risposta al contenuto del terzo foglio e chiamano "programma" l'insieme delle regole in inglese che mi hanno fornito. Ora, tanto per complicare un po' le cose, immaginiamo che queste stesse persone mi diano anche delle storie in inglese, che io capisco, e che poi mi facciano domande in inglese su queste storie, e che io risponda loro in inglese. Supponiamo ancora che dopo un po' io diventi così bravo nel seguire le istruzioni per manipolare i simboli cinesi e che i programmatori diventino così bravi nello scrivere i programmi che, dal punto di vista esterno, di qualcuno cioè che stia fuori della stanza in cui io sono rinchiuso, le mie risposte alle domande siano assolutamente indistinguibili da quelle che darebbero persone di madrelingua cinese. Nessuno, stando solo alle mie risposte, può rendersi conto che io non so neanche una parola di cinese. Supponiamo per giunta che le mie risposte alle domande in inglese siano, e certo lo sarebbero, indistinguibili da quelle fornite da altre persone di madrelingua inglese, per il semplice motivo che io sono di madrelingua inglese. Dal punto di vista esterno, cioè dal punto di vista di qualcuno che legga le mie "risposte", le risposte alle domande in cinese e a quelle in inglese sono altrettanto buone. Ma nel caso del cinese, a differenza dell'inglese, io do le risposte manipolando simboli formali non interpretati. Per quanto riguarda il cinese, mi comporto né più né meno che come un calcolatore: eseguo operazioni di calcolo su elementi specificati per via formale. Per quanto riguarda il cinese, dunque, io sono semplicemente un'istanziazione (ossia un'entità totalmente corrispondente al suo tipo astratto) del programma del calcolatore.
Orbene, l'IA forte sostiene che il calcolatore programmato capisce le storie e che il programma in un certo qual senso spiega la capacità di comprendere dell'uomo. Ma ora siamo in grado di esaminare queste affermazioni alla luce del nostro esperimento ideale.
(1) Quanto alla prima affermazione, nell'esempio dato risulta del tutto evidente che io non capisco una sola parola delle storie in cinese. I miei ingressi e le mie uscite sono indistinguibili da quelli di una persona di madrelingua cinese, e io posso avere tutti i programmi formali che si vuole, ma non capisco ugualmente nulla. Per le stesse ragioni, il calcolatore di Schank non capisce nulla di nessuna storia, sia essa in cinese, in inglese o in un'altra lingua qualsiasi, poiché nel caso del cinese il calcolatore sono io e nei casi in cui il calcolatore non è me esso non ha nulla più di quanto abbia io quando mi trovo nella condizione in cui non capisco nulla.
(2) Quanto alla seconda affermazione, che il programma spiega come fa l'uomo a capire, si può constatare che il calcolatore e il suo programma non forniscono condizioni sufficienti del comprendere, dato che essi funzionano, eppure non c'è comprensione. Ma il programma fornisce almeno una condizione necessaria o un contributo importante al comprendere? Una delle affermazioni fatte dai sostenitori dell'lA forte è che quando io capisco una storia in inglese, ciò che faccio è esattamente la stessa cosa - o forse la stessa cosa ma in misura maggiore - di quando manipolo i simboli cinesi. Ciò che distingue il caso dell'inglese, in cui capisco, dal caso del cinese, in cui non capisco, è semplicemente una manipolazione formale più intensa. Non ho dimostrato che questa tesi è falsa ma, relativamente all'esempio, essa sarebbe certo una tesi incredibile. La plausibilità che può avere questa tesi deriva dalla supposizione che si possa costruire un programma che abbia gli stessi ingressi e le stesse uscite dei parlanti di quella madrelingua e dalla supposizione ulteriore che esista qualche livello al quale costoro possano anche essere descritti come istanziazioni di un programma. Sulla base di questi due assunti, supponiamo che, anche se il programma di Schank non ci dice proprio tutto sulla comprensione, esso possa almeno dircene qualcosa. Ritengo che questa sia in effetti una possibilità empirica, ma finora non è stata addotta la minima ragione per poter credere che ciò sia vero, e anzi il nostro esempio suggerisce - anche se certo non lo dimostra - che il programma del calcolatore non ha proprio nulla a che fare con la mia comprensione della storia. Nel caso del cinese, io ho tutto ciò che l'intelligenza artificiale può introdurre in me per mezzo di un programma, eppure non capisco nulla; nel caso dell'inglese capisco tutto, e fino a questo momento non c'è alcun motivo per credere che la mia comprensione abbia qualcosa a che fare con i programmi di calcolatore, cioè con operazioni di calcolo su elementi specificati per via puramente formale. Ciò che l'esempio lascia intendere è che, finché il programma è definito in termini di operazioni di calcolo su elementi definiti per via puramente formale, questi elementi non hanno di per sé alcun legame interessante con la comprensione. Essi non sono certo condizioni sufficienti e non è stata fornita la minima ragione per farci supporre che siano condizioni necessarie per il comprendere, o che, per lo meno, vi contribuiscano in modo significativo. Si osservi che la forza dell'argomentazione non è semplicemente che macchine diverse possono avere gli stessi ingressi e le stesse uscite pur operando sulla base di principi formali diversi: non è affatto questo il punto. Il fatto è che quali che siano i principi puramente formali introdotti nel calcolatore, essi non saranno sufficienti per il comprendere, poiché un essere umano sarà capace di seguire quei principi formali senza per questo capire nulla. Non è stata fornita alcuna ragione per supporre che questi principi siano necessari o che almeno diano un contributo, poiché non è stata data alcuna ragione per supporre che, quando capisco l'inglese, io stia funzionando in base a un qualsivoglia programma formale.
Orbene, che cosa ho nel caso delle frasi in inglese che invece mi manca nei caso delle frasi in cinese? La risposta ovvia è che so che cosa significano le une, mentre non ho la minima idea di che cosa significhino le altre. Ma in che consiste precisamente questo qualcosa, e perché di qualunque cosa si tratti, non potremmo darlo a una macchina? Tornerò in seguito su questo punto, ma prima voglio continuare con l'esempio.
Ho avuto modo di sottoporre il mio esempio a parecchi ricercatori d'intelligenza artificiale ed è interessante notare che essi non sembrano d'accordo sulla risposta da dare a questa domanda. Le risposte che ho raccolto sono di una varietà sorprendente; qui di seguito esaminerò le più comuni (indicandone anche l'origine geografica).
Prima tuttavia voglio mettere in guardia contro alcuni fraintendimenti comuni sul significato di "capire": in molte di queste discussioni viene sollevato un grande polverone sulla parola "capire". I miei critici fanno notare che esistono molti gradi diversi di comprensione, che "capire" o "comprendere" non è un semplice predicato a due argomenti; che vi sono addirittura generi e livelli diversi di comprensione, e che spesso la legge del terzo escluso non si applica in modo immediato neppure a enunciati della forma "x capisce y"; che in molti casi il fatto che x capisca y non è un semplice fatto oggettivo, ma una questione di decisione, e così via. A tutte queste osservazioni risponderei dicendo: certo, certo. Ma esse non hanno nulla a che fare con gli argomenti in discussione. Ci sono casi evidenti in cui "capire" ha il suo significato letterale e casi evidenti in cui non lo ha; e questi due generi di casi sono tutto quanto mi occorre per la mia argomentazione. Io capisco le storie in inglese; in misura minore sono in grado di capire quelle in francese, in misura ancora minore quelle in tedesco; le storie in cinese non le capisco per niente. La mia automobile e la mia addizionatrice da tavolo, invece, non capiscono nulla: esse non si occupano di questo genere di cose. Spesso attribuiamo il comprendere e altri predicati cognitivi per metafora e analogia alle automobili, alle addizionatrici e ad altri manufatti, ma queste attribuzioni non dimostrano nulla. Diciamo: "La porta sa quando si deve aprire, grazie alla sua cellula fotoelettrica", "L'addizionatrice sa come (capisce come, è capace di) fare l'addizione e la sottrazione, ma non la divisione", "Il termostato sente le variazioni di temperatura". Il motivo per cui facciamo queste attribuzioni è molto interessante ed è legato al fatto che nei manufatti noi estendiamo la nostra intenzionalità; i nostri strumenti sono un'estensione dei nostri fini e troviamo quindi naturale fare nei loro confronti attribuzioni metaforiche di intenzionalità; ma secondo me questi esempi non hanno nessuna forza filosofica. Il senso in cui una porta automatica "capisce le istruzioni" della sua cellula fotoelettrica non è affatto il senso in cui io capisco l'inglese. Se il senso in cui i calcolatori programmati da Schank capiscono i racconti è inteso come lo stesso senso metaforico in cui la porta capisce e non come quello in cui io capisco l'inglese, allora non mette neppure conto discutere il problema. Tuttavia Newell e Simon (1963) scrivono che il genere di cognizione che essi sostengono sia posseduta dai calcolatori è esattamente identico a quella degli esseri umani. Mi piace il carattere deciso di questa affermazione, ed è proprio questo il genere che prenderò in considerazione. Cercherò di mostrare che il calcolatore programmato capisce, in senso letterale, quello che capiscono l'automobile e l'addizionatrice, cioè assolutamente niente. La comprensione del calcolatore non è (come la mia comprensione del tedesco) solo parziale o incompleta: è nulla.
Passiamo ora alle risposte:
I. La risposta dei sistemi (Berkeley). "Pur essendo vero che l'individuo chiuso nella stanza non capisce la storia, sta di fatto che egli è solo parte di un sistema globale e questo sistema capisce la storia. La persona ha davanti a sé un grosso libro su cui stanno scritte le regole, ha una bella provvista di carta e di matite per fare i calcoli, ha 'banche di dati' piene di gruppi di simboli cinesi. Orbene, la comprensione non viene ascritta all'individuo isolato, bensì al sistema complessivo di cui egli è parte".
La mia risposta alla teoria dei sistemi è semplicissima: facciamo in modo che l'individuo interiorizzi tutti questi elementi del sistema. Gli facciamo imparare a memoria le regole del grosso libro e le banche dei simboli cinesi, e gli facciamo fare tutti i calcoli a mente. L'individuo incorpora così tutto il sistema: nel sistema non vi è nulla che egli non abbracci. Possiamo anche sbarazzarci della stanza e supporre che egli lavori all'aperto. Ma anche così egli non capirà nulla di cinese e lo stesso vale a fortiori per il sistema, poiché nel sistema non vi è nulla che non sia anche in lui: se lui non capisce, neppure il sistema può in alcun modo capire, perché il sistema è parte di quell'individuo.
In realtà provo un po' d'imbarazzo nel dare anche solo questa risposta alla teoria dei sistemi, perché questa teoria mi sembra già in partenza decisamente non plausibile. L'idea è che anche se una persona non capisce il cinese, la congiunzione di quella persona con pochi fogli di carta potrebbe in qualche modo capire il cinese. Non mi è facile immaginare come qualcuno, che non sia prigioniero di un'ideologia, possa trovare in questa idea un minimo di plausibilità. Ma credo che molti fautori dell'ideologia dell'lA forte finirebbero alla lunga per dire qualcosa di molto simile; occupiamocene quindi ancora un po'. Secondo una versione di questa concezione, benché l'uomo dell'esempio col sistema interiorizzato non capisca il cinese nel senso in cui lo capisce un parlante di madrelingua cinese (perché, ad esempio, non sa che la storia parla di ristoranti, di bistecche, ecc.), tuttavia "l'uomo come sistema di manipolazione di simboli formali" capisce veramente il cinese. Il sottosistema dell'uomo costituito dal sistema di manipolazione di simboli formali per il cinese non va confuso con il sottosistema per l'inglese.
Quindi nell'uomo vi sono in realtà due sottosistemi: uno capisce l'inglese, l'altro il cinese e "in realtà questi due sistemi hanno ben poco a che fare l'uno con l'altro". Ma, vorrei precisare, non solo hanno poco a che fare l'uno con l'altro: tra di loro non esiste la benché minima somiglianza. Il sottosistema che capisce l'inglese (supponendo di acconsentire all'uso di questa barbara terminologia dei "sottosistemi") sa che le storie parlano di ristoranti e di bistecche, sa che gli vengono poste delle domande sui ristoranti, sa che sta facendo del suo meglio per rispondere alle domande facendo varie inferenze sulla base del contenuto della storia, e così via. Ma il sistema per il cinese non sa nulla di tutto ciò. Mentre il sottosistema per l'inglese sa che "bistecche" si riferisce alle bistecche, il sottosistema per il cinese sa solo che uno "sgorbietto fatto così" è seguito da uno "sgorbietto fatto cosà". Esso sa soltanto che a un'estremità vengono introdotti vari simboli formali, che sono poi manipolati secondo certe regole scritte in inglese, mentre dall'altra estremità escono altri simboli. Lo scopo dell'esempio originale era quello di mostrare che questa manipolazione di simboli non potrebbe di per sé essere sufficiente per capire i] cinese in alcun senso letterale, poiché l'uomo potrebbe scrivere uno "sgorbietto fatto cosà" dopo uno "sgorbietto fatto così" senza capire un'acca di cinese. E questo ragionamento non viene infirmato se all'interno dell'uomo si postulano dei sottosistemi, poiché questi sottosistemi non si trovano in condizioni migliori di quelle in cui si trovava l'uomo; in essi non c'è nulla che si avvicini neppure lontanamente a ciò che possiede l'uomo (o il sottosistema) che parla inglese. Anzi, nel nostro caso, così com'è descritto, il sottosistema per il cinese è una semplice parte del sottosistema per l'inglese, una parte che compie una manipolazione di simboli senza significato secondo certe regole espresse in inglese.
Chiediamoci quale sia la ragione della risposta dei sistemi; cioè, quali sarebbero le basi indipendenti per affermare che l'agente deve avere in sé un sottosistema che capisce veramente le storie in cinese. Per quanto mi consta, le uniche basi sono che, nell'esempio, io ho gli stessi ingressi e le stesse uscite di un parlante di madrelingua cinese e un programma che va dagli uni alle altre. Ma gli esempi miravano proprio a dimostrare che ciò non potrebbe essere sufficiente per capire, nel senso in cui io capisco le storie in inglese, perché una persona, e quindi l'insieme dei sistemi che concorrono a formare una persona, potrebbe avere la giusta combinazione di ingresso, uscita e programma e tuttavia non capire nulla, nel senso vero e significativo in cui io capisco l'inglese. L'unica motivazione per dire che in me deve esistere un sottosistema che capisce il cinese è che io ho un programma che può superare il test di Turing: posso ingannare le persone di madrelingua cinese. Ma uno dei punti in discussione è proprio l'adeguatezza del test di Turing. L'esempio mostra che potrebbero esistere due "sistemi" che superano entrambi il test di Turing, ma dei quali solo uno capisce; e non si confuta questo punto dicendo che, poiché entrambi superano il test di Turing, entrambi devono capire, dal momento che questa affermazione non risponde all'argomento che il sistema dentro di me che capisce l'inglese è di gran lunga più ricco del sistema che semplicemente elabora il cinese. In breve, la risposta dei sistemi è una pura petizione di principio, che ribatte senza addurre argomenti che il sistema deve capire il cinese.
Inoltre la risposta dei sistemi parrebbe condurre a conseguenze che sono di per sé assurde. Se si deve concludere che in me deve esserci una capacità cognitiva sulla base del fatto che io ho un certo tipo d'ingresso e di uscita e tra i due un programma, allora ci troveremo davanti a una quantità di sottosistemi non cognitivi in possesso di capacità cognitive. Ad esempio c'è un livello di descrizione al quale il mio stomaco esegue un'elaborazione dell'informazione e istanzia tutta una serie di programmi per calcolatore, ma direi che nessuno vuole sostenere che esso abbia una qualche facoltà di comprensione (cfr. Pylyshyn., 1980). Se però accettiamo la risposta dei sistemi, è difficile vedere come si possa evitare di dover dire che lo stomaco, il cuore, il fegato e così via, sono sottosistemi che capiscono, dato che non c'è modo di distinguere in base a princìpi espliciti tra le motivazioni che ci portano a dire che il sottosistema per il cinese capisce e quelle che ci portano a dire che lo stomaco capisce. Tra l'altro, non è risposta che valga dire che il sottosistema per il cinese ha in ingresso e in uscita delle informazioni, mentre lo stomaco ha in ingresso del cibo e in uscita dei derivati del cibo, poiché dal punto di vista dell'agente, dal mio punto di vista, non vi sono informazioni né nel cibo né nel cinese: il cinese è soltanto un guazzabuglio di sgorbi senza senso. Nel caso del cinese l'informazione è tale solo agli occhi dei programmatori e degli interpreti, e nulla impedisce loro, se vogliono, di considerare l'ingresso e l'uscita del mio apparato digerente come informazione.
Quest'ultimo punto tocca alcuni problemi indipendenti dell'lA forte, e mette conto fare una breve digressione per approfondirlo. Se l'IA forte vuole essere una branca della psicologia, essa deve essere in grado di distinguere i sistemi che sono autenticamente di natura mentale da quelli che non lo sono. Deve essere in grado di distinguere i principi su cui si basa il funzionamento della mente da quelli su cui si basa il funzionamento dei sistemi non mentali; altrimenti non ci fornirà alcuna spiegazione di ciò che, nel mentale, è specificamente mentale. E la distinzione fra mentale e non mentale non può risiedere solo nell'occhio dell'osservatore, bensì deve essere inerente al sistema; altrimenti qualunque osservatore potrebbe a suo piacimento considerare le persone come non mentali e invece ad esempio gli uragani come mentali. Ma nei lavori sull'lA questa distinzione viene spesso sfocata in modi che, alla lunga, potrebbero dimostrarsi disastrosi per la tesi che l'IA è una ricerca di carattere cognitivista. McCarthy, ad esempio, scrive: "Si può dire che macchine anche semplicissime come il termostato abbiano convinzioni, e avere convinzioni sembra sia una caratteristica della maggior parte delle macchine capaci di eseguire la risoluzione di problemi" (McCarthy, 1979). Chiunque pensi che l'IA forte abbia un futuro come teoria della mente farebbe bene a meditare sulle implicazioni di questa osservazione. Ci viene chiesto di accettare come una scoperta dell'lA forte che la scatoletta di metallo appesa alla parete che usiamo per regolare la temperatura abbia delle convinzioni esattamente come ne abbiamo noi, le nostre mogli o mariti, i nostri figli, e inoltre che "la maggior parte" delle altre macchine che si trovano nella stanza - il telefono, il registratore, l'addizionatrice, gli interruttori della luce abbiano anch'esse convinzioni in questo senso letterale.
Non è scopo di questo articolo ribattere la tesi di McCarthy, quindi mi limiterò ad affermare quanto segue senza discuterlo. Lo studio della mente parte da fatti come quello che gli uomini hanno delle convinzioni mentre i termostati, i telefoni e le addizionatrici non ne hanno. Se si trova una teoria che nega questo punto, si ha un controesempio alla teoria e la teoria è falsa. Si ha l'impressione che quelli che, nel campo dell'lA, scrivono cose simili pensino di farla franca perché in realtà non prendono sul serio ciò che dicono e credono che anche gli altri non lo prenderanno sul serio. Ma proviamo noi, almeno per un momento, a prenderlo sul serio: riflettiamo un attimo su che cosa sarebbe necessario per stabilire che quella scatoletta di metallo lì sulla parete ha convinzioni autentiche: convinzioni con un preciso orientamento, un contenuto proposizionale e condizioni di soddisfacibilità; convinzioni che abbiano la possibilità di essere forti o deboli, nervose, ansiose o salde, dogmatiche, razionali o superstiziose; fedi cieche o cogitazioni esitanti; ogni sorta di convinzioni. Per tutto questo il termostato non ha le carte in regola. E non le hanno neanche lo stomaco o il fegato o l'addizionatrice o il telefono. Tuttavia, poiché stiamo considerando in tutta serietà questa idea, si osservi che, se fosse vera, essa sarebbe fatale per la pretesa dell'lA forte di essere una scienza della mente. Risulterebbe infatti che la mente è dappertutto. Ma ciò che noi volevamo sapere è che cosa distingue la mente dai termostati e dai fegati; e, se McCarthy avesse ragione, l'IA forte non avrebbe nessuna speranza di dircelo.
II. La risposta del robot (Yale). "Supponiamo di scrivere un programma diverso da quello di Schank. Supponiamo di introdurre in un robot un calcolatore il quale non soltanto accetti simboli formali all'ingresso ed emetta simboli formali all'uscita, ma faccia anche funzionare effettivamente il robot, nel senso che quest'ultimo abbia comportamenti molto simili al percepire, al camminare, all'andare qua e là, piantar chiodi, mangiare, bere... tutto quello che si vuole. Per esempio il robot avrebbe su di sé una telecamera che gli consentirebbe di vedere, braccia e gambe che gli consentirebbero di 'agire', e tutto ciò sarebbe controllato dal suo 'cervello', il calcolatore. A differenza del calcolatore di Schank, questo robot avrebbe un'autentica comprensione e altri stati mentali".
La prima cosa da osservare a proposito della risposta del robot è che essa ammette implicitamente che la capacità cognitiva non è soltanto una questione di manipolazione di simboli formali; infatti questa risposta aggiunge tutto un insieme di rapporti causali col mondo esterno (cfr. Fodor, 1980). Ma alla risposta del robot si può obiettare che l'aggiunta di queste capacità "percettive" e "motorie" non aggiunge nulla, sotto il profilo della comprensione in particolare e dell'intenzionalità in generale, al programma originale di Schank. Per rendersene conto, si osservi che lo stesso esperimento ideale vale anche nel caso del robot. Supponiamo che, invece di mettere il calcolatore dentro il robot, venga messo io dentro la stanza e, come nel caso considerato all'inizio, mi vengano dati altri simboli cinesi e altre istruzioni in inglese che mi permettano di associare simboli cinesi a simboli cinesi e di sfornare all'esterno simboli cinesi. Supponiamo che, a mia insaputa, alcuni dei simboli cinesi che mi giungono provengano da una telecamera montata sul robot e che altri simboli cinesi che io fornisco all'esterno servano ad azionare i motori che fanno muovere le braccia e le gambe del robot. E' importante sottolineare che io mi limito a manipolare simboli formali: di queste altre circostanze io non so nulla. Ricevo "informazioni" dall'apparato "percettivo" del robot e fornisco "istruzioni" al suo apparato motore, senza essere al corrente né dell'una cosa né dell'altra. Io sono l'homunculus del robot ma, a differenza dell'homunculus tradizionale, io non so quello che accade. Non capisco nulla, eccetto le regole per manipolare i simboli. Orbene, in questo caso io sostengo che il robot non possiede alcuno stato intenzionale; esso si muove semplicemente per effetto dei suoi collegamenti elettrici e del suo programma. E inoltre, istanziando il programma, non ho nessuno degli stati intenzionali che ci interessano. Non faccio altro che seguire istruzioni formali per la manipolazione di simboli formali.
Ill. La risposta del simulatore del cervello (Berkeley e MIT). "Supponiamo di allestire un programma che non rappresenti l'informazione che possediamo sul mondo, com'è l'informazione contenuta nei caratteri scritti di Schank, bensì simuli l'effettiva sequenza delle scariche neuroniche che avvengono nelle sinapsi del cervello di una persona di madrelingua cinese quando capisce storie in cinese e fornisce risposte a esse. La macchina accetta in ingresso storie in cinese e domande su di esse, simula la struttura formale di cervelli cinesi autentici impegnati a elaborare queste storie e dà in uscita risposte in cinese. Possiamo anche immaginare che essa funzioni non con un singolo programma seriale, bensì con un'intera famiglia dì programmi che procedono in parallelo, com'è presumibile che funzionino i cervelli umani reali quando elaborano il linguaggio naturale. In questo caso dovremmo certamente dire che la macchina capisce le storie; e se rifiutiamo di ammetterlo, non dovremmo anche negare che le persone di madrelingua cinese capiscono quelle storie? A livello delle sinapsi quale sarebbe o potrebbe essere la differenza tra il programma del calcolatore e il programma del cervello cinese?".
Prima di confutare questa risposta, voglio fare una digressione per osservare che si tratta di una strana risposta in bocca a dei sostenitori dell'intelligenza artificiale (o del funzionalismo, ecc.): io credevo che l'idea di fondo dell'lA forte fosse che non c'è bisogno di sapere come funziona il cervello per sapere come funziona la mente. L'ipotesi fondamentale, o almeno così ritenevo io, è che esista un livello di operazioni mentali, consistenti in processi di calcolo su elementi formali, le quali costituiscono l'essenza del mentale e possono essere realizzate nei processi cerebrali più svariati, proprio come un qualunque programma per calcolatore può essere realizzato in hardware diversi: secondo gli assunti dell'lA forte, la mente sta al cervello come il programma sta allo hardware, e quindi si può capire la mente senza ricorrere alla neurofisiologia. Se per fare l'IA dovessimo sapere come funziona il cervello, lasceremmo perdere l'IA. Tuttavia, non basta neppure arrivare così vicino al funzionamento del cervello perché scaturisca la comprensione. Per rendersene conto, s'immagini che nella stanza ci sia un uomo che conosce solo l'inglese ma che, invece di manipolare simboli, faccia funzionare un complicato insieme di condutture d'acqua collegate da valvole. Quando l'uomo riceve i simboli cinesi, controlla nel programma, che è scritto in inglese, quali valvole debba aprire e chiudere. Ogni connessione idraulica corrisponde a una sinapsi del cervello cinese e tutto il sistema è costruito in modo tale che una volta avvenute tutte le scariche giuste, cioè una volta aperti tutti i rubinetti giusti, dall'estremità terminale della serie di tubi vengono fuori le risposte in cinese.
Orbene, dov'è la comprensione in questo sistema? Esso ha per ingresso del cinese, simula le strutture formali delle sinapsi del cervello cinese e in uscita fornisce del cinese. Ma l'uomo non capisce certo il cinese e neppure i tubi; e se siamo tentati di adottare l'idea, a mio giudizio assurda, che in qualche modo la congiunzione di uomo e tubi capisca, ricordiamo che in linea di principio l'uomo può interiorizzare la struttura formale dei tubi e compiere tutte le "scariche neuroniche" nella propria immaginazione. Il guaio del simulatore del cervello è che del cervello simula le cose sbagliate. Finché simula solo la struttura formale delle sequenze di scariche neuroniche nelle sinapsi, esso non simula ciò che conta nel cervello, vale a dire le sue proprietà causali, la sua capacità di generare stati intenzionali. E che le proprietà formali non siano sufficienti per le proprietà causali è dimostrato dall'esempio dei tubi idraulici: tutte le proprietà formali possono essere asportate dalle proprietà causali neurobiologiche pertinenti.
IV. La risposta della combinazione (Berkeley e Stanford). "Benché forse nessuna delle tre risposte precedenti sia da sola una confutazione del tutto convincente del controesempio della stanza cinese, se vengono considerate tutte e tre insieme esse sono, nel loro complesso, molto più convincenti e addirittura decisive. Immaginiamo un robot con un calcolatore a forma di cervello inserito nella cavità cranica; immaginiamo che il calcolatore sia programmato con tutte le sinapsi di un cervello umano; immaginiamo che il comportamento del robot nel suo complesso non sia distinguibile dal comportamento umano; e ora pensiamo tutto l'insieme come un sistema unificato e non soltanto come un calcolatore con ingressi e uscite. In questo caso si dovrebbe certamente ascrivere intenzionalità al sistema".
Sono completamente d'accordo che in tal caso troveremmo razionale, e addirittura inevitabile, accettare l'ipotesi che il robot abbia intenzionalità, almeno fino a quando non sapessimo nient'altro di lui. In effetti, a parte l'aspetto e il comportamento, gli altri elementi della combinazione sono privi d'importanza. Se potessimo costruire un robot il cui comportamento non fosse distinguibile da quello umano su una gamma di comportamenti molto ampia, fino a prova contraria gli attribuiremmo intenzionalità. Non avremmo bisogno di sapere in anticipo che il suo cervello-calcolatore è un analogo formale del cervello umano.
Ma in realtà non vedo come questo sia di qualche aiuto alla tesi dell'lA forte, ed ecco perché: secondo l'IA forte, istanziare un programma formale con l'ingresso e l'uscita che si presentano nel modo giusto è una condizione sufficiente, anzi è l'essenza costitutiva, dell'intenzionalità. Per dirla con Newell (1979), l'essenza del mentale è la capacità di far funzionare un sistema fisico di simboli. Ma l'attribuzione d'intenzionalità al robot che viene fatta in questo esempio non ha nulla a che fare con i programmi formali. Questa attribuzione si basa semplicemente sull'assunto che, se il robot ha un aspetto e un comportamento sufficientemente simili ai nostri, noi dovremmo supporre, fino a prova contraria, che esso abbia stati mentali simili ai nostri i quali sono la causa del suo comportamento, e si esprimono attraverso di esso, e che inoltre abbia un meccanismo interno in grado di generare questi stati mentali. Se riuscissimo a trovare una spiegazione autonoma per il suo comportamento, senza dover ricorrere a questo assunto, non gli attribuiremmo intenzionalità, specie se sapessimo che funziona con un programma formale. E questo è precisamente l'argomento usato prima nella mia risposta alla seconda obiezione.
Supponiamo di sapere che il comportamento del robot si spiega completamente col fatto che un uomo al suo interno riceve simboli formali non interpretati attraverso gli organi di senso del robot e invia simboli formali non interpretati ai suoi organi di movimento e che quest'uomo compie tale elaborazione di simboli secondo un certo insieme di regole. Supponiamo inoltre che l'uomo ignori tutti questi fatti relativi al robot: l'unica cosa che sa è quali operazioni deve compiere e su quali simboli privi di senso deve operare. In tal caso il robot ci apparirebbe come un ingegnoso fantoccio meccanico. L'ipotesi che il fantoccio abbia una mente sarebbe ora ingiustificata e non necessaria, poiché ora non ci sono più ragioni per ascrivere intenzionalità al robot o al sistema di cui esso fa parte (eccetto naturalmente l'intenzionalità esplicata dall'uomo nell'elaborazione dei simboli). Le elaborazioni dei simboli formali proseguono, l'ingresso e l'uscita vengono collegati nel modo giusto, ma l'unica vera sede di intenzionalità è l'uomo, e questi non conosce alcuno degli stati intenzionali pertinenti; ad esempio egli non vede ciò che entra negli occhi del robot, non si propone di muovere il braccio del robot, non capisce nessuna delle osservazioni fatte al robot o dal robot. E, per le ragioni enunciate sopra, lo stesso vale per il sistema costituito dall'insieme di uomo e robot.
Per capire questo punto, si confronti questo caso coi casi in cui troviamo del tutto naturale ascrivere intenzionalità ai membri di alcune altre specie di primati, come le scimmie antropomorfe e le scimmie in genere, e agli animali domestici, ad esempio ai cani. Le ragioni per cui troviamo la cosa naturale sono, grosso modo, due: non riusciamo a dare un senso al comportamento dell'animale senza ascrivergli intenzionalità, e vediamo che le bestie sono fatte dello stesso materiale di cui siamo fatti noi: questo è un occhio, questo è un naso, questa è la sua pelle, e così via. Data la coerenza del comportamento dell'animale e l'assunto che a esso soggiaccia lo stesso materiale causale, noi assumiamo sia che alla base del proprio comportamento l'animale debba avere stati mentali, sia che tali stati mentali debbano essere generati da meccanismi fatti di materiale simile al nostro. Accetteremmo certamente la stessa cosa anche a proposito del robot se non avessimo qualche ragione per non farlo; ma non appena sapessimo che il suo comportamento è l'effetto di un programma formale e che le effettive proprietà causali della sostanza fisica sono irrilevanti, abbandoneremmo l'assunto dell'intenzionalità.
Vi sono altre due risposte al mio esempio che ricorrono spesso (e che quindi merita discutere), ma che in verità non colgono il nocciolo della questione.
V. La risposta delle altre menti (Yale). "Come si fa a sapere che un'altra persona capisce il cinese o qualunque altra cosa? Solo in base al suo comportamento. Ora il calcolatore (in linea di principio) può superare le prove comportamentali altrettanto bene di un essere umano; perciò, se si è disposti ad attribuire capacità cognitive agli altri esseri umani, si deve, in linea di principio, attribuirle anche ai calcolatori".
Questa obiezione in verità non merita più di poche parole di risposta. Il problema di cui stiamo discutendo non riguarda come si fa a sapere che le altre persone hanno stati cognitivi, bensì che cosa gli si attribuisce quando gli si attribuiscono stati cognitivi. Il nocciolo dell'argomentazione è che non si può trattare solo di processi di calcolo e dei loro risultati, poiché i processi di calcolo e i loro risultati possono esistere anche in assenza di stato cognitivo. Non si risponde a questa argomentazione ostentando insensibilità. Nella "psicologia cognitivista" si presuppone la realtà e la conoscibilità del mentale allo stesso modo in cui nelle scienze fisiche si deve presupporre la realtà e la conoscibilità degli oggetti fisici.
VI. La risposta delle molte dimore (Berkeley). "Tutto il tuo ragionamento presuppone che l'IA si occupi solo di elaboratori analogici e digitali: ma questo è solo lo stato attuale della tecnica. Qualunque cosa siano questi processi causali che tu ritieni necessari per l'intenzionalità (ammesso che tu abbia ragione), riusciremo prima o poi a costruire dispositivi che possiedono tali processi causali, e questa sarà l'intelligenza artificiale. Quindi le tue argomentazioni non toccano in alcun modo la capacità dell'intelligenza artificiale di generare e spiegare la facoltà cognitive".
Contro questa risposta non ho davvero alcuna obiezione, se non quella che in effetti essa rende banale il progetto dell'lA forte, ridefinendolo come qualunque cosa capace di produrre artificialmente e di spiegare le facoltà cognitive. L'interesse della pretesa originale dell'intelligenza artificiale è che si trattava di una tesi precisa e ben definita: i processi mentali sono processi di calcolo su elementi definiti per via formale. Mi sono sforzato di confutare questa tesi, ma se essa viene riformulata in modo da non esser più la stessa, le mie obiezioni non valgono più, perché non c'è più un'ipotesi verificabile alla quale esse possano riferirsi.
Torniamo ora alla domanda cui avevo promesso di cercare una risposta: concediamo che nel mio esempio originale io capisco l'inglese e non capisco il cinese, e concediamo di conseguenza che la macchina non capisce né l'inglese né il cinese: deve esserci comunque in me un qualcosa che fa sì che io capisca l'inglese, e d'altra parte deve mancarmi un altro qualcosa che fa sì che io non riesca a capire il cinese. Ebbene, perché non potremmo fornire a una macchina questi qualcosa, siano quel che siano?
Non vedo alcuna ragione di principio per cui non potremmo fornire a una macchina la capacità di capire l'inglese o il cinese, dal momento che, in un senso molto importante, il nostro corpo col nostro cervello è appunto una macchina che possiede tale capacità. Vedo invece ragioni molto solide per dire che non saremmo in grado di fornire quel qualcosa a una macchina il cui funzionamento sia definito solo in termini di processi di calcolo operanti su elementi definiti per via formale; cioè il cui funzionamento sia definito come un'istanziazione di un programma per calcolatore. Non è perché sono un'istanziazione di un programma per calcolatore che sono capace di capire l'inglese e posseggo altre forme d'intenzionalità (io sono, credo, un'istanziazione di una quantità di programmi per calcolatore) ma, per quanto ne sappiamo, perché io sono un certo genere di organismo con una certa struttura biologica (cioè chimica e fisica), e questa struttura, in certe condizioni, è causalmente capace di produrre percezione, azione, comprensione, apprendimento e altri fenomeni intenzionali. E la presente argomentazione vuole, tra l'altro, affermare che solo qualcosa che abbia questi poteri causali potrebbe avere quell'intenzionalità. Forse altri processi fisici e chimici potrebbero produrre gli stessi identici effetti; forse, ad esempio, anche i marziani hanno l'intenzionalità, ma con cervelli fatti di materiale diverso. Questo è un problema empirico, più o meno simile al problema se la fotosintesi possa esser compiuta da qualcosa la cui chimica sia diversa da quella della clorofilla.
Ma il punto principale della presente argomentazione è che nessun modello puramente formale sarà mai sufficiente a generare, di per sé, l'intenzionalità, perché le proprietà formali di per sé non costituiscono l'intenzionalità e non hanno di per sé poteri causali tranne il potere di produrre, una volta istanziate, lo stadio successivo del formalismo quando la macchina è in funzione. E tutte le altre proprietà causali possedute da quelle realizzazioni particolari del modello formale sono irrilevanti per il modello formale, perché è sempre possibile dare dello stesso modello formale una realizzazione diversa che sia chiaramente priva di quelle proprietà causali. Anche se, per qualche miracolo, quelli che parlano cinese realizzassero esattamente il programma di Schank, lo stesso programma potrebbe essere inserito in anglofoni, in tubi idraulici o in calcolatori, nessuno dei quali capisce il cinese, a dispetto del programma.
Ciò che è importante nel funzionamento del cervello non è l'ombra di formalismo prodotta dalla successione di sinapsi, ma sono piuttosto le proprietà effettive della successione stessa. Tutte le argomentazioni da me viste a favore della versione forte dell'intelligenza artificiale si ostinano a tracciare un profilo intorno alle ombre gettate dalla capacità cognitiva per poi sostenere che le ombre sono la realtà.
A mo' di conclusione voglio provare a enunciare alcuni dei punti filosofici generali impliciti nell'argomentazione. Per chiarezza cercherò di farlo in forma di domanda e risposta, e comincerò con la solita domanda arcinota:
"Una macchina può pensare?".
La risposta, ovviamente, è sì: noi siamo appunto macchine capaci di pensare.
"Sì, ma un manufatto, una macchina fatta dall'uomo, potrebbe pensare?".
Postulando che sia possibile costruire artificialmente una macchina con un sistema nervoso, con neuroni dotati di assoni, dendriti e tutto il resto, una macchina che sia abbastanza simile alla nostra, sembra di nuovo che la risposta alla domanda debba essere, ovviamente, sì. Se si riescono a riprodurre esattamente le cause, si possono riprodurre gli effetti. E anzi si potrebbe forse riuscire a generare la coscienza, l'intenzionalità e tutto il resto usando principi chimici diversi da quelli utilizzati dagli esseri umani. Come ho già detto, si tratta di un problema empirico.
"D'accordo, ma un calcolatore digitale può pensare?".
Se per "calcolatore digitale" intendiamo una qualunque cosa per cui esista un livello di descrizione al quale la si possa descrivere correttamente come un'istanziazione di un programma per calcolatore, allora la risposta è di nuovo, ovviamente, sì, poiché noi siamo istanziazioni di una quantità di programmi per calcolatore e siamo capaci di pensare.
"Ma potrebbe qualcosa pensare, capire e così via unicamente in virtù del fatto di essere un calcolatore con un programma giusto? Istanziare un programma, naturalmente il programma giusto, potrebbe essere di per sé una condizione sufficiente per capire?".
Questa è, a parer mio, la domanda giusta da fare, benché di solito essa venga confusa con una o più delle domande precedenti, e la risposta è no.
"Perché no?".
Perché le elaborazioni di simboli formali non hanno di per sé alcuna intenzionalità; sono assolutamente prive di senso; non sono neppure elaborazioni di simboli, poiché i simboli non simboleggiano nulla. Per usare il gergo dei linguisti, essi hanno una sintassi ma non hanno una semantica. L'intenzionalità che i calcolatori sembrano possedere è unicamente nella mente di coloro che li programmano e che li usano, di coloro che immettono gli ingressi e di coloro che interpretano le uscite.
L'esempio della stanza cinese si proponeva di dimostrare questo fatto facendo vedere che, se introduciamo nel sistema qualcosa che possiede davvero intenzionalità (un uomo) e lo programmiamo col programma formale, si può constatare che il programma formale non possiede alcuna intenzionalità ulteriore. Ad esempio non aggiunge nulla alle capacità di un uomo di capire il cinese.
Proprio quell'aspetto dell'lA che sembrava così seducente - la distinzione fra il programma e la sua realizzazione - si dimostra fatale per la tesi che la simulazione possa essere una riproduzione identica (duplicazione). La distinzione fra il programma e la sua realizzazione nei circuiti del calcolatore sembra corrispondere alla distinzione tra il livello delle operazioni mentali e il livello delle operazioni cerebrali. E se potessimo descrivere il livello delle operazioni mentali come un programma formale, allora, a quanto parrebbe, potremmo descrivere quella che è l'essenza della mente senza ricorrere né alla psicologia introspettiva né alla neurofisiologia del cervello. Ma l'equazione "la mente sta al cervello come il programma sta allo hardware" fa acqua in parecchi punti, fra i quali i tre seguenti:
Primo, la distinzione tra programma e realizzazione ha per conseguenza che lo stesso programma potrebbe avere una quantità di realizzazioni bizzarre, prive di qualunque forma d'intenzionalità. Weizenbaum (1976), per esempio, mostra in dettaglio come si possa costruire un calcolatore con un rotolo di carta igienica e un mucchietto di sassolini. Analogamente, il programma che capisce le storie in cinese può essere programmato in una successione di tubi idraulici, in un complesso di macchine eoliche o in un anglofono monoglotta, ma nessuna di queste realizzazioni acquisisce con ciò la capacità di capire il cinese. I sassi, la carta igienica, il vento e i tubi sono, già in partenza, materiali sbagliati, e non si può attribuir loro l'intenzionalità (solo qualcosa che abbia gli stessi poteri causali del cervello può avere intenzionalità); e benché l'anglofono abbia il materiale giusto per l'intenzionalità, si può vedere facilmente che memorizzando il programma egli non ottiene alcuna ulteriore intenzionalità, perché questa memorizzazione non gli insegnerà il cinese.
Secondo, il programma è puramente formale, mentre gli stati internzionali non sono formali: essi sono definiti in termini del loro contenuto, non della loro forma. La convinzione che stia piovendo, per esempio, non è definita come una certa configurazione formale, bensì come un certo contenuto mentale, insieme con condizioni di soddisfacibilità, un preciso orientamento (si veda Searle, 1979) e simili. Anzi, la convinzione come tale non ha neppure una configurazione formale nel senso sintattico del termine, poiché la stessa convinzione può essere formulata con un numero indefinito di espressioni sintattiche diverse in diversi sistemi linguistici.
Terzo, come ho ricordato prima, gli stati e gli eventi mentali sono letteralmente un prodotto del funzionamento del cervello, mentre il programma non è un prodotto del calcolatore.
"Ma se i programmi non costituiscono in alcun modo l'essenza dei processi mentali, perché allora tante persone hanno creduto il contrario? Questo fatto almeno richiede qualche spiegazione".
Veramente a questa domanda non so rispondere. L'idea che le simulazioni al calcolatore potessero essere la realtà avrebbe dovuto apparire sospetta già in partenza, dato che queste simulazioni non sono in alcun modo limitate alle operazioni mentali. Nessuno crede che la simulazione al calcolatore di un fortissimo incendio distruggerà il vicinato o che la simulazione al calcolatore di un temporale ci lascerà tutti bagnati fradici. Perché mai si dovrebbe supporre che la simulazione al calcolatore del comprendere capisca veramente qualcosa? Talvolta si dice che sarebbe spaventosamente difficile far sì che i calcolatori soffrano o si innamorino, ma l'amore e il dolore non sono né più facili né più difficili della capacità cognitiva o di qualunque altra cosa. Per la simulazione tutto ciò che occorre sono un ingresso e un'uscita giusti, e tra di essi un programma che trasformi il primo nella seconda. Questa è l'unica cosa di cui dispone il calcolatore per tutto quello che fa. Confondere la simulazione con la riproduzione significa commettere sempre lo stesso sbaglio, che si tratti di dolore, di amore, di facoltà cognitiva, di incendi o di temporali.
Tuttavia ci sono parecchie ragioni per cui deve essere sembrato - e a molte persone forse sembra ancora - che l'lA in certo qual modo riproduca, e perciò anche spieghi, i fenomeni mentali; e io credo che non riusciremo a eliminare queste illusioni finché non avremo messo pienamente in luce le ragioni che le fanno nascere.
La prima, e forse la più importante, è una certa confusione sulla nozione di "elaborazione dell'informazione": molti studiosi di psicologia cognitivista credono che il cervello umano, con la sua mente, compia qualcosa che si chiama "elaborazione dell'informazione" e che, analogamente, il calcolatore col suo programma compia un'elaborazione dell'informazione; gli incendi e i temporali, viceversa, non compiono alcuna elaborazione dell'informazione. Perciò, benché il calcolatore possa simulare i tratti formali di qualsiasi processo, esso ha un rapporto particolare con la mente e il cervello, perché quando il calcolatore è programmato opportunamente, idealmente con lo stesso programma del cervello, l'elaborazione dell'informazione è identica nei due casi, e questa elaborazione dell'informazione è realmente l'essenza del mentale.
Ma il punto debole di questo ragionamento è che esso poggia su un'ambiguità della nozione di "informazione". Il calcolatore programmato non compie una "elaborazione dell'informazione" nel senso in cui le persone "elaborano informazione" quando riflettono, diciamo, su problemi di aritmetica o quando leggono delle storie e rispondono a domande su di esse. Quella del calcolatore è piuttosto una manipolazione di simboli formali. Il fatto che il programmatore e l'interprete dell'uscita del calcolatore usino i simboli riferendoli a oggetti del mondo è del tutto al di fuori della portata del calcolatore. Il calcolatore, ripetiamolo, ha una sintassi ma non ha una semantica. Quindi, quando si batte sul calcolatore "2 più 2 uguale?", esso batte sì in uscita "4", ma non ha la più pallida idea che "4" significhi 4 o che significhi comunque qualcosa. E questo non perché gli manchi qualche informazione del secondo ordine sull'interpretazione dei propri simboli del primo ordine, ma perché i suoi simboli del primo ordine non hanno alcuna interpretazione per il calcolatore. Le uniche cose che esso possiede sono altri simboli. Quindi introducendo la nozione di "elaborazione dell'informazione" si crea un dilemma: o interpretiamo la nozione di "elaborazione dell'informazione" in modo tale che essa implichi, come parte del processo, l'intenzionalità, oppure no. Nel primo caso, il calcolatore programmato non fa elaborazione dell'informazione, ma si limita a manipolare simboli formali. Nel secondo caso, benché il calcolatore faccia elaborazione dell'informazione, la fa solo nel senso in cui la fanno le addizionatrici, le macchine da scrivere, gli stomachi, i termostati, i temporali e gli uragani; e precisamente nel senso secondo cui tutte queste cose hanno un livello di descrizione al quale le possiamo descrivere come macchine che accolgono informazioni a un'estremità, le trasformano ed emettono informazioni in uscita. Ma in questo caso sta agli osservatori esterni interpretare l'ingresso e l'uscita come informazioni nel senso ordinario. E non ne viene stabilita alcuna analogia tra il calcolatore e il cervello in termini di analogia nell'elaborazione dell'informazione.
In secondo luogo, in gran parte dell'lA c'è un residuo di comportamentismo o di operazionalismo. Poiché i calcolatori programmati opportunamente possono avere configurazioni di ingresso-uscita simili a quelle degli esseri umani, si è tentati di postulare nel calcolatore stati mentali simili agli stati mentali umani. Ma una volta che si sia visto che è possibile, dal punto di vista concettuale come da quello empirico, che un sistema possegga capacità umane in qualche ambito senza possedere intenzionalità alcuna, non dovrebbe essere difficile reprimere questo impulso. La mia addizionatrice da tavolo possiede capacità di calcolo ma nessuna intenzionalità, e in questo saggio ho cercato di mostrare che un sistema potrebbe avere capacità d'ingresso e d'uscita che riproducono quelle di una persona di madrelingua cinese e non capire ugualmente il cinese, indipendentemente da come è stato programmato. Il test di Turing è tipico di questa tradizione, in quanto apertamente comportamentista e operazionalista, e io ritengo che, se i ricercatori dii di IA ripudiassero completamente il comportamentismo e l'operazionalismo, si eliminerebbe molta della confusione tra simulazione e riproduzione.
In terzo luogo, questo operazionalismo residuo è legato a una forma residua di dualismo; anzi, l'IA forte ha senso solo a partire dall'assunto dualistico che dove si tratta di mente il cervello non ha importanza. Nell'lA forte (come anche nel funzionalismo) ciò che importa sono i programmi, e i programmi sono indipendenti dalla loro realizzazione nelle macchine; di fatto, per quanto concerne l'IA, lo stesso programma potrebbe essere realizzato da una macchina elettronica, da una sostanza mentale cartesiana o da uno spirito del mondo hegeliano. La scoperta più sorprendente da me fatta discutendo questi temi è che molti ricercatori di IA sono scandalizzati dalla mia idea che i fenomeni reali della mente umana potrebbero dipendere dalle effettive proprietà fisico-chimiche dei cervelli umani concreti. Ma se ci si pensa un momento, si capisce che non me ne sarei dovuto sorprendere: infatti, a meno che non si accetti qualche forma di dualismo, il progetto dell'lA forte non ha alcuna speranza di riuscita. Il progetto è di riprodurre e di spiegare i fenomeni mentali allestendo dei programmi, ma esso è inattuabile se non nel caso che la mente sia indipendente dal cervello non solo concettualmente ma anche empiricamente, poiché il programma è del tutto indipendente da qualsiasi realizzazione. Se non si è convinti che la mente può essere separata dal cervello tanto concettualmente quanto empiricamente - dualismo forte -, non si può sperare di riprodurre i fenomeni mentali scrivendo programmi e facendoli girare, poiché i programmi devono essere indipendenti dal cervello o da ogni altra forma particolare di istanziazione. Se le operazioni mentali consistono in operazioni di calcolo su simboli formali, ne segue che esse non hanno alcun legame interessante col cervello; l'unico legame sarebbe semplicemente il fatto che il cervello si trova a essere uno degli innumerevoli tipi di macchine capaci di istanziare il programma. Questa forma di dualismo non è del tipo cartesiano tradizionale, dove si sostiene che esistono due generi di sostanze, ma è cartesiana nel senso che sostiene che le caratteristiche specificamente mentali della mente non hanno alcun legame intrinseco con le proprietà concrete del cervello. Questo dualismo di fondo viene mascherato dal fatto che i lavori sull'lA contengono frequenti anatemi contro il "dualismo"; gli autoiri sembrano non rendersi conto che la loro posizione presuppone una versione particolarmente forte del dualismo.
"Una macchina può pensare?". La mia opinione è che solo una macchina possa pensare e anzi solo macchine di tipo particolarissimo, cioè i cervelli e altre macchine dotate degli stessi poteri causali del cervello. E questa è la ragione principale per cui l'IA forte ha avuto poco da dirci sul pensiero, dato che non ha nulla da dirci sulle macchine. Per sua stessa definizione essa riguarda i programmi, e i programmi non sono macchine. Qualunque altra cosa sia l'intenzionalità, essa è certamente un fenomeno biologico e ha altrettanta probabilità di dipendere causalmente dalla biochimica specifica delle sue origini quanto la lattazione, la fotosintesi e qualsiasi altro fenomeno biologico. A nessuno verrebbe in mente che si possano produrre latte e zucchero eseguendo una simulazione al calcolatore delle sequenze formali della lattazione e della fotosintesi; ma quando si parla di mente, molte persone sono disposte a credere in un miracolo del genere, a causa di un profondo e persistente dualismo: la mente che essi suppongono è una faccenda di processi formali ed è indipendente da cause naturali del tutto specifiche, come invece non lo sono il latte e lo zucchero.
In difesa di questo dualismo si esprime spesso la speranza che il cervello sia un calcolatore digitale (i primi calcolatori, tra parentesi, venivano spesso chiamati "cervelli elettronici"). Ma ciò non è di alcun aiuto. Certo che il cervello è un calcolatore digitale: poiché tutte le cose sono calcolatori digitali, anche il cervello lo è. Il punto è che la capacità causale del cervello di produrre intenzionalità non può consistere nella sua facoltà di istanziare un programma per calcolatore, poiché, dato un programma qualsivoglia, una qualche cosa può istanziarlo senza con ciò avere stati mentali. Qualunque cosa sia ciò che il cervello fa per produrre l'intenzionalità, essa non può consistere nell'istanziare un programma, poiché nessun programma di per sé è sufficiente a produrre intenzionalità.
La coscienza è ciò che rende veramente ostico il problema del rapporto fra la mente e il corpo. Forse è per questo che quando oggi sì discute di questo problema si presta scarsa attenzione alla coscienza o la si affronta in modo palesemente sbagliato. La recente ondata di euforia riduzionista ha dato luogo a parecchie analisi dei fenomeni mentali e dei concetti della mente, miranti a spiegare la possibilità di certe forme di materialismo, di identificazione psicofisica o di riduzione. Ma i problemi affrontati sono quelli comuni a questo e ad altri tipi di riduzione, mentre viene ignorato ciò che rende il problema mente-corpo unico e diverso dal problema acqua-H20, o dal problema macchina di Turing-macchina IBM, o dal problema fulmine-scarica elettrica, o dal problema gene-DNA, o dal problema quercia-idrocarburo.
Ciascun riduzionista ha la sua analogia preferita nella scienza moderna. E assai improbabile che qualcuno di questi esempi incorrelati di riduzione ben riuscita possa far luce sul rapporto tra mente e cervello. Ma i filosofi, come gli altri uomini, hanno la debolezza di voler spiegare ciò che è incomprensibile in termini che vanno bene per ciò che è familiare e ben compreso, benché totalmente diverso. Ciò ha portato ad accettare descrizioni nient'affatto plausibili del mentale, sostanzialmente perché esse consentono riduzioni di genere consueto. Cercherò di spiegare perché gli esempi addotti comunemente non ci aiutino a capire il rapporto tra mente e corpo; perché, anzi, a tutt'oggi non abbiamo la minima idea di come potrebbe essere una spiegazione della natura fisica di un fenomeno mentale. Senza la coscienza il problema mente-corpo sarebbe molto meno interessante; con la coscienza esso appare senza speranza di soluzione. L'aspetto più importante e caratteristico dei fenomeni mentali coscienti è pochissimo compreso; le teorie riduzioniste per lo più non cercano nemmeno di spiegarlo e un esame accurato dimostrerà che nessuno dei concetti di riduzione attualmente disponibili è applicabile a esso. Forse a questo scopo si può escogitare una nuova forma teorica di riduzione, ma questa soluzione, se esiste, si trova in un futuro intellettuale ancora lontano.
L'esperienza cosciente è un fenomeno ampiamente diffuso: è presente a molti livelli della vita animale, anche se non possiamo essere certi della sua presenza negli organismi più semplici ed è molto difficile in generale dire che cosa ne dimostri l'esistenza. (Alcuni estremisti sono giunti a negarla perfino nei mammiferi diversi dall'uomo). Essa si manifesta certo in innumerevoli forme, per noi del tutto inimmaginabili, su altri pianeti di altri sistemi solari nell'universo. Ma comunque possa variarne la forma, il fatto che un organismo abbia un'esperienza cosciente significa, fondamentalmente, che a essere quell'organismo si prova qualcosa. Vi possono essere altre implicazioni riguardanti la forma dell'esperienza; vi possono forse anche essere (benché io ne dubiti) implicazioni riguardanti il comportamento dell'organismo; ma fondamentalmente un organismo possiede stati mentali coscienti se e solo se si prova qualcosa a essere quell'organismo: se l'organismo prova qualcosa a essere quello che è.
Possiamo parlare a questo proposito di carattere soggettivo dell'esperienza. Nessuna delle analisi riduttive del mentale recenti e più conosciute ne dà conto, perché esse sono tutte logicamente compatibili con la sua assenza. Il carattere soggettivo dell'esperienza non è analizzabile nei termini di alcun sistema esplicativo di stati funzionali o di stati intenzionali, poiché questi stati potrebbero essere attribuiti a robot o ad automi che si comportassero come persone anche senza avere alcuna esperienza soggettiva [Può darsi che robot siffatti non possano esistere. Forse qualunque cosa abbastanza complessa da comportarsi come una persona avrebbe esperienze soggettive. Ma se ciò fosse vero, non potremmo scoprirlo mediante la sola analisi del concetto di esperienza soggettiva.]
Esso non è analizzabile in termini del ruolo causale dell'esperienza soggettiva in relazione al comportamento umano tipico, e ciò per ragioni analoghe [Esso non è equivalente a ciò in cui siamo incorreggibili, sia perché non siamo incorreggibili per quanto riguarda l'esperienza soggettiva sia perché l'esperienza soggettiva è presente in animali privi di linguaggio e di pensiero, che non hanno credenze o opinioni sulle loro esperienze.] Non nego che gli stati e gli eventi mentali coscienti causino il comportamento o che di essi si possa dare una caratterizzazione funzionale; nego soltanto che con l'aver stabilito una cosa del genere la loro analisi debba considerarsi conclusa. Qualsiasi programma riduzionista deve essere basato su un'analisi di ciò che si deve ridurre. Se l'analisi lascia fuori qualcosa, il problema è posto in modo falso. E' inutile basare la difesa del materialismo su un'analisi dei fenomeni mentali che non tenga conto esplicitamente del loro carattere soggettivo, poiché non vi è alcuna ragione per supporre che una riduzione che paia plausibile quando non si faccia alcun tentativo per spiegare la coscienza possa essere estesa fino a includere la coscienza. Pertanto, se non si possiede alcuna idea di che cosa sia il carattere soggettivo dell'esperienza, non si può sapere che cosa si debba richiedere a una teoria fisicalista.
Benché una descrizione delle basi fisiche della mente debba spiegare molte cose, questa sembra essere la più difficile. E impossibile escludere da una riduzione gli aspetti fenomenologici dell'esperienza allo stesso modo in cui si escludono gli aspetti fenomenici di una sostanza ordinaria da una sua riduzione fisica o chimica, cioè spiegandoli come effetti sulla mente degli osservatori umani (cfr. Rorty, 1965). Se vogliamo difendere il fisicalismo, dobbiamo trovare una spiegazione fisica anche per gli aspetti fenomenologici. Tuttavia, quando si esamina il loro carattere soggettivo sembra che sia impossibile riuscirci. La ragione è che ogni fenomeno soggettivo è sostanzialmente legato a un singolo punto di vista e pare inevitabile che una teoria oggettiva e fisica debba abbandonare quel punto di vista.
Voglio prima di tutto cercare di enunciare il problema in modo alquanto più preciso e completo di quanto si possa fare riferendosi semplicemente al rapporto fra il soggettivo e l'oggettivo, o fra il pour soi e l'en soi. Ciò non è affatto facile. I fatti relativi a ciò che si prova a essere un dato X sono molto peculiari, tanto peculiari che alcuni possono essere inclini a dubitare della loro realtà o a chiedersi se abbia senso sostenere qualche tesi su di essi. Per illustrare il legame tra la soggettività e un particolare punto di vista e per mettere in luce l'importanza degli aspetti soggettivi, sarà utile indagare sulla questione riferendoci a un esempio che mette chiaramente in risalto la divergenza tra i due tipi di concezione, quella soggettiva e quella oggettiva.
Do per scontato che tutti siamo convinti che i pipistrelli abbiano esperienze soggettive: in fin dei conti sono mammiferi, e il fatto che abbiano esperienze soggettive non è più dubbio del fatto che le abbiano i topi, i piccioni o le balene. Ho scelto i pipistrelli anziché le vespe o le sogliole perché via via che si scende lungo l'albero filogenetico si è sempre meno disposti a credere che siano possibili esperienze soggettive. Benché siano più affini a noi che le altre specie sopra ricordate, i pipistrelli presentano tuttavia una gamma di attività e organi di senso così diversi dai nostri che il problema che voglio impostare ne risulta illuminato vividamente (per quanto naturalmente lo si possa porre anche per altre specie). Anche senza il beneficio della riflessione filosofica, chiunque sia stato per qualche tempo in uno spazio chiuso in compagnia di un pipistrello innervosito sa che cosa voglia dire imbattersi in una forma di vita fondamentalmente aliena.
Ho detto che la convinzione che i pipistrelli abbiano un'esperienza soggettiva consiste essenzialmente nel credere che a essere un pipistrello si prova qualcosa. Ora, noi sappiamo che la maggior parte dei pipistrelli (i microchirotteri, per la precisione) percepisce il mondo esterno principalmente mediante il sonar, o eco-rilevamento: essi percepiscono le riflessioni delle proprie strida rapide, finemente modulate e ad alta frequenza (ultrasuoni) rimandate dagli oggetti situati entro un certo raggio. Il loro cervello è strutturato in modo da correlare gli impulsi uscenti con gli echi che ne risultano, e l'informazione così acquisita permette loro di valutare le distanze, le dimensioni, le forme, i movimenti e le strutture con una precisione paragonabile a quella che noi raggiungiamo con la vista. Ma il sonar del pipistrello, benché sia evidentemente una forma di percezione, non assomiglia nel modo di funzionare a nessuno dei nostri sensi e non vi è alcun motivo per supporre che esso sia soggettivamente simile a qualcosa che noi possiamo sperimentare o immaginare. Ciò, a quanto pare, rende difficile capire che cosa si provi a essere un pipistrello. Dobbiamo vedere se esiste qualche metodo che ci permetta di estrapolare la vita interiore del pipistrello a partire dalla nostra situazione [Quando dico "la nostra situazione" non intendo semplicemente "la mia situazione", ma piuttosto quelle idee mentalistiche che noi applichiamo senza porci troppi problemi a noi stessi e agli altri esseri umani] e, in caso contrario, quali metodi alternativi vi siano per raggiungere il nostro scopo.
E la nostra esperienza che fornisce il materiale di base alla nostra immaginazione, la quale è perciò limitata. Non serve cercare di immaginare di avere sulle braccia un'ampia membrana che ci consente di svolazzare qua e là all'alba e al tramonto per acchiappare insetti con la bocca; di avere una vista molto debole e di percepire il mondo circostante mediante un sistema di segnali sonori ad alta frequenza riflessi dalle cose; e di passare la giornata appesi per i piedi, a testa in giù, in una soffitta. Se anche riesco a immaginarmì tutto ciò (e non mi è molto facile), ne ricavo solo che cosa proverei io a comportarmi come un pipistrello. Ma non è questo il problema: io voglio sapere che cosa prova un pipistrello a essere un pipistrello. Ma se cerco di figurarmelo, mi trovo ingabbiato entro le risorse della mia mente, e queste risorse non sono all'altezza dell'impresa. Non riesco a uscirne né immaginando di aggiungere qualcosa alla mia esperienza attuale, né immaginando di sottrarle via via dei segmenti, né immaginando di compiere una qualche combinazione di aggiunte, sottrazioni e modifiche.
Anche se mi fosse possibile avere l'aspetto e il comportamento di una vespa o di un pipistrello, senza però mutare la mia struttura fondamentale, anche in questo caso le mie esperienze non sarebbero affatto simili alle esperienze di questi animali. D'altra parte, non ha probabilmente senso supporre che io possa arrivare a possedere la costituzione neurofisiologica interna di un pipistrello. Anche se potessi trasformarmi gradualmente in un pipistrello, nulla della mia costituzione attuale mi consente di immaginare quali sarebbero le esperienze di questo mio stato futuro dopo la metamorfosi. Le indicazioni migliori verrebbero dalle esperienze dei pipistrelli, se solo sapessimo come sono.
Se quindi per farsi un'idea di che cosa si provi a essere un pipistrello ci si basa su un'estrapolazione dalla nostra situazione, questa estrapolazione è destinata a restare incompleta. Possiamo costruirci tutt'al più una concezione schematica di che cosa si prova; per esempio, possiamo ascrivere tipi generali di esperienza soggettiva sulla base della struttura e del comportamento dell'animale. Descriviamo così il sonar dei pipistrelli come una forma di percezione tridimensionale in avanti; crediamo che i pipistrelli sentano una qualche forma di dolore, paura, fame e concupiscenza e che, oltre al sonar, posseggano altri tipi di percezione a noi più familiari. Tuttavia siamo anche convinti che queste esperienze hanno in ciascun caso un carattere soggettivo specifico e che concepirlo supera le nostre capacità. E se altrove nell'universo esiste vita cosciente, è probabile che in certi casi essa non sia descrivibile neppure nei più generali termini esperenziali a nostra disposizione. (Il problema, tuttavia, non è limitato ai casi estremi: esso esiste anche fra una persona e l'altra: il carattere soggettivo dell'esperienza di una persona sorda e cieca dalla nascita, per esempio, non mi è accessibile, così come presumibilmente a lei non è accessibile il carattere soggettivo della mia esperienza. Questo non impedisce a ciascuno di noi di credere che l'esperienza dell'altro possegga questo carattere soggettivo).
Chi fosse incline a negare che si possa credere nell'esistenza di fatti come questo, la cui natura esatta non abbiamo modo di concepire, rifletta che nell'osservare i pipistrelli noi ci troviamo in una posizione quasi identica a quella in cui si troverebbero un pipistrello intelligente o un marziano che tentassero di farsi un'idea di che cosa si provi a essere noi. La struttura della loro mente potrebbe impedir loro di riuscirci, ma noi sappiamo che avrebbero torto a concludere che non si prova nulla di preciso a essere noi, che a noi possono essere ascritti solo certi tipi generali di stati mentali (forse la percezione e l'appetito sarebbero concetti comuni a noi e a loro; o forse no). Sappiamo che avrebbero torto a trarre una conclusione così scettica, perché noi sappiamo che cosa si prova a essere noi. E sappiamo che, per quanto ciò comprenda una varietà e una complessità grandissime e per quanto noi non possediamo la terminologia capace di darne una descrizione sufficiente, il suo carattere soggettivo è altamente specifico e, sotto certi aspetti, è descrivibile in termini che possono essere capiti solo da creature come noi. Il fatto che non possiamo sperare di riuscire mai a fornire col nostro linguaggio una descrizione particolareggiata della fenomenologia dei marziani o dei pipistrelli non dovrebbe indurci a considerare priva di senso l'ipotesi che i pipistrelli e i marziani abbiano esperienze affatto paragonabili alle nostre per ricchezza di particolari. Sarebbe bello se qualcuno riuscisse a elaborare un insieme di concetti e una teoria che ci consentissero di riflettere su queste cose; ma i limiti della nostra natura ci impediscono, forse per sempre, una tale comprensione. E negare la realtà o la portata logica di ciò che non potremo mai descrivere o comprendere è la forma più rozza di dissonanza cognitiva.
Questo ci porta a sfiorare un argomento che richiede una discussione molto più ampia di quella che mi è consentita qui: cioè il rapporto tra i fatti da una parte e gli schemi concettuali o i sistemi di rappresentazione dall'altra. La mia posizione realistica nei confronti del dominio della soggettività in tutte le sue forme implica che io credo nell'esistenza di fatti che travalicano la portata dei concetti umani. E' certamente possibile per un essere umano credere che vi siano dei fatti per rappresentare o comprendere i quali gli uomini non possederanno mai i concetti necessari. Sarebbe anzi assurdo dubitarne, vista la finitezza delle aspettazioni umane. In fin dei conti, i numeri transfiniti sarebbero esistiti lo stesso anche se tutti gli uomini fossero stati tolti di mezzo dalla peste bubbonica prima della scoperta di Cantor. Ma si può anche credere che vi siano dei fatti che non potrebbero mai essere rappresentati o compresi dagli esseri umani, anche se la nostra specie durasse per sempre, semplicemente perché la nostra struttura non ci permette di operare con i concetti del tipo necessario. Questa impossibilità potrebbe essere addirittura osservata da altri esseri, ma non è detto che l'esistenza di tali esseri, o la possibilità della loro esistenza, sia una condizione affinché l'ipotesi che vi siano fatti inaccessibili agli uomini abbia senso. (Dopotutto, la natura di esseri aventi accesso a fatti inaccessibili agli uomini è presumibilmente anch'essa un fatto inaccessibile agli uomini). Riflettendo su ciò che si prova a essere un pipistrello si arriva dunque, a quanto pare, alla conclusione che esistono fatti che non consistono nella verità di proposizioni esprimibili con linguaggio umano. Possiamo essere costretti a riconoscere l'esistenza di tali fatti senza essere in grado di enunciarli o di comprenderli.
Tuttavia interromperò qui la discussione di questo argomento. La sua rilevanza per il problema che ci sta di fronte (cioè per il problema mente-corpo) sta nel fatto che esso ci consente di fare un'osservazione generale sul carattere soggettivo dell'esperienza. Qualunque sia la natura dei fatti relativi a ciò che si prova a essere un uomo o un pipistrello o un marziano, questi fatti esprimono, a quanto pare, uno specifico punto di vista [Superare le barriere interspecifiche con l'ausilio dell'immaginazione è forse più facile di quanto io non creda. Per esempio, i ciechi sono capaci di rilevare oggetti vicini mediante una specie di sonar, schioccando la lingua o battendo un bastone. Forse, sapendo che cosa si prova in questi casi, si potrebbe per estensione immaginare grosso modo che cosa si proverebbe a usare il sonar tanto più raffinato di un pipistrello. La distanza tra un individuo e le altre persone o le altre specie può cadere in un punto qualunque di un continuo. Anche nel caso di altre persone la comprensione di che cosa si prova a essere loro è solo parziale e quando si passa a specie molto diverse da noi ci può essere ancora una comprensione parziale, sia pure minore. L'immaginazione è assai flessibile. Ciò che voglio dire, tuttavia, non è che noi non possiamo sapere che cosa si provi a essere un pipistrello. Non sto sollevando questo problema epistemologico: ciò che voglio dire è che anche solo per formarsi un'idea di ciò che si prova a essere un pipistrello (e a fortiori per sapere che cosa si prova a essere un pipistrello) si deve assumere il punto di vista del pipistrello. Se si riesce ad assumerlo in modo approssimativo o parziale, anche l'idea conseguente sarà approssimativa o parziale. Almeno così sembra nello stato in cui ora comprendiamo questo problema.]
Non mi riferisco qui alla supposta privatezza dell'esperienza per chi la compie; il punto di vista in questione non è un punto di vista accessibile a un unico individuo: è piuttosto un tipo. E spesso possibile assumere un punto di vista diverso dal proprio, sicché la comprensione di tali fatti non è limitata al proprio caso particolare. Vi è un senso in cui i fatti fenomenologici sono perfettamente oggettivi: una persona può sapere o dire quale sia la qualità dell'esperienza di un'altra persona. Essi sono soggettivi, tuttavia, nel senso che anche questa ascrizione oggettiva dell'esperienza è possibile solo a qualcuno che sia abbastanza simile all'oggetto dell'ascrizione da essere in grado di adottare il suo punto di vista, cioè di comprendere l'ascrizione in prima persona, per così dire, oltre che in terza persona. Quanto più l'altro, il soggetto dell'esperienza, è diverso da noi, tanto più difficile sarà, presumibilmente, riuscire in questa impresa. Nel caso di noi stessi, noi occupiamo il punto di vista in questione, ma se ci accostassimo alla nostra esperienza da un altro punto di vista, incontreremmo, per comprenderla nel modo giusto, la stessa difficoltà che incontreremmo se tentassimo di comprendere l'esperienza di un'altra specie senza adottare il suo punto di vista. Ciò tocca direttamente il problema mente-corpo, poiché se i fatti dell'esperienza soggettiva - i fatti riguardanti il provare ciò che prova l'organismo che ha l'esperienza sono accessibili da un unico punto di vista, allora è un mistero come il vero carattere delle esperienze soggettive può essere rivelato nel funzionamento fisico di quell'organismo. Quest'ultimo è un campo di fatti oggettivi per eccellenza, fatti che possono essere osservati e capiti da molti punti di vista e da individui dotati di sistemi di percezione differenti. Non esistono barriere immaginative analoghe che si oppongano all'acquisizione di conoscenze sulla neurofisiologia dei pipistrelli da parte di scienziati umani, e viceversa pipistrelli o marziani intelligenti potrebbero imparare sul cervello umano più di quanto potremo mai imparare noi. Questo non è di per se stesso un argomento contro la riduzione. Uno scienziato marziano che non capisce la percezione visiva potrebbe capire l'arcobaleno o il fulmine o le nubi come fenomeni fisici, anche se non sarebbe mai in grado di capire i concetti umani dell'arcobaleno, del fulmine o della nube, o il posto che queste cose occupano nel nostro mondo fenomenico. La natura oggettiva delle cose espresse da questi concetti potrebbe essere da lui colta perché, mentre i concetti sono legati a un punto di vista particolare e a una particolare fenomenologia visiva, le cose colte da quel punto di vista non lo sono: esse sono osservabili da quel punto di vista, ma sono esterne a esso; possono quindi essere capite anche da punti di vista diversi, sia da parte degli stessi organismi sia da parte di altri. Il fulmine ha un carattere oggettivo che non si esaurisce nella sua manifestazione visiva, e può essere studiato da un marziano privo della vista. Per essere precisi: esso ha un carattere più oggettivo di quanto non si riveli nella sua manifestazione visiva. Parlando del passaggio dalla caratterizzazione soggettiva a quella oggettiva, desidero non pronunciarmi sull'esistenza o meno di un punto terminale, di una natura intrinseca compiutamente oggettiva della cosa, raggiungibile o no. Forse è più corretto concepire l'oggettività come una direzione in cui può viaggiare il comprendere. E per comprendere un fenomeno come il fulmine è legittimo allontanarsi quanto più possibile da un punto di vista strettamente umano [II problema che sto per sollevare può quindi essere posto anche se la distinzione tra descrizioni o punti di vista più soggettivi e più oggettivi può essere fatta a sua volta solo entro un più ampio punto di vista umano. Io non accetto questo genere di relativismo concettuale, ma non è necessario respingerlo per giungere alla conclusione che la riduzione psicofisica non può trovar luogo nell'ambito del modello dal-soggettivoall'oggettivo che ci è familiare da altri casi.
Nel caso dell'esperienza soggettiva, viceversa, il legame con un punto di vista particolare sembra molto più stretto. E difficile capire che cosa si potrebbe intendere per carattere oggettivo di un'esperienza soggettiva, a parte il modo in cui la coglie, dal suo particolare punto di vista, il soggetto che la coglie. Dopotutto, che cosa resterebbe di ciò che si prova a essere un pipistrello se si eliminasse il punto di vista del pipistrello? Ma se l'esperienza soggettiva non ha, in aggiunta al proprio carattere soggettivo, una natura oggettiva che possa essere colta da molti punti di vista diversi, come si può supporre che un marziano che investighi il mio cervello possa osservare dei processi fisici che sono i miei processi mentali (così come potrebbe osservare dei processi fisici che sono i fulmini), ma da un punto di vista diverso? E come, anzi, potrebbe osservarli da un altro punto di vista un fisiologo umano? [Il problema non è solo che quando guardo La Gioconda la mia esperienza visiva ha una certa qualità della quale nessuna traccia potrà essere trovata da chi guardi dentro il mio cervello. Infatti, anche se costui vi vedesse una figuretta della Gioconda, non avrebbe alcun motivo per identificarla con la mia esperienza].
A quanto pare ci troviamo di fronte a una difficoltà di carattere generale a proposito della riduzione psicofisica. In altri campi il processo di riduzione porta nella direzione di una maggiore oggettività, porta verso una visione più precisa della reale natura delle cose. Ciò viene ottenuto mediante la riduzione della nostra dipendenza da punti di vista specifici dell'individuo o della specie nei confronti dell'oggetto d'indagine: noi lo descriviamo non nei termini delle impressioni che esso procura ai nostri sensi, bensì nei termini dei suoi effetti più generali e a proprietà rilevabili con mezzi diversi dai sensi dell'uomo. Quanto meno la nostra descrizione dipende da un punto di vista specificamente umano, tanto più essa è oggettiva. E possibile seguire questa via poiché, sebbene i concetti e le idee da noi impiegati nel riflettere sul mondo esterno provengano all'inizio da un punto di vista che coinvolge il nostro apparato percettivo, essi vengono da noi usati per riferirci a cose che stanno al di là di essi e nei confronti delle quali noi possediamo un punto di vista fenomenico. Possiamo perciò abbandonare un punto di vista in favore di un altro, pur continuando a riflettere sulle stesse cose.
L'esperienza soggettiva, tuttavia, non sembra rientrare in questo schema. Con essa l'idea di muovere dalle apparenze alla realtà non sembra aver senso. Che cosa corrisponde in questo caso alla ricerca di una comprensione più oggettiva degli stessi fenomeni, abbandonando il punto di vista soggettivo inizialmente adottato nei loro confronti in favore di un altro più oggettivo ma che riguarda la stessa cosa? Certamente appare improbabile che possiamo avvicinarci alla natura reale dell'esperienza umana abbandonando la particolarità del nostro punto di vista umano e sforzandoci di giungere a una descrizione accessibile a esseri incapaci di immaginare che cosa si provi a essere noi. Se il carattere soggettivo dell'esperienza si può comprendere compiutamente da un solo punto di vista, allora nessuno spostamento verso una maggiore oggettività, cioè nessun distacco da un punto di vista specifico, ci porterà più vicini alla natura reale del fenomeno: anzi ce ne allontanerà.
In un certo senso i germi di questa obiezione alla riducibilità dell'esperienza si possono già riscontrare in certi casi riusciti di riduzione; infatti nello scoprire che il suono è in realtà un fenomeno ondulatorio che avviene nell'aria o in altri mezzi, noi abbandoniamo un punto di vista per assumerne un altro, e il punto di vista uditivo, umano o animale, che abbandoniamo non viene ridotto. Due individui appartenenti a specie radicalmente diverse possono capire entrambi gli stessi eventi fisici in termini oggettivi, senza per questo dover capire le forme fenomeniche sotto le quali quegli eventi appaiono ai sensi degli appartenenti all'altra specie. Perciò il loro riferirsi a una realtà comune ha come condizione che i loro punti di vista più particolari non facciano parte della realtà comune che entrambi colgono. La riduzione può riuscire solo se il punto di vista proprio della specie viene eliminato da ciò che si deve ridurre.
Tuttavia, mentre è giusto mettere da parte questo punto di vista quando si ricerca una comprensione più piena del mondo esterno, non lo si può ignorare in modo permanente, dato che esso costituisce l'essenza del mondo interiore e non semplicemente un punto di vista su di esso. In massima parte il neo-comportamentismo della recente psicologia filosofica deriva dallo sforzo di sostituire alla mente reale un concetto oggettivo di mente, allo scopo di non lasciare nulla che non possa essere ridotto. Se riconosciamo che una teoria fisica della mente deve spiegare il carattere soggettivo dell'esperienza, dobbiamo ammettere che nessuna delle concezioni attuali ci dà un'indicazione su come si possa ottenere una tale spiegazione. Il problema è unico. Se i processi mentali sono davvero processi fisici, allora si prova, intrinsecamente qualcosa nel subire certi processi fisici. Che cosa poi ciò sia, resta un mistero.
[Ci sarebbe dunque un rapporto non contingente, come quello tra una causa e il suo effetto distinto: sarebbe necessariamente vero che un certo stato fisico produce certe sensazioni. Kripke (1972) sostiene che il comportamentismo causale e le analisi del mentale a esso collegate falliscono perché interpretano, per esempio, "dolore" come un nome puramente contingente dei dolori. Il carattere soggettivo di un'esperienza ("la sua qualità fenomenologica immediata", la chiama Kripke [p. 340]) è la proprietà essenziale che queste analisi escludono ed è quella in virtù della quale-l'esperienza è, necessariamente, quella che è. La mia opinione è molto vicina a quella di Kripke: come lui, anch'io ritengo che l'ipotesi che un certo stato cerebrale debba necessariamente avere un certo carattere soggettivo non è comprensibile se non si trovano ulteriori spiegazioni. Ma nessuna spiegazione adeguata può emergere dalle teorie che considerano contingente il rapporto mente-cervello: fbrse però ci sono altre alternative, ancora da scoprire.
Una teoria che spiegasse in che modo il rapporto mente-cervello è necessario non risolverebbe ancora il problema di Kripke, che è quello di spiegare perché esso appaia nondimeno contingente. A me sembra che si possa superare questa difficoltà nel modo seguente. Noi possiamo immaginare una qualche cosa rappresentandocela in modo o percettivo, o simpatetico, o simbolico. Non tenterò di spiegare come funziona l'immaginazione simbolica, ma dirò in parte ciò che accade negli altri due casi. Per immaginare una cosa in modo percettivo, ci poniamo in uno stato di coscienza che assomiglia allo stato in cui ci troveremmo se la percepissimo. Per immaginare una cosa in modo simpatetico ci poniamo in uno stato di coscienza che assomiglia alla cosa stessa. (Questo metodo può essere adottato solo per immaginare eventi e stati mentali, nostri o altrui). Quan tentiamo di immaginare uno stato mentale che si presenti senza lo stato cerebrale a esso associato, dapprima immaginiamo simpateticamente il presentarsi dello stato mentale: cioè ci mettiamo in uno stato che gli assomigli mentalmente. Allo stesso tempo tentiamo di immaginare per via percettiva il non presentarsi dello stato fisico associato mettendoci in un altro stato non legato al primo, uno stato che somigli a quello in cui ci troveremmo se percepissimo il non presentarsi dello stato fisico. Dove l'immaginazione degli aspetti fisici è percettiva e l'immaginazione degli stati mentali è simpatetica, a noi pare di poter immaginare qualunque esperienza che si presenti senza il suo stato mentale associato, e viceversa. Il rapporto fra di essi apparirà contingente ancorché necessario, a causa dell'indipendenza dei due diversi tipi d'immaginazione.
(Per inciso, se si attribuisce erroneamente all'immaginazione simpatetica il funzionamento che è proprio dell'immaginazione percettiva, il risultato è il solipsismo: in tal caso infatti appare impossibile immaginare qualsiasi esperienza che non sia la propria).]
Che morale si può ricavare da queste riflessioni, e quale deve essere il passo successivo? Sarebbe un errore concludere che il fisicalismo è necessariamente falso. L'inadeguatezza delle ipotesi fisicaliste che postulano un'analisi falsamente oggettiva della mente non dimostra nulla. Sarebbe più giusto dire che il fisicalismo è una posizione che non possiamo capire perché per ora non abbiamo alcuna concezione di come esso potrebbe essere vero. Ma forse si giudicherà irragionevole considerare il possesso di una concezione del genere come una condizione per la comprensione. Dopotutto, si potrebbe dire, il significato del fisicalismo è chiaro: gli stati della mente sono stati del corpo; gli eventi mentali sono eventi fisici. Non sappiamo quali stati e quali eventi fisici essi siano, ma questo non dovrebbe impedirci di comprendere l'ipotesi. Che cosa ci potrebbe essere di più chiaro delle parole "è" e "sono"?
Ma io credo che proprio questa chiarezza che attribuiamo alla parola "è" sia ingannevole. Di solito, quando ci dicono che X è Y, noi sappiamo come si intende che ciò sia vero, ma questo dipende da uno sfondo concettuale o teorico e non è trasmesso dal solo "è". Di "X" e" Y" sappiamo come si riferiscono alle cose e il genere di cose cui si riferiscono, e abbiamo un'idea più o meno precisa di come i due percorsi referenziali potrebbero convergere su un'unica cosa, sia essa un oggetto, una persona, un processo, un evento o altro. Ma quando i due termini dell'identificazione sono molto disparati, può non essere altrettanto chiaro come ciò possa essere vero. Potremmo non avere neppure un'idea approssimata di come i due percorsi referenziali potrebbero convergere o su che genere di cose essi potrebbero convergere; e per farci comprendere ciò, può darsi che sia necessaria un'impalcatura teorica. Senza questa impalcatura, l'identificazione sarebbe circondata da un alone di misticismo.
Questo spiega il sapore magico delle presentazioni divulgative delle scoperte scientifiche fondamentali, che vengono proclamate come proposizioni da accettare senza veramente capirle. Oggi per esempio, fin da bambini si sente dire che tutta la materia in realtà è energia. Ma nonostante tutti sappiano che cosa significa "è", la maggior parte della gente non si farà mai un'idea di che cosa rende vera questa affermazione, perché non possiede una preparazione teorica.
La situazione odierna del fisicalismo è simile a quella in cui si sarebbe trovata l'ipotesi che la materia è energia se fosse stata formulata da un filosofo presocratico. Non abbiamo la più pallida concezione di come il fisicalismo potrebbe essere vero. Per poter capire l'ipotesi che un evento mentale è un evento fisico abbiamo bisogno di capire qualcosa di più della parola "è". Non abbiamo alcuna idea di come un termine mentale e un termine fisico potrebbero riferirsi alla stessa cosa, e le solite analogie con le identificazioni teoriche che osserviamo in altri campi non riescono a darcela. Non ci riescono perché, se interpretiamo il riferimento dei termini mentali agli eventi fisici secondo il modello solito, otteniamo o una ricomparsa degli eventi soggettivi separati come effetti attraverso i quali è assicurato il riferimento mentale agli eventi fisici, oppure una spiegazione falsa di come i termini mentali si riferiscono alle cose (ad esempio una spiegazione comportamentista causale).
Può sembrare strano, ma è possibile avere una prova della verità di qualcosa che non riusciamo a comprendere realmente. Supponiamo che un tale all'oscuro della metamorfosi degli insetti rinchiuda un bruco in un recipiente sterilizzato e che, riaprendo il recipiente dopo qualche settimana, vi trovi una farfalla. Se questo tale è sicuro che il recipiente è stato sempre chiuso, ha ragione di credere che la farfalla sia, o sia stata in passato, il bruco, pur senza minimamente sapere in che senso ciò sia vero. (Una possibilità è per esempio che il bruco contenesse un minuscolo parassita alato che lo abbia divorato e sia quindi cresciuto fino a diventare la farfalla).
E concepibile che nei confronti del fisicalismo ci troviamo in una posizione analoga. Donald Davidson ha sostenuto che gli eventi mentali, se hanno cause ed effetti fisici, devono possedere una descrizione fisica. Egli ritiene che abbiamo motivo di crederlo anche se non possediamo - anzi, anche se non potessimo possedere - una teoria psicofisica generale.' Il suo ragionamento è riferito agli eventi mentali intenzionali, ma io penso che abbiamo anche motivo di credere che le sensazioni sono processi fisici, pur senza essere in grado di capire come. La posizione di Davidson è che certi eventi fisici hanno proprietà mentali irriducibili, e forse una concezione che si possa formulare in questi termini è giusta. Ma nulla di cui oggi ci possiamo formare un concetto corrisponde a essa; e non abbiamo neppure alcuna idea di come sarebbe una teoria che ci consentisse di concepire una cosa del genere.'
Pochissimi sforzi sono stati dedicati al problema fondamentale (a proposito del quale non è assolutamente necessario parlare del cervello) se si possa attribuire significato all'ipotesi che le esperienze soggettive abbiano un qualche carattere oggettivo. In altre parole, ha senso che io mi chieda come sono realmente le mie esperienze, rispetto a come mi appaiono? Non ci è possibile avere una comprensione autentica dell'ipotesi che la loro natura possa essere rispecchiata in una descrizione fisica, se non comprendiamo l'idea più fondamentale che esse hanno una natura oggettiva (o che i processi oggettivi possono avere una natura soggettiva). [Tale questione è anche al centro del problema delle altre menti, il cui stretto legame con il problema mente-corpo viene spesso trascurato. Se riuscissimo a capire come l'esperienza soggettiva possa avere una natura oggettiva, capiremmo anche l'esistenza di soggetti diversi da noi.]
Vorrei concludere con una proposta speculativa. Può darsi che ci si possa accostare al divario tra soggettivo e oggettivo da un'altra direzione. Mettendo da parte per il momento il rapporto tra mente e cervello, possiamo cercare di raggiungere una comprensione più oggettiva del mentale di per sé. AI momento non abbiamo alcuno strumento per riflettere sul carattere soggettivo dell'esperienza senza ricorrere all'immaginazione, cioè senza assumere il punto di vista del soggetto dell'esperienza. Questo ci dovrebbe spingere a costruire concetti nuovi e a inventare un metodo nuovo, una fenomenologia oggettiva che non dipendesse dall'empatia o dall'immaginazione. Anche se presumibilmente essa non potrebbe dar conto di tutto, il suo scopo sarebbe quello di descrivere, almeno in parte, il carattere soggettivo delle esperienze in una forma che fosse comprensibile a esseri incapaci di avere quelle esperienze.
Dovremmo elaborare una fenomenologia siffatta per descrivere le esperienze sonar dei pipistrelli, ma si potrebbe anche cominciare dagli uomini: si potrebbe, per esempio, cercare di foggiare concetti che servano a spiegare a un cieco nato che cosa si prova a vedere. Prima o poi ci si troverebbe di fronte a un muro, ma dovrebbe essere possibile escogitare un metodo per esprimere in termini oggettivi molto più di quanto non possiamo esprimere oggi, e con una precisione molto maggiore. Le vaghe analogie intermodali (per esempio: "il rosso è come uno squillo di tromba") che pullulano nelle discussioni su questo argomento servono a poco. Ciò dovrebbe essere chiaro a chiunque abbia udito una tromba e visto il rosso. Ma gli aspetti strutturali della percezione potrebbero essere più accessibili a una descrizione oggettiva, anche se qualche cosa ne verrebbe lasciato fuori. E concetti diversi da quelli che noi apprendiamo in prima persona ci possono consentire di arrivare a un tipo di comprensione anche della nostra stessa esperienza che ci è impedito proprio da quella facilità di descrizione e da quell'assenza di distanza che consentono i concetti soggettivi.
A parte il suo interesse intrinseco, una fenomenologia che fosse oggettiva in questo senso consentirebbe di dare una forma più intelligibile alle domande a proposito della base fisica dell'esperienza [Non ho definito il termine "fisico". E chiaro che esso non si riferisce solo a ciò che può essere descritto dai concetti della fisica contemporanea, poiché ci attendiamo sviluppi ulteriori. Alcuni possono ritenere che non ci sia nulla che impedisca di riconoscere prima o poi una natura fisica indipendente ai fenomeni mentali. Ma il fisico, qualunque altra cosa si possa dire su di esso, deve essere comunque oggettivo. Quindi, se la nostra concezione di fisico si estenderà un giorno fino a comprendere i fenomeni mentali, dovrà ascrivere loro un carattere oggettivo, indipendentemente dal fatto che ciò avvenga o no mediante una loro analisi in termini di altri fenomeni già considerati come fisici. A me tuttavia sembra più probabile che i rapporti tra mentale e fisico finiranno per essere espressi da una teoria i cui termini fondamentali non potranno essere situati nettamente in nessuna delle due categorie.]
Gli aspetti dell'esperienza soggettiva che ammettessero questo genere di descrizione oggettiva potrebbero prestarsi meglio di altri a fornire spiegazioni oggettive di tipo più consueto. Ma indipendentemente dal fatto che questa congettura sia giusta o no, sembra improbabile che si possa formulare una qualunque teoria fisica della mente finché non si sarà riflettuto più a fondo sul problema generale della soggettività e dell'oggettività. Altrimenti non si potrà neppure porre il problema mente-corpo senza con ciò stesso eluderlo,
VITA
Daniel Clement Dennet è nato a Boston nel 1942, si è laureato in filosofia ad Harvard nel 1963. Si è poi trasferito ad Oxford per lavorare con Gilbert Ryle, completando il dottorato in filosofia nel 1965. Dennet si è interessato di neuroscienze, linguistica, intelligenza artificiale, informatica e psicologia. Le sue ricerche hanno suscitato vasta eco nei settori delle scienze cognitive e i suoi scritti hanno avuto larghissima diffusione nel dibattito contemporaneo sull'intelligenza artificiale. Dal 1971 insegna alla Tufts University di Medford (Massachusetts), dove è stato anche nominato direttore del Center for Cognitive Studies.
OPERE
-- Contenuto e coscienza [1969], Il Mulino, Bologna, 1992
-- Brainstorms. Saggi filosofici sulla mente e la psicologia [1978], Adelphi, Milano, 1991
-- L'atteggiamento intenzionale, Il Mulino, Bologna, 1993
-- con Douglas Hofstadter [1981], L'io della mente, Adelphi, Milano, 1985
-- Coscienza. Che cos'è [1991], Rizzoli, Milano, 1993
-- L'idea pericolosa di Darwin. L'evoluzione e i significati della vita [1995], Boringhieri, Torino, 1997
-- La mente e le menti, Rizzoli, Milano, 2000
-- L'evoluzione della libertà, Raffaello Cortina, Milano, 2004
PENSIERO
L'intenzionalità
Dennet è approdato alla filosofia della mente passando attraverso un'accurata indagine sul concetto di intenzionalità, ovvero la peculiare caratteristica di alcune attività mentali (pensiero, coscienza, comprensione), messa in luce già da Brentano, di essere rivolte a un oggetto. La conclusione di Dennet è che l'intenzionalità si basa su nozioni che possono essere definite pseudospiegazioni, poiché le convinzioni, i desideri o gli atti volitivi a cui essa fa riferimento, non costituiscono la vera causa del comportamento umano, ma sono semplici etichette per descrivere ed, eventualmente, prevedere il comportamento stesso.
L'intenzionalità, che deriva dalla psicologia del senso comune, non rappresenta un adeguato concetto esplicativo, dal momento che non può fare a meno di evocare una sorta di homunculus (eredità che ci deriva dalla concezione di Cartesio), posto alla base del nostro agire intenzionale e cosciente. L'unico modo per eliminare l'homunculus è quello di ignorare la soggettività dell'individuo, concentrando la nostra attenzione sulla struttura reale del cervello. In tal modo si può sostituire l'homunculus con tanti sottosistemi (folletti), ognuno dei quali svolge operazioni elementari: invece di parlare di fini o di intenzioni, analogamente a quanto avviene nei calcolatori, si può fare riferimento a subroutine di un programma a cui vengono assegnati compiti semplici e ben specifici.
Coscienza
Dennet ha successivamente affrontato il tema della coscienza, muovendosi in una prospettiva chiaramente funzionalistica. Egli non ritiene che ci sia una sostanziale differenza tra il modo di operare di un calcolatore e quello del cervello umano. In entrambi i casi si tratta di sistemi fisici (composti da un certo numero di sottosistemi). Non ha importanza il tipo di materiale con cui tali sistemi sono costruiti, bensì la funzione che essi svolgono. Dennet non nega l'utilità di attingere dati dalla soggettività individuale, ma nello stesso tempo ci invita a considerare con sospetto questi dati. L'evidenza con cui essi si presentano a un determinato soggetto non costituisce affatto una garanzia circa la loro veridicità. La capacità introspettiva della coscienza potrebbe addirittura essere frutto di un'illusione e noi non avremmo modo di smascherarla se ci affidassimo soltanto ad essa.
Nella sua argomentazione, Dennet si richiama a Hume, all'analisi da questi condotta sul processo casuale. Prima di Hume, tutti i tentativi di spiegare perché si crede nella casualità muovevano dal presupposto che, quando si osserva una causa e poi un effetto, non si fa altro che vederne la necessaria connessione. Hume cercò di capovolgere questa impostazione osservando che essendo noi tutti stati condizionati ad aspettarci l'effetto allorché vediamo una causa, siamo irresistibilmente portati a trarre l'inferenza, e ciò fa sorgere l'illusione di vedere la connessione necessaria che lega il succedersi dei due eventi. Dennet propone una spiegazione analoga per la coscienza: «ci scopriamo a voler dire innumerevoli cose su ciò che sta accadendo in noi, e questo fa sorgere le varie teorie che spiegano come siamo capaci di dare resoconti introspettivi, tra le quali, ad esempio, quella ben nota ma semplicistica secondo la quale "percepiamo" questi avvenimenti con il nostro "occhio interiore"».
La questione dell'esistenza di un ente, od osservatore privilegiato, a cui farebbero riferimento i fenomeni dell'esperienza cosciente, torna prepotentemente in Coscienza. Che cos'è?. In quest'opera Dennet critica la tendenza diffusa tra i ricercatori a pensare che i sistemi percettivi forniscano "segnali in ingresso" a una qualche area centrale del cervello, la quale, a sua volta, utilizzi tali segnali per impartire comandi relativamente periferici che controllano i movimenti del corpo. Questo modello presuppone l'esistenza di un centro nel cervello verso il quale tutti i segnali convergono dando luogo al fenomeno della coscienza. Dennet chiama questa concezione Modello del Teatro Cartesiano poiché andrebbe appunto fatta risalire a Cartesio. Essa afferma l'esistenza di un ordine, di una linea d'arrivo in una parte definita del cervello, a seconda della quale l'ordine d'arrivo in quel punto corrisponde all'ordine con cui le esperienze "si presentano" al soggetto, poiché ciò che accade lì è precisamente ciò di cui diveniamo coscienti.
Il fatto è che noi non abbiamo esperienza diretta di quanto avviene sulla nostra retina, nelle nostre orecchie, sulla superficie della nostra pelle. Nella nostra effettiva esperienza rientra soltanto il prodotto finito di questi diversi processi di interpretazione. Dennet riporta alcune situazioni sperimentali che mostrano come possiamo essere ingannati da ciò che appare. Ad esempio, dati due fenomeni collegati tra loro in rapida successione, in certi casi accade che nel nostro vissuto soggettivo il secondo influenzi il primo ancor prima di essersi verificato. Fenomeni del genere, osserva Dennet, sono piuttosto difficili da spiegare per mezzo della concezione che collega i contenuti di coscienza con l'arrivo di segnali in un determinato punto. Infatti, l'unica spiegazione razionalmente accettabile è che la percezione dei due eventi sia il risultato di una rielaborazione successiva. Le due esperienze distinte non fanno a tempo ad essere colte dalla coscienza come tali o, se ciò accade, esse vengono subito "spazzate via dalla memoria e sostituite da un documento falsificato" che ci presenta l'influenza del secondo evento sul primo come qualcosa di operante sin dall'inizio.
Alla luce di questi indizi sperimentali, Dennet giunge a concludere che non esiste un luogo centrale, un Teatro Cartesiano dove "tutto converge" per essere esaminato da un osservatore privilegiato. La coscienza non sarebbe quindi una questione d'arrivo a un determinato luogo cerebrale, quanto piuttosto di attivazione che supera una certa soglia sull'intera corteccia o su larga parte di essa. Al posto della concezione del Teatro Cartesiano, in cui opera un flusso lineare di processi che si succedono in maniera ordinata e sequenziale, Dennet propone quella delle Molteplici Versioni, costituita da un certo numero di circuiti in stretta interconnessione tra loro, che operano in parallelo.
Secondo tale concezione, l'unità dell'esperienza cosciente non viene ottenuta riconducendo l'attività dei diversi moduli in cui può essere idealmente suddivisa la corteccia cerebrale a un centro finale, che agisce da "collettore", bensì deriva dal loro funzionamento strettamente integrato e interdipendente. In questa prospettiva, il Sé, l'Io a cui ciascuno di noi fa riferimento, si rivela essere soltanto una valida astrazione, una funzione teorica, piuttosto che un osservatore interno con il compito di raccogliere messaggi che provengono dalle varie zone del cervello.
Detto questo, il passo successivo discende quasi come una logica conseguenza. Se il Sé - scrive Dennet - è soltanto il Centro di Gravità Narrativa, e se tutti i fenomeni della coscienza umana rappresentano soltanto i prodotti dell'attività di una macchina virtuale realizzata con connessioni variamente modificabili del cervello umano, allora, in linea di principio, un robot opportunamente "programmato" con un cervello costituito da un calcolatore al silicio, sarebbe cosciente, avrebbe un sé. Dennet osserva che molte persone trovano molto poco credibile che un robot possa essere cosciente; esse sono portate a considerare tale ipotesi come una pura e semplice assurdità. Effettivamente è piuttosto difficile immaginare come un calcolatore o una qualsiasi macchina cibernetica possa sviluppare la coscienza. Come potrebbe un complicato ammasso di circuiti che elaborano informazioni su chip al silicio equivalere alle esperienze coscienti? Ma, secondo Dennet, è altrettanto difficile immaginare come un cervello umano organico possa sostenere la coscienza. Come potrebbe un complicato ammasso di interazioni elettrochimiche tra miliardi di neuroni equivalere alle esperienze coscienti? Se non riusciamo a immaginare come un sistema complesso (biologico o artificiale) possa albergare al suo interno i fenomeni della coscienza, possa vivere le esperienze su di sé proprio come noi le viviamo, possa comprendere il senso di una frase allo stesso modo in cui noi lo comprendiamo, ciò dipende, secondo Dennet, dal fatto che ci limitiamo ad immaginare un caso troppo semplice.
Per concludere, la qualità dell'essere coscienti, per Dennet deriva unicamente da un certo tipo di organizzazione funzionale, e non dal fatto che si abbia a che fare con un cervello organico piuttosto che con un cervello costituito da un calcolatore elettronico. Egli non trova una differenza sostanziale tra le due realizzazioni, essendo le loro attitudini legate all'insieme dei processi fisici che si svolgono in esse e non al materiale con cui sono costruiti. Non c'è altro da considerare, poiché le esperienze coscienti si identificano totalmente con gli eventi portatori di informazione al loro interno.
020
Il falso parallelo con l’ape regina
Questo capitolo è anche un omaggio a Dennet, un atto di ossequio al grande filosofo contemporaneo che ha dimostrato impossibile il concetto di “vocina nel cervello”.
L’organizzazione di un sé umano è così meravigliosa che molti osservatori hanno pensato che anche ogni essere umano abbia un benevolo Dittatore che governa dal Quartier Generale.
In ogni alveare e in ogni termitaio c’è, sicuramente, un’ape regina e una termite regina, ma questi individui sono più passivi che attivi, assomigliano di più ai gioielli della corona da proteggere che ai capi delle forze di protezione.
Non c’è un’ape Margaret Thatcher, una termite George Bush, un ufficio presidenziale nel formicaio.
Dennet, “Coscienza”, Rizzoli, pag. 463
Un’obiezione classica all’idea che i pensieri siano rappresentazioni interne di un’unica autorità centrale della mente, è che una rappresentazione richiederebbe un omino nella testa che la guardasse, e l’omino richiederebbe un omino ancora più piccolo che guardasse le rappresentazioni dentro di lui, e così via, all’infinito.
030
Non esiste una funzione mentale suprema
Non esiste un cervello del cervello, a cui tutto viene riferito e che rappresenta la sede dell‘autocoscienza. Non esiste un centro biologico del corpo.
Se per alcune funzioni il cervello e la corteccia agiscono come centro regolatore, la stragrande maggioranza degli eventi cellulari va avanti da sé. Ciascuna cellula sa quello che deve fare e lo fa, calibrandone volta per volta la realizzazione sulla base dei segnali che giungono dalle altre cellule.
Si direbbe che ci si trovi in presenza di una sorta di armonia prestabilita che regola il comportamento delle cellule presenti nei vari distretti del nostro corpo.
040
L’ipotesi di un “cervello sociale”
Dice Gazzaniga: “Nel cervello ci sono molti sistemi paralleli. Non esiste alcun ‘generale’ in carica. Per capire tutti i comportamenti diversi, dev’esserci un sistema che interpreti e formuli teorie. Il linguaggio è strettamente connesso ad esso, ma non è la cosa stessa.
La cosa stessa è ciò a cui stiamo sforzandoci di pervenire: l’ipotesi di un “cervello sociale”.
Hooper J. Teresi D., “L’universo della mente”, Bompiani pag. 281
050
Osservatori per l’artiglieria
Un metafora che aiuta a chiarire l’assenza di un “Centro localizzato di direzione” del cervello, è paragonarlo all’artiglieria.
Oggi la decisionalità nello sparare con un cannone è obbligatoriamente frammentata. C’è un tenente accanto al pezzo, che ha l’autorità per dire: “Spara!”, ma sarà un sergente a tirare il grilletto.
Ma la situazione è ancora più complessa. C’è un altro ufficiale su un elicottero che comunica i dati – ad esempio: “Colpo mancato!” – dati di cui viene a conoscenza anche il comando dell’artiglieria, dove un generale tanto lontano da non sentire neppure il boato, può decidere di intensificare il fuoco.
Un altro generale – responsabile della logistica – in base a questa decisione non presa da lui, darà incarico ad un suo tenente di spostare ulteriori munizioni vicino al cannone
060
C’è una struttura di semi-intelligenze semi-indipendenti che agiscono di concerto
Non dobbiamo spiegare i processi decisionali sul modello di un ente interno che ragiona, conclude e poi ordina l’azione particolare.
Dobbiamo sforzarci di resistere alla tentazione di descrivere l’azione come un qualcosa che sorge dagli imperativi di un unico comandante interno che svolge una parte troppo ampia del lavoro di pianificazione.
Benché siamo talvolta coscienti di eseguire elaborati ragionamenti pratici, che conducono ad una conclusione su ciò che dovremmo fare, e che sono seguiti da una decisione cosciente di fare proprio quella cosa, queste sono esperienze relativamente rare. La maggior parte delle nostre azioni intenzionali sono eseguite senza nessun preambolo del genere; e questo è un bene, poiché ce ne mancherebbe il tempo.
L’errore comune è di suppone che questi casi relativamente rari di ragionamento pratico cosciente, costituiscano un buon modello per il resto, i casi in cui le nostre azioni intenzionali emergono da processi ai quali non abbiamo accesso.
Dennet, “Coscienza”, Rizzoli, pag. 281
078
La falsa sensazione dell’esistenza di una prospettiva coerente
Afferma Dennet:
“Quando ricorro alla nozione di sé, non intendo in alcun modo suggerire che tutti i contenuti della mente siano ispezionati da un singolo osservatore e detentore, tanto meno che tale entità risieda in un unico sito cerebrale.
Dico, nondimeno, che le nostre esperienze tendono ad avere una prospettiva coerente, come se davvero vi fosse un osservatore e detentore per la maggior parte dei contenuti, seppure non per tutti.
Io immagino che tale prospettiva sia radicata in uno stato biologico relativamente stabile, incessantemente ripetuto. L’insieme delle rappresentazioni disposizionali che descrivono una qualsiasi delle nostre autobiografie, riguarda un gran numero di fatti categorizzati che definiscono la nostra persona: che cosa facciamo, chi e che cosa ci piace, quali tipi di oggetti usiamo, quali luoghi frequentiamo e quali azioni compiamo più spesso.
Si può vedere questo insieme di rappresentazioni come un dossier del tipo di quelli che ben sapeva preparare la Cia o l’Fbi, salvo il fatto che non è contenuto in schedari, bensì nella corteccia cerebrale.
Damasio, L’errore di Cartesio, Adelphi , pag. 325
080
Un comitato di homunculi relativamente ignoranti
In realtà ad ogni omuncolo – o specialista celebrale - è richiesto soltanto di reagire in pochi modi circoscritti ad alcuni dei simboli, impresa ben più semplice di quella che compie il sistema nel suo insieme. L’intelligenza del sistema emerge dalle attività dei - non tanto intelligenti - demoni meccanici dentro di esso.
Il punto, messo per la prima volta in chiaro da Jerry Fodor nel 1968, è stato espresso da Daniel Dennett:
«Se si riesce a fare in modo che una squadra o un comitato di homunculi relativamente ignoranti, limitati, ciechi, produca il comportamento intelligente dell’intero sistema, si è fatto un progresso.
Alla fine, seguitando a scomporre e a suddividere il lavoro, si arriva ad uno stato di riposta elettrica: corrente che passa o non passa. Raggiungeremo homunculi così stupidi (non dovranno far altro che rispondere sì o no, se interrogati) da poter essere, come si usa dire, «sostituibili da una macchina».
Dallo schema si sono eliminati gli homunculi raffinati, organizzando eserciti di idioti che fanno il lavoro.»
Pinker S., “Come funziona la mente”, Mondadori, pag. 87
80
L’architettura della mente umana
Che posto ha l’io nell’ambito delle concezioni di Dennett?
Dennett propone un modello basato su un “pandemonio” di operatori, in continuo a parziale contatto, freneticamente impegnati a passarsi i diversi “copioni” di ciò che sta accadendo intorno a noi: memorie, sensazioni, storie più o meno plausibili sui fenomeni che osserviamo e su cui riflettiamo, insomma una coscienza a immagine di un potente computer che continuamente passa al vaglio la realtà, esterna e interna, producendo storie congrue e incongrue che vengono mantenute in memoria e perdute, revisionate e scartate.
Nella mente ci sono canali multipli in cui vari circuiti specializzati tentano, in un pandemonio parallelo, di fare varie cose, creando man mano delle Molteplici Versioni.
La maggior parte di queste frammentarie versioni di «narrazioni» giocano dei ruoli effimeri nella modulazione dell’attività in corso, ma qualcuna viene promossa ad ulteriori ruoli funzionali, in rapida successione, dall’attività di una macchina virtuale nel cervello.
La serialità di questa macchina non è una caratteristica progettuale «cablata rigidamente», ma piuttosto il risultato di una successione di coalizioni di questi specialisti.
Gli specialisti fondamentali sono parte della nostra eredità animale. Non furono sviluppati per eseguire azioni specificamente umane, come leggere e scrivere, ma per evitare i predatori, schivare gli oggetti, riconoscere i volti, afferrare, scagliare, raccogliere le bacche e altri compiti essenziali. Spesso sono opportunisticamente trasferiti in nuovi ruoli, ai quali sono più o meno portati a seconda dei loro talenti originali.
Dennet, “Coscienza”, Rizzoli, pag. 285
110
Un sé è un “Centro di Gravità Narrativa”
Secondo Dennet, un sé non è un punto matematico, ma un’astrazione: è un “Centro di Gravità Narrativa”.
Come tale, svolge un ruolo singolarmente importante nell’incessante economia cognitiva di quel corpo vivente, perché, tra tutte le cose dell’ambiente di cui un corpo attivo deve farsi un modello mentale, nessuna è più cruciale del “modello di se stesso”.
Negli esseri umani queste strategie implicano soprattutto delle attività incessanti di racconto e controllo di storie, alcune fattuali e alcune fittizie. I bambini si esercitano a voce alta (si pensi a Snoopy, che dice a se stesso mentre sta seduto sul tetto della sua casetta: «Ecco l’asso della prima guerra mondiale...»). Noi adulti lo facciamo più elegantemente: prendiamo nota silenziosamente e senza sforzo delle differenze tra le nostre fantasie e le nostre narrazioni e riflessioni «serie».
Così noi costruiamo una storia definitoria su noi stessi. La traccia non è il sé, naturalmente; è una rappresentazione di un sé. Raccoglie e organizza le informazioni che mi riguardano nello stesso modo in cui altre strutture nel cervello registrano le informazioni sul Texas o il gelato.
E dov’è la cosa a cui si riferisce la tua auto-rappresentazione?
È ovunque tu sia.
E cos’è questa cosa?
È nulla di più, e nulla di meno, che il tuo centro di gravità narrativa.
Se tu pensi te stesso come un centro di gravità narrativa, la tua esistenza dipende dal perdurare della narrazione.
Dennet, “Coscienza”, Rizzoli, pag. 479
Ad esempio, sono in macchina tutto teso nel pensare, ma basta un colpo di clacson e il potere passa alla subroutine di “guidatore d’auto”.
120
La struttura che connette è una danza di parti interagenti
Rispetto a questo insieme di omuncoli, ne esiste un precedente in una riflessione di Bateson. Il filosofo americano offre la locuzione: “la struttura che connette”come sinonimo di “Io”, “me stesso”, “la mia coscienza”.
Vari specialisti cerebrali che prendono il comando a turno, e a turno si accaparrano il massimo dell’attenzione disponibile.
Dice Bateson:
“Il modo giusto per cominciare a pensare alla struttura che connette è di pensarla in primo luogo come una danza di parti interagenti.”
Bateson G. “MENTE E NATURA”, Adelphi, pag. 29
130
L’incessante riattivazione di immagini riguardanti la nostra identità
L’incessante riattivazione di immagini aggiornate riguardanti la nostra identità (una combinazione di ricordi del passato e del futuro progettato) costituisce una parte considerevole dello stato del sé.
Il secondo insieme di rappresentazioni sottese dal sé neurale è dato dalle rappresentazioni primitive del corpo di un individuo: non solo come il corpo è stato in generale, ma anche come è stato ultimamente, appena prima del processo che ha portato alla percezione dell’oggetto X. Ciò abbraccia, necessariamente, stati di fondo del corpo e stati emotivi. La rappresentazione complessiva del corpo costituisce la base per un concetto di “sé”, quasi nel modo in cui una raccolta di rappresentazioni di forma, dimensioni, colore, struttura e gusto può costituire la base del concetto di arancia.
Damasio, L’errore di Cartesio, Adelphi , pag. 325
140
Il bisogno incessante del nostro emisfero sinistro, di spiegare azioni dei sistemi mentali che abitano dentro di noi
A volte prima compiamo un’azione spontanea e non meditata, poi ci affanniamo a trovargli una giustificazione.
L’unità mentale, secondo Gazzaniga, è falsa. Il senso dell’ “Io” è un elegante lavoro di pubbliche relazioni. Il nostro sistema cognitivo non è una rete unificata con una singola intenzionalità e un singolo corso di pensiero. Una metafora più precisa è che il nostro senso della consapevolezza soggettiva sorge dal bisogno incessante del nostro emisfero dominante, l’emisfero sinistro, di spiegare azioni tratte da uno qualsiasi di una moltitudine di sistemi mentali che abitano dentro di noi.
Questa immagine della mente come non facile coalizione di sotto-menti multiple è molto in voga. Il nostro organo del pensiero viene considerato una “federazione” di sistemi neurali dotati di un grado notevole di autonomia l’uno rispetto all’altro.
La misura della disunione varia da una persona all’altra.
In ogni caso, non pare ci sia un primo motore centrale che vigili su tutto il comportamento.
Hooper J. Teresi D., “L’universo della mente”, Bompiani pag. 284
150
Una mente che non ha centro
In conclusione, non è tanto importante come Dennet ha dimostrato l’inconsistenza dell’ipotesi “vocina nel cervello”, quanto il suo costringerci ad immaginare una mente che non ha centro, ma che opera al centro della mente.
I. Introduzione. Intelligenza artificiale forte, Intelligenza artificiale debole e cognitivismo
Ci sono diversi modi di presentare un intervento presidenziale all’American Philosophical Association; quello che ho scelto io consiste semplicemente nel riferire il lavoro che sto svolgendo ora: un lavoro in corso. Ho intenzione di presentare alcune delle mie riflessioni esplorative sul modello computazionale della mente. L’idea alla base del modello computazionale della mente è che la mente sia il programma e il cervello l’hardware di un sistema computazionale. Uno slogan che si incontra spesso dice: "La mente è per il cervello ciò che il programma è per l’hardware".
Iniziamo la nostra indagine su questo tema distinguendo fra tre questioni: Il cervello è un computer digitale? La mente è un programma per computer? Le operazioni svolte dal cervello possono essere simulate da un computer digitale?
Affronterò la prima questione, non la seconda o la terza. Penso che alla seconda si possa rispondere in modo decisamente negativo. Dal momento che i programmi sono definiti in modo puramente formale o sintattico e dal momento che le menti possiedono un intrinseco contenuto mentale, ne consegue immediatamente che il programma non può costituire la mente. La sintassi formale del programma non è sufficiente a garantire da sola la presenza di contenuti mentali. L’ho dimostrato una decina di anni fa nell’Argomento della stanza cinese (1980). Un computer, io ad esempio, potrebbe svolgere i passaggi nel programma grazie a qualche capacità mentale, come per esempio comprendere il cinese senza capire una parola di cinese. L’argomento si fonda sulla semplice verità logica per cui la sintassi non corrisponde alla semantica, né è di per sé sufficiente a determinare la semantica. Così la risposta alla seconda domanda è ovviamente "no".
La risposta alla terza domanda mi sembra egualmente ovvio sia "sì", almeno per quanto riguarda l’interpretazione naturale. Interpretata naturalmente, la domanda significa: esiste una descrizione del cervello tale che con quella descrizione si possa compiere una simulazione computazionale delle operazioni cerebrali? Ma, se si accoglie la tesi di Church per cui ogni cosa di cui può essere data una caratterizzazione sufficientemente precisa come di una sequenza di passi può essere simulata su un computer digitale, ne deriva banalmente che la domanda ha una risposta affermativa. Le operazioni cerebrali possono essere simulate su un computer digitale nello stesso senso in cui possono essere simulati i sistemi del tempo atmosferico, il comportamento del mercato di New York o il modello dei voli di linea sopra l’America latina. Allora la nostra domanda non è: "La mente è un programma?", la cui risposta è "no"; né è: "Può il cervello essere simulato?", la cui risposta è "sì". La domanda è: "Il cervello è un computer digitale?". Per le intenzioni di questa discussione io sto considerando questa domanda come equivalente a: "I processi cerebrali sono suscettibili di calcolo?".
Si potrebbe pensare che questa domanda perderebbe gran parte del suo interesse con una risposta negativa alla seconda domanda. Il che vuol dire che si potrebbe supporre che al di là del fatto che la mente sia un programma, non c’è nessun interesse per la domanda se il cervello sia un computer. Ma non è questo il punto, in realtà. Persino per quanti ritengono che i programmi non siano i soli elementi costitutivi dei fenomeni mentali resta ancora aperta una domanda importante: ammesso che nella mente ci sia altro oltre le operazioni sintattiche di un computer digitale, nondimeno potrebbe darsi che gli stati mentali siano almeno stati computazionali e che i processi mentali siano processi computazionali che operano sulle strutture formali di questi stati mentali. è questa, infatti, a mio parere, la posizione maggiormente condivisa.
Non dico che la visione sia pienamente chiara, ma l’idea suona più o meno così: a un certo livello descrittivo i processi mentali sono sintattici; ci sono, per così dire, delle "frasi nella testa". Queste devono essere non in inglese o in cinese, ma, forse, nel "linguaggio del pensiero" (Fodor, 1975). Ora, come tutte le frasi, anche queste hanno una struttura sintattica e una semantica, o significato, e il problema della sintassi può essere separato dal problema della semantica. Il problema della semantica è: come acquisiscono un significato queste frasi nella testa? La questione può essere discussa indipendentemente da come il cervello funzioni nell’elaborare queste frasi; tipicamente si suppone che lavori come un computer, eseguendo operazioni di calcolo sulla struttura sintattica delle frasi nella testa.
Tanto per fare chiarezza sui termini, io chiamo Intelligenza artificiale forte la visione in cui tutto ciò che è necessario per avere una mente è avere un programma, Intelligenza artificiale debole la visione in cui processi cerebrali (e mentali) possono essere simulati con un computer, e cognitivismo, la visione in cui il cervello è un computer.
Questo articolo è sul cognitivismo, e sarà meglio spiegare fin dall’inizio ciò che lo motiva. Se si leggono libri sul cervello (per esempio Shepherd, 1983; oppure Kuffler e Nicholls, 1976) si trova una certa idea di ciò che accade nel cervello. Se si guarda a libri sulla computabilità (per esempio Boolos e Jeffrey, 1989) si trova un’idea della struttura logica della teoria della computabilità. Se poi ci si rivolge ai libri sulle scienze cognitive (per esempio Pylyshyn, 1985), essi sostengono che ciò che viene descritto nei libri sul cervello è in effetti la stessa cosa che viene descritta nei libri sulla computabilità. Da un punto di vista filosofico la cosa non mi convince e ho ormai imparato a seguire, almeno all’inizio di una ricerca, il mio istinto.
II. La Storia originaria
Desidero iniziare la discussione cercando di affermare con la massima chiarezza possibile perché il cognitivismo mi sia sembrato intuitivamente attraente. Esiste una storia della relazione tra l’intelligenza umana e la computazione che risale almeno fino al classico scritto di Turing (1950) e io credo che sia da porre lì il momento fondativo della visione cognitivista. Lo chiamerò la Storia originaria.
Iniziamo con due risultati di logica matematica: la tesi di Church-Turing (o equivalentemente, la tesi di Church) e il teorema di Turing. Per quanto ci riguarda, la tesi Church-Turing afferma che per ogni algoritmo esiste una macchina di Turing che può implementare quell’algoritmo. La tesi di Turing dice che esiste una macchina di Turing universale che può simulare qualunque macchina di Turing. Ora, se consideriamo insieme queste due affermazioni abbiamo come risultato che una macchina di Turing universale può implementare un algoritmo qualsiasi.
Cos’è che rende questo risultato così eccitante? Ciò che mandò i brividi su e giù per la spina dorsale di un’intera generazione di giovani ricercatori nel campo dell’intelligenza artificiale è il pensiero seguente: "Immagina che il cervello sia una macchina di Turing universale".
Ci sono delle valide ragioni per supporre che il cervello sia una macchina di Turing universale? Continuiamo con la Storia originaria.
E' chiaro che almeno alcune abilità mentali dell’uomo sono algoritmiche. Per esempio, io posso coscientemente eseguire una lunga divisione seguendo i passi di un algoritmo destinato alla risoluzione delle divisioni lunghe. Segue, inoltre, dalla tesi di Church-Turing e dal teorema di Turing che tutto ciò che un essere umano può fare fare con un algoritmo può essere fatto anche con una macchina di Turing universale. Per esempio posso implementare su un computer esattamente lo stesso algoritmo che uso per fare una divisione lunga a mano. In questo caso, come ha scritto Turing (1950), sia io, il computer umano, che il computer meccanico stiamo implementando lo stesso algoritmo; io lo sto facendo consciamente, il computer inconsciamente. Ora, sembra ragionevole supporre che ci siano moltissimi processi mentali che sono attivi nel mio cervello inconsciamente e che sono anche computazionali. Se le cose stanno così, allora potremmo scoprire come funziona il cervello simulando tutti quei processi su un computer. Proprio come è stata realizzata una simulazione al computer dei processi per fare lunghe divisioni, allo stesso modo potremmo costruire una simulazione al computer dei processi di comprensione linguistica, percezione visiva, categorizzazione e così via.
"Ma che dire della semantica? Dopo tutto, i programmi sono puramente sintattici". A questo proposito, un altro insieme di risultati logico-matematici entra in scena nella nostra storia.
Lo sviluppo della teoria della dimostrazione ha mostrato che, entro limiti ben definiti, le relazioni semantiche tra proposizioni possono essere interamente riflesse dalle relazioni sintattiche tra le frasi che esprimono quelle proposizioni. Ora, supponiamo che nella testa i contenuti mentali siano espressi sintatticamente, allora tutto ciò che dovremmo considerare per i processi mentali sarebbero i processi computazionali fra gli elementi sintattici nella testa. Se comprendiamo correttamente la teoria della dimostrazione, gli elementi semantici prenderanno cura di loro stessi; ed è quanto fanno i computer: implementano la teoria della dimostrazione.
Abbiamo perciò un programma di ricerca ben definito. Cerchiamo di scoprire i programmi implementati nel cervello programmando i computer per implementare programmi uguali. Mettiamo ciò in pratica portando il computer meccanico allo stesso livello di performance del computer umano (cioè che possa superare il test di Turing) e poi invitando gli psicologi a provare che i processi interni sono gli stessi in entrambi i tipi di computer.
Vorrei che il lettore tenesse in mente, leggendo le pagine che seguono, la Storia originaria come l’abbiamo descritta, notando in particolare il contrasto evidenziato da Turing fra l’implementazione cosciente del programma presso il computer umano e l’implementazione non cosciente dei programmi, sia essa del cervello o del computer meccanico; è da notare inoltre l’idea che sia possibile scoprire dei programmi che funzionano nel mondo naturale, esattamente gli stessi programmi che noi inseriamo nei nostri elaboratori meccanici.
Nei libri o articoli che sostengono il cognitivismo si trovano varie assunzioni comuni, spesso non dichiarate, ma non per questo meno pervasive.
1. Si assume spesso che l’unica alternativa all’idea che il cervello sia un computer digitale sia una certa forma di dualismo. L’idea è che, a meno che non si creda nell’esistenza di un’anima immortale come suggeriva Cartesio, si è costretti a credere che il cervello sia un computer digitale. Infatti spesso si ha l’impressione che l’affermazione secondo la quale il cervello è un meccanismo fisico che determina i nostri stati mentali e quella per cui il cervello equivale a un computer digitale non siano altro che la stessa cosa. L’idea, a livello retorico, è di costringere il lettore a pensare che o si trova d’accordo con ciò che sta leggendo oppure si rende protagonista di strane idee antiscientifiche. Recentemente il campo è stato allargato un po’ e si è accettata la possibilità che il cervello possa essere diverso dall’antiquato modello di computer di Von Neumann, ma piuttosto un tipo più sofisticato di elaboratore parallelo. Ancora oggi affermare che il cervello non è simile a un elaboratore equivale a rischiare la propria reputazione scientifica.
2. E' stato anche detto che interrogarsi a proposito della natura computazionale delle elaborazioni cerebrali è soltanto una semplice domanda empirica. Deve essere sottoposta a investigazione come per esempio è successo per dimostrare che il cuore è paragonabile a una pompa e che le foglie delle piante permettono la fotosintesi. Non c’è spazio per la logica spiccia né per la semplice analisi concettuale, questo perché stiamo parlando di materia strettamente scientifica. In effetti non credo che molti studiosi del campo riterrebbero che il titolo di questo scritto rimandi in alcun modo a una domanda di natura filosofica. "Il cervello è realmente un computer digitale?" non è una domanda filosofica più di quanto non lo sia "Il neurotrasmettitore delle giunzioni neuromuscolari è realmente acetilcolene?".
Anche persone che non hanno simpatia per il cognitivismo come Penrose e Dreyfus, sembrano trattare l’argomento come un semplice dato di fatto. Non sembrano preoccuparsi poi molto di chiarire esattamente quale asserzione stiano mettendo in dubbio. Ma la domanda che interessa me è: quali sono gli elementi del cervello che permettono di pensarlo come fosse un computer?
3. Un’altra prerogativa stilistica di questi scritti è l’astio e a volte persino la noncuranza con cui le domande fondamentali vengono evitate. Quali sono esattamente le funzioni anatomiche e fisiologiche che vengono discusse a proposito del cervello? Cos’è esattamente un computer digitale? E come dovrebbero connettersi fra loro le risposte a queste due domande? La procedura comune in questi libri e articoli è quella di fare alcune osservazioni a proposito degli 0 e degli 1, dare un riassunto della famosa tesi di Church e Turing e poi continuare elencando una serie di argomenti interessanti quali conquiste e fallimenti nel mondo dei computer. Leggendo questi scritti mi sono sorpreso nello scoprire che c’è un peculiare iato filosofico. Da un lato abbiamo un elegante insieme di risultati matematici che vanno dal teorema di Turing e dalle tesi di Church fino alla Teoria delle funzioni ricorsive. Dall’altro abbiamo un impressionante quantità di congegni elettronici che utilizziamo quotidianamente. Dal momento che abbiamo una matematica così avanzata e un’elettronica così efficace, supponiamo che in qualche modo qualcuno deve avere fatto il lavoro filosofico basilare di collegare la matematica all’elettronica. Ma per quanto ne so, posso dire che ciò non è accaduto. Al contrario, siamo in una situazione particolare dove c’è poco accordo teorico tra i professionisti su domande fondamentali quali: Cos’è esattamente un computer digitale? Cos’è esattamente un simbolo? Cos’è esattamente un processo computazionale? Sotto quali condizioni fisiche esattamente i due sistemi stanno implementando lo stesso programma?
III. La definizione di computazione
Dal momento che non c’è un accordo universale sulle domande fondamentali, credo sia meglio tornare indietro fino alle fonti, fino alle definizione originale data da Alan Turing. Secondo Turing, una macchina di Turing può eseguire certe operazioni elementari: può riscrivere uno 0 sul suo nastro come un 1, può riscrivere un 1 sul suo nastro come uno 0, può spostare il nastro di un passo a sinistra o può spostare il nastro di un passo a destra. è controllata da un programma di istruzioni e ogni istruzione specifica una condizione e un’azione da eseguire se la condizione è soddisfatta.
Questa è la definizione standard di computazione, ma, presa letteralmente, è almeno in parte fuorviante. Se voi aprite il vostro computer di casa nella maggior parte dei casi è poco probabile che troviate uno 0 o un 1 o un nastro. Ma non è questo in realtà il problema della definizione. Per scoprire se un oggetto è realmente un computer digitale, risulta che noi non dobbiamo cercare davvero uno 0 e un 1 ecc. Dobbiamo piuttosto cercare qualcosa che possiamo trattare, calcolare o che possa essere usato come funzionante a 0 e 1. Inoltre, per rendere la questione più complessa, c’è il fatto che questa macchina potrebbe essere fatta pressoché in qualsiasi modo. Come dice Johnson-Laird, "Essa potrebbe essere costituita da ingranaggi e leve come un vecchio calcolatore meccanico; potrebbe essere costituita da un sistema idraulico attraverso il quale scorre l’acqua; potrebbe essere costituita da transistor posti in un microcircuito attraverso cui passa la corrente elettrica; potrebbe essere eseguita anche dal cervello. Ognuna di queste macchine usa un diverso mezzo per rappresentare i simboli binari. Le posizioni degli ingranaggi, la presenza o l’assenza di acqua, la differenza di potenziale e forse gli impulsi nervosi" (Johnson-Laird, 1988, p. 39).
Osservazioni simili sono fatte dalla maggior parte delle persone che scrivono su questo argomento. Per esempio, Ned Block (Block, 1990), mostra come possiamo avere cancelli elettrici in cui l’1 e lo 0 sono assegnati rispettivamente a differenze di potenziale di 4 volt e di 7 volt. Così potremmo pensare che dobbiamo considerare i livelli di tensione. Ma Block dice che solo "convenzionalmente"1 è assegnato a un certo livello di tensione. La situazione diviene più sconcertante quando ci informa ulteriormente che non avremmo bisogno di usare l’elettricità, ma avremmo potuto usare un complesso sistema di gatti e di topi e di formaggio e creare i nostri cancelli in modo tale che il gatto starà in tensione al guinzaglio e aprirà tirando un cancello che possiamo trattare come se fosse uno 0 o un 1. Il punto su cui Block insiste è "l’irrilevanza della realizzazione dell’hardware per la descrizione computazionale. Questi cancelli lavorano in modi diversi ma essi sono nondimeno computazionalmente equivalenti" (Ivi, p. 260). Nell stesso filone, Phylyshyn dice che una sequenza computazionale può essere realizzata da "un gruppo di piccioni addestrati a beccare come una macchina di Turing!" (Phylyshn, 1985, p. 57).
Ma se tentiamo di prendere in seria considerazione l’idea che il cervello sia un computer digitale, otteniamo lo scomodo risultato di poter costruire un sistema che fa tutto quello che fa il cervello. Parlando computazionalmente, da questo punto di vista, si potrebbe ottenere un "cervello" che funzioni proprio come il mio o il vostro pur essendo costituito da cani, gatti e formaggio, dalle leve, dalle tubature, dai piccioni o da qualunque altra cosa a condizione che i due sistemi siano, nell’accezione di Block, "computazionalmente equivalenti". Servirebbe solo una terribile quantità di gatti, piccioni, tubature o qualunque altra cosa. I sostenitori del cognitivismo riportano questo risultato con autentico e manifesto piacere. Invece io penso che dovrebbero esserne preoccupati, e proverò a mostrare che si tratta solo della punta di un intero iceberg di problemi.
IV. Prima difficoltà: la sintassi non è intrinseca alla fisica
Perché i sostenitori del computazionalismo non temono le implicazioni della realizzabilità multipla? La risposta è che essi ritengono che sia tipico del valore funzionale che la stessa funzione ammetta realizzazioni multiple. In tale prospettiva i computer sono come carburatori o termostati. Proprio come i carburatori possono essere fatti di rame o di acciaio, allo stesso modo i computer possono essere fatti con una serie indefinita di materiali.
Ma c’è una differenza: le classi dei carburatori e dei termostati sono definite in termini di produzione di determinati effetti fisici. Questo è il motivo per cui, per esempio, nessuno dice che si possono realizzare carburatori con dei piccioni. Ma la classe dei computer è definita sintatticamente in termini di assegnazione di 0 e di 1. La realizzabilità multipla non è un conseguenza del fatto che lo stesso effetto fisico può essere ottenuto con diverse sostanze fisiche, quanto del fatto che le proprietà rilevanti sono puramente sintattiche. La costituzione fisica è irrilevante nella misura in cui ammette l’assegnazione di 0 e di 1 e il passaggio di stato tra di loro.
Ma tale dato ha due conseguenze che potrebbero rivelarsi disastrose:
1. Lo stesso principio che implica la realizzabilità multipla sembrerebbe implicare anche la realizzabilità universale. Se la computazione è definita in termini di assegnazione di sintassi allora ogni cosa potrebbe essere un computer digitale, perché ogni oggetto può avere sue attribuzioni sintattiche. Ogni cosa potrebbe essere descritta in termini di 0 e di 1.
2. Ancora peggio, la sintassi non è intrinseca alla fisica. L’attribuzione di proprietà sintattiche è sempre relativa a un agente o osservatore che tratta determinati fenomeni fisici come sintattici.
Ora, perché queste conseguenze sarebbero disastrose?
Dunque, noi volevamo sapere come funziona il cervello, e in particolare come produce fenomeni mentali. E dire che il cervello è un computer digitale come lo sono lo stomaco, il fegato, il cuore, il sistema solare e lo stato del Kansas non servirebbe a rispondere alla domanda. Il modello che avevamo era tale che noi avremmo scoperto qualcosa riguardo alle operazioni cerebrali in grado di mostrarci che esso è un computer. Volevamo sapere se non ci fosse qualche senso in cui il cervello fosse intrinsecamente un computer digitale, nello stesso modo in cui le foglie verdi intrinsecamente svolgono la fotosintesi, o il cuore intrinsecamente pompa sangue. Non siamo noi che, arbitrariamente o "convenzionalmente", assegniamo la parola "pompare" al cuore o "fotosintesi" alle foglie: c’è un dato di fatto vero e proprio. E ciò che ci chiedevamo è: "Esiste un elemento del cervello che lo rende un computer digitale?". Non è una risposta affermare che i cervelli sono computer digitali perché ogni cosa è un computer digitale.
Sulla base della definizione standard di computazione: Per ogni oggetto esiste una descrizione di quell’oggetto per cui in base a quella descrizione l’oggetto è un computer digitale. Per ogni programma esiste un oggetto sufficientemente complesso tale che ci sia almeno una descrizione dell’oggetto sulla base della quale l’oggetto implementa il programma. Così per esempio il muro dietro di me sta implementando in questo preciso momento il programma "Wordstar", perché esiste un modello di movimento delle molecole isomorfo rispetto alla struttura formale di "Wordstar". Ma se il muro sta implementando "Wordstar" allora se è un muro abbastanza grande ne segue che sta implementando qualsiasi programma e anche qualsiasi programma implementato nel cervello.
Penso che la principale ragione per cui i sostenitori del computazionalismo non considerano la realizzabilità multipla o universale un problema è che non la vedono come una conseguenza di un punto assai più centrale, cioè che "sintassi" non è il nome di una caratteristica fisica, come la massa o la gravità. Al contrario parlano di "motori sintattici" e persino di "motori semantici" come se un tale discorso fosse lo stesso dei motori a benzina o diesel, come se potesse essere soltanto una questione fattuale che il cervello o qualsiasi altra cosa sia un motore sintattico.
Credo sia possibile, con buona probabilità, bloccare il risultato della realizzabilità universale restringendo la nostra definizione di computazione. Di certo dovremmo rispettare il fatto che i programmatori e gli ingegneri la considerano come un ghiribizzo delle definizioni originarie di Turing e non come una reale caratteristica della computazione. Opere non pubblicate di Brian Smith, Vinod Goel e John Batali suggeriscono che una definizione più realistica enfatizzerà alcune caratteristiche come relazioni causali tra stati di programma, programmabilità e controllabilità del meccanismo, localizzazione nel mondo reale. Ma queste ulteriori restrizioni sulla definizione di computazione non ci aiutano in questa discussione perché il problema veramente centrale è che la sintassi è essenzialmente una nozione relativa all’osservatore. La realizzabilità multipla di processi computazionalmente equivalenti in differenti mezzi fisici era non solo un segno del fatto che i processi erano astratti, ma anche del fatto che non erano affatto intrinseci al sistema. Essi dipendevano da una interpretazione esterna. Stavamo cercando fatti che avrebbero reso i processi cerebrali computazionali. Ma dato il modo in cui abbiamo definito la computazione non ci potranno mai essere tali fatti. Non possiamo dire da un lato che è un computer digitale ogni oggetto cui possiamo assegnare una sintassi e presupporre dall’altro che ci sia una questione di fatto intrinseca alla sua operazione fisica che dipende dal fatto che un sistema naturale come il cervello sia o meno un computer digitale.
E se la parola "sintassi" sembra enigmatica, lo stesso punto può essere raggiunto senza essa. Infatti qualcuno potrebbe affermare che le nozioni di "sintassi" e "simboli" sono solo un modo di dire e ciò che ci interessa veramente è l’esistenza di sistemi di fenomeni fisici discreti e gli stati di transizione fra loro. In quest’ottica non abbiamo veramente bisogno di 0 e 1; sono solo dei diminutivi di comodo. Ma credo che ciò non serva. Uno stato fisico di un sistema è uno stato computazionale soltanto relativamente all’assegnazione a quello stato di un qualche ruolo computazionale, funzione o interpretazione. Lo stesso problema affiora senza 0 e 1 perché nozioni quali computazione, algoritmo e programma non danno il nome a caratteristiche intrinseche fisiche dei sistemi. Gli stati computazionali non sono scoperti all’interno della fisica, ma assegnati alla fisica.
Questo è un argomento diverso dall’Argomento della stanza cinese e avrei dovuto vederlo dieci anni fa, ma non è successo. L’Argomento della stanza cinese ha mostrato che la semantica non è intrinseca alla sintassi. Io ora sto dimostrando il fatto separato e differente che la sintassi non è intrinseca alla fisica. Ai fini della prima questione sto semplicemente supponendo che la caratterizzazione sintattica del computer non fosse problematica. Ma questo è un errore. Non c’è modo di scoprire che qualcosa è intrinsecamente un computer digitale perché la caratterizzazione di esso come un computer digitale è sempre relativa a un osservatore che assegna un’interpretazione sintattica alle pure caratteristiche fisiche del sistema. Allo stesso modo, applicato all’ipotesi del "linguaggio del pensiero", ciò ha come conseguenza che la tesi risulti incoerente. Non c’è modo di scoprire che ci sono, intrinsecamente, frasi sconosciute nella mente perché qualcosa è una frase solo in relazione a un qualche agente o utente che la usa come frase. Egualmente, applicata generalmente al modello computazionale, la caratterizzazione di un processo come computazionale è una caratterizzazione di un sistema fisico dall’esterno; e l’identificazione di un processo come computazionale non identifica una caratteristica intrinseca della fisica ma è essenzialmente una caratterizzazione dipendente dall’osservatore.
Questo punto deve essere compreso esattamente. Non sto dicendo che ci siano dei limiti a priori sui modelli che possiamo scoprire in natura. Potremmo senza dubbio scoprire un modello di eventi nel mio cervello che sia isomoro all’implementazione del programma "vi" su questo computer. Ma dire che qualcosa sta funzionando come un processo computazionale è dire qualcosa di più che un modello di eventi fisici sta avvenendo. Richiede l’assegnazione di una interpretazione computazionale da parte di qualche agente. Analogamente, potremmo scoprire in natura oggetti che abbiano all’incirca la stessa forma delle sedie e che potrebbero anche essere usati come sedie; ma non potremmo scoprire oggetti in natura che funzionino come sedie se non relativamente ad alcuni agenti che li considerano o li usano come sedie.
V. Seconda difficoltà: la fallacia dell’omuncolo è endemica nel cognitivismo
Così sembra di essere giunti a un problema. La sintassi non fa parte della fisica. Ciò porta al fatto che se la computazione è definita in modo sintattico, allora niente è di per sé un computer digitale solamente in virtù delle sue proprietà fisiche. C’è una strada che ci porti fuori da questo problema? Sì, esiste, ed è una strada che viene generalmente adottata nella scienza cognitiva, ma con essa si cade dalla padella alla brace. La maggior parte degli studi che ho visto sulla teoria computazionale della mente riporta diverse varianti della fallacia dell’omuncolo. L’idea è sempre quella di trattare il cervello come se ci fosse al suo interno un qualche agente che lo utilizza al fine di compiere un calcolo. Un tipico caso è quello di David Marr (1982) che descrive la visione come un procedimento che parte da una rete visiva bidimensionale sulla retina e arriva a una descrizione tridimensionale del mondo esterno, come risultato del sistema visivo. La difficoltà è: chi sta leggendo la descrizione? Infatti, nel libro di Marr e in altri studi simili sul tema, sembra quasi di dover invocare un omuncolo all’interno del sistema che permetta di trattare queste operazioni come genuinamente computazionali.
Molti scrittori ritengono che la fallacia dell’omuncolo non sia realmente un problema, perché, dicendolo con Dennett (1978), costoro credono che l’omuncolo possa essere "scaricato". L’idea è questa: visto che le operazioni computazionali del computer possono essere analizzate in unità che sono progressivamente sempre più semplici, fino ad arrivare al semplice circuito bistabile, configurazioni tipo "sì-no" o "1-0", sembrerebbe che gli omuncoli del livello più alto si scarichino in omunculi progressivamente sempre più stupidi, fino ad arrivare al livello basilare di un semplice circuito bistabile che non richiede nessun tipo di omuncolo. L’idea, in breve, è che una scomposizione ricorsiva eliminerà gli omuncoli.
Mi ci è voluto molto tempo per comprendere a cosa queste persone stessero riferendosi, così in caso qualcuno si senta sconcertato per lo stesso motivo, lo spiegherò in dettaglio con un esempio. Supponiamo di avere un computer che moltiplichi sei volte otto per aver quarantotto. Ora ci si chiede: "Come fa?". Bene, la risposta potrebbe essere che addiziona il numero sei a se stesso per sette volte. Ma se ci si chiede: "Ma in che modo addiziona il numero sei a se stesso per sette volte?", la risposta è che innanzitutto il computer converte tutti questi numeri in informazione binaria e poi applica un semplice algoritmo per operare in sistema binario fino a che si arriva al livello basilare nel quale le istruzioni sono nella forma: "Scrivi uno zero, cancella un uno". Così per esempio al livello massimo il nostro omuncolo intelligente dice: "Io so come moltiplicare sei volte otto per avere quarantotto". Ma al livello inferiore esso è rimpiazzato da un più stupido omuncolo che dice: "Io non so attualmente come fare la moltiplicazione, ma posso fare l’addizione". Sotto ne abbiamo di ancora più stupidi che dicono: "Non sappiamo come fare addizione e moltiplicazione, ma sappiamo come convertire il sistema decimale in binario". Più in basso altri ancora più stupidi dicono: "Non sappiamo niente in materia, ma sappiamo come si opera in simboli binari". Al livello base c’è un gruppo compatto di omuncoli che dice solo: "Zero-uno, zero-uno". Tutti i livelli più alti si riducono così a quello di base. Solamente il livello base però esiste realmente; i livelli superiori consistono tutti solo in come-se.
Vari autori (Haugeland, 1981; Block, 1990) descrivono questa configurazione dicendo che il sistema è un meccanismo sintattico che conduce a un meccanismo semantico. Ma dobbiamo ancora affrontare il problema che avevamo prima: Quali fattori intrinseci al sistema lo rendono sintattico? Quali fattori riguardanti il livello base od ogni altro livello fanno tali operazioni tra zero e uno? Senza un omuncolo che si trova fuori dalla scomposizione ricorsiva, non possiamo avere ancora una sintassi con cui operare. Il tentativo di eliminare la fallacia dell’omuncolo attraverso la scomposizione ricorsiva è erroneo, perché l’unico modo per avere una sintassi intrinseca alla fisica è porre l’omuncolo nella fisica.
C’è un aspetto affascinante riguardo a tutto ciò. I cognitivisti ammettono volentieri che i livelli più alti della computazione, per esempio "moltiplica 6 volte 8", sono relativi all’osservatore; non c’è nulla in essi che corrisponda direttamente alla moltiplicazione; tutto è nell’occhio dell’omuncolo/osservatore. Ma essi non vogliono riconoscere tale proprietà ai livelli più bassi. Il circuito elettronico, essi ammettono, non moltiplica davvero 6x8 come tale, esso nella realtà si serve di "zeri" e "uni" e queste operazioni, per così dire, portano alla moltiplicazione. Ma ammettere che i livelli più alti della computazione non sono intrinseci alle scienze naturali è già ammettere che neppure i livelli più bassi lo sono. Ecco dunque che la fallacia dell’omuncolo è ancora con noi.
Per i computer del tipo che puoi comprare al negozio, non c’è problema di alcun omuncolo, ciascun utente reale diventa l’omuncolo in questione. Ma se supponiamo che il cervello sia un computer digitale, stiamo ancora di fronte alla domanda: "E chi è l’utente?". Tipiche domande da omuncolo nelle scienze cognitive sono le seguenti: "Come calcola la forma dall’ombreggiatura un sistema visivo? Come calcola la distanza di un oggetto dalla misura dell’immagine impressa nella retina?". Una domanda parallela potrebbe essere: "Come calcolano i chiodi la distanza che percorrono nell’asse dall’impatto del martello e dalla densità del legno?". E la risposta è la stessa in ambedue i tipi di caso: se stiamo parlando di come il sistema lavora intrinsecamente né i chiodi né il sistema visivo calcolano un bel niente. Noi, come gli omuncoli esterni, potremmo descriverli computazionalmente ed è spesso utile far così. Ma non si comprenderebbe il meccanismo del martellare col supporre che i chiodi stiano in qualche modo intrinsecamente calcolando gli algoritmi del martellamento e non si capirebbe il meccanismo della visione col postulare che il sistema stia calcolando, per esempio, la forma a partire dall’algoritmo dell’ombra che essa proietta.
VI. Terza difficoltà: la sintassi non ha poteri causali
Nelle scienze naturali alcuni tipi di spiegazioni precisano meccanismi la cui funzione causale nella produzione di fenomeni resta da giustificare. Ciò è particolarmente diffuso nelle scienze biologiche. Si pensi alla teoria dei germi patogeni, al caso della fotosintesi, alla teoria dei tratti ereditari basata sul Dna e perfino alla teoria darwiniana della selezione naturale. In ciascun caso viene stabilito un meccanismo causale e in ciascun caso tale specificazione dà una spiegazione dei risultati del meccanismo. Ora se si torna indietro e si considera la Storia originaria appare chiaro che la spiegazione promessa dal cognitivismo è di questo tipo. I meccanismi grazie ai quali i processi mentali producono conoscenze si ipotizza siano computazionali e con lo specificare i programmi avremo specificato le cause della cognizione. Un aspetto positivo di questo programma di ricerca, spesso sottolineato, è che non abbiamo bisogno di conoscere i dettagli del funzionamento del cervello per spiegare la cognizione. I processi cerebrali forniscono solo la macchina esecutrice dei programmi cognitivi, ma il livello del programma è quello a cui le spiegazioni cognitive effettive vengono date. Secondo la classificazione standard stabilita, per esempio, da Newell, ci sono tre livelli di spiegazione: struttura, programma e intenzionalità (Newell chiama questo ultimo livello il livello della conoscenza) e il contributo particolare delle scienze cognitive è reso al livello del programma.
Ma se quanto ho sostenuto finora è corretto, allora c’è qualcosa di sospetto nell’intero progetto. Finora ho pensato che, in quanto spiegazione causale, la teoria dei cognitivisti fosse quantomeno falsa, ma ora sto avendo difficoltà perfino a formulare una versione che sia coerente con l’idea per cui essa potrebbe essere una tesi empirica tout court. La tesi è che ci siano una gran quantità di simboli che vengono manipolati nel cervello, "zeri" e "uni" che balenano attraverso il cervello alla velocità della luce, invisibili non solo ad occhio nudo, ma perfino ai microscopi elettronici più potenti e che sia ciò a causare la cognizione. Ma la difficoltà sta nel fatto che "zeri" ed "uni" non hanno alcun potere causale poiché essi non esistono nemmeno se non negli occhi dell’osservatore. Il programma implementato non ha altri poteri causali che quelli del mezzo che lo implementa giacché il programma non ha esistenza reale, non una propria ontologia aldilà di quella che gli conferisce il mezzo che lo implementa. Parlando in termini materiali non esiste qualcosa come un "livello programma" autonomo.
Ciò lo si può capire tornando alla Storia originaria e ricordando la differenza che c’è tra il computer meccanico e la macchina di Turing umana. Nella macchina di Turing umana c’è effettivamente un livello programma intrinseco al sistema ed esso risulta funzionante in modo causale a quel livello nel convertire input in output. Ciò avviene perché il soggetto umano sta seguendo in modo consapevole le regole per compiere una determinata computazione, il che consente di spiegare in modo causale la sua operazione. Ma quando programmiamo il computer meccanico affinché compia la medesima computazione, l’assegnazione di una interpretazione computazionale è ora relativa a noi, omuncoli esterni. E non c’è più un livello di causa intenzionale intrinseco al sistema. Il computer umano segue consapevolmente delle regole, e questo spiega il suo comportamento, ma il computer meccanico, alla lettera, non segue nessuna regola. è ideato per comportarsi esattamente come se dovesse seguire delle regole, e solo questo è rilevante ai fini pratici o commerciali. Adesso il cognitivismo ci rivela che il cervello funziona come un computer commerciale e questo causa la cognizione. Ma senza un omuncolo, sia il computer commerciale che il cervello sono solo modelli e i modelli non hanno capacità causali oltre quelle dei media che li implementano. Così sembra che non ci sia un modo affinché il cognitivismo possa dare una spiegazione causale della cognizione.
Dal mio punto di vista tuttavia rimane aperto un rompicapo. Chiunque lavori con i computer sa, anche casualmente, che spesso diamo spiegazioni causali che si richiamano al programma. Per esempio, possiamo dire che quando batto questo tasto ottengo risultati simili, perché la macchina sta eseguendo il software "vi" piuttosto che l’"emacs", il che appare come una spiegazione causale ordinata. Così il rompicapo è il seguente: come conciliamo il fatto che la sintassi, come tale, non ha capacità causali con il fatto che noi diamo spiegazioni causali che fanno appello ai programmi? E, ancor più importante, questo tipo di spiegazioni forniranno un modello appropriato per il cognitivismo? Salveranno il cognitivismo? Potremmo, per esempio, mantenere l’analogia con I termostati, sottolineando che proprio come la nozione di "termostato" compare in spiegazioni causali indipendentemente da alcun riferimento alla sua realizzazione fisica, così la nozione di "programma" potrebbe essere esplicativa e altrettanto indipendente dalla fisica.
Per esaminare questo rompicapo tentiamo di fare il punto sul cognitivismo estendendo la Storia originaria per mostrare in che modo le procedure investigative del cognitivista lavorano nella ricerca quotidiana. L’idea che si ha in genere è di programmare un computer commerciale così che simuli qualche capacità cognitiva, come la visione o il linguaggio. Poi, se otteniamo una buona simulazione, una che ci dia almeno l’equivalenza di Turing, ipotizziamo che il computer cerebrale faccia girare lo stesso programma del computer commerciale, e per testare l’ipotesi, cerchiamo un’evidenza psicologica indiretta, come i tempi di reazione. Così sembra che possiamo spiegare causalmente il comportamento del computer cerebrale citando il programma esattamente nello stesso senso in cui possiamo spiegare il comportamento del computer commerciale. Ora, che cosa è inesatto in tutto ciò? Non sembra forse un programma di ricerca scientifico perfettamente legittimo? Sappiamo che la trasformazione del computer commerciale di input in output è spiegata da un programma e nel cervello scopriamo lo stesso programma, perciò abbiamo una spiegazione causale.
Due cose dovrebbero preoccuparci immediatamente di questo programma. Primo, non accetteremmo mai questo tipo di spiegazione per nessuna funzione cerebrale di cui abbiamo capito il funzionamento a un livello neurobiologico. Secondo, non accetteremmo questo programma per altri tipi di sistema che possiamo simulare computazionalmente. Per illustrare il primo punto, riferiamoci per esempio al famoso resoconto What the Frog’s eye tells the Frogs Brain [Che cosa dice l’occhio della rana al cervello della rana] (Lettvin et al., 1959 in McCulloch, 1965). Il resoconto è dato interamente in termini dell’anatomia e della fisiologia del sistema nervoso di una rana. Un tipico passo scelto a caso dice:
1. Rivelatori di contrasto sostenuto
Un assone non ricoperto di mielina di questo gruppo non risponde quando l’illuminazione generale è accesa o spenta. Se il bordo netto di un oggetto, che sia più chiaro o più scuro dello sfondo, si muove nel suo campo e si ferma, l’assone scarica prontamente e continua a scaricare, non importa quale sia la forma del bordo né se l’oggetto sia più piccolo o più grande del campo recettivo" (Ivi, p. 239).
Io non ho mai sentito nessuno dire che tutto questo fosse soltanto l’implementazione dell’hardware, e che essi avrebbero dovuto soltanto individuare quale programma la rana stesse implementando. Io non dubito che si possa trovare una simulazione al computer dei "rilevatori d’insetti" della rana. Forse qualcuno l’ha fatto. Ma noi tutti sappiamo che una volta compreso come il sistema visivo di una rana lavora realmente, il "livello computazionale" divenga irrilevante.
Per illustrare il secondo punto, consideriamo le simulazioni di altri tipi di sistemi. Io, per esempio, sto digitando queste parole su una macchina che simula il comportamento di una desueta macchina da scrivere meccanica. Mentre le simulazioni continuano, il programma di scrittura simula una macchina da scrivere meglio di quanto ogni programma di Intelligenza artificiale che io conosco possa simulare il cervello. Ma nessuna persona sana pensa: "Ormai è da molto tempo che sappiamo come funzionano le macchine da scrivere; sono implementazioni dei programmi di scrittura". Semplicemente, in generale le simulazioni computazionali non forniscono spiegazioni causali dei fenomeni simulati.
Allora cosa ne consegue? Noi, in generale, non supponiamo che le simulazioni dei processi cerebrali ci diano una qualche spiegazione causale in sostituzione o in aggiunta a un resoconto neurobiologico che spieghi come il cervello funziona realmente. E, in generale, non prendiamo in considerazione la frase "X è una simulazione computazionale di Y" per nominare una relazione simmetrica. Cioè, non supponiamo che poiché il computer simula una macchina da scrivere, allora la macchina da scrivere simula un computer. Non supponiamo che poiché un programma di previsione del tempo simula un uragano allora la spiegazione causale del comportamento dell’ uragano sia fornita dal programma. Ma allora perché dovremmo fare un’eccezione a questi principi quando siu tratta di processi cerebrali sconosciuti? Ci sono delle buone ragioni per fare un’eccezione? E che tipo di spiegazione causale è una spiegazione che cita un programma formale?
Qui, credo, ci sia la soluzione al nostro puzzle. Una volta tolto l’omuncolo dal sistema, si rimane soli con una configurazione di eventi a cui qualcuno dall’esterno può attribuire un’interpretazione computazionale. Ora l’unico senso nel quale la specificazione della configurazione si fornisce da sola di una spiegazione causale è che se si sa che una certa configurazione esiste in un sistema allora si sa anche che c’è una causa dello schema. Si possono quindi, per esempio, predire fasi successive da fasi precedenti. Inoltre, se si sa già che il sistema è stato programmato da un omuncolo esterno, si possono fornire spiegazioni che fanno riferimento all’intenzionalità degli omuncoli. Si può dire, per esempio, questa macchina sta facendo quel che deve perché sta eseguendo il programma "vi". è come spiegare che questo libro inizia con un brano che riguarda famiglie felici e non contiene alcun lungo brano che tratta di un gruppo di fratelli, perché è il libro di Tolstoj Anna Karenina non I fratelli Karamazov di Dostoevskij. Ma non si può spiegare un sistema fisico come una macchina da scrivere o un cervello identificando una configurazione che ce lo mostra con la sua simulazione computazionale, perché l’esistenza della configurazione non ci spiega in che modo il sistema lavora realmente in quanto sistema fisico. Nel caso della cognizione la configurazione è a un livello troppo elevato di astrazione per spiegare eventi mentali concreti (e perciò fisici) quali una percezione visiva o la comprensione di una frase.
Ora, penso sia ovvio che non possiamo spiegare come funzionano una macchina da scrivere o degli uragani individuando delle configurazioni formali che condividono con le loro simulazioni computazionali. Perché non è ovvio nel caso del cervello?
Così arriviamo alla seconda parte della nostra soluzione del rompicapo. Facendo il punto sul cognitivismo stavamo supponendo tacitamente che il cervello potesse implementare algoritmi per la cognizione nello stesso senso in cui il computer umano di Turing e il suo computer meccanico implementano algoritmi. Ma è precisamente questa assunzione che abbiamo visto essere erronea. Per rendercene conto chiedamoci cosa succede quando un sistema implementa un algoritmo. Nel computer umano il sistema svolge consapevolmente i passi dell’algoritmo, quindi il processo è sia causale che logico; logico perché l’algoritmo fornisce un insieme di regole per far derivare i simboli dell’output dai simboli dell’input; causale, perché l’agente sta facendo uno sforzo cosciente per svolgere i passi dell’algoritmo. Similmente, nel caso del computer meccanico l’intero sistema include un omuncolo esterno, e con l’omuncolo il sistema è sia causale che logico. Logico perché l’omuncolo fornisce un’interpretazione al sistema della macchina, e causale perché l’hardware della macchina lo causa per avanzare nel processo. Ma tali condizioni non possono essere mescolate con le operazioni neurofisiologiche cerebrali che sono brute, cieche e inconsce. Nel computer cerebrale non c’è un’implementazione intenzionale e conscia dell’algoritmo come invece avviene nel computer umano, ma non ci può essere nessuna implementazione inconscia come avviene invece nel computer meccanico perché ciò richiederebbe un omuncolo esterno per associare un’interpretazione computazionale a degli eventi fisici. Il massimo che possiamo fare è ritrovare nel cervello una configurazione di eventi che sia formalmente simile al programma implementato dal computer meccanico, ma la configurazione da sola non ha la capacità di nominarsi da sola né, quindi, di spiegare nulla.
Insomma, il fatto che l’attribuzione di sintassi non individui alcun potere causale risulta fatale all’esigenza del programma di fornire una spiegazione causale della cognizione. Per analizzare le conseguenze di ciò, ricordiamoci di come appaiono in realtà le spiegazioni dei cognitivisti. Spiegazioni come quella di Chomsky della sintassi dei linguaggi naturali o quella di Marr del processo visivo funzionano stabilendo un insieme di regole seguendo le quali un input simbolico si trasforma in un output simbolico. Nel caso di Chomsky, per esempio, un singolo simbolo input, S, viene trasformato in uno qualsiasi dei potenziali numeri infiniti di frasi mediante l’applicazione ripetuta di un insieme di regole sintattiche. Nel caso di Marr, le rappresentazioni di vettore visivo bidimensionale vengono trasformate in "descrizioni" tridimensionali del mondo seguendo alcuni algoritmi. La distinzione tripartita di Marr tra compito computazionale, soluzione algoritmica del compito e implementazione hardware dell’algoritmo, è diventata famosa (con il nome di distinzione di Newell) come un’asserzione del modello generale della spiegazione.
Se queste spiegazioni vengono considerate ingenuamente, come faccio io, è meglio pensarle come se fosse soltanto un uomo solo in una stanza che procede attraverso una serie di passi seguendo delle regole al fine di formare frasi in inglese o descrizioni tridimensionali, secondo il caso. Ma ora chiediamoci quali eventi del mondo reale si suppone corrispondano a queste spiegazioni come fossero applicate al cervello. Nel caso di Chomsky, per esempio, non siamo tenuti a pensare che l’agente consciamente attraversi una serie di ripetute applicazioni di regole; e neppure siamo tenuti a pensare che sta percorrendo la sua strada inconsciamente attraverso una serie di regole. Piuttosto le regole sono "computazionali" e il cervello esegue le computazioni. Ma cosa significa ciò? Beh, ci si aspetta da noi che pensiamo non sia nulla di diverso da un computer commerciale. Quell’oggetto che corrisponde all’attribuzione a un computer commerciale da parte di un certo insieme di regole lo si ritiene corrispondere all’attribuzione al cervello da parte di quelle stesse regole. Ma abbiamo visto che nel computer commerciale l’attribuzione è sempre relativa all’osservatore, l’attribuzione è relativa a un omuncolo che assegna interpretazioni computazionali agli stati dell’hardware. Senza l’omuncolo non c’è computazione, ma solo un circuito elettronico. Ma allora come facciamo ad avere computazione nel cervello senza un omuncolo? Per quanto ne so né Chomsky né Marr hanno mai sollevato la questione né pensato che si potesse dare una simile questione. Ma senza un omuncolo non c’è un potere esplicativo alla postulazione delle condizioni del programma. C’è solo un meccanismo fisico, il cervello, con i suoi reali livelli causali di descrizione fisici e fisico/mentali.
VII. Quarta difficoltà: il cervello non elabora informazioni
In questa sezione tratto finalmente ciò che penso sia, per alcuni versi, la questione centrale di tutto il discorso, la questione dell’elaborazione delle informazioni. Molti di coloro che si situano nel paradigma scientifico della "scienza cognitiva" riterranno buona parte della mia discussione semplicemente irrilevante e argomenteranno contro di essa come segue:
"C’è una differenza tra il cervello e tutti questi altri sistemi che hai descritto finora, e questa differenza spiega perché una simulazione computazionale nel caso degli altri sistemi sia una mera simulazione mentre nel caso del cervello duplica effettivamente le proprietà funzionali del cervello, e non le modellizza solamente. La ragione è che il cervello, diversamente da questi altri sistemi, è un sistema che elabora informazioni. E questa caratteristica del cervello è, secondo le tue parole, "intrinseca". è un dato di fatto della biologia che le funzioni cerebrali svolgano il processo informativo, e dal momento che possiamo anche processare le stesse informazioni computazionalmente, i modelli computazionali dei processi cerebrali hanno un ruolo del tutto differente da quello dei modelli computazionali del tempo, per esempio".
Ecco allora una ben definita questione della ricerca: "Le procedure computazionali con cui il cervello elabora l’informazione sono le stesse procedure con cui i computer elaborano la medesima informazione?".
Quanto ho appena immaginato che un oppositore dicesse rappresenta uno dei peggiori errori della scienza cognitiva. L’errore è di presupporre che i cervelli elaborino informazioni nello stesso modo in cui i computer sono usati per elaborare informazioni. Per vedere che è un errore confrontiamo quel che accade in un computer con quel che accade in un cervello. Nel caso del computer, un agente esterno codifica delle informazioni in una forma tale da poter essere processata dai circuiti di un computer. Ovvero, lui o lei mettono a punto una realizzazione sintattica dell’informazione che il computer può implementare, per esempio, in differenti livelli di voltaggio. Il computer, quindi, attraversa una serie di passaggi elettrici che l’agente esterno può interpretare sia sintatticamente che semanticamente, anche se, ovviamente, l’hardware non ha sintassi o semantica intrinseche: è tutto nell’occhio dell’osservatore. E la fisica non ha importanza, a condizione che si possa arrivare ad essa per implementare l’algoritmo. Infine, l’output viene prodotto nella forma di un fenomeno fisico che un osservatore può interpretare come simbolo con una sintassi e una semantica.
Confrontiamo quanto sopra con il cervello. Nel caso del cervello nessuno dei processi neurobiologici principali sono relativi all’osservatore (sebbene, ovviamente, possano essere descritti dal punto di vista di un osservatore, come ogni altra cosa) e la specificità della neurofisiologia conta moltissimo. Per chiarire tale differenza facciamo un esempio. Supponete che io veda una macchina venire verso di me. Un modello computazionale standard della visione prenderà l’informazione dalla mia retina e infine emetterà la frase: "C’è una macchina che viene verso di me". Tuttavia non è questo ciò che accade nella realtà biologica. In biologia una serie concreta e determinata di reazioni elettrochimiche vengono prodotte dall’arrivo dei fotoni sulle cellule fotorecettrici della mia retina, e l’intero processo si risolve alla fine in un’esperienza visiva concreta. La realtà biologica non è quella di un mucchio di parole o simboli prodotti dal sistema visivo quanto piuttosto un evento visivo cosciente, determinato e concreto; questa è la vera esperienza visiva. Ora, l’evento visivo concreto è determinato e concreto quanto lo è un uragano o la digestione di un pasto. Noi possiamo, con il computer, creare un modello di elaborazione dell’informazione di quell’evento o della sua produzione, così come possiamo creare un modello per il tempo, per la digestione o per qualunque altro fenomeno, ma i fenomeni di per se stessi non sono sistemi di elaborazione dell’informazione.
In breve, l’elaborazione dell’informazione nel senso usato nelle scienze cognitive è un concettto con un livello di astrazione troppo elevato per catturare la concreta realtà biologica dell’intenzionalità intrinseca. L’"informazione" nel cervello è sempre relativa a una qualche modalità. è specifica per il pensiero, per la visione, l’udito o il tatto, per esempio. Il livello di elaborazione dell’informazione quale è descritto nel modello computazionale della cognizione delle scienze cognitive, d’altra parte, è semplicemente il fatto di ricevere un insieme di simboli come output in risposta a un insieme di simboli immessi come input.
Noi siamo impossibilitati a cogliere questa differenza per il fatto che la stessa frase, "Vedo una macchina venire verso di me", può essere usata per registrare sia l’intenzionalità della visione che l’output del modello computazionale della visione. Ma ciò non dovrebbe impedirci di vedere che l’esperienza visiva è un evento concreto ed è prodotto nel cervello da determinati processi biologici ed elettrochimici. Confondere tali eventi e processi con la manipolazione di simboli formali equivale a confondere la realtà con il suo modello. Il punto centrale di questa parte del discorso è che usando il termine "informazione" nell’accezione usata nelle scienze cognitive è semplicemente falso dire che il cervello è un dispositivo per elaborare informazioni.
VIII. Indice della discussione
Questa breve discussione ha una semplice struttura logica che ora vado ad esporre:
Nella definizione standard, la computazione è definita sintatticamente in termini di manipolazione di simboli.
Ma sintassi e simboli non sono definiti in termini di fisica. Sebbene le occorrenze dei simboli siano sempre occorrenze fisiche, "simbolo" e "stesso simbolo" non sono definiti in termini fisici. In breve, la sintassi non è connessa intrinsecamente alla fisica.
La conseguenza di ciò è che la computazione non è stata scoperta con la fisica ma ad essa è stata attribuita. Alcuni fenomeni fisici sono attribuiti o usati o programmati o interpretati sintatticamente. La sintassi e i simboli sono relativi all’osservatore.
Ne consegue che non è possibile "scoprire" che il cervello o qualsiasi altra cosa sia intrinsecamente un computer digitale, sebbene sia possibile attribuirgli un’interpretazione computazionale così com’è possibile per qualsiasi altra cosa. La questione non è che l’affermazione: "Il cervello è un computer digitale" sia falsa, ma piuttosto che non raggiunga un livello di falsità. Non ha un senso chiaro. Il mio discorso sarà mal interpretato se si crede che io stia argomentando sul fatto che sia semplicemente falso che il cervello sia un computer digitale. La domanda "Il cervello è un computer digitale?" è mal posta come le domande "è un abaco?", "è un libro?", "è un insieme di simboli?" o "è un insieme di formule matematiche?".
Alcuni sistemi fisici facilitano l’uso computazionale molto meglio di altri. Per questo noi li costruiamo, li programmiamo e li usiamo. In tali casi noi siamo l’omuncolo nel sistema che interpreta i fenomeni fisici sia in termini sintattici che semantici.
Ma le spiegazioni causali che diamo non citano proprietà causali diverse da quelle fisiche dell’implementazione e dell’intenzionalità dell’omuncolo.
La via d’uscita standard, sebbene tacita, è di affidarsi alla fallacia dell’omuncolo. La fallacia dell’omuncolo è endemica ai modelli computazionali di cognizione e non può essere rimossa dagli argomenti di scomposizione ricorsiva standard. Questi ultimi affrontano una questione diversa.
Non possiamo evitare i risultati precedenti supponendo che il cervello "elabori informazioni". Il cervello, per quanto riguarda le operazioni intrinseche, non elabora informazioni. è un organo biologico specifico e i suoi processi neurobiologici specifici producono forme specifiche di intenzionalità. Nel cervello, intrinsecamente, avvengono processi neurobiologici e qualche volta questi producono consapevolezza. Ma qui finisce la storia.
BRANI ANTOLOGICI:
* Che cos'è la coscienza?
"La coscienza consiste in una serie di stati e processi soggettivi. Essi sono stati di consapevolezza di sé, interiori, qualitativi e individuali. La coscienza è allora quella cosa che comincia ad apparire al mattino, quando dallo stato di sogno e di sonno passiamo allo stato di veglia e permane per tutta la durata del giorno fino a sera, quando, tornando a dormire, diventiamo incoscienti. Questo è per me il significato del termine "coscienza"".
[da John Searle, "Mente, coscienza, cervello: un problema ontologico", in Eddy Carli (a cura di), Cervelli che parlano, Bruno Mondadori, Milano, 1997, pag. 185]
* La coscienza come proprietà "emergente"
"La coscienza è una proprietà di un sistema causalmente emergente. Il particolare, è una proprietà emergente di determinati sistemi di neuroni nello stesso senso in cui la solidità e la liquidità sono proprietà emergenti di sistemi di molecole: la sua esistenza, di fatto, non può essere spiegata senza fare riferimento alle interazioni causali che, al microlivello, hanno luogo tra i componenti del cervello, né può essere dedotta o calcolata riferendosi unicamente alla struttura fisica dei neuroni"
[da John Searle, La riscoperta della mente, Bollati Boringhieri, Torino, 1994, pag. 127]
"La coscienza è una proprietà di alto livello, o emergente, del cervello nello stesso modo in cui la solidità è una proprietà emergente delle molecole di H2O quando assumono la struttura di un reticolo (ghiaccio), o la liquidità è una loro proprietà emergente quando esse, per così dire, ruzzolano le une sulle altre in tutte le direzioni (acqua)".
[da John Searle, La riscoperta della mente, cit., pag. 30]
"La coscienza è una proprietà causalmente emergente del comportamento dei neuroni: come tale, dovrebbe essere causalmente riducibile ai processi cerebrali. Purtroppo nemmeno appellandoci a una scienza perfetta del cervello saremmo in grado di sottoporre la coscienza a una riduzione ontologica analoga a quella operata dalla scienza contemporanea sul calore, la solidità, i colori o il suono".
[da John Searle, La riscoperta della mente, cit., pag. 131]
* Il problema mente-corpo
"Come può un'esperienza cosciente come il vostro dolore esistere in un mondo interamente composto di particelle fisiche, e come possono certe particelle fisiche presumibilmente del vostro cervello, causare esperienze mentali?". E in maniera complementare: "Come possono gli stati mentali di coscienza, non sostanziali, non fisici, causare qualcosa nel mondo fisico? Come può la vostra intenzione, che non è parte del mondo fisico, causare il movimento del vostro braccio?".
[da John Searle, La mente, Cortina, Milano, 2006, pag. 5]
"Come avviene che qualcosa di corporeo causi qualcosa di mentale? Come avviene che qualcosa di mentale causi qualcosa di corporeo?".
[da John Searle, La mente, cit., pag. 16]
"Come è mai possibile che processi fisici causino processi mentali?" E reciprocamente: "Come può qualcosa di così etereo e immateriale come i processi mentali avere un qualche effetto fisico sul mondo fisico?".
[da John Searle, La mente, cit., pag. 175]
* 1. Introduzione
* 2. Una critica alle teorie tradizionali della filosofia della mente
* 3. «Naturalizzare» la mente
* 4. Costruire la mente?
* 5. Il problema della natura delle rappresentazioni mentali
1. Introduzione
Il naturalismo biologico di John Searle costituisce un approccio al problema dei rapporti tra mente e cervello innovativo rispetto a quelli tradizionali, costituiti da dualismo e materialismo nelle loro molteplici versioni. Egli muove, infatti, da una critica a questi approcci che lo porta a sostenere che «la filosofia della mente si distingue dagli altri ambiti filosofici per il fatto che tutte le sue teorie più famose sono false»: il loro principale limite è l'incapacità di conciliare fisico e mentale, cervello e mente, senza incorrere in una serie di gravi errori: il materialismo nega l'esistenza del mentale o lo riduce al fisico, mentre il dualismo ne fa due categorie ontologicamente distinte e dunque inconciliabili. L'obiettivo di Searle è invece quello di mostrare come la mente sia un fenomeno biologico al pari della fotosintesi o della digestione e come essa, pur essendo irriducibile a stati cerebrali, ha specifici e importanti rapporti causali con essi.
2. Una critica alle teorie tradizionali della filosofia della mente
Searle ritiene che ciò che invalida gli approcci tradizionali, tanto materialistici quanto dualistici, è l'assunzione dello «stesso insieme di categorie ereditate dalla storia per la descrizione dei fenomeni mentali, in particolare della coscienza e, con esse, un certo insieme di assunzioni su come la coscienza e gli altri fenomeni mentali entrino in relazione tra loro e con il resto del mondo»: le categorie cui fa riferimento sono quelle del fisico e del mentale e le assunzioni erronee alla base di questi approcci consistono nel sostenere una netta distinzione tra fisico e mentale, per cui essi devono escludersi reciprocamente. Il problema mente-corpo nasce proprio da questo modo di vedere: se mentale e fisico non hanno nulla a che vedere l'uno con l'altro, come è possibile che da particelle fisiche possano avere origine «esperienze mentali»? E al contrario: come può il mentale agire sul fisico?
2.1. Contro il dualismo
Searle fa risalire questo modo di impostare il problema a Cartesio: egli, infatti, afferma che il mondo è costituito da due sostanze, res cogitans e res extensa, tra le quali esiste una profonda differenza ontologica. Essenza della prima è la coscienza: essa è conoscibile direttamente, è indistruttibile e indivisibile; essenza della seconda è l'estensione: essa è conoscibile indirettamente, è divisibile e corruttibile. Le due sostanze sono pertanto irriducibili l'una all'altra e possono esistere l'una indipendentemente dall'altra. Ciò, tuttavia, non esclude che esse interagiscano, come accade nell'uomo, composto di anima e corpo, nel quale l'interazione tra le due sostanze avviene mediante la ghiandola pineale. Questa soluzione, però, non riusciva a spiegare in modo soddisfacente l'interazione tra le due sostanze. Dando questa impostazione al problema, pertanto, Cartesio lasciava in eredità ai posteri un importante problema, «uno dei nuclei essenziali del dibattito attuale sulla natura della mente e degli stati mentali»: il problema del rapporto mente-corpo.
Le difficoltà in cui incorre il dualismo di stampo cartesiano sono le stesse di una forma di dualismo più debole, detta dualismo delle proprietà: esso sostiene che non esistono due sostanze diverse, bensì due tipi di proprietà: fisiche e mentali, ma ciò non facilita il compito di spiegare in che modo le une agiscano sulle altre e viceversa.
Searle propone, contro il dualismo, «un'immagine metafisica alternativa»: viviamo in un solo mondo, per descrivere il quale è preferibile abbandonare le categorie di fisico e mentale, perché molti suoi aspetti non vi rientrano, basti pensare, per citare alcuni esempi, al denaro, ai punti segnati durante una partita di calcio, alle rate di interessi.
2.2. Contro il materialismo
Dagli insuccessi del dualismo, sono scaturiti tentativi di risolvere il problema mente-corpo che sostengono l'esistenza di un solo tipo di entità nell'universo e per questo motivo ci si riferisce ad essi con il termine monismo. Ne esistono due tipi: quello mentalistico o idealismo e quello materialistico, o semplicemente, materialismo. Per quanto queste due forme di monismo siano diverse, esse commettono lo stesso errore poiché «both try to eliminate something that really exists on its own right and cannot be reduced to something else». Secondo il monismo mentalistico, infatti, esistono soltanto le nostre idee e «l'Universo è completamente mentale e spirituale». Searle non si occupa molto di questa posizione che, sebbene abbia avuto grande importanza nei secoli, ha avuto poca influenza nell'ambito della filosofia della mente, nel quale, invece, ha riscosso maggior successo il materialismo, la concezione secondo la quale «la sola realtà che esiste è quella materiale o fisica; di conseguenza, se gli stati mentali hanno un'esistenza reale, devono essere in qualche modo riducibili a, non devono essere altro che, stati fisici di qualche tipo». Le varie forme di materialismo sono accomunate proprio dal fatto che negano l'esistenza del mentale o lo riducono alla realtà fisica. Per Searle, invece, è un dato di fatto che esistano stati mentali, in quanto ne abbiamo esperienza quotidianamente e pertanto ogni spiegazione materialistica deve tenerne conto. Searle analizza alcune forme di materialismo, mettendone in evidenza i punti deboli.
La prima forma di materialismo che egli prende in considerazione è il comportamentismo, secondo il quale «la mente non è altro che il comportamento del corpo. Non c'è nulla al di là del comportamento del corpo che costituisca il mentale». Esistono due forme di comportamentismo: quello metodologico e quello logico. Il primo non propone una vera e propria spiegazione della mente ma si limita a fornire alla psicologia un metodo che le garantisca una maggiore scientificità; tale metodo consiste nello studiare solo «il comportamento oggettivamente osservabile» con l'obiettivo di scoprire le leggi che legano «gli stimoli in entrata dell'organismo con la risposta comportamentale in uscita» (è per questo che si parla di psicologia stimolo-risposta). Ciò che si obietta al dualismo non è che non esistano stati mentali bensì che «le affermazioni scientifiche devono essere oggettivamente controllabili» e le uniche affermazioni controllabili sulla mente riguardano il comportamento. La seconda forma di comportamentismo assume una posizione più forte riguardo agli stati mentali. Il comportamentismo logico, infatti, ritiene che «un'asserzione su uno stato mentale di una persona [...] non significa altro che, può essere tradotta in, un insieme di enunciati sul comportamento effettivo o possibile di quella persona»; la mente, quindi, non sarebbe altro che «comportamento e disposizione al comportamento», intendendo per disposizione al comportamento il fatto che saremmo disposti a comportarci in un certo modo in una certa situazione. Searle osserva che questo approccio va incontro ad una serie di difficoltà.
Problematica è, innanzitutto, la nozione di disposizione: in che modo intenderla? Quali elementi possiamo considerare necessari per un'analisi disposizionale adeguata? C'è, in secondo luogo, un problema di circolarità: se tentiamo di analizzare uno stato mentale da un punto di vista comportamentale, sarà necessario presupporre altri stati mentali che a loro volta dovranno essere spiegati facendo appello ad altri stati mentali e così via. Searle ci fornisce il seguente esempio: dire che John crede che stia per piovere significa dire, per il comportamentista, che sarà disposto a chiudere le finestre per evitare che la casa si bagni e a prendere un ombrello nel caso in cui voglia uscire. Bisogna però considerare delle «ipotesi addizionali», come il fatto che egli non voglia bagnarsi. In caso contrario avrebbe un comportamento del tutto diverso. Questo desiderio dovrebbe a sua volta essere analizzato e spiegato in termini di altri stati mentali, generando una sorta di regresso all'infinito. Altra importante mancanza del comportamentismo consiste nel fatto che trascura le relazioni causali intercorrenti tra stati mentali e comportamento: nell'analizzare il dolore, per esempio, in termini esclusivamente comportamentali, si trascura il fatto che il dolore stesso è causa di, e non solo si traduce in, certi comportamenti. Le difficoltà incontrate dal comportamentismo hanno portato ad una sua sostituzione da parte del fisicalismo (o teoria dell'identità) , secondo il quale ogni stato mentale si identifica con un preciso stato del cervello e del sistema nervoso centrale. Una prima obiezione a questo approccio si basa sulla legge di Leibniz, secondo la quale due cose sono identiche se hanno in comune tutte le loro proprietà e ciò non accade nel caso di stati mentali e stati cerebrali: i primi infatti sono soggettivi e qualitativi mentre i secondi sono oggettivi. Una seconda obiezione si basa sul fatto che sembra improbabile che uno stato mentale si identifichi con un unico stato neurofisiologico. Si è tentato di ovviare a quest'ultima difficoltà sostenendo che «ogni occorrenza di uno stato mentale è identica ad una occorrenza di un evento neurofisiologico corrispondente»; in questo caso però sorgerebbe un altro problema, quello di spiegare in che modo stati fisici diversi possano corrispondere allo stesso stato mentale.
Proprio dal tentativo di dare una soluzione a quest'ultimo problema si è sviluppato un nuovo approccio, il funzionalismo, secondo il quale «due diversi stati neurofisiologici sono occorrenze dello stesso tipo di stato mentale se svolgono, nella vita complessiva di un organismo, la medesima funzione». Gli stati mentali sono dunque definiti in termini di funzione, ossia «in termini di relazioni causali con gli stimoli esterni, gli altri stati mentali e il comportamento esterno»;16 due diversi stati neurofisiologici, pertanto, saranno occorrenze di uno stesso stato mentale se intratterranno le medesime relazioni causali con stimoli esterni ricevuti dall'organismo, altri suoi stati mentali e il comportamento esteriore in reazione a quegli stimoli. Il funzionalismo, secondo Searle, avrebbe voluto mostrare che parlare di stati mentali «significava semplicemente parlare di insiemi neutrali di relazioni causali», mostrando che in essi non vi è «nulla di specificamente mentale».
A questo approccio vengono mosse delle obiezioni: esso non tiene conto dell'aspetto qualitativo che caratterizza gli stati mentali, aspetto che non può essere affatto spiegato in termini di relazioni causali; in secondo luogo esso non spiega quali proprietà fanno si che due diversi stati neurofisiologici intrattengono le medesime relazioni causali. La risposta a quest'ultima domanda venne dal funzionalismo computazionale o intelligenza artificiale forte (nozione, quest'ultima, coniata dallo stesso Searle e contrapposta a quella di intelligenza artificiale debole: mentre per la prima un calcolatore opportunamente programmato può possedere effettivamente una mente, la seconda si propone l'obiettivo più modesto di studiare la mente avvalendosi dell'aiuto di simulazioni informatiche), secondo il quale «strutture materiali differenti potevano risultare equivalenti sotto il profilo mentale se implementavano, seppur attraverso differenti sistemi hardware, il medesimo programma per calcolatore»; questa definizione porta così a dire che «la mente sta al cervello come il programma sta all'hardware». Una importante conseguenza di questa affermazione fu ritenere che, essendo la mente un programma ed essendo un programma eseguibile da ogni hardware abbastanza potente, la mente poteva essere studiata indipendentemente dal cervello, in quanto quest'ultimo non è l'unico hardware che può implementare il programma mente. Nonostante annoveri l'intelligenza artificiale forte tra le varie forme di materialismo, Searle ritiene che «è meglio considerare l'IA forte come una sorta di tentativo estremo di dualismo. Secondo l'IA forte, infatti, la mente e la coscienza non sono processi concreti, fisici, biologici come la crescita, la vita o la digestione, ma sono qualcosa si forma ed astratto»21 ed in quanto tali non dipendono «da alcuna particolare concretizzazione fisica»; è proprio sulla base di queste considerazioni che l'IA può pretendere, secondo Searle, di equiparare la mente ad un programma implementabile da ogni hardware abbastanza potente per farlo.
Le obiezioni mosse al funzionalismo computazionale riguardano innanzitutto il problema di programmare calcolatori in grado di superare il test di Turing, in base al quale si può dire che una macchina è intelligente se un individuo non riesce a distinguere il suo comportamento dal comportamento umano, comunicando con essa attraverso un computer, per esempio, e ponendo ad essa delle domande. Searle replica al test di Turing con l'argomento della stanza cinese: immaginiamo che un individuo, che non conosce il cinese, si trovi chiuso in una stanza con delle scatole contenenti simboli cinesi e con un manuale che gli spieghi come usare questi simboli. L'individuo riceve dei simboli cinesi senza sapere che si tratta di domande, legge il manuale e sceglie, in base alle istruzioni in esso contenute, dei simboli dalle scatole, ignorando che sono risposte a quelle domande; un osservatore esterno, ignaro del fatto che l'uomo nella stanza non conosce il cinese, potrebbe invece dire che lo comprende; analogamente una macchina ben programmata potrebbe ingannare un individuo senza che si possa dire che essa è intelligente. Un'altra importante obiezione mossa da Searle mostra come questo approccio non tenga conto del fatto che alcuni aspetti della mente, come la coscienza e l'intenzionalità, sono semantici, ossia hanno a che fare con significati, non soltanto con simboli; una macchina opera, invece, sulla base di programmi sintattici; una corretta manipolazione di simboli di cui non si conosce il significato (sintattica) non implica una loro comprensione (semantica), come mostra l'argomento della stanza cinese; ciò perché, spiega Searle, «la sintassi non è la stessa cosa e non è di per sé sufficiente per la semantica».
Un ultimo approccio materialistico considerato è il materialismo eliminazionista, secondo il quale, poiché le neuroscienze non hanno mostrato alcuna correlazione tra processi cerebrali e mentali, i termini mentali dovrebbero essere sostituiti con «termini vertenti su stati cerebrali. Più precisamente, il materialismo eliminazionista sostiene che non esistono fenomeni mentali e che coloro che pensano esistano commettono un errore»; è questa una affermazione insostenibile per chi, come Searle, considera l'esistenza degli stati mentali un dato di fatto, del quale abbiamo «esperienza diretta».
Le assunzioni errate che sono alla base del materialismo nelle sue varie forme risultano, dunque, essere le seguenti:
* nel tentativo di fornire uno studio scientifico della mente, il materialismo considera secondarie la coscienza e la soggettività; questo perché
* «la scienza è oggettiva», non solo nel senso che deve dare spiegazioni indipendenti da opinioni personali e pregiudizi, ma anche nel senso che la realtà di cui si occupa è oggettiva; applicare questo punto di vista allo studio della mente significa
* studiare il comportamento esteriore in quanto dato oggettivamente osservabile; ciò implica che
* si possono attribuire stati mentali ad un altro individuo, ma anche ad un altro sistema sulla base del suo comportamento; inoltre
* la realtà è solo fisica e quindi
* non c'è posto per entità che non siano fisiche, come gli stati mentali.
Sono assunzioni che Searle non condivide in alcun modo: la coscienza e la soggettività sono aspetti fondamentali della mente, che devono essere presi in considerazione da ogni indagine su di essa. Ciò implica che non tutta la realtà sia oggettiva: parte di essa è soggettiva. Questo errore deriva da una confusione tra livello epistemologico, a cui va collocata l'oggettività delle affermazioni scientifiche, e livello ontologico, a cui vanno collocate «differenti categorie della realtà empirica»: è falso dire che la realtà è oggettiva perché l'ontologia degli stati mentali è soggettiva. Livello ontologico ed epistemologico non devono dunque essere in alcun modo confusi in quanto «l'oggettività epistemica del metodo non richiede l'oggettività ontologica del soggetto».
Dire che l'ontologia degli stati mentali è soggettiva significa dire che gli stati mentali sono sempre di qualcuno che ne ha esperienza;è un'ontologia, scrive Searle, «essenzialmente in [o di] prima persona». L'ontologia di prima persona si contrappone a quella di terza persona, che indica «qualsiasi modo di esistenza indipendente da qualsiasi soggetto esperiente». La soggettività degli stati mentali è, da un punto di vista epistemologico, un dato oggettivo. A queste considerazioni si deve aggiungere il fatto che non è in virtù del comportamento delle persone che attribuiamo loro stati mentali; in realtà sono «le capacità di sfondo grazie alle quali ci confrontiamo con il mondo [che] ci consentono -- se si fa eccezione per i casi anomali -- di trattare le persone diversamente dalle automobili, senza essere per questo costretti ad introdurre ipotesi addizionali relative al fatto che le prime, diversamente dalle seconde, sono coscienti». Il rapporto tra stati mentali e comportamento è inoltre contingente, in quanto si possono avere i primi senza i secondi, come avviene nel caso della sindrome di Guillame-Barre: chi ne è affetto ha una vita interiore cosciente del tutto normale ma non può in alcun modo esprimerla, essendo completamente paralizzato.
Ritenere, infine, che la realtà sia solo fisica spinge a cercare soluzioni al problema della mente che neghino l'esistenza di stati mentali o che li riducano a stati cerebrali, che sono fisici, ignorando l'ontologia in prima persona degli stati mentali.
3. «Naturalizzare» la mente
Il materialismo e il dualismo non danno soluzioni corrette e soddisfacenti al problema della mente. Dove andrà allora cercata tale soluzione? Se è sbagliato il modo tradizionale di intendere il rapporto tra il fisico e il mentale, in che modo andrà inteso? Come conciliare la soggettività del mentale con l'oggettività delle spiegazioni scientifiche? Quale rapporto esisterà tra stati mentali e stati cerebrali? Quale rapporto sarà tale da conservare l'esistenza dei primi senza ridurli ai secondi? Quale spazio ci sarà per gli stati mentali in un mondo costituito di particelle fisiche?
Prima di mostrare il nuovo approccio che Searle propone in risposta al problema mente-cervello, osserviamo che sin qui abbiamo parlato della mente senza chiederci cosa essa sia. Non è certo facile darne una definizione esauriente e solo cercare di dire cosa essa sia richiederebbe una riflessione a se stante. In questo lavoro assumiamo con Searle che essa sia «la sequenza di pensieri, sensazioni ed esperienze, tanto consce, quanto inconsce, che vengono a formare la nostra vita mentale». abbiamo già osservato che gli stati mentali sono interiori, qualitativi e soggettivi. A queste caratteristiche se ne aggiungono altre, come la coscienza, l'intenzionalità, il fatto cioè che gli stati mentali siano diretti ad un oggetto diverso da loro, la causazione mentale, ossia la capacità di avere effetti causali sul mondo fisico. Sono tutti aspetti problematici, materia di numerosi dibattiti, dei quali qui non ci occuperemo ma che abbiamo menzionato per render conto della ricchezza e della problematicità della nozione in esame.
3.1. Il naturalismo biologico
Searle chiama la soluzione che intende fornire al problema mente-cervello naturalismo biologico «perché costituisce una soluzione naturalistica al 'problema mente-corpo'tradizionale mettendo in rilievo il carattere biologico degli stati mentali ed evitando tanto il materialismo quanto il dualismo».Si tratta, scrive, di una soluzione naturalistica della mente in due sensi: da un lato «tratta i fenomeni mentali come parte della natura» e dall'altro «l'apparato esplicativo usato per fornire una spiegazione in termini causali dei fenomeni mentali è necessario per spiegare la natura in generale»; la spiegazione che fornisce del rapporto mente cervello, cioè, funziona anche per molti fenomeni naturali; anzi Searle, come vedremo, guarda proprio alla natura come esempio di questa spiegazione.
Searle suggerisce, inoltre, che si può guardare al naturalismo biologico come ad un tentativo di recuperare quanto di buono c'è nel materialismo e nel dualismo, tralasciando quanto vi è di erroneo. A proposto di quanto vi è di buono e di cattivo in questi due approcci, egli scrive che:
the materialist is trying to say, truly, that the universe consists entirely of material phenomena such as physical particles in fields of force. But he ends up saying, falsely, that irreducible states of consciousness do not exist. The dualist is trying to say, truly, that ontologically irreducible states of consciousness do exist, but he ends up saying, falsely, that these are not ordinary parts of the physical world.
Recuperare quanto di positivo vi è in materialismo e dualismo significa pertanto mostrare che esistono stati mentali irriducibili che sono parte del mondo fisico, abbandonando una concezione che vede fisico e mentale come due categorie ontologiche inconciliabili. In questo modo Searle mostra che tra fisico e mentale non esiste quell'«abisso metafisico» che per molto tempo si è ritenuto li separasse.
Il naturalismo biologico si basa sulle seguenti quattro tesi:
1. gli stati mentali, caratterizzati da una ontologia di prima persona, «sono fenomeni reali del mondo reale»:37 non possono essere eliminati o ridotti a stati cerebrali, perché effettuando tale riduzione si tralascerebbe l'ontologia di prima persona;
2. tutto ciò che fa parte della nostra vita mentale è causato da processi che avvengono nel cervello;
3. tutti i fenomeni mentali sono «semplicemente caratteristiche del cervello (e forse del sistema nervoso centrale)»;
4. essendo fenomeni reali di un mondo reale, gli stati mentali hanno «efficacia causale».
Abbiamo già detto che per Searle l'esistenza di stati mentali è un dato di fatto; abbiamo esperienza di tale esistenza ogni giorno e pertanto non vede in che modo si possa affermare il contrario. Proprio per questo, non ritiene necessario approfondire tale questione; scrive, infatti, che «si dovrebbero dare per scontati i fenomeni mentali -- e quindi fisici -- allo stesso modo dei fenomeni digestivi dello stomaco». Detto che il mentale esiste, si pone il problema di spiegare come si collochi nella realtà fisica e come interagisca con essa. Ce lo dice la seconda tesi. Riportiamo innanzitutto un esempio di Searle: le varie sensazioni di dolore sono causate da una «serie di eventi che iniziano da terminazioni nervose libere e finiscono nel talamo e in altre regioni del cervello»; le sensazioni di dolore, in altre parole, sono causate dalla stimolazione di determinate aree del cervello. In realtà, tutto il processo che riguarda la percezione del dolore avviene nel cervello. Siamo abituati a pensare che le nostre sensazioni corporee siano localizzate nella zona del corpo dove le percepiamo; non è tuttavia così. È nel cervello che ha luogo la percezione cosciente del dolore: il cervello elabora una immagine corporea, cioè un'immagine di tutto il nostro corpo e, quando proviamo una qualsiasi sensazione, «l'occorrenza reale dell'esperienza avviene nell'immagine corporea del cervello [...] l'incontro tra l'apparenza della sensazione e il reale corpo fisico è interamente costruito nel cervello». Quello che avviene nel caso del dolore avviene nel caso degli altri fenomeni mentali. Fondamentale, dunque, per quanto riguarda la formazione di stati mentali è ciò che avviene nel cervello.
Come si articola questo rapporto tra stati mentali e cerebrali? Ce lo dice la terza tesi, sebbene essa appaia incompatibile con la precedente: come può, infatti, la mente, causata da quanto avviene nel cervello, essere allo stesso tempo la caratteristica di ciò che la causa? In realtà, spiega Searle, questa domanda sorge da un «fraintendimento della causazione»: quando pensiamo a due eventi tra cui intercorre una relazione causale, pensiamo a due eventi «discreti», cioè separati e distinti tra loro, uno dei quali è la causa, l'altro l'effetto; immaginiamo che funzioni come una palla da biliardo ne colpisce un'altra. Nel nostro caso però, spiega, abbiamo bisogno di un'accezione più «sofisticata» di causazione. Guardando alla fisica, Searle chiama in causa la distinzione tra livello microscopico e livello macroscopico di un sistema: consideriamo, per esempio, l'acqua. A livello microscopico troviamo molecole, atomi e particelle subatomiche; a livello macroscopico, invece, osserviamo che l'acqua è liquida: è questa una proprietà detta caratteristica di superficie o globale. Una proprietà di superficie, detta anche proprietà emergente, è «qualcosa che è spiegato causalmente dal comportamento degli elementi del sistema; ma non è una proprietà di qualsiasi elemento individuale [del sistema] e non può essere spiegata semplicemente come la somma delle proprietà di quegli elementi». Spiega efficacemente Searle che «la caratteristica di superficie è sia causata dal comportamento dei microelementi, sia allo stesso tempo realizzata nel sistema costituito da quei microelementi. C'è una relazione di causa ed effetto, ma allo stesso tempo le caratteristiche di superficie sono caratteristiche di più alto livello di quello stesso sistema il cui comportamento al microlivello causa quelle caratteristiche».
Le stesse considerazioni vanno fatte per la mente e per il cervello: è in questo senso che i processi cerebrali causano gli stati mentali, che a loro volta sono realizzati nel sistema costituito di neuroni. Aggiunge, inoltre, Searle che, come possiamo dire di un sistema di particelle, e non delle singole particelle, che è liquido o solido, allo stesso modo possiamo dire di un cervello che è cosciente, ma non possiamo dirlo di un neurone. Searle elabora così una teoria della mente «che va nel senso di una 'naturalizzazione'non riduzionista»: naturalizzazione perché, come detto, gli stati mentali esistono e fanno parte della natura quanto la digestione e la fotosintesi; non riduzionista perché questi stati non vengono identificati, come avveniva in alcune forme di materialismo, con stati cerebrali, sebbene diano causati da essi. Va aggiunto che la forma di riduzionismo condannata da Searle è quella ontologica, consistente nel mostrare che oggetti di un certo tipo, nel nostro caso stati mentali, non sono altro che oggetti di un altro tipo, ossia stati cerebrali; non critica, ma anzi fa sua, quella che viene detta riduzione causale: si può dire che «fenomeni di tipo A sono causalmente riducibili a fenomeni di tipo B, se -- e solo se -- il comportamento degli A è completamente spiegabile in termini causali mediante il comportamento dei B, e gli A non hanno capacità causali in aggiunta a quelle dei B»: la liquidità dell'acqua è causalmente riducibile al comportamento della molecole e gli stati mentali sono causalmente, e non ontologicamente, riducibili agli stati cerebrali. Si potrebbe obiettare, nota Searle, che come nel caso dell'acqua possiamo ridurre la liquidità ai moti e alla struttura delle molecole che la compongono, allo stesso modo si potrebbe ridurre la mente agli stati cerebrali: si potrebbe operare, cioè, in entrambi i casi, in passaggio da una riduzione causale ad una riduzione ontologica. È un passaggio che si verifica spesso in campo scientifico e che consiste nel «togliere di mezzo le proprietà di superficie ridefinendo la nozione originaria nei termini delle cause che producevano quella stessa proprietà». In questo caso, la riduzione ontologica ha la funzione di eliminare l'esperienza soggettiva dai fenomeni studiati: un corpo caldo non è quello che ci appare tale ma quello composto da particelle la cui energia cinetica assume un certo valore. In questo modo il fenomeno viene ridefinito «sulla base della 'realtà'e non dell''apparenza'». Non è possibile operare, però, una riduzione ontologica nel caso dei fenomeni mentali, in quanto non si può distinguere in questi casi tra realtà e apparenza: «se ho la sensazione cosciente di essere cosciente, allora sono cosciente»; posso ingannarmi sui contenuti dei miei stati ma non sulla loro coscienza. Questo è un altro modo, scrive Searle, per dire che il mentale possiede un'ontologia di prima persona e pertanto non può essere ontologicamente ridotto a ciò che possiede un'ontologia di terza persona. Se, infatti, volessimo ridurre ontologicamente gli stati mentali a configurazioni di neuroni, perderemmo le proprietà essenziali di tali stati:
nessuna descrizione oggettiva e impersonale dei fatti fisiologici sarebbe in grado di rendere il carattere soggettivo del dolore [e degli altri stati mentali] vissuto in prima persona, semplicemente perché proprietà vissute in prima persona e proprietà impersonali sono le une differenti dalle altre.
Ritornando alle tesi su cui si basa il naturalismo biologico, la quarta segue dalle precedenti: una volta che si è assunta la mente come parte reale di un mondo reale, non sembra più così inconcepibile che essa possa avere una qualche azione sulla realtà fisica. Come potrebbe però uno stato mentale, che è incorporeo, agire sulla «parte» fisica del mondo? Ciò è possibile perché, scrive Searle, «i pensieri non sono né incorporei né eterei. Quando si ha un pensiero, sta in realtà avendo luogo dell'attività cerebrale. L'attività cerebrale causa i movimenti del corpo attraverso processi fisiologici. Dunque, poiché gli stati mentali sono caratteristiche del cervello, essi hanno due livelli di descrizione -un livello più alto [quello che sopra abbiamo chiamato macrolivello di un sistema] in termini mentali, e un livello più basso [microlivello] in termini fisiologici»; una stessa azione può essere descritta ad entrambi i livelli. Consideriamo per esempio l'azione di alzare il braccio: al livello più alto, mentale, di descrizione, è la mia intenzione che causa il movimento del braccio, mentre al livello più basso, fisiologico, una serie di scariche neuronali provoca una catena di processi che culminano nelle contrazioni dei muscoli e, quindi, nel sollevamento del braccio.
Nonostante Searle abbia più volte sottolineato che la sua posizione non ha nulla a che vedere con materialismo e dualismo, gli è stato spesso obiettato che con il naturalismo biologico non ha fatto altro che riproporre una variante delle teorie da lui criticate. A chi lo accusa di essere un materialista, risponde che egli rifiuta il materialismo in quanto quest'ultimo nega l'esistenza del mentale come «parte reale e irriducibile del mondo reale». Se è difficile vedere in Searle un materialista, forse è più forte la tentazione di considerarlo un sostenitore del dualismo delle proprietà; egli sostiene, infatti, l'irriducibilità del mentale, «ma che cos'è il dualismo delle proprietà se non la visione per cui la coscienza [e il mentale in generale] è una proprietà che non è riducibile a proprietà materiali?».53 Searle riconosce che l'irriducibilità ontologica del mentale è ciò che lui e il dualismo delle proprietà hanno in comune ma nega che da ciò segua che il mentale sia «un'entità metafisica, che non appartiene al mondo fisico ordinario», «something 'over and above', something distinct from, its neurobiological base»; pertanto, dal suo punto di vista, si può ammettere l'irriducibilità del mentale senza cadere nel dualismo.
3.2. Ricerche sul rapporto cervello-mente
Abbiamo dunque visto che gli stati mentali sono causati dal cervello ma rimangono ancora molte domande senza risposta:
in che modo esattamente i processi neurobiologici causano la coscienza? [...] Che cosa esattamente collega la stimolazione dei nostri recettori all'esperienza cosciente e in che modo i processi intermedi [ossia i processi neurobiologici, che si collocano tra lo stimolo esterno e gli stati mentali causati] causano gli stati coscienti?
Sappiamo che ciò che avviene a livello di neuroni e sinapsi è fondamentale per la genesi degli stati mentali ma non sappiamo nulla di come ciò avvenga; disponiamo di molte conoscenze sul funzionamento del cervello ma «non abbiamo ancora una descrizione teorica unitaria di che cosa succeda a livello neurobiologico, che permette al cervello di fare ciò che fa determinando la causazione, la strutturazione e l'organizzazione della nostra vita mentale». Le difficoltà che ostano all'elaborazione di tale teoria sono diverse. Ci sono innanzitutto problemi pratici: il cervello è costituito da più di cento miliardi di neuroni collegati tra di loro da un numero ancora più alto di connessioni, il tutto in uno spazio piuttosto ristretto ed è difficile lavorare su questi elementi senza danneggiarli. C'è poi una certa riluttanza da parte dei neurobiologi ad affrontare il problema del mentale e questo per vari motivi: alcuni ritengono che non siamo ancora pronti perché dovremmo prima disporre di maggiori conoscenze sul cervello; altri pensano che non sia una questione di pertinenza della scienza, ma soltanto della filosofia e della teologia; altri ancora pensano che non sia possibile dare una spiegazione biologica della coscienza. Non mancano però neurobiologi che tentano di capire in che modo gli stati mentali sono causati dal cervello.
Si possono distinguere due approcci al problema: l'approccio particolaristico o «a blocchi di costruzione» e l'approccio globalistico, o «del campo unificato». Il primo approccio «considera il complesso del campo cosciente costituito da unità coscienti più o meno indipendenti, i 'blocchi da costruzione'»; esempi di questi blocchi sono l'esperienza di un colore, di un suono di un sapore. L'idea alla base di questo approccio è che se riuscissimo a capire come funziona anche solo uno di questi blocchi, disporremmo di una soluzione per risolvere il problema della causazione del mentale nella sua globalità. Questi blocchi sono a volte chiamati unità o moduli: «un modulo è un circuito neuronale, di dimensioni e struttura diverse in diverse regioni cerebrali [...] che ha funzione di ricezione, elaborazione e trasmissione del messaggio neurale»; l'approccio modulare nasce dall'aver osservato che lesioni in certe aree cerebrali lasciano intatte funzioni localizzate in aree diverse. L'approccio globalistico, invece, non cerca di capire «come il cervello produca certi specifici blocchi da costruzione all'interno del campo cosciente, ma come anzitutto produca il campo cosciente nella sua globalità»;61 non si pensa che le singole esperienze percettive creino blocchi di coscienza, ma che intervengano a modificare un campo di coscienza ad esso preesistente. Searle ritiene che quest'ultimo approccio avrà probabilmente più successo perché pensa che una singola esperienza cosciente possa realizzarsi solo in un cervello già cosciente.
4. Costruire la mente?
Abbiamo visto che il cervello causa la mente anche se non sappiamo come ciò avvenga effettivamente. Ora analizzeremo la posizione di Searle di fronte alla possibilità di creare artificialmente la mente; se quest'ultima, infatti, è causata dal cervello, non potremmo essere in grado di produrre un sostrato, organico o inorganico, che, come il cervello, causi la mente?
4.1. L'intelligenza artificiale
Searle si dimostra fortemente critico, come già detto, nei confronti dell'intelligenza artificiale forte, ma questa è una questione diversa dalla possibilità di costruire macchine pensanti. Vediamo perché. Ciò che egli critica non è la possibilità di costruire macchine pensanti; scrive, infatti, che, «per quanto ne sappiamo, sarebbe forse possibile costruire una macchina pensante servendosi di materiali del tutto diversi» da quelli di cui è fatto il cervello; non sappiamo ancora come e se ciò sarà possibile, ma non possiamo escludere questa possibilità. L'IA forte sostituisce alla domanda se sia o meno possibile costruire macchine pensanti la domanda «una macchina può pensare semplicemente in virtù del fatto che esegue un programma per calcolatori?»; è, cioè, sufficiente implementare il programma giusto per costruire una mente? È a questa domanda che Searle risponde negativamente in maniera assoluta perché, come detto, un programma è esclusivamente sintattico mentre la mente è semantica; è impossibile che una macchina possa pensare solo in virtù dell'implementazione del programma giusto. L'approccio dell'IA viene inoltre definito da Searle «profondamente anti-biologico»: essendo, infatti, indifferente l'hardware che implementa il programma che dovrebbe riprodurre la mente, il cervello viene a perdere la sua importanza, in quanto diventa soltanto uno di questi hardware. Si tratta di una considerazione errata perché non tiene conto della «specificità» della struttura del cervello, del fatto, cioè, che quando abbiamo a che fare con fenomeni mentali, «sono in gioco processi neurobiologici specifici» che li causano: ciò significa che non è affatto irrilevante ciò che avviene nel cervello ma, al contrario, quando abbiamo a che fare con la mente, «il cervello ha un'importanza cruciale». Se ciò non implica che possano pensare solo sistemi biologici, implica però che «qualunque sistema artificiale in grado di produrre fenomeni mentali, ossia qualunque cervello artificiale, dovrebbe essere in grado di riprodurre gli stessi poteri causali specifici del cervello umano e non potrebbe farlo svolgendo un programma formale», dovrebbe, cioè, «essere in grado di causare ciò che causano i cervelli».
4.2. Il Connessionismo e il problema della simulazione
Mentre Searle si confrontava con l'IA mettendone in evidenza i limiti, veniva elaborato un nuovo approccio agli stessi problemi e anch'esso critico nei confronti dell'IA. Ci stiamo riferendo al Connessionismo che, vedremo, cerca di «ricreare» i processi mentali attraverso reti neurali artificiali che si ispirano a quelle reali. Parisi riassume l'essenza del Connessionismo con la seguente uguaglianza: «materialismo e operazionismo = reti neurali e simulazioni». Per materialismo egli intende «la tesi secondo cui per studiare il comportamento e la vita psichica in quegli organismi che, come gli esseri umani, ce l'hanno, bisogna usare gli stessi concetti che le scienze della natura usano per studiare la natura, concetti che non postulano entità mentalistiche non osservabili quali rappresentazioni, credenze, scopi e intenzioni, ma si riferiscono unicamente ad entità fisiche, osservabili direttamente o con strumenti, soggette soltanto a processi di causalità fisica, e aventi natura intrinsecamente e fino in fondo quantitativa». Così inteso, il materialismo ha poco in comune con quello criticato da Searle e che nega l'esistenza di stati mentali irriducibili alla realtà fisica. Questa forma di materialismo implica il riduzionismo nella sua forma ontologica, mentre Parisi stesso spiega che, «se il materialismo volgare tradizionale implicava il riduzionismo», oggi le cose stanno diversamente. Distinguendo tra riduzionismo ontologico, per il quale esistono solo le entità studiate dalla fisica e le altre devono essere ridotte ad esse, e riduzionismo esplicativo, stando al quale «per spiegare un certo tipo di entità, di processi e di fenomeni, studiati da una certa disciplina, è utile fare riferimento ad altre entità, altri fenomeni, altri processi studiati da atre discipline», conclude che «la scienza è oggi fortemente riduzionista in senso esplicativo». Questa forma di riduzionismo non fa altro che sottolineare la necessità di conferire allo sviluppo delle scienze un carattere interdisciplinare, carattere da cui deriva la possibilità di ricorrere allo studio del cervello per cercare di fornire una spiegazione della mente. In questo modo, ciò che Parisi intende con materialismo e riduzionismo appare concordare, in linea di massima, con il naturalismo di Searle, ove si intenda, appunto, che: «l'apparato esplicativo usato per fornire una spiegazione in termini causali dei fenomeni mentali è necessario per spiegare la natura in generale». Parisi, inoltre, parla di «naturalizzazione degli esseri umani, dove naturalizzazione significa studiare gli esseri umani e i loro prodotti (il loro comportamento e la loro vita mentale, le società umane e il loro cambiare storico, le loro culture e tecnologie, l'arte, la filosofia, la religione, la stessa scienza) come oggetti naturali, in continuità con le scienze della natura, senza introdurre nessuna essenziale diversità tra gli esseri umani e il resto della realtà studiata dalla scienza»; è ciò che si propone lo stesso Searle ed è proprio questo processo di «naturalizzazione» che dà il nome al suo naturalismo biologico.
Nonostante questi punti in comune, questa forma di materialismo rappresenta il punto di partenza per il superamento dell'approccio searliano. Vediamo perché. Finora abbiamo considerato il materialismo in relazione alle scienze in generale, accennando soltanto alle implicazioni relative allo studio della mente. Ora ci soffermeremo su questo aspetto, che apre la strada agli altri caratteri salienti del Connessionismo, in primis le reti neurali. Questo perché «oggi il materialismo nello studio della mente è rappresentato dalle reti neurali, modelli che sono ispirati al modo in cui è fatto e funziona fisicamente il sistema nervoso, modelli di cui si serve per spiegare la vita psichica e il comportamento degli organismi». In contrapposizione ai modelli dell'IA, le reti neurali «riproducono in forma semplificata quello di cui è fatto fisicamente il sistema nervoso, cioè neuroni e sinapsi, e il modo in cui funziona il sistema nervoso, cioè propagando eccitazioni e inibizioni attraverso le sinapsi che uniscono i neuroni, determinando in questo modo il livello di attivazione posseduto in ogni determinato istante da ogni singolo neurone e modificando il comportamento attraverso la modifica dei 'pesi sinaptici'77». Una rete neurale riproduce in modo semplificato la struttura del cervello in quanto è composta da una serie di unità che corrispondono ai neuroni collegate tra di loro da connessioni che corrispondono a quelle sinaptiche dei cervelli reali. Il modo di operare delle reti neurali è detto, inoltre, «parallel distributed processing (PDP)», sottolineando ulteriormente la somiglianza con i cervelli biologici: «parallel» perché l'elaborazione avviene, come nel sistema nervoso in parallelo, ossia vengono trattati più dati contemporaneamente e «distributed» perché l'elaborazione è distribuita su più unità, più elementi della rete neurale, cioè, lavorano alla stessa operazione o partecipano a più operazioni contemporaneamente, proprio come fanno i neuroni.
A questo punto entrano in gioco operazionismo e simulazione. Per operazionismo dobbiamo intendere «la tesi che il significato di un concetto sono le operazioni che effettivamente compiamo quando usiamo il concetto, e non cose come la definizione verbale del concetto o entità astratte di altro tipo»; nell'ambito degli studi sulla mente ciò si traduce nelle simulazioni: ecco apparire, nelle parole di Parisi, «un nuovo metodo di ricerca che mira a spiegare i fenomeni della realtà riproducendoli in sistemi artificiali»; tali simulazioni esprimono i concetti e i modelli della scienza in forma di programmi informatici che, una volta eseguiti, forniscono come risultato «le predizioni empiriche derivate dai concetti e dai modelli incorporati nel programma. In questo modo il significato dei nostri concetti e nostre teorie viene a consistere nelle operazioni che compie il programma e nei risultati di tali operazioni, e in nient'altro». Nella prospettiva connessionistica, operazionismo e simulazione si fondono insieme con materialismo e reti neurali in quanto queste ultime «sono modelli simulativi, cioè modelli espressi sotto forma di programmi di computer». questi modelli simulativi permettono al ricercatore di manipolare e controllare i fenomeni simulati, studiandone le conseguenze. L'uso della simulazione, inoltre, è particolarmente utile nello studio della mente perché «le simulazioni permettono di incorporare in una stessa simulazione aspetti biologici, aspetti comportamentali e aspetti dell'organizzazione sociale degli esseri umani»: se si vuole studiare la vita mentale senza tralasciare alcun aspetto importante è necessario ed utile semplificare questi aspetti e riprodurli in una simulazione, in modo da valutarne le reciproche relazioni ed interazioni. Non c'è più bisogno di suddividere l'immenso territorio della vita mentale in molteplici campi di studio, oggetto di diverse discipline che si avvalgono di metodologie diverse, in quanto le simulazioni permettono di studiare questo territorio, ovviamente semplificandolo, nel suo insieme: il metodo delle simulazioni permette, infatti, di simulare tutto, dal sistema nervoso ai comportamenti sociali.
Le simulazioni sono particolarmente utili quando si ha a che fare con un sistema complesso, quale è appunto il sistema nervoso. Un sistema complesso è costituito da un elevatissimo numero di elementi tra loro collegati in modo che non si può distinguere il ruolo di ogni elemento nel produrre un certo effetto; ha poi caratteristiche globali che non possono essere previste dalla configurazione dei singoli elementi e dalle loro interazioni; è in gradi di adattarsi all'ambiente in cui vive, modificandolo e modificandosi in funzione di esso e cambia nel tempo in modo non prevedibile e non graduale. Le reti neurali, inoltre, mostrano di saper apprendere dall'esperienza, modificando i pesi sinaptici in funzione degli esempi loro presentati. Il computer, con le sue enormi capacità di calcolo, facilita lo studio dei sistemi complessi e permetti di simularli. Questi sistemi, inoltre, permettono di risolvere i problemi del riduzionismo, perché mostrano come la vita mentale emerga «dalle interazioni tra i numerosissimi elementi che sono le cellule del sistema nervoso, le diverse componenti del corpo (molecole, cellule, organi, sistemi), i segmenti di materiale genetico che costituiscono i geni»,85 senza però ridurla a questi: essendo la vita mentale una proprietà emergente di un sistema complesso non può essere affatto prevista a partire dalla sua configurazione e dalle relazioni tra le sue componenti. È quanto intende affermare Searle quando parla di proprietà emergenti e definisce la mente una proprietà emergente del cervello.
Nonostante questa forte vicinanza tra i due approcci, il Connessionismo si spinge più avanti di Searle: le simulazioni consentono, infatti, di andare oltre l'aspetto puramente teorico, cercando di trovare una soluzione al problema, rimasto in sospeso in Searle, di come i processi cerebrali possano produrre la nostra vita mentale. Non si sta sostenendo che il Connessionismo abbia risolto il problema ma che, avvalendosi delle reti neurali e delle simulazioni, abbia unito la prassi alla teoria laddove, invece, Searle si è fermato alla sola teoria. Questo «superamento» non comporta alcun rifiuto delle sue tesi, in quanto esse condividono con il Connessionismo il punto di partenza biologico, consistente nell'individuare l'approccio più valido al problema della mente in quello che passa per lo studio di quanto avviene nel cervello, in contrapposizione all'IA. Si potrebbe a questo punto pensare che il Connessionismo potrebbe costituire non solo un superamento ma anche un completamento del naturalismo biologico, fornendo ad esso la dimensione «pratica» di cui manca. Ricordiamo che Searle non aveva escluso la possibilità di costruire macchine pensanti, purché esse disponessero degli stessi «poteri causali» di un cervello biologico; il Connessionismo sembra soddisfare questa richiesta in quanto le reti neurali ricalcano la struttura e il funzionamento di neuroni e sinapsi. Searle, tuttavia, ritiene che «l'argomento della stanza cinese confuta tutte le ipotesi di tipo IA forte costruite a proposito delle nuove tecnologie parallele ispirate alle reti neuroniche» e, nonostante i modelli connessionistici posseggano «interessanti proprietà che consentono loro di simulare processi cerebrali in modo più preciso delle tradizionali architetture seriali [...] la natura parallela, 'cerebrale, dell'elaborazione, tuttavia è irrilevante per gli aspetti computazionali del processo», in quanto funzioni calcolabili da una macchina parallela lo sono anche da parte di una macchina seriale tradizionale. L'argomento della stanza cinese usato contro il Connessionismo è una variante di quello proposto contro l'IA: Searle usa l'immagine di una «palestra cinese», nella quale si trovano uomini che parlano solo inglese, che corrispondono alle unità di una rete neurale e che manipolano ideogrammi come l'individuo singolo nella stanza cinese; il risultato è lo stesso che nell'esempio originario, ossia nessuno conosce il cinese, neppure il sistema composto da tutti gli individui, dai simboli che manipolano e dalle regole attraverso le quali operano.
Si potrebbe obiettare che il Connessionismo, diversamente dall'IA, non paragona la mente ad un programma e, come già detto, riconosce l'importanza del cervello ai fini dello studio della mente; tuttavia, per Searle, la strada delle simulazioni non può portare lontano: nel cervello hanno luogo «processi neurobiologici specifici» e la capacità di causare stati mentali dipende fortemente dalla struttura biochimica del cervello mentre le simulazioni «forniscono modelli degli aspetti formali di questi processi» e, ammonisce Searle, la simulazione non va affatto confusa con la riproduzione. Scrive, pertanto, che. «i neuroni possono davvero essere simulati da un programma di computer, ma l'imitazione delle scariche neuronali non assicura il potere dei neuroni di causare la coscienza, più di quanto la simulazione al computer di un temporale o dello scoppio di un incendio non garantisca i poteri causali della pioggia o del fuoco. Un programma che simula il cervello non causa di per se stesso la coscienza più di quanto un programma che simula un incendio non bruci casa o il programma che simula la pioggia ci lasci tutti fradici». Parisi è di ben altro avviso: non si può dire che i modelli simulativi connessionistici hanno gli stessi limiti di quelli dell'IA, solo perché si avvalgono dei computer: «in un computer tutto può essere simulato senza per questo assumere che quello che viene simulato è simboli o lavorare sui simboli». Egli distingue quindi tra due diversi usi del computer: uno che individua in esso stesso un modello della mente, trascurando la nostra struttura cerebrale, e uno che vede in esso «uno strumento per fare simulazioni» e che riconosce la centralità della biochimica cerebrale per lo studio della mente. Ciò non basta a preservare il Connessionismo dalle critiche di Searle, in quanto, a suo avviso, «non è possibile ottenere contenuti di pensiero semanticamente pregnanti tramite semplici computazioni formali, che siano eseguite in serie [come nell'IA tradizionale] o in parallelo [come in alcune simulazioni connessionistiche]». Il Connessionismo, pertanto, non procede molto oltre l'IA e finisce per chiudersi in un modello simbolico, divenendo bersaglio delle stesse critiche mosse ad essa. È vero, come dice Parisi, che quando si simula qualcosa non si assume che questa sia una semplice manipolazione di simboli, ma è altrettanto vero che le simulazioni sono realizzate con macchine che lavorano manipolando simboli e pertanto ciò che deve essere simulato deve essere prima ridotto ad un programma, che è sintattico.
Il Connessionismo potrebbe costituire una valida alternativa all'IA solo se potesse avvalersi di macchine su cui operare simulazioni diverse da quelle usate da essa. Searle non propone però una strada alternativa da seguire. Ci dice solo che qualsiasi macchina pretenda di essere un cervello artificiale deve avere gli stessi poteri causali di un cervello reale e ciò non può avvenire attraverso la sola esecuzione di programmi da parte di un computer, in quanto questa non è in grado di catturare una dimensione fondamentale della vita mentale, quella del senso. L'uso del computer è però imprescindibile quando si tratta di elaborare modelli e metterli alla prova, soprattutto, come abbiamo visto, quando si ha a che fare con sistemi complessi quali il cervello. La critica di Searle, condannando in partenza ogni tentativo di costruire modelli del cervello che passi attraverso il computer apre un nuovo problema: elaborare modelli della mente che non passino attraverso i programmi per computer tradizionali, che lavorano in serie. Come costruire questi strumenti? Questi modelli eviteranno il riduzionismo? Il problema è forse di più ampia portata: se la mente è una proprietà emergente del cervello, se essa, cioè, è causata da esso pur non riducendosi alla somma di neuroni e connessioni, come si può pensare di creare una mente ricreando il cervello? Cosa potrebbe, vale a dire, garantirci che, avendo ricreato in tutto e per tutto la struttura del cervello, avremo al contempo creato una mente? Se la mente è qualcosa in più della somma delle parti che la causano, come potrà essere racchiuso in un modello questo «qualcosa in più», senza rischiare di ridurlo a ciò che lo causa?
5. Il problema della natura delle rappresentazioni mentali
Attraverso l'analisi critica del Connessionismo svolta da Searle, siamo giunti ad interrogarci su quale debba essere la natura di studi e ricerche che vogliano interrogarsi, in modo approfondito, sulla natura della mente e sui suoi rapporti con il cervello. Abbiamo visto come il Connessionismo sembrasse costituire un approccio promettente. Abbiamo inoltre accennato al fatto che le reti neurali sono in grado di apprendere dalle proprie esperienze e di modificare, quindi, le proprie «conoscenze» di partenza. C'è però un elemento da tener presente. Quando noi ci confrontiamo con l'ambiente in cui viviamo, non lo facciamo come se la nostra mente fosse una tabula rasa, in quanto siamo portatori di un bagaglio di conoscenze acquisite sia nel corso della nostra vita, sia nel corso dell'intera evoluzione dell'essere umano; noi vediamo il mondo attraverso una serie di concetti, di significati dai quali ci è impossibile prescindere e che condizionano il nostro modo di rapportarci ad esso. Una rete neurale è si in grado di apprendere, ma essa non dispone di questa conoscenza previa con la quale ci avviciniamo al mondo e dall'interazione col quale viene modificata continuamente. Non si tratta di un problema tecnico: il problema, in altre parole, non consiste soltanto nel non essere in grado di dotare un sistema di una proprietà ben definita; il problema, al contrario, è ben più complesso, in quanto riguarda la natura stessa del tipo di conoscenza messa in gioco. Si può in qualche modo delimitare questa forma di pre-conoscenza? Possiamo definire quali assunti, giusti o sbagliati, rientrino in essa? La nostra mente è il risultato di migliaia di anni di evoluzione, biologica e culturale assieme; come si può immaginare di creare una mente prescindendo da questo elemento? La mente, inoltre, è in continuo contatto con altre menti, che a loro volta hanno un patrimonio di conoscenze molto diverso, dovuto ad esperienze diverse, avute in contesti diversi. Come tener conto di tutto ciò a livello di una singola simulazione? E se anche ciò fosse possibile, fornire ad una rete neurale questo tipo di conoscenza sarebbe la stessa cosa che acquisirla attraverso un lungo processo evolutivo e attraverso un continuo confronto con l'ambiente? A questi problemi se ne aggiunge un altro, di portata non inferiore: la nostra conoscenza è linguisticamente articolata; come possiamo fornire ad una rete neurale priva di linguaggio, conoscenze sul mondo e sugli altri che passano attraverso il linguaggio? Alla luce di tutto ciò, si potrebbe chiedere, dobbiamo forse concludere che programmi e simulazioni non hanno alcuna pertinenza con la mente?
No, a giudizio di Searle, quanto detto comporta solo che non si può pensare di utilizzarli come spiegazioni esclusive o riproduzioni soddisfacenti della mente; essi possono, tuttavia, essere considerati come validi strumenti di indagine. Essi, infatti, ci forniscono dei modelli attraverso i quali possiamo studiare la mente e i suoi rapporti con il cervello. Ciò appare ancora più evidente se ricordiamo che il rapporto tra mente e cervello è un rapporto di emergenza della prima dal secondo. Searle ha mostrato che quando si ha a che fare con proprietà emergenti non si può in alcun modo ridurle alla somma delle parti del sistema dal quale emergono ed è questa emergenza che rende impossibile ogni forma di riduzione. Ciò che emerge porta con sé pochissime tracce di ciò da cui emerge e, pertanto, non è affatto evidente quale rapporto ci sia tra mente e cervello. Questo spiega perché Searle sia così scettico di fronte alle prospettive di IA e Connessionismo, che hanno indubbiamente il merito di aver proposto delle vie per tentare di costruire la mente e di aver delineato dei modelli che tentano di individuare il rapporto tra mente e cervello. Egli, invece, criticando le posizioni tradizionali, ha mostrato, con il naturalismo biologico, che questo rapporto è molto più complesso di quello indicato dal riduzionismo e dal dualismo, anche se non ha proposto, da un punto di vista effettivo, alcun modello per spiegare come si articoli. Ciò non toglie nulla alla sua posizione che è riuscita ad andare oltre il secolare contrasto tra materialismo e dualismo, entrambi incapaci di render conto di due aspetti essenziali ed apparentemente inconciliabili della mente: l'emergenza e il rapporto con il cervello. Ma, detto questo, a nostro giudizio occorre anche rilevare come vi sia il bisogno di strumenti che ci consentano di studiare questi aspetti, di comprenderne le dinamiche ed è per questo che abbiamo appunto affermato dianzi che le simulazioni e le reti neurali sono validi strumenti di indagine. Sempre a nostro giudizio, va evitato sia l'atteggiamento eccessivamente ottimistico di chi crede che le reti neurali e i robot siano la versione artificiale di quello che siamo noi, sia l'atteggiamento eccessivamente critico di chi ritiene che essi siano del tutto non pertinenti ad uno studio dell'uomo.
Le simulazioni, abbiamo visto, possono essere molto utili per studiare sistemi complessi ma, ammonisce Searle, la simulazione non va confusa con la riproduzione: simulare il funzionamento dei neuroni non significa automaticamente riprodurre la mente. Proprio per questo non si deve temere che le simulazioni e le reti neurali implichino, una volta considerate strumenti di indagine, una qualche forma di riduzione della mente ad un programma: così intese, infatti, esse non pretendono di cogliere esaurientemente l'essenza del mentale ma si offrono come tentativi di avvicinarsi e dar forma ad una realtà tanto complessa, preservando, tuttavia, il suo carattere di proprietà emergente. Ed è da questo punto di vista che il Connessionismo può essere considerato come un ampliamento della prospettiva searliana, che rimane ad un livello puramente filosofico. La costruzione di modelli della mente è fondamentale per saggiare la validità delle teorie in gioco e permette, inoltre, di passare da un discorso generale sulla mente e sui suoi rapporti col cervello, quale è quello di Searle, ad una indagine più dettagliata di questi stessi rapporti: la strada della costruzione di modelli ci aiuta a capire quali possono essere le strade giuste da seguire e quali quelle da evitare. Questi modelli forniscono alla mente uno specchio in cui osservare il proprio funzionamento: anche se tale specchio risulta imperfetto, è pur tuttavia l'unico di cui disponiamo. Questa imperfezione non va considerata come un limite ascrivibile alla nostra capacità di costruire teorie e modelli della mente; essa, a nostro giudizio, potrebbe essere ascrivibile alla natura stessa della mente: lo specchio in cui si rispecchia la mente potrebbe, cioè, essere imperfetto proprio a causa del suo carattere emergente. Se, infatti, essa cresce in continuazione, in virtù della sua interazione con altre menti e con l'ambiente, non si arriverà mai ad un punto in cui potremmo dire, in modo definitivo, «questa è la mente» e in cui, quindi, potremmo chiuderla in una simulazione. Da ciò consegue che non è affatto detto che un aumento delle nostre conoscenze ci porterà ad una spiegazione esauriente della mente in quanto, andando avanti, questa emergenza potrebbe delinearsi in maniera sempre più evidente davanti a noi. L'emergenza è una caratteristica fondamentale della mente ed è per questo che abbiamo più volte sottolineato la sua importanza. Proprio per questa sua caratteristica, potremmo dire che essa «è come il bagliore dell'acqua: lo si può inseguire, ma si allontana sempre di tanto quanto uno gli si fa più vicino».
Roger Penrose (Colchester, 8 agosto 1931) è un fisico, matematico e filosofo britannico, noto per il suo lavoro nel campo della fisica matematica, in particolare per i suoi contributi alla cosmologia. Egli si occupa inoltre di giochi matematici ed è un controverso filosofo.
Penrose è famoso per l'invenzione avvenuta nel 1974 della tassellatura di Penrose, che è formata da due tasselli che possono ricoprire un piano solo aperiodicamente. Nel 1984, si sono ritrovati schemi simili nella disposizione degli atomi nei quasicristalli.
Il suo contributo più importante probabilmente è l'invenzione avvenuta nel 1971 dei reticoli di spin, che più avanti sarebbe confluita in molte delle più promettenti geometrie dello spaziotempo per la gravità quantistica. Ha dato inoltre importanti contributi alla fisica matematica con la sua Teoria dei twistors.
Egli ha scritto vari libri divulgativi. In La mente nuova dell'imperatore e Ombre della mente, dopo aver descritto lo status attuale della fisica, Penrose affronta i limiti teorici dell'intelligenza artificiale e sostiene un determinato punto di vista: secondo l'autore, esistono delle differenze intrinseche e inelimiabili fra l'intelligenza artificiale e l'intelligenza dell'uomo. In questi libri, egli cerca di dimostrare simili affermazioni osservando che l'uomo può compiere operazioni che non sono riconducibili alla logica formale, come sapere la verità di asserzioni non dimostrabili, o risolvere il problema della fermata. Queste affermazioni furono fatte in origine dal filosofo John Lucas del Merton College di Oxford.
È inoltre autore del libro La strada che porta alla realtà, che racchiude in 1200 pagine lo stato della fisica teorica moderna.
Penrose, prendendo come spunto alcune scoperte di Hameroff, ha elaborato una teoria della consapevolezza umana dove viene ipotizzato che questa potrebbe essere il risultato di fenomeni quantistici ancora ignoti che avrebbero luogo nei microtubuli dei neuroni e che rientrerebbero in una nuova teoria capace forse di unificare la teoria della relatività di Einstein con la meccanica quantistica. Max Tegmark, in uno scritto pubblicato sulla rivista Physical Review E, ha calcolato che la scala di tempo di attivazione ed eccitazione di un neurone nei microtubuli è più lento del tempo di decoerenza pari a un fattore di almeno 10.000.000.000.
* La mente nuova dell'imperatore, Rizzoli, Milano 1992
* Ombre della mente, Rizzoli, Milano 1996
* Il grande, il piccolo e la mente umana, Raffaello Cortina, Milano, 1998
* La strada che porta alla realtà, Rizzoli, Milano, 2005,
Brani antologici
Computazione e intelligenza umana
La tecnologia dei robot controllati da calcolatori elettronici non aprirà la strada alla costruzione artificiale di una macchina veramente intelligente - nel senso che comprenda ciò che fa e agisca sulla base di quella comprensione. I calcolatori elettronici sono, senza dubbio, importanti nel chiarire molti problemi collegati ai fenomeni mentali (forse, in larga misura, insegnandoci ciò che gli autentici fenomeni non sono), oltre a essere un aiuto, potente e valido, per il progresso scientifico, tecnologico e sociale.
[da Penrose, Ombre della mente, Rizzoli, Milano, 1996, pag. 477]
Considerazioni sulla coscienza
Nelle discussioni del problema mente-corpo ci sono due problemi separati su cui si concentra di solito l'attenzione: "In che modo un oggetto materiale (un cervello) può suscitare concretamente la coscienza?" e, inversamente, "In che modo una coscienza, attraverso l'azione della sua volontà, può influire realmente sul moto (in apparenza fisicamente determinato) di oggetti materiali?". Questi sono gli aspetti passivo e attivo del problema mente-corpo. Pare che noi abbiamo, nella "mente" (o piuttosto nella "coscienza") una "cosa" immateriale che, da un lato, è suscitata dal mondo materiale e, dall'altra, può influire su esso. Io [preferisco] però [...] considerare un problema un po' diverso e forse più scientifico [...]: "quale vantaggio selettivo conferisce una coscienza a coloro che la posseggono?"
Nel formulare le domande in questo modo [...] c'è l'assunto che [la coscienza] "faccia effettivamente "qualcosa", e inoltre che ciò che essa fa sia utile alla creatura che la possiede, cosicché un'altra creatura equivalente in tutto ma priva di coscienza si comporterebbe in un qualche modo meno efficace. D'altra parte, si potrebbe credere che la coscienza non sia altro che un concomitante passivo del possesso di un sistema di controllo sufficientemente complesso e che, di per sé, in realtà non "faccia nulla".
[da Penrose, La mente nuova dell'imperatore, Rizzoli, Milano, 1992, pag. 512]
Non tutta l'attività cerebrale è direttamente accessibile alla coscienza. In effetti, una fra le strutture encefaliche più "antiche", il cervelletto [...] sembra eseguire azioni molto complesse senza che in essa sia direttamente implicata la coscienza. Eppure la natura ha deciso di sviluppare esseri pensanti come noi, anziché accontentarsi di esseri in grado di comportarsi sotto la direzione di meccanismi di controllo del tutto inconsci. Se la coscienza non serve a nessun fine selettivo, perché la natura si è data la pena di sviluppare cervelli coscienti quando cervelli "autonomi" non pensanti, come il cervelletto, avrebbero potuto cavarsela altrettanto bene?
[da Penrose, op. cit., pag. 516]
Coscienza e teorema di Gödel
Buona parte della ragione per credere che la coscienza sia in grado di influire su giudizi di verità in modo non algoritmico deriva dalla considerazione del teorema di Gödel. Se riusciamo a renderci conto che il ruolo della coscienza non è algoritmico nella formazione dei giudizi matematici, in cui sono un fattore importante il calcolo e la dimostrazione rigorosa, allora senza dubbio potremo convincerci che un tale ingrediente non algoritmico potrebbe essere cruciale anche per il ruolo della coscienza in situazioni più generali (non matematiche). [...]
Qualsiasi algoritmo (abbastanza esteso) un matematico possa usare per stabilire la verità matematica - o [...] qualsiasi sistema formale adotti [...] - ci saranno sempre proposizioni matematiche [...] di cui il suo algoritmo non sarà in grado di dare la soluzione. Se il funzionamento della mente del matematico fosse interamente algoritmico, l'algoritmo (o il sistema formale) da lui usato per formarsi i giudizi non gli permetterebbe di giudicare la proposizione costruita col suo algoritmo personale".
[da Penrose, La mente nuova dell'imperatore, pag. 526]
Sulla "non computabilità"
Il fenomeno della coscienza può nascere solo in presenza di qualche processo fisico non computazionale che avvenga nel cervello. Si deve, tuttavia, ritenere che simili (presunti) processi non computazionali dovrebbero essere intrinseci anche all'azione della materia inanimata, poiché in definitiva il cervello umano è composto dello stesso materiale, che soddisfa le medesime leggi fisiche, degli oggetti inanimati dell'universo. Dobbiamo perciò [domandarci]: perché sembra che il fenomeno della coscienza avvenga soltanto, per quanto ne sappiamo, nel (o in relazione al) cervello [...]?
Non c'è dubbio che la risposta [a questa] domanda abbia qualcosa a che fare con la sottile e complessa organizzazione del cervello, ma questa, da sola, non sarebbe sufficiente a fornire una spiegazione. In conformità alle idee che sto qui proponendo, l'organizzazione del cervello dovrebbe essere tale da trarre vantaggio da azioni non computabili nelle leggi fisiche, mentre i materiali ordinari non sarebbero così organizzati. Questa rappresentazione è notevolmente differente da un'opinione espressa più comunemente, circa la natura della coscienza, secondo cui la consapevolezza sarebbe una specie di "fenomeno emergente", che nascerebbe solo come caratteristica di una sufficiente complessità o raffinatezza di azione, e non richiederebbe il sostegno di alcun processo fisico, specifico e nuovo, fondamentalmente differente da quelli che già conosciamo".
[da Penrose, Ombre della mente, cit., pag. 273]
Nella fisica quantistica, in aggiunta al comportamento deterministico (e computabile), dato dalle equazioni della teoria quantistica, vi è anche qualche libertà supplementare di natura del tutto casuale. Da un punto di vista tecnico queste equazioni non sono caotiche, ma l'assenza di caos è sostituita dalla presenza dei sopracitati elementi casuali che integrano l'evoluzione deterministica [...]. Anche simili elementi puramente casuali non forniscono la necessaria azione non algoritmica. E' così evidente che né la fisica classica, né quella quantistica, nelle loro attuali versioni, permettono un comportamento non computabile del genere richiesto.
[da Penrose, op. cit., pag. 272]
Il non determinismo classico si richiama solo a elementi casuali, ma ciò non ci aiuta molto. Tali elementi casuali sono ancora al di fuori del nostro controllo. Al loro posto si potrebbe avere la non computabilità. Si possono avere tipi di computabilità di ordine superiore [...]. Dunque, si dovrebbe considerare il problema se esista un qualche tipo di non computabilità di ordine superiore che riguarda la maniera in cui si evolve l'Universo reale. Forse, il nostro libero arbitrio ha qualcosa a che fare con tutto questo".
[da Penrose, Il grande, il piccolo e la mente umana, Raffaello Cortina, Milano, 1998, pag. 126]
La discussione filosofica intorno al cosiddetto ‘problema mente-corpo’ vede contrapporsi, a partire dal secondo dopoguerra, due filoni principali di ricerca: quello materialista, soprattutto nella forma della ‘teoria dell’identità’, per cui gli stati mentali sono identici a stati fisici cerebrali; quello funzionalista, che definisce gli stati mentali come stati funzionali, cioè in base al ruolo assunto nel sistema complessivo dei comportamenti e degli altri stati mentali del soggetto di cui fanno parte, indipendentemente dalla particolare concretizzazione che tale soggetto, e tali stati, si trovano ad avere. Il punto di maggior contrasto tra le due tesi consiste proprio nel fatto che mentre per i materialisti la produzione di uno stato mentale è legata a uno specifico processo neurofisiologico (o comunque fisico), per i funzionalisti essa è realizzabile in modi fisicamente eterogenei a seconda del sistema cui lo stato mentale appartenga, avendo come paradigma la modalità con cui gli stessi programmi per computer sono espletati da diversi hardware.
In realtà i confini tra i due punti di vista, e tra essi e la posizione dualista, che ritiene gli ambiti del fisico e del mentale due sfere del tutto distinte, sono alquanto sfumati. Il funzionalismo, per esempio, viene classificato tra i ‘materialismi’ dal filosofo statunitense John Searle, che sottolinea che esso, diversamente dal dualismo, vede nella mente qualcosa che non esiste né può esistere separatamente dal mondo fisico e negli stati mentali particolari stati fisici (che però sono mentali in quanto si trovano inseriti in un certo «schema di relazioni causali»). Anche alcuni tra i maggiori sostenitori della rilevanza filosofica e scientifica del funzionalismo e degli studi sull’intelligenza artificiale, come Daniel Dennett e Donald Gillies, ne sottolineano gli importanti ‘aspetti di materialità’.
D’altra parte, come lo stesso Searle evidenzia, i funzionalisti prescindono totalmente dalla realizzazione concreta che esegue il ‘programma-mente’, e «accettano il presupposto che la mente sia in qualche modo avulsa dalla realtà ordinaria e impura, imperfetta e materiale in cui viviamo. La mente appare loro (le parole sono di Dennett e Hofstadter) come qualcosa di formale e astratto”». Dunque, «è meglio considerare l’IA forte come una sorta di tentativo estremo di dualismo».6
Perfino nel materialismo odierno è possibile individuare la presenza di ‘allusioni’ dualistiche. È questo il caso dello scienziato Alwin Scott, che si dice ‘materialista’ (ma non ‘materialista riduzionista’), e che nello stesso tempo propone un ‘dualismo emergente’, per cui «non dovrebbe stupire che la ‘materia del cervello’, e quindi quella della mente, sia diversa dalla ‘materia nervosa’». La prospettiva vuole sempre essere materialista (‘materia del cervello’ e ‘della mente’ coincidono), ma Scott considera la Natura come descrivibile a vari livelli, dinamicamente interagenti l’uno con l’altro, ma ognuno con leggi specifiche (pur riconducibili alle leggi chimico-fisiche), con regolarità indipendenti da quelle che si manifestano ai livelli inferiori. In questo quadro, la coscienza è vista come un «fenomeno emergente che nasce da molteplici eventi discreti, fusi insieme a formare un’esperienza unitaria», non riducibile ai – ma comprensibile attraverso lo studio dei – suoi livelli inferiori (neuroni, proteine, atomi…).
Concezione simile è quella di Searle, il quale pur sentendosi ugualmente a disagio davanti alle categorie classiche di ‘dualismo’ e ‘materialismo’, da un lato non manca mai di ricordare che la mente può produrre effetti sulla natura solo nella misura in cui ne fa parte, fondandosi sulla neurofisiologia, e che la coscienza è interamente causata dal «comportamento di fenomeni biologici di basso livello», dall’altro ritiene che gli stati mentali non possano essere proprietà «ricavate limitandosi a osservare la composizione degli elementi costitutivi e le loro relazioni con l’ambiente circostante: devono invece essere spiegate in base alle interazioni causali che intercorrono tra gli elementi stessi».Viene così introdotta una discriminazione tra riduzione causale e ontologica, e la seconda è decisamente criticata: «La pura sensazione qualitativa del dolore è una caratteristica del cervello assai diversa dalla combinazione delle scariche neuronali che causano il dolore. È dunque possibile avere una riduzione causale del dolore rispetto alle scariche neuronali, ma non una riduzione ontologica. Ovvero, si può fornire un resoconto causale completo del perché proviamo dolore, ma questo non dimostra che il dolore non esista veramente». Questo perché c’è un aspetto reale di esperienza soggettiva, insito negli stati di coscienza, che non può essere colto dalla descrizione fisica oggettiva; l’apparenza soggettiva fa parte della realtà della coscienza, e il nostro schema di riduzioni consueto, per com’è strutturato oggi, non riesce a coglierla. Rimane quindi una distinzione ontologica tra stati mentali come le sensazioni e stati fisici come i processi neuronali. Del resto gli esempi della solidità dei tavoli e della liquidità dell’acqua dimostrano per Searle che gli stati mentali non sono l’unico caso di ‘proprietà emergenti’, cioè spiegabili, ma non riducibili, né tantomeno eliminabili, tramite il ricorso alla descrizione dei rapporti causali tra i componenti dei sistemi fisici considerati.
C’è poi da notare che per quanto concerne la riproducibilità di stati mentali in macchine artificiali (tesi tipica del funzionalismo), il materialista, più o meno ortodosso, non ne contesta la possibilità. Il concetto è espresso in modo esemplare da Donald Davidson: «Una persona è un oggetto fisico che funziona in accordo con le leggi fisiche del mondo naturale, dunque non vi è alcuna ragione contraria all’ipotesi di riprodurre un artefatto perfettamente simile a un essere umano naturale. Da questo segue che non c’è alcuna ragione per non ritenere che tale artefatto possa anche pensare, ragionare, prendere decisioni, agire, avere credenze, desideri e intenzioni». Bisogna però mettere in evidenza che per i non funzionalisti tale possibilità è legata alla capacità di riprodurre le modalità fisiche che originano gli stati mentali desiderati, non alla messa in opera di un adeguato programma ‘mentale’ in un macchinario predisposto. Sulla questione, Searle è esplicito: «In linea di principio sarebbe possibile costruire un artefatto, un cervello artificiale, che possa anche causare tali stati interiori […] Eppure è chiaro che un qualsiasi altro sistema capace di causare la coscienza per funzionare dovrebbe possedere poteri causali equivalenti a quelli del cervello. Questo punto segue banalmente dal fatto che il cervello funziona in maniera causale». Diverso è il simulare tramite computer dal riprodurre: «I neuroni possono davvero essere simulati da un programma di computer, ma l’imitazione delle scariche neuronali non assicura il potere dei neuroni di causare la coscienza, più di quanto la simulazione al computer di un temporale o dello scoppio di un incendio non garantisca i poteri causali della pioggia o del fuoco». Searle definisce questo tipo di posizione ‘IA debole’, per contrapporla polemicamente alla IA forte, per la quale simulare computazionalmente (la funzione de) i neuroni equivale a riprodurre la coscienza.
Due sono gli argomenti specifici addotti da Searle contro l’IA forte. Il primo risale al più vecchio intervento di Searle sul problema mente-corpo, Minds, Brains and Programs, ma viene ripetuto in tutti gli scritti su questo tema. Si tratta dell’‘argomento della stanza cinese’, che paragona il lavoro che un computer fa sui simboli che riceve, elabora e dà come output, a quello di un inglese incapace di comprendere il cinese che venga chiuso in una stanza piena di ideogrammi e dotato di una serie di regole nella propria lingua che gli dicano quali segni cinesi, e in quale combinazione, spedire fuori dalla stanza quando certi altri segni cinesi gli vengano recapitati: né il computer né l’inglese in questione capiscono il significato dei simboli che maneggiano, pur potendo entrambi perfino condurre conversazioni in cinese! Ma, nelle parole di Searle: «Ora mi sembra che l’argomento della stanza cinese conceda troppo all’IA forte, in quanto concede che la teoria sia perlomeno falsa. Penso che essa sia invece incoerente, ed ecco perché. Chiedetevi quale sia il fatto che fa sì che le operazioni della macchina con cui ora sto scrivendo siano sintattiche o simboliche. Per quanto riguarda la fisica si tratta di un circuito elettronico altamente complesso. […] La sintassi, in breve, non è intrinseca alla fisica del sistema ma è negli occhi dell’osservatore. Fatta eccezione per i pochi casi degli agenti coscienti che effettivamente elaborano il calcolo, addizionando 2 + 2 per ottenere 4, ad esempio, la computazione non è un processo intrinseco in natura come la digestione o la fotosintesi, ma esiste soltanto in relazione ad alcuni agenti che forniscono un’interpretazione computazionale della fisica».
Dunque, a partire dagli anni Novanta, Searle sviluppa questa seconda argomentazione che mostra che, quasi sempre, gli stati computazionali esistono solo in quanto stati fisici interpretati in tal senso («la sintassi non è intrinseca alla fisica»). La conseguenza è che «a parte i processi mentali del pensiero, nulla è intrinsecamente un computer digitale», pur essendo tutto quanto, compreso il cervello umano, interpretabile come tale da un dato osservatore.
Non tutti i materialisti (in senso ampio), in ogni caso, concordano con l’idea di Searle che sia comunque possibile simulare la mente umana con un software adatto. Il clamoroso ‘caso contro’ è quello del matematico e fisico inglese Roger Penrose, che ha un ruolo preminente nel dibattito degli ultimi anni. Penrose combatte insieme con Searle la battaglia contro chi sostiene che rendere operativo un certo tipo programma per computer (o un algoritmo, «un procedimento di calcolo di qualche tipo», come dice Penrose) sia sufficiente per essere in presenza di una coscienza, ma si distingue per il fatto di impostare il proprio punto di vista sull’impossibilità da parte dell’attività computazionale perfino di simulare una mente cosciente.
Le posizioni in campo sono chiarite dallo stesso Penrose all’inizio del libro Ombre della mente:
«A: ogni pensiero è computo; in particolare, il senso della consapevolezza è suscitato puramente e semplicemente dall’esecuzione di computi appropriati. B: la consapevolezza è una caratteristica dell’azione fisica del cervello; e mentre qualsiasi azione fisica può essere simulata computabilmente, la simulazione computabile non può di per sé suscitare consapevolezza. C: un’appropriata azione fisica del cervello suscita la consapevolezza, ma questa azione fisica non può neppure essere adeguatamente simulata computabilmente. D: la consapevolezza non può essere spiegata in termini fisici, computabili o di altro tipo scientifico». Il primo punto di vista rispecchia l’IA forte; il secondo il pensiero di Searle, che unisce un materialismo non riduzionista e l’IA debole; il terzo il ‘materialismo non simulabile computazionalmente’ di Penrose; il quarto la posizione di chi ritiene la mente un problema non scientificamente risolvibile.
L’originale analisi di Penrose inizia cinque anni prima, in un libro dal titolo La mente nuova dell’imperatore, proprio dal succitato slogan di Searle: «Pare sia diffusa la convinzione che “ogni cosa è un computer digitale”. È mia intenzione, in questo libro, di cercare di mostrare perché, e forse come, non sia necessariamente così». Il testo, che intende confutare l’IA forte, discute preliminarmente l’esperimento mentale della stanza cinese, giudicando che ha «una forza considerevole, anche se non è del tutto conclusivo». Secondo Penrose infatti, l’argomento mal risponde all’obiezione che l’algoritmo, l’insieme di regole, da utilizzare per operare coi ‘simboli cinesi’ potrebbe essere talmente complesso da non poter essere eseguito ‘a mano’ da una sola persona. Searle ribatte infatti che l’inglese della versione originale può essere sostituito da un insieme anche immenso di persone non parlanti il cinese, ma a questo punto si potrebbe obiettare identificando questa ‘popolazione’ nella stanza cinese con l’insieme dei neuroni di un cervello; i singoli ‘neuroni’ non capiscono il cinese, ma si può sostenere che la stanza nel suo insieme (vale a dire: il cervello nel suo complesso) ha, a partire da una mera ma complicata manipolazione di simboli, una comprensione di ciò che ‘le passa dentro’ per poi ‘uscirne fuori’. Quindi per Penrose il «ragionamento di Searle» è molto potente, ma «non stabilisce in modo rigoroso che non esiste una qualche sorta di “comprensione” disincarnata, associata all’esecuzione di quell’algoritmo».
Anni dopo, Penrose ne ribadisce gli aspetti convincenti, esplicitando che il motivo per cui però non ci si può fermare ad esso, risiede nel fatto che è «completamente negativo», cioè non dà (secondo lui) alcuna indicazione su come si possa spiegare scientificamente la questione mente-corpo.
In ogni caso, l’attacco definitivo che Penrose vuole sferrare nei confronti dell’IA, è talmente radicale che, se portato a compimento, consente non solo di togliere di mezzo i pochi dubbi lasciati dalla ‘stanza cinese’ rispetto alla IA forte, ma anche di sconfiggere l’IA debole e la sua pretesa che tutto possa essere interpretato e simulato computazionalmente. Per far questo, Penrose cerca di mostrare che non solo «gli aspetti interni della coscienza» ma anche «le manifestazioni esterne della coscienza non sono riproducibili dalla computazione».
Già nel suo primo intervento del 1989, pur toccando numerosi altri soggetti, la linea di Penrose prevede: in primo luogo, la dimostrazione, con un argomento logico, dell’esistenza negli esseri coscienti di comportamenti non algoritmici, e quindi non riproducibili da parte di un computer (contro le sopra enunciate posizioni A e B); successivamente, l’identificazione di quei processi fisici che permettono di avere negli uomini tali comportamenti oltre la computabilità (contro D). La ‘parte logica’ rilevante, ristretta essenzialmente al cap. 4 e ripresa poi nel conclusivo cap. 10, sviluppa (senza qui citarlo) un argomento esposto per la prima volta dal filosofo John R. Lucas e basato sul risultato dimostrato dal matematico Kurt Gödel nel 1931 e noto come ‘teorema di Gödel’. La ‘parte fisica’, distesa su molte pagine, ma culminante nel cap. 8 e nel cap. 9, conclude che le teorie fisiche attuali non lasciano spazio all’esistenza di processi non algoritmici, e quindi, dato che tali processi devono esistere, come dimostrato dal ragionamento di logica, bisognerà attendere la scoperta di una nuova fisica, che dovrà spiegare tra l’altro anche i misteri della meccanica quantistica e della teoria della relatività.
L’acceso dibattit che segue la pubblicazione del libro tende a soffermarsi in particolare sulle questioni di logica, essendo poste le tematiche di fisica a un livello molto più congetturale. Ciò convince l’autore a produrre un secondo libro, il già citato Ombre della mente, dove la parte relativa a Gödel è corredata da un’ampia collezione di possibili obiezioni e di repliche, mentre le supposizioni relative alla nuova fisica da trovare si fanno più precise e ‘documentate’.
In realtà gli argomenti sviluppati nella sezione logica sono due (anche se i commentatori sovente non se ne accorgono), come confermato in una ulteriore discussione sul tema da Penrose stesso: «L’argomento semplice (che per me è sempre stato convincente a sufficienza) è, di base, il ‘mero’ ragionamento gödeliano […] applicato alla credenza dei matematici di stare “facendo realmente ciò che pensano di stare facendo”, piuttosto che seguire le regole di qualche insondabile algoritmo […] Di conseguenza, le procedure disponibili ai matematici dovrebbero tutte essere conoscibili! […] Le linee di argomentazione complicate sono indirizzate più a quelli che prendono il punto di vista che i matematici non stanno “facendo realmente ciò che pensano di stare facendo”, ma stanno agendo secondo qualche inconscio algoritmo insondabile […] Adotto una linea d’approccio completamente diversa. Cioè esamino come un tale algoritmo insondabile possa plausibilmente prodursi. Si è fatto riferimento prima alla questione del ruolo della selezione naturale […] L’altra possibilità che ho discusso era qualche forma di deliberata costruzione dell’IA». L’argomento gödeliano procede supponendo, per assurdo, che i matematici ragionino secondo una certa procedura computazionale chiamata A, perfettamente conoscibile e da loro ritenuta valida. È possibile (grazie a Gödel) codificare, ordinare, le famiglie di computi, vale a dire di problemi matematici, in modo tale da poter supporre che A si applichi a ciascuna di esse, giungendo a termine nel caso in cui il particolare problema su cui ‘ha ragionato’ non abbia soluzione. Risulta allora che A sarebbe «una sorta di compendio di tutte le procedure disponibili ai matematici umani per dimostrare in modo convincente che una computazione non ha fine». Ma a questo punto il teorema di Gödel entra in gioco in modo decisivo, dimostrando che il problema dell’arresto è irrisolvibile in modo computazionale, cioè che se si crede che la procedura A sia valida, sarà sempre possibile costruire un particolare computo che non ha fine, nonostante il fatto che in quel caso neppure A termina, e quindi (contrariamente alle aspettative) non riesce a mostrare che esso non ha fine. Quindi, dato che noi sappiamo e vediamo che quel computo non termina, e A ‘non lo sa’, A non può rappresentare la nostra ‘comprensione matematica’, che non può dunque essere ridotta a pura computazione: è non computazionale!
Penrose, soddisfatto del risultato raggiunto, che chiama G: «I matematici umani non stanno usando un algoritmo conoscibilmente valido per accertare la verità matematica» (ma si limita ai matematici unicamente perché ritiene di poter rendere rigoroso il ragionamento solo in questo campo, non perché sia convinto che solo qui si sia in presenza di processi non algoritmici), passa ad esaminare tutta una serie di obiezioni di tipo logico-matematico riguardanti l’applicazione del teorema di Gödel. Ma il fulcro del contrattacco di Penrose sta nell’esame delle osservazioni più facilmente ipotizzabili, al di là delle sottigliezze tecniche, cioè che il procedimento A non sia valido oppure che sia inconoscibile (il procedimento in sé o il proprio ruolo di algoritmo alla radice della comprensione matematica).
Il primo caso è liquidato in poche pagine, distinguendo comunque due sottocasi. Se si suppone che sia l’algoritmo alla base della comprensione sia questo suo ruolo di cardine siano conoscibili, procediamo facendo notare che: la sola credenza che il sistema formale F (a noi noto) alla base della nostra comprensione sia valido (e una credenza in senso contrario «sarebbe un punto di vista matematico irragionevole») implica la credenza che «il sistema formale F è consistente» sia vera; ma dato che in tal caso il solito teorema di Gödel (nella forma secondo cui un sistema formale tale da includere l’aritmetica non può essere consistente e completo) dice che questo non sarebbe un teorema di F stesso, ciò contraddice l’ipotesi che F racchiuda tutta la comprensione di tipo matematico. Se invece riteniamo che l’algoritmo sia conoscibile ma che il suo ruolo nella nostra comprensione non lo sia, potremmo realmente essere condotti a concepire che esso non sia valido, sempre con un argomento che sfrutta il teorema di Gödel, «ma è realmente credibile che le nostre inconfutabili convinzioni matematiche possano riposare su un sistema non valido – così non valido che “1=2” faccia parte, in linea di principio, di queste convinzioni?». Nel caso invece che l’algoritmo sia valido, sempre sotto l’ipotesi che esso sia conoscibile, ma non quanto al ruolo di «radice della comprensione matematica», è altrettanto impossibile escludere logicamente che sia realmente l’algoritmo che stiamo cercando; Penrose sottolinea però che questa eventualità sarebbe legata alla presenza, nel ‘nostro’ sistema formale F, di regole di inferenza dalla validità non evidente, per cui non potremmo mai «essere sicuri che F includa effettivamente con precisione la totalità delle nostre conoscenze e intuizioni matematiche inconfutabili», e sostiene che questa conclusione non dovrebbe rendere felici i sostenitori dell’IA, che vorrebbero trovare il modo di riprodurre un simile sistema formale, ma che non potrebbero mai essere sicuri né della sua esistenza né del modo in cui raggiungerlo.
Resta infine l’altra possibilità, cioè che si possa ‘agire matematicamente’ in base a un procedimento computazionale del tutto inconoscibile (in tal caso non potremmo costruire quel certo computo che metterebbe in crisi il procedimento computazionale stesso), e intorno ad essa si sviluppa il resto della ‘parte logica’ del libro, con le cosiddette «linee di argomentazione complicate». Si tratta di un tipo di obiezione molto ricorrente, contro l’argomento gödeliano di Penrose. La replica indaga sull’origine che il presunto algoritmo inconoscibile potrebbe avere.
L’algoritmo alla base della comprensione matematica potrebbe essere stato favorito dalla selezione naturale, ma Penrose contesta l’ipotesi sostenendo che «una particolare abilità a fare matematica incomprensibile [all’epoca dello sviluppo degli esseri umani, quando essi lottavano per la sopravvivenza] non può avere avuto alcun vantaggio selettivo diretto per chi la possedeva, e io sono dell’opinione che non ci può essere stato alcun motivo per la nascita di un simile algoritmo». Tutto cambia se si ritiene la comprensione una capacità non algoritmica di rapporto col mondo, che ha per accidente un aspetto di versatilità matematica: «A superare la soglia della selezione è stata un’abilità generale nel comprendere – che, come caratteristica accidentale, può essere applicata anche alla comprensione matematica. Questa abilità non è algoritmica (a causa dell’argomento di Gödel), ma si applica a molte altre cose, diverse dalla matematica».
Alternativamente, potremmo supporre che l’inconoscibile ‘algoritmo matematico’ possa essere prodotto passo dopo passo a partire da robot inizialmente costruiti dall’uomo, ma successivamente in grado di ‘crescere e svilupparsi’ per proprio conto, di apprendere dall’esperienza, grazie a determinate caratteristiche dei loro software (i cosiddetti programmi organizzati in modo bottom-up, predisposti per imparare a partire dalle conoscenze accumulate). Penrose è comunque sicuro, sebbene sia «preparato ad accettare che le procedure “bottom-up” che sono usate […] potrebbero condurre a un prodotto finale di una complicazione quasi inimmaginabile[, che t]uttavia, questi meccanismi che entrano nella costruzione definitiva dei robot sarebbero in realtà conoscibili – anzi, si potrebbe ben dire […] che questi meccanismi sono, in effetti, già noti». Ponendo dunque come conoscibili i meccanismi M alla base dei ragionamenti matematici degli ipotizzati robot capaci di imparare, anche il sistema formale Q(M) costruito in base a tali meccanismi e le verità matematiche inconfutabili (chiamate *-affermazioni) da esso raggiunte, devono essere considerati umanamente conoscibili. Con questa mossa, Penrose si riconduce al tipo di ragionamento già effettuato nel primo caso esposto, quello relativo all’algoritmo consciamente conoscibile, anche rispetto al proprio ruolo (stavolta però, dal punto di vista dei robot). Un robot, infatti, non può «credere fermamente che Q(M) sia equivalente alla sua nozione di convinzione matematica inconfutabile» perché in tal caso arriverebbe a una contraddizione: sarebbe ‘costretto’ a credere che Q(M) sia valido, e quindi a credere che «il sistema formale Q(M) è consistente» sia vera ma al tempo stesso, per il teorema di Gödel, oltre i poteri dimostrativi di Q(M), cioè oltre le proprie convinzioni. Ma «gli appropriati esperti di IA» potrebbero sapere che il robot è stato costruito proprio secondo i meccanismi computazionali M, e «questo sembra dirci che possiamo avere accesso a verità matematiche […] che sono oltre le capacità del robot, nonostante il fatto che queste siano ritenute pari (o superiori) a quelle umane».
In realtà c’è un risultato ancor più sorprendente che Penrose raggiunge subito dopo, e cioè che il robot in questione (ma anche un uomo stesso) non potrebbe credere di essere ‘costruito’ nei suoi aspetti matematici in base a M, «indipendentemente dal fatto che lo sia o non lo sia realmente!». L’argomento, nella sua forma più stringata e generale è il seguente: «Un matematico umano [ma non solo], se gli si presenta F [sistema formale valido che si suppone inglobi tutti i metodi di ragionamento matematico umanamente accessibili] potrebbe ragionare come segue […]: anche se non so di essere necessariamente [equivalente a] F, concludo che se lo fossi, allora il sistema F dovrebbe essere valido e, ancor più appropriatamente, che F' dovrebbe essere valido, dove F' è uguale a F integrato dall’ulteriore asserzione “io sono F”. Io percepisco che dall’assunzione che io sono F segue che la proposizione gödeliana G(F') [«che asserisce la consistenza di F'»] dovrebbe essere vera e, inoltre, che ciò non sarebbe una conseguenza di F' [per il teorema di Gödel]. Ma ho appena percepito che “se capitasse che io fossi F, allora G(F') dovrebbe essere vera”, e percezioni di questo tipo sono proprio quelle che si suppone che F' dovrebbe avere [e che invece non può]. Dunque, poiché sono capace di percepire qualcosa oltre i poteri di F’, ne deduco che dopo tutto non posso essere [equivalente a] F [ipotesi iniziale che ha condotto a un assurdo]». Penrose ne conclude che «nessun essere cosciente matematicamente consapevole […] può operare secondo un qualsiasi insieme di meccanismi che sia in grado di apprezzare», e quindi l’unica possibilità che un essere di questo tipo ragioni secondo un algoritmo inconoscibile deriva dall’eventualità che un intervento divino lo abbia posto dentro di lui (e che sia dunque totalmente al di là della raggiungibilità da parte dell’IA!).
Giunto a questo punto, l’autore, avendo escluso la possibilità dualista (prefigurata dallo stesso Gödel) che la mente sia capace di operare in modo non computabile, rimanendo invece il cervello sottoposto alle consuete regole computazionali della fisica (o, al limite, casuali della meccanica quantistica), deve porsi alla ricerca della non computabilità in fisica, secondo quanto richiesto dal punto di vista C. Dall’analisi condotta sulla fisica attuale, Penrose trae la conclusione che le teorie odierne non lasciano spazio ad azioni non computabili che possano spiegare la comprensione quantomeno a livello matematico. Questo fatto, unito al rilevamento dei problemi della teoria della relatività e delle difficoltà insite nella spiegazione quantistica della realtà, in particolare al livello dei processi di misurazione, induce Penrose ad asserire che debba essere cercata una nuova fisica, che dia ragione sia dell’esistenza di processi fisici non computazionali che dei misteri della scienza contemporanea.
Penrose articola anche una proposta di soluzione al ‘problema della misurazione’ della meccanica quantistica e di indicazione di possibili luoghi e situazioni nel cervello in cui potrebbero avvenire processi non computabili. Alla domanda «Perché non assistiamo, a livello macroscopico, alle sovrapposizioni di stati quantistici che invece sono attestate a livello microscopico?», comunemente mascherata dall’applicazione del postulato della ‘riduzione della funzione d’onda’, si propone di rispondere che le sovrapposizioni microscopiche persistono fino a un certo momento in cui avviene una ‘riduzione oggettiva’, cioè un processo (detto OR) di reale scelta, non casuale né arbitraria, ma possibilmente non computabile, di uno degli stati del sistema fisico coinvolti nella sovrapposizione. A scanso di equivoci, verrà chiarito successivamente, «a nessun livello ho suggerito che sarebbe nella precisa cadenza della riduzione della sovrapposizione quantistica che una significativa non-computabilità avverrebbe […] Non è tanto una questione di quando, ma di quale all’interno della collezione di stati sovrapposti la Natura in realtà sceglie […] Sarebbe nella particolare scelta che la Natura fa che la non-computabilità potrebbe entrare in modo significativo».
La nuova fisica dovrà dunque collocare un processo del tipo di OR al posto del ‘collasso della funzione d’onda’, spiegando l’equivalenza sperimentale dei due. Ma dove entra questa non computabilità nella fisica del cervello? L’indicazione che emerge da Ombre della mente è piuttosto particolareggiata, e viene congetturato che un ruolo determinante sia da attribuire non ai neuroni (‘troppo grandi’ per essere protagonisti di processi che comunque si devono svolgere a un livello di tipo quantistico), ma ai microtubuli, vere e proprie piccole strutture tubulari poste all’interno dei citoscheletri (a loro volta strutture interne ai neuroni), con caratteristiche adatte ad ospitare azioni di tipo quantistico e probabilmente coinvolte nell’importante (per la mente) operazione di determinazione dell’intensità delle sinapsi tra i diversi neuroni. La struttura di tali microtubuli suggerisce a Penrose, che elabora in seguito più a fondo questa ipotesi insieme a Stuart Hameroff, che possano darsi al loro interno effetti quantistici, e che questi possano poi venire accoppiati agli eventi classici che si realizzano lungo l’esterno dei microtubuli stessi, proprio tramite il presunto processo non computazionale OR. In tal modo questa azione non algoritmica influenzerebbe la dinamica delle sinapsi, e quindi il pensiero, come richiesto dai risultati logici raggiunti nella prima parte.
Anche il dibattito intorno ad Ombre della mente, come già accaduto per La mente nuova dell’imperatore, si concentra sulle questioni di logica, e Penrose pare lamentarsene. La recensione del libro da parte di Searle sembra sfuggire alla regola, in quanto egli tratta e critica (da buon sostenitore dell’IA debole) il modo in cui sono legate la parte logica e quella fisica della linea di pensiero di Ombre della mente. Il filosofo individua subito una ‘crepa’ nel ragionamento di Penrose: «Ciò che l’argomento dimostra è che io non posso essere simulato, al livello del ragionamento matematico, da un programma che utilizza soltanto regole valide di dimostrazione matematica. Ma la conclusione cui giunge Penrose è che io non posso essere simulato da nessuna descrizione possibile dei processi che mi consentono di cogliere la verità delle affermazioni di Gödel. Tale conclusione non segue necessariamente». Per capire precisamente cosa abbia in mente, bisogna tenere presente la concezione della coscienza di Searle: essa è una caratteristica del cervello causata da – ma non riducibile a – processi di livello inferiore del cervello stesso. Searle si riferisce dunque a simulazioni (computabili) dei processi cerebrali, per le quali «le questioni di validità o correttezza non si pongono nemmeno […] Tali simulazioni imitano semplicemente una serie di processi neurologici, semplici e casuali; quelli che stanno alla base dei nostri ragionamenti matematici o di altro tipo». Un esempio banale (ma per Searle un software non è che «una sequenza finita di tali banalità»): se il simbolo 0 sta per «Penrose sta pensando alla verità delle proposizioni di Gödel» e 1 sta per «Penrose coglie la verità di tali proposizioni», allora un programma che dica a un computer di passare dallo stato 0 allo stato 1, simula computazionalmente il ragionamento matematico di Penrose. Similmente, si possono simulare gli eventi cerebrali del suo cervello legati ai suddetti pensieri, ma senza riferimento diretto ad essi, solo a livello di ‘scariche neuronali’, esattamente nel modo in cui si simulano al computer i temporali. È un tipo di simulazione che non garantisce giudizi veri? Ma «nemmeno i processi reali del cervello garantiscono la verità».Dunque, pur essendo poco plausibile, non è impossibile che una comprensione matematica derivi, in modo del tutto non normativo, da simili programmi algoritmici di simulazione del cervello.
Nel commentare le questioni fisiche Searle ritorna su questo tipo di argomento, generalizzandone la conclusione: se anche fosse vero che non è possibile simulare computabilmente la coscienza «non segue necessariamente che le entità che causano la coscienza non possano essere simulate al computer. Più in generale, non c’è alcun problema nel supporre che una serie di relazioni che non sono computabili ad un certo livello di descrizione, possano essere il risultato di processi che sono invece computabili, ad un altro livello di descrizione». La non computabilità nel mentale, nel senso che ‘mentale’ ha per Searle, non implica dunque la non computabilità nel fisico.
La risposta di Penrose non si fa attendere. Maudlin, nel suo commento a Ombre della mente, fa in modo più conciso la stessa osservazione di Searle: «La conclusione della I Parte è che la comprensione matematica non è solo questione di usare algoritmi conoscibilmente validi. In quel senso, c’è più che molta attività computabile nel cervello. Ma semplicemente non segue che l’azione fisica del cervello non sia governata da una dinamica che possa essere simulata su un computer».
Penrose, facendo anche riferimento a Searle, traduce tali annotazioni nell’asserzione che «la computabilità o meno dei matematici non ha conseguenze esternamente osservabili». L’argomento funziona in quanto si basa sul fatto che non ci può essere un output infinito derivante da un essere umano finito, e che quindi ci potrebbe essere «qualche programma di computer che potrebbe, almeno in linea di principio, simulare l’azione di quella persona. Questa è una linea di ragionamento davvero strana, perché invaliderebbe qualsiasi forma di deduzione riguardo la teoria fisica a partire dall’osservazione».Fra l’altro, già in Ombre della mente, Penrose non escludeva la possibilità di una casuale «effettiva simulazione dell’attività umana cosciente», data la finitezza di essa.
Non si deve comunque credere, distratti dalla polemica tra Searle e Penrose, che quest’ultimo si distingua dall’avversario (e più in generale dagli altri materialisti) per il fatto di ritenere irriproducibile il pensiero. Certo, la coscienza non può essere né riprodotta né simulata computazionalmente, ma Penrose esprime ripetutamente la convinzione che un artefatto pensante sia costruibile: «Il punto di vista C accetta che futuri sviluppi scientifici possano condurre alla costruzione di dispositivi – non basati sui calcolatori che conosciamo ora, ma su quella azione fisica non computabile che, secondo C, deve essere alla base stessa dei nostri processi di pensiero cosciente – che potrebbero ottenere intelligenza e consapevolezza reali. Forse questi dispositivi, non i ‘calcolatori’ che ora conosciamo, alla fine supereranno di slancio tutte le capacità umane».
L’autore ritiene questo punto implicito nel fatto che il punto di vista C «ammette che le facoltà mentali possano infine essere comprese in termini scientifici». Dunque non pare che ci siano ‘ansie’, da parte di Penrose, riguardo un possibile superamento delle facoltà umane da parte dell’intelligenza artificiale, come invece supposto da Gillies nel suo commento all’argomento gödeliano di Lucas e Penrose.
Quale può essere allora l’origine di una posizione così fortemente ‘anti-computazionalista’? Searle, nella sua già commentata recensione, ritiene che il non fermarsi all’IA debole derivi dalla convinzione che «la scienza adotta un “punto di vista operazionale” e, se è possibile programmare un computer affinché si comporti esattamente come un essere umano, sarebbe molto attraente da un punto di vista scientifico pensare che il computer possa avere anche gli stessi stati mentali. Penrose vuole dimostrare che non è possibile realizzare un simile programma». In effetti Penrose stesso si esprime in termini simili: «Credo che la normale posizione scientifica (nel senso di opposta a quella filosofica) sarebbe concentrarsi su ciò che può essere osservato esternamente, così un sistema che riesce a simulare gli effetti esteriori della coscienza sarebbe sospettato anche di suscitarli. Così, il mio “punto di vista B” potrebbe non essere felice per un pratico scienziato».
Possiamo però individuare un’altra ragione, ‘più filosofica’ ma forse ugualmente importante, in un pensiero espresso per la prima volta in una pagina di La mente nuova dell’imperatore: «Il problema del determinismo nella teoria fisica è importante, ma io credo che sia solo una parte della storia. Il mondo, per esempio, potrebbe essere deterministico ma non computabile. Il futuro potrebbe quindi essere determinato dal presente in un modo in linea di principio non calcolabile […] La libertà del volere, che sentiamo in noi, dovrebbe essere quindi intimamente connessa con qualche ingrediente non computabile nelle leggi che governano il mondo in cui viviamo». Dunque, il costante impegno a dimostrare l’esistenza di questo «ingrediente non computabile» può essere spiegato col tentativo di trovare un posto all’umana libertà (posto concessole a fatica dalla ‘fisica classica’), senza entrare in conflitto con la spiegazione scientifica del mondo. La realtà è deterministica, ma la nostra sensazione di libertà ha qualche fondato motivo di essere, pare concludere Penrose.