aprile
2003



John R. Searle

IL CERVELLO È UN COMPUTER DIGITALE?
Data d'immissione:
Aprile 2003

Ultima modifica:
11 Aprile 2003

I. Introduzione. Intelligenza artificiale forte, Intelligenza artificiale debole e cognitivismo

Ci sono diversi modi di presentare un intervento presidenziale all’American Philosophical Association; quello che ho scelto io consiste semplicemente nel riferire il lavoro che sto svolgendo ora: un lavoro in corso. Ho intenzione di presentare alcune delle mie riflessioni esplorative sul modello computazionale della mente. L’idea alla base del modello computazionale della mente è che la mente sia il programma e il cervello l’hardware di un sistema computazionale. Uno slogan che si incontra spesso dice: «La mente è per il cervello ciò che il programma è per l’hardware».

Iniziamo la nostra indagine su questo tema distinguendo fra tre questioni: Il cervello è un computer digitale? La mente è un programma per computer? Le operazioni svolte dal cervello possono essere simulate da un computer digitale?

Affronterò la prima questione, non la seconda o la terza. Penso che alla seconda si possa rispondere in modo decisamente negativo. Dal momento che i programmi sono definiti in modo puramente formale o sintattico e dal momento che le menti possiedono un intrinseco contenuto mentale, ne consegue immediatamente che il programma non può costituire la mente. La sintassi formale del programma non è sufficiente a garantire da sola la presenza di contenuti mentali. L’ho dimostrato una decina di anni fa nell’Argomento della stanza cinese (1980). Un computer, io ad esempio, potrebbe svolgere i passaggi nel programma grazie a qualche capacità mentale, come per esempio comprendere il cinese senza capire una parola di cinese. L’argomento si fonda sulla semplice verità logica per cui la sintassi non corrisponde alla semantica, né è di per sé sufficiente a determinare la semantica. Così la risposta alla seconda domanda è ovviamente «no».

La risposta alla terza domanda mi sembra egualmente ovvio sia «sì», almeno per quanto riguarda l’interpretazione naturale. Interpretata naturalmente, la domanda significa: esiste una descrizione del cervello tale che con quella descrizione si possa compiere una simulazione computazionale delle operazioni cerebrali? Ma, se si accoglie la tesi di Church per cui ogni cosa di cui può essere data una caratterizzazione sufficientemente precisa come di una sequenza di passi può essere simulata su un computer digitale, ne deriva banalmente che la domanda ha una risposta affermativa. Le operazioni cerebrali possono essere simulate su un computer digitale nello stesso senso in cui possono essere simulati i sistemi del tempo atmosferico, il comportamento del mercato di New York o il modello dei voli di linea sopra l’America latina. Allora la nostra domanda non è: «La mente è un programma?», la cui risposta è «no»; né è: «Può il cervello essere simulato?», la cui risposta è «sì». La domanda è: «Il cervello è un computer digitale?». Per le intenzioni di questa discussione io sto considerando questa domanda come equivalente a: «I processi cerebrali sono suscettibili di calcolo?».

Si potrebbe pensare che questa domanda perderebbe gran parte del suo interesse con una risposta negativa alla seconda domanda. Il che vuol dire che si potrebbe supporre che al di là del fatto che la mente sia un programma, non c’è nessun interesse per la domanda se il cervello sia un computer. Ma non è questo il punto, in realtà. Persino per quanti ritengono che i programmi non siano i soli elementi costitutivi dei fenomeni mentali resta ancora aperta una domanda importante: ammesso che nella mente ci sia altro oltre le operazioni sintattiche di un computer digitale, nondimeno potrebbe darsi che gli stati mentali siano almeno stati computazionali e che i processi mentali siano processi computazionali che operano sulle strutture formali di questi stati mentali. è questa, infatti, a mio parere, la posizione maggiormente condivisa.

Non dico che la visione sia pienamente chiara, ma l’idea suona più o meno così: a un certo livello descrittivo i processi mentali sono sintattici; ci sono, per così dire, delle «frasi nella testa». Queste devono essere non in inglese o in cinese, ma, forse, nel «linguaggio del pensiero» (Fodor, 1975). Ora, come tutte le frasi, anche queste hanno una struttura sintattica e una semantica, o significato, e il problema della sintassi può essere separato dal problema della semantica. Il problema della semantica è: come acquisiscono un significato queste frasi nella testa? La questione può essere discussa indipendentemente da come il cervello funzioni nell’elaborare queste frasi; tipicamente si suppone che lavori come un computer, eseguendo operazioni di calcolo sulla struttura sintattica delle frasi nella testa.

Tanto per fare chiarezza sui termini, io chiamo Intelligenza artificiale forte la visione in cui tutto ciò che è necessario per avere una mente è avere un programma, Intelligenza artificiale debole la visione in cui processi cerebrali (e mentali) possono essere simulati con un computer, e cognitivismo, la visione in cui il cervello è un computer.

Questo articolo è sul cognitivismo, e sarà meglio spiegare fin dall’inizio ciò che lo motiva. Se si leggono libri sul cervello (per esempio Shepherd, 1983; oppure Kuffler e Nicholls, 1976) si trova una certa idea di ciò che accade nel cervello. Se si guarda a libri sulla computabilità (per esempio Boolos e Jeffrey, 1989) si trova un’idea della struttura logica della teoria della computabilità. Se poi ci si rivolge ai libri sulle scienze cognitive (per esempio Pylyshyn, 1985), essi sostengono che ciò che viene descritto nei libri sul cervello è in effetti la stessa cosa che viene descritta nei libri sulla computabilità. Da un punto di vista filosofico la cosa non mi convince e ho ormai imparato a seguire, almeno all’inizio di una ricerca, il mio istinto.

II. La Storia originaria

Desidero iniziare la discussione cercando di affermare con la massima chiarezza possibile perché il cognitivismo mi sia sembrato intuitivamente attraente. Esiste una storia della relazione tra l’intelligenza umana e la computazione che risale almeno fino al classico scritto di Turing (1950) e io credo che sia da porre lì il momento fondativo della visione cognitivista. Lo chiamerò la Storia originaria.

Iniziamo con due risultati di logica matematica: la tesi di Church-Turing (o equivalentemente, la tesi di Church) e il teorema di Turing. Per quanto ci riguarda, la tesi Church-Turing afferma che per ogni algoritmo esiste una macchina di Turing che può implementare quell’algoritmo. La tesi di Turing dice che esiste una macchina di Turing universale che può simulare qualunque macchina di Turing. Ora, se consideriamo insieme queste due affermazioni abbiamo come risultato che una macchina di Turing universale può implementare un algoritmo qualsiasi.

Cos’è che rende questo risultato così eccitante? Ciò che mandò i brividi su e giù per la spina dorsale di un’intera generazione di giovani ricercatori nel campo dell’intelligenza artificiale è il pensiero seguente: «Immagina che il cervello sia una macchina di Turing universale».

Ci sono delle valide ragioni per supporre che il cervello sia una macchina di Turing universale? Continuiamo con la Storia originaria.

è chiaro che almeno alcune abilità mentali dell’uomo sono algoritmiche. Per esempio, io posso coscientemente eseguire una lunga divisione seguendo i passi di un algoritmo destinato alla risoluzione delle divisioni lunghe. Segue, inoltre, dalla tesi di Church-Turing e dal teorema di Turing che tutto ciò che un essere umano può fare fare con un algoritmo può essere fatto anchecon una macchina di Turing universale. Per esempio posso implementare su un computer esattamente lo stesso algoritmo che uso per fare una divisione lunga a mano. In questo caso, come ha scritto Turing (1950), sia io, il computer umano, che il computer meccanico stiamo implementando lo stesso algoritmo; io lo sto facendo consciamente, il computer inconsciamente. Ora, sembra ragionevole supporre che ci siano moltissimi processi mentali che sono attivi nel mio cervello inconsciamente e che sono anche computazionali. Se le cose stanno così, allora potremmo scoprire come funziona il cervello simulando tutti quei processi su un computer. Proprio come è stata realizzata una simulazione al computer dei processi per fare lunghe divisioni, allo stesso modo potremmo costruire una simulazione al computer dei processi di comprensione linguistica, percezione visiva, categorizzazione e così via.

«Ma che dire della semantica? Dopo tutto, i programmi sono puramente sintattici». A questo proposito, un altro insieme di risultati logico-matematici entra in scena nella nostra storia.

Lo sviluppo della teoria della dimostrazione ha mostrato che, entro limiti ben definiti, le relazioni semantiche tra proposizioni possono essere interamente riflesse dalle relazioni sintattiche tra le frasi che esprimono quelle proposizioni. Ora, supponiamo che nella testa i contenuti mentali siano espressi sintatticamente, allora tutto ciò che dovremmo considerare per i processi mentali sarebbero i processi computazionali fra gli elementi sintattici nella testa. Se comprendiamo correttamente la teoria della dimostrazione, gli elementi semantici prenderanno cura di loro stessi; ed è quanto fanno i computer: implementano la teoria della dimostrazione.

Abbiamo perciò un programma di ricerca ben definito. Cerchiamo di scoprire i programmi implementati nel cervello programmando i computer per implementare programmi uguali. Mettiamo ciò in pratica portando il computer meccanico allo stesso livello di performance del computer umano (cioè che possa superare il test di Turing) e poi invitando gli psicologi a provare che i processi interni sono gli stessi in entrambi i tipi di computer.

Vorrei che il lettore tenesse in mente, leggendo le pagine che seguono, la Storia originaria come l’abbiamo descritta, notando in particolare il contrasto evidenziato da Turing fra l’implementazione cosciente del programma presso il computer umano e l’implementazione non cosciente dei programmi, sia essa del cervello o del computer meccanico; è da notare inoltre l’idea che sia possibile scoprire dei programmi che funzionano nel mondo naturale, esattamente gli stessi programmi che noi inseriamo nei nostri elaboratori meccanici.

Nei libri o articoli che sostengono il cognitivismo si trovano varie assunzioni comuni, spesso non dichiarate, ma non per questo meno pervasive.

1. Si assume spesso che l’unica alternativa all’idea che il cervello sia un computer digitale sia una certa forma di dualismo. L’idea è che, a meno che non si creda nell’esistenza di un’anima immortale come suggeriva Cartesio, si è costretti a credere che il cervello sia un computer digitale. Infatti spesso si ha l’impressione che l’affermazione secondo la quale il cervello è un meccanismo fisico che determina i nostri stati mentali e quella per cui il cervello equivale a un computer digitale non siano altro che la stessa cosa. L’idea, a livello retorico, è di costringere il lettore a pensare che o si trova d’accordo con ciò che sta leggendo oppure si rende protagonista di strane idee antiscientifiche. Recentemente il campo è stato allargato un po’ e si è accettata la possibilità che il cervello possa essere diverso dall’antiquato modello di computer di Von Neumann, ma piuttosto un tipo più sofisticato di elaboratore parallelo. Ancora oggi affermare che il cervello non è simile a un elaboratore equivale a rischiare la propria reputazione scientifica.

2. è stato anche detto che interrogarsi a proposito della natura computazionale delle elaborazioni cerebrali è soltanto una semplice domanda empirica. Deve essere sottoposta a investigazione come per esempio è successo per dimostrare che il cuore è paragonabile a una pompa e che le foglie delle piante permettono la fotosintesi. Non c’è spazio per la logica spiccia né per la semplice analisi concettuale, questo perché stiamo parlando di materia strettamente scientifica. In effetti non credo che molti studiosi del campo riterrebbero che il titolo di questo scritto rimandi in alcun modo a una domanda di natura filosofica. «Il cervello è realmente un computer digitale?» non è una domanda filosofica più di quanto non lo sia «Il neurotrasmettitore delle giunzioni neuromuscolari è realmente acetilcolene?».

Anche persone che non hanno simpatia per il cognitivismo come Penrose e Dreyfus, sembrano trattare l’argomento come un semplice dato di fatto. Non sembrano preoccuparsi poi molto di chiarire esattamente quale asserzione stiano mettendo in dubbio. Ma la domanda che interessa me è: quali sono gli elementi del cervello che permettono di pensarlo come fosse un computer?

3. Un’altra prerogativa stilistica di questi scritti è l’astio e a volte persino la noncuranza con cui le domande fondamentali vengono evitate. Quali sono esattamente le funzioni anatomiche e fisiologiche che vengono discusse a proposito del cervello? Cos’è esattamente un computer digitale? E come dovrebbero connettersi fra loro le risposte a queste due domande? La procedura comune in questi libri e articoli è quella di fare alcune osservazioni a proposito degli 0 e degli 1, dare un riassunto della famosa tesi di Church e Turing e poi continuare elencando una serie di argomenti interessanti quali conquiste e fallimenti nel mondo dei computer. Leggendo questi scritti mi sono sorpreso nello scoprire che c’è un peculiare iato filosofico. Da un lato abbiamo un elegante insieme di risultati matematici che vanno dal teorema di Turing e dalle tesi di Church fino alla Teoria delle funzioni ricorsive. Dall’altro abbiamo un impressionante quantità di congegni elettronici che utilizziamo quotidianamente. Dal momento che abbiamo una matematica così avanzata e un’elettronica così efficace, supponiamo che in qualche modo qualcuno deve avere fatto il lavoro filosofico basilare di collegare la matematica all’elettronica. Ma per quanto ne so, posso dire che ciò non è accaduto. Al contrario, siamo in una situazione particolare dove c’è poco accordo teorico tra i professionisti su domande fondamentali quali: Cos’è esattamente un computer digitale? Cos’è esattamente un simbolo? Cos’è esattamente un processo computazionale? Sotto quali condizioni fisiche esattamente i due sistemi stanno implementando lo stesso programma?

III. La definizione di computazione

Dal momento che non c’è un accordo universale sulle domande fondamentali, credo sia meglio tornare indietro fino alle fonti, fino alle definizione originale data da Alan Turing. Secondo Turing, una macchina di Turing può eseguire certe operazioni elementari: può riscrivere uno 0 sul suo nastro come un 1, può riscrivere un 1 sul suo nastro come uno 0, può spostare il nastro di un passo a sinistra o può spostare il nastro di un passo a destra. è controllata da un programma di istruzioni e ogni istruzione specifica una condizione e un’azione da eseguire se la condizione è soddisfatta.

Questa è la definizione standard di computazione, ma, presa letteralmente, è almeno in parte fuorviante. Se voi aprite il vostro computer di casa nella maggior parte dei casi è poco probabile che troviate uno 0 o un 1 o un nastro. Ma non è questo in realtà il problema della definizione. Per scoprire se un oggetto è realmente un computer digitale, risulta che noi non dobbiamo cercare davvero uno 0 e un 1 ecc. Dobbiamo piuttosto cercare qualcosa che possiamo trattare, calcolare o che possa essere usato come funzionante a 0 e 1. Inoltre, per rendere la questione più complessa, c’è il fatto che questa macchina potrebbe essere fatta pressoché in qualsiasi modo. Come dice Johnson-Laird, «Essa potrebbe essere costituita da ingranaggi e leve come un vecchio calcolatore meccanico; potrebbe essere costituita da un sistema idraulico attraverso il quale scorre l’acqua; potrebbe essere costituita da transistor posti in un microcircuito attraverso cui passa la corrente elettrica; potrebbe essere eseguita anche dal cervello. Ognuna di queste macchine usa un diverso mezzo per rappresentare i simboli binari. Le posizioni degli ingranaggi, la presenza o l’assenza di acqua, la differenza di potenziale e forse gli impulsi nervosi» (Johnson-Laird, 1988, p. 39).

Osservazioni simili sono fatte dalla maggior parte delle persone che scrivono su questo argomento. Per esempio, Ned Block (Block, 1990), mostra come possiamo avere cancelli elettrici in cui l’1 e lo 0 sono assegnati rispettivamente a differenze di potenziale di 4 volt e di 7 volt. Così potremmo pensare che dobbiamo considerare i livelli di tensione. Ma Block dice che solo «convenzionalmente»1 è assegnato a un certo livello di tensione. La situazione diviene più sconcertante quando ci informa ulteriormente che non avremmo bisogno di usare l’elettricità, ma avremmo potuto usare un complesso sistema di gatti e di topi e di formaggio e creare i nostri cancelli in modo tale che il gatto starà in tensione al guinzaglio e aprirà tirando un cancello che possiamo trattare come se fosse uno 0 o un 1. Il punto su cui Block insiste è «l’irrilevanza della realizzazione dell’hardware per la descrizione computazionale. Questi cancelli lavorano in modi diversi ma essi sono nondimeno computazionalmente equivalenti» (Ivi, p. 260). Nell stesso filone, Phylyshyn dice che una sequenza computazionale può essere realizzata da «un gruppo di piccioni addestrati a beccare come una macchina di Turing!» (Phylyshn, 1985, p. 57).

Ma se tentiamo di prendere in seria considerazione l’idea che il cervello sia un computer digitale, otteniamo lo scomodo risultato di poter costruire un sistema che fa tutto quello che fa il cervello. Parlando computazionalmente, da questo punto di vista, si potrebbe ottenere un «cervello» che funzioni proprio come il mio o il vostro pur essendo costituito da cani, gatti e formaggio, dalle leve, dalle tubature, dai piccioni o da qualunque altra cosa a condizione che i due sistemi siano, nell’accezione di Block, «computazionalmente equivalenti». Servirebbe solo una terribile quantità di gatti, piccioni, tubature o qualunque altra cosa. I sostenitori del cognitivismo riportano questo risultato con autentico e manifesto piacere. Invece io penso che dovrebbero esserne preoccupati, e proverò a mostrare che si tratta solo della punta di un intero iceberg di problemi.

IV. Prima difficoltà: la sintassi non è intrinseca alla fisica

Perché i sostenitori del computazionalismo non temono le implicazioni della realizzabilità multipla? La risposta è che essi ritengono che sia tipico del valore funzionale che la stessa funzione ammetta realizzazioni multiple. In tale prospettiva i computer sono come carburatori o termostati. Proprio come i carburatori possono essere fatti di rame o di acciaio, allo stesso modo i computer possono essere fatti con una serie indefinita di materiali.

Ma c’è una differenza: le classi dei carburatori e dei termostati sono definite in termini di produzione di determinati effetti fisici. Questo è il motivo per cui, per esempio, nessuno dice che si possono realizzare carburatori con dei piccioni. Ma la classe dei computer è definita sintatticamente in termini di assegnazione di 0 e di 1. La realizzabilità multipla non è un conseguenza del fatto che lo stesso effetto fisico può essere ottenuto con diverse sostanze fisiche, quanto del fatto che le proprietà rilevanti sono puramente sintattiche. La costituzione fisica è irrilevante nella misura in cui ammette l’assegnazione di 0 e di 1 e il passaggio di stato tra di loro.

Ma tale dato ha due conseguenze che potrebbero rivelarsi disastrose:

1. Lo stesso principio che implica la realizzabilità multipla sembrerebbe implicare anche la realizzabilità universale. Se la computazione è definita in termini di assegnazione di sintassi allora ogni cosa potrebbe essere un computer digitale, perché ogni oggetto può avere sue attribuzioni sintattiche. Ogni cosa potrebbe essere descritta in termini di 0 e di 1.

2. Ancora peggio, la sintassi non è intrinseca alla fisica. L’attribuzione di proprietà sintattiche è sempre relativa a un agente o osservatore che tratta determinati fenomeni fisici come sintattici.

Ora, perché queste conseguenze sarebbero disastrose?

Dunque, noi volevamo sapere come funziona il cervello, e in particolare come produce fenomeni mentali. E dire che il cervello è un computer digitale come lo sono lo stomaco, il fegato, il cuore, il sistema solare e lo stato del Kansas non servirebbe a rispondere alla domanda. Il modello che avevamo era tale che noi avremmo scoperto qualcosa riguardo alle operazioni cerebrali in grado di mostrarci che esso è un computer. Volevamo sapere se non ci fosse qualche senso in cui il cervello fosse intrinsecamente un computer digitale, nello stesso modo in cui le foglie verdi intrinsecamente svolgono la fotosintesi, o il cuore intrinsecamente pompa sangue. Non siamo noi che, arbitrariamente o «convenzionalmente», assegniamo la parola «pompare» al cuore o «fotosintesi» alle foglie: c’è un dato di fatto vero e proprio. E ciò che ci chiedevamo è: «Esiste un elemento del cervello che lo rende un computer digitale?». Non è una risposta affermare che i cervelli sono computer digitali perché ogni cosa è un computer digitale.

Sulla base della definizione standard di computazione: Per ogni oggetto esiste una descrizione di quell’oggetto per cui in base a quella descrizione l’oggetto è un computer digitale. Per ogni programma esiste un oggetto sufficientemente complesso tale che ci sia almeno una descrizione dell’oggetto sulla base della quale l’oggetto implementa il programma. Così per esempio il muro dietro di me sta implementando in questo preciso momento il programma «Wordstar», perché esiste un modello di movimento delle molecole isomorfo rispetto alla struttura formale di «Wordstar». Ma se il muro sta implementando «Wordstar» allora se è un muro abbastanza grande ne segue che sta implementando qualsiasi programma e anche qualsiasi programma implementato nel cervello.

Penso che la principale ragione per cui i sostenitori del computazionalismo non considerano la realizzabilità multipla o universale un problema è che non la vedono come una conseguenza di un punto assai più centrale, cioè che «sintassi» non è il nome di una caratteristica fisica, come la massa o la gravità. Al contrario parlano di «motori sintattici» e persino di «motori semantici» come se un tale discorso fosse lo stesso dei motori a benzina o diesel, come se potesse essere soltanto una questione fattuale che il cervello o qualsiasi altra cosa sia un motore sintattico.

Credo sia possibile, con buona probabilità, bloccare il risultato della realizzabilità universale restringendo la nostra definizione di computazione. Di certo dovremmo rispettare il fatto che i programmatori e gli ingegneri la considerano come un ghiribizzo delle definizioni originarie di Turing e non come una reale caratteristica della computazione. Opere non pubblicate di Brian Smith, Vinod Goel e John Batali suggeriscono che una definizione più realistica enfatizzerà alcune caratteristiche come relazioni causali tra stati di programma, programmabilità e controllabilità del meccanismo, localizzazione nel mondo reale. Ma queste ulteriori restrizioni sulla definizione di computazione non ci aiutano in questa discussione perché il problema veramente centrale è che la sintassi è essenzialmente una nozione relativa all’osservatore. La realizzabilità multipla di processi computazionalmente equivalenti in differenti mezzi fisici era non solo un segno del fatto che i processi erano astratti, ma anche del fatto che non erano affatto intrinseci al sistema. Essi dipendevano da una interpretazione esterna. Stavamo cercando fatti che avrebbero reso i processi cerebrali computazionali. Ma dato il modo in cui abbiamo definito la computazione non ci potranno mai essere tali fatti. Non possiamo dire da un lato che è un computer digitale ogni oggetto cui possiamo assegnare una sintassi e presupporre dall’altro che ci sia una questione di fatto intrinseca alla sua operazione fisica che dipende dal fatto che un sistema naturale come il cervello sia o meno un computer digitale.

E se la parola «sintassi» sembra enigmatica, lo stesso punto può essere raggiunto senza essa. Infatti qualcuno potrebbe affermare che le nozioni di «sintassi» e «simboli» sono solo un modo di dire e ciò che ci interessa veramente è l’esistenza di sistemi di fenomeni fisici discreti e gli stati di transizione fra loro. In quest’ottica non abbiamo veramente bisogno di 0 e 1; sono solo dei diminutivi di comodo. Ma credo che ciò non serva. Uno stato fisico di un sistema è uno stato computazionale soltanto relativamente all’assegnazione a quello stato di un qualche ruolo computazionale, funzione o interpretazione. Lo stesso problema affiora senza 0 e 1 perché nozioni quali computazione, algoritmo e programma non danno il nome a caratteristiche intrinseche fisiche dei sistemi. Gli stati computazionali non sono scoperti all’interno della fisica, ma assegnati alla fisica.

Questo è un argomento diverso dall’Argomento della stanza cinese e avrei dovuto vederlo dieci anni fa, ma non è successo. L’Argomento della stanza cinese ha mostrato che la semantica non è intrinseca alla sintassi. Io ora sto dimostrando il fatto separato e differente che la sintassi non è intrinseca alla fisica. Ai fini della prima questione sto semplicemente supponendo che la caratterizzazione sintattica del computer non fosse problematica. Ma questo è un errore. Non c’è modo di scoprire che qualcosa è intrinsecamente un computer digitale perché la caratterizzazione di esso come un computer digitale è sempre relativa a un osservatore che assegna un’interpretazione sintattica alle pure caratteristiche fisiche del sistema. Allo stesso modo, applicato all’ipotesi del «linguaggio del pensiero», ciò ha come conseguenza che la tesi risulti incoerente. Non c’è modo di scoprire che ci sono, intrinsecamente, frasi sconosciute nella mente perché qualcosa è una frase solo in relazione a un qualche agente o utente che la usa come frase. Egualmente, applicata generalmente al modello computazionale, la caratterizzazione di un processo come computazionale è una caratterizzazione di un sistema fisico dall’esterno; e l’identificazione di un processo come computazionale non identifica una caratteristica intrinseca della fisica ma è essenzialmente una caratterizzazione dipendente dall’osservatore.

Questo punto deve essere compreso esattamente. Non sto dicendo che ci siano dei limiti a priori sui modelli che possiamo scoprire in natura. Potremmo senza dubbio scoprire un modello di eventi nel mio cervello che sia isomoro all’implementazione del programma «vi» su questo computer. Ma dire che qualcosa sta funzionando come un processo computazionale è dire qualcosa di più che un modello di eventi fisici sta avvenendo. Richiede l’assegnazione di una interpretazione computazionale da parte di qualche agente. Analogamente, potremmo scoprire in natura oggetti che abbiano all’incirca la stessa forma delle sedie e che potrebbero anche essere usati come sedie; ma non potremmo scoprire oggetti in natura che funzionino come sedie se non relativamente ad alcuni agenti che li considerano o li usano come sedie.

V. Seconda difficoltà: la fallacia dell’omuncolo è endemica nel cognitivismo

Così sembra di essere giunti a un problema. La sintassi non fa parte della fisica. Ciò porta al fatto che se la computazione è definita in modo sintattico, allora niente è di per sé un computer digitale solamente in virtù delle sue proprietà fisiche. C’è una strada che ci porti fuori da questo problema? Sì, esiste, ed è una strada che viene generalmente adottata nella scienza cognitiva, ma con essa si cade dalla padella alla brace. La maggior parte degli studi che ho visto sulla teoria computazionale della mente riporta diverse varianti della fallacia dell’omuncolo. L’idea è sempre quella di trattare il cervello come se ci fosse al suo interno un qualche agente che lo utilizza al fine di compiere un calcolo. Un tipico caso è quello di David Marr (1982) che descrive la visione come un procedimento che parte da una rete visiva bidimensionale sulla retina e arriva a una descrizione tridimensionale del mondo esterno, come risultato del sistema visivo. La difficoltà è: chi sta leggendo la descrizione? Infatti, nel libro di Marr e in altri studi simili sul tema, sembra quasi di dover invocare un omuncolo all’interno del sistema che permetta di trattare queste operazioni come genuinamente computazionali.

Molti scrittori ritengono che la fallacia dell’omuncolo non sia realmente un problema, perché, dicendolo con Dennett (1978), costoro credono che l’omuncolo possa essere «scaricato». L’idea è questa: visto che le operazioni computazionali del computer possono essere analizzate in unità che sono progressivamente sempre più semplici, fino ad arrivare al semplice circuito bistabile, configurazioni tipo «sì-no» o «1-0», sembrerebbe che gli omuncoli del livello più alto si scarichino in omunculi progressivamente sempre più stupidi, fino ad arrivare al livello basilare di un semplice circuito bistabile che non richiede nessun tipo di omuncolo. L’idea, in breve, è che una scomposizione ricorsiva eliminerà gli omuncoli.

Mi ci è voluto molto tempo per comprendere a cosa queste persone stessero riferendosi, così in caso qualcuno si senta sconcertato per lo stesso motivo, lo spiegherò in dettaglio con un esempio. Supponiamo di avere un computer che moltiplichi sei volte otto per aver quarantotto. Ora ci si chiede: «Come fa?». Bene, la risposta potrebbe essere che addiziona il numero sei a se stesso per sette volte. Ma se ci si chiede: «Ma in che modo addiziona il numero sei a se stesso per sette volte?», la risposta è che innanzitutto il computer converte tutti questi numeri in informazione binaria e poi applica un semplice algoritmo per operare in sistema binario fino a che si arriva al livello basilare nel quale le istruzioni sono nella forma: «Scrivi uno zero, cancella un uno». Così per esempio al livello massimo il nostro omuncolo intelligente dice: «Io so come moltiplicare sei volte otto per avere quarantotto». Ma al livello inferiore esso è rimpiazzato da un più stupido omuncolo che dice: «Io non so attualmente come fare la moltiplicazione, ma posso fare l’addizione». Sotto ne abbiamo di ancora più stupidi che dicono: «Non sappiamo come fare addizione e moltiplicazione, ma sappiamo come convertire il sistema decimale in binario». Più in basso altri ancora più stupidi dicono: «Non sappiamo niente in materia, ma sappiamo come si opera in simboli binari». Al livello base c’è un gruppo compatto di omuncoli che dice solo: «Zero-uno, zero-uno». Tutti i livelli più alti si riducono così a quello di base. Solamente il livello base però esiste realmente; i livelli superiori consistono tutti solo in come-se.

Vari autori (Haugeland, 1981; Block, 1990) descrivono questa configurazione dicendo che il sistema è un meccanismo sintattico che conduce a un meccanismo semantico. Ma dobbiamo ancora affrontare il problema che avevamo prima: Quali fattori intrinseci al sistema lo rendono sintattico? Quali fattori riguardanti il livello base od ogni altro livello fanno tali operazioni tra zero e uno? Senza un omuncolo che si trova fuori dalla scomposizione ricorsiva, non possiamo avere ancora una sintassi con cui operare. Il tentativo di eliminare la fallacia dell’omuncolo attraverso la scomposizione ricorsiva è erroneo, perché l’unico modo per avere una sintassi intrinseca alla fisica è porre l’omuncolo nella fisica.

C’è un aspetto affascinante riguardo a tutto ciò. I cognitivisti ammettono volentieri che i livelli più alti della computazione, per esempio «moltiplica 6 volte 8», sono relativi all’osservatore; non c’è nulla in essi che corrisponda direttamente alla moltiplicazione; tutto è nell’occhio dell’omuncolo/osservatore. Ma essi non vogliono riconoscere tale proprietà ai livelli più bassi. Il circuito elettronico, essi ammettono, non moltiplica davvero 6x8 come tale, esso nella realtà si serve di «zeri» e «uni» e queste operazioni, per così dire, portano alla moltiplicazione. Ma ammettere che i livelli più alti della computazione non sono intrinseci alle scienze naturali è già ammettere che neppure i livelli più bassi lo sono. Ecco dunque che la fallacia dell’omuncolo è ancora con noi.

Per i computer del tipo che puoi comprare al negozio, non c’è problema di alcun omuncolo, ciascun utente reale diventa l’omuncolo in questione. Ma se supponiamo che il cervello sia un computer digitale, stiamo ancora di fronte alla domanda: «E chi è l’utente?». Tipiche domande da omuncolo nelle scienze cognitive sono le seguenti: «Come calcola la forma dall’ombreggiatura un sistema visivo? Come calcola la distanza di un oggetto dalla misura dell’immagine impressa nella retina?». Una domanda parallela potrebbe essere: «Come calcolano i chiodi la distanza che percorrono nell’asse dall’impatto del martello e dalla densità del legno?». E la risposta è la stessa in ambedue i tipi di caso: se stiamo parlando di come il sistema lavora intrinsecamente né i chiodi né il sistema visivo calcolano un bel niente. Noi, come gli omuncoli esterni, potremmo descriverli computazionalmente ed è spesso utile far così. Ma non si comprenderebbe il meccanismo del martellare col supporre che i chiodi stiano in qualche modo intrinsecamente calcolando gli algoritmi del martellamento e non si capirebbe il meccanismo della visione col postulare che il sistema stia calcolando, per esempio, la forma a partire dall’algoritmo dell’ombra che essa proietta.

VI. Terza difficoltà: la sintassi non ha poteri causali

Nelle scienze naturali alcuni tipi di spiegazioni precisano meccanismi la cui funzione causale nella produzione di fenomeni resta da giustificare. Ciò è particolarmente diffuso nelle scienze biologiche. Si pensi alla teoria dei germi patogeni, al caso della fotosintesi, alla teoria dei tratti ereditari basata sul Dna e perfino alla teoria darwiniana della selezione naturale. In ciascun caso viene stabilito un meccanismo causale e in ciascun caso tale specificazione dà una spiegazione dei risultati del meccanismo. Ora se si torna indietro e si considera la Storia originaria appare chiaro che la spiegazione promessa dal cognitivismo è di questo tipo. I meccanismi grazie ai quali i processi mentali producono conoscenze si ipotizza siano computazionali e con lo specificare i programmi avremo specificato le cause della cognizione. Un aspetto positivo di questo programma di ricerca, spesso sottolineato, è che non abbiamo bisogno di conoscere i dettagli del funzionamento del cervello per spiegare la cognizione. I processi cerebrali forniscono solo la macchina esecutrice dei programmi cognitivi, ma il livello del programma è quello a cui le spiegazioni cognitive effettive vengono date. Secondo la classificazione standard stabilita, per esempio, da Newell, ci sono tre livelli di spiegazione: struttura, programma e intenzionalità (Newell chiama questo ultimo livello il livello della conoscenza) e il contributo particolare delle scienze cognitive è reso al livello del programma.

Ma se quanto ho sostenuto finora è corretto, allora c’è qualcosa di sospetto nell’intero progetto. Finora ho pensato che, in quanto spiegazione causale, la teoria dei cognitivisti fosse quantomeno falsa, ma ora sto avendo difficoltà perfino a formulare una versione che sia coerente con l’idea per cui essa potrebbe essere una tesi empirica tout court. La tesi è che ci siano una gran quantità di simboli che vengono manipolati nel cervello, «zeri» e «uni» che balenano attraverso il cervello alla velocità della luce, invisibili non solo ad occhio nudo, ma perfino ai microscopi elettronici più potenti e che sia ciò a causare la cognizione. Ma la difficoltà sta nel fatto che «zeri» ed «uni» non hanno alcun potere causale poiché essi non esistono nemmeno se non negli occhi dell’osservatore. Il programma implementato non ha altri poteri causali che quelli del mezzo che lo implementa giacché il programma non ha esistenza reale, non una propria ontologia aldilà di quella che gli conferisce il mezzo che lo implementa. Parlando in termini materiali non esiste qualcosa come un «livello programma» autonomo.

Ciò lo si può capire tornando alla Storia originaria e ricordando la differenza che c’è tra il computer meccanico e la macchina di Turing umana. Nella macchina di Turing umana c’è effettivamente un livello programma intrinseco al sistema ed esso risulta funzionante in modo causale a quel livello nel convertire input in output. Ciò avviene perché il soggetto umano sta seguendo in modo consapevole le regole per compiere una determinata computazione, il che consente di spiegare in modo causale la sua operazione. Ma quando programmiamo il computer meccanico affinché compia la medesima computazione, l’assegnazione di una interpretazione computazionale è ora relativa a noi, omuncoli esterni. E non c’è più un livello di causa intenzionale intrinseco al sistema. Il computer umano segue consapevolmente delle regole, e questo spiega il suo comportamento, ma il computer meccanico, alla lettera, non segue nessuna regola. è ideato per comportarsi esattamente come se dovesse seguire delle regole, e solo questo è rilevante ai fini pratici o commerciali. Adesso il cognitivismo ci rivela che il cervello funziona come un computer commerciale e questo causa la cognizione. Ma senza un omuncolo, sia il computer commerciale che il cervello sono solo modelli e i modelli non hanno capacità causali oltre quelle dei media che li implementano. Così sembra che non ci sia un modo affinché il cognitivismo possa dare una spiegazione causale della cognizione.

Dal mio punto di vista tuttavia rimane aperto un rompicapo. Chiunque lavori con i computer sa, anche casualmente, che spesso diamo spiegazioni causali che si richiamano al programma. Per esempio, possiamo dire che quando batto questo tasto ottengo risultati simili, perché la macchina sta eseguendo il software «vi» piuttosto che l’«emacs», il che appare come una spiegazione causale ordinata. Così il rompicapo è il seguente: come conciliamo il fatto che la sintassi, come tale, non ha capacità causali con il fatto che noi diamo spiegazioni causali che fanno appello ai programmi? E, ancor più importante, questo tipo di spiegazioni forniranno un modello appropriato per il cognitivismo? Salveranno il cognitivismo? Potremmo, per esempio, mantenere l’analogia con I termostati, sottolineando che proprio come la nozione di «termostato» compare in spiegazioni causali indipendentemente da alcun riferimento alla sua realizzazione fisica, così la nozione di «programma» potrebbe essere esplicativa e altrettanto indipendente dalla fisica.

Per esaminare questo rompicapo tentiamo di fare il punto sul cognitivismo estendendo la Storia originaria per mostrare in che modo le procedure investigative del cognitivista lavorano nella ricerca quotidiana. L’idea che si ha in genere è di programmare un computer commerciale così che simuli qualche capacità cognitiva, come la visione o il linguaggio. Poi, se otteniamo una buona simulazione, una che ci dia almeno l’equivalenza di Turing, ipotizziamo che il computer cerebrale faccia girare lo stesso programma del computer commerciale, e per testare l’ipotesi, cerchiamo un’evidenza psicologica indiretta, come i tempi di reazione. Così sembra che possiamo spiegare causalmente il comportamento del computer cerebrale citando il programma esattamente nello stesso senso in cui possiamo spiegare il comportamento del computer commerciale. Ora, che cosa è inesatto in tutto ciò? Non sembra forse un programma di ricerca scientifico perfettamente legittimo? Sappiamo che la trasformazione del computer commerciale di input in output è spiegata da un programma e nel cervello scopriamo lo stesso programma, perciò abbiamo una spiegazione causale.

Due cose dovrebbero preoccuparci immediatamente di questo programma. Primo, non accetteremmo mai questo tipo di spiegazione per nessuna funzione cerebrale di cui abbiamo capito il funzionamento a un livello neurobiologico. Secondo, non accetteremmo questo programma per altri tipi di sistema che possiamo simulare computazionalmente. Per illustrare il primo punto, riferiamoci per esempio al famoso resoconto What the Frog’s eye tells the Frogs Brain [Che cosa dice l’occhio della rana al cervello della rana] (Lettvin et al., 1959 in McCulloch, 1965). Il resoconto è dato interamente in termini dell’anatomia e della fisiologia del sistema nervoso di una rana. Un tipico passo scelto a caso dice:

1. Rivelatori di contrasto sostenuto

Un assone non ricoperto di mielina di questo gruppo non risponde quando l’illuminazione generale è accesa o spenta. Se il bordo netto di un oggetto, che sia più chiaro o più scuro dello sfondo, si muove nel suo campo e si ferma, l’assone scarica prontamente e continua a scaricare, non importa quale sia la forma del bordo né se l’oggetto sia più piccolo o più grande del campo recettivo» (Ivi, p. 239).

Io non ho mai sentito nessuno dire che tutto questo fosse soltanto l’implementazione dell’hardware, e che essi avrebbero dovuto soltanto individuare quale programma la rana stesse implementando. Io non dubito che si possa trovare una simulazione al computer dei «rilevatori d’insetti» della rana. Forse qualcuno l’ha fatto. Ma noi tutti sappiamo che una volta compreso come il sistema visivo di una rana lavora realmente, il «livello computazionale» divenga irrilevante.

Per illustrare il secondo punto, consideriamo le simulazioni di altri tipi di sistemi. Io, per esempio, sto digitando queste parole su una macchina che simula il comportamento di una desueta macchina da scrivere meccanica. Mentre le simulazioni continuano, il programma di scrittura simula una macchina da scrivere meglio di quanto ogni programma di Intelligenza artificiale che io conosco possa simulare il cervello. Ma nessuna persona sana pensa: «Ormai è da molto tempo che sappiamo come funzionano le macchine da scrivere; sono implementazioni dei programmi di scrittura». Semplicemente, in generale le simulazioni computazionali non forniscono spiegazioni causali dei fenomeni simulati.

Allora cosa ne consegue? Noi, in generale, non supponiamo che le simulazioni dei processi cerebrali ci diano una qualche spiegazione causale in sostituzione o in aggiunta a un resoconto neurobiologico che spieghi come il cervello funziona realmente. E, in generale, non prendiamo in considerazione la frase «X è una simulazione computazionale di Y» per nominare una relazione simmetrica. Cioè, non supponiamo che poiché il computer simula una macchina da scrivere, allora la macchina da scrivere simula un computer. Non supponiamo che poiché un programma di previsione del tempo simula un uragano allora la spiegazione causale del comportamento dell’ uragano sia fornita dal programma. Ma allora perché dovremmo fare un’eccezione a questi principi quando siu tratta di processi cerebrali sconosciuti? Ci sono delle buone ragioni per fare un’eccezione? E che tipo di spiegazione causale è una spiegazione che cita un programma formale?

Qui, credo, ci sia la soluzione al nostro puzzle. Una volta tolto l’omuncolo dal sistema, si rimane soli con una configurazione di eventi a cui qualcuno dall’esterno può attribuire un’interpretazione computazionale. Ora l’unico senso nel quale la specificazione della configurazione si fornisce da sola di una spiegazione causale è che se si sa che una certa configurazione esiste in un sistema allora si sa anche che c’è una causa dello schema. Si possono quindi, per esempio, predire fasi successive da fasi precedenti. Inoltre, se si sa già che il sistema è stato programmato da un omuncolo esterno, si possono fornire spiegazioni che fanno riferimento all’intenzionalità degli omuncoli. Si può dire, per esempio, questa macchina sta facendo quel che deve perché sta eseguendo il programma «vi». è come spiegare che questo libro inizia con un brano che riguarda famiglie felici e non contiene alcun lungo brano che tratta di un gruppo di fratelli, perché è il libro di Tolstoj Anna Karenina non I fratelli Karamazov di Dostoevskij. Ma non si può spiegare un sistema fisico come una macchina da scrivere o un cervello identificando una configurazione che ce lo mostra con la sua simulazione computazionale, perché l’esistenza della configurazione non ci spiega in che modo il sistema lavora realmente in quanto sistema fisico. Nel caso della cognizione la configurazione è a un livello troppo elevato di astrazione per spiegare eventi mentali concreti (e perciò fisici) quali una percezione visiva o la comprensione di una frase.

Ora, penso sia ovvio che non possiamo spiegare come funzionano una macchina da scrivere o degli uragani individuando delle configurazioni formali che condividono con le loro simulazioni computazionali. Perché non è ovvio nel caso del cervello?

Così arriviamo alla seconda parte della nostra soluzione del rompicapo. Facendo il punto sul cognitivismo stavamo supponendo tacitamente che il cervello potesse implementare algoritmi per la cognizione nello stesso senso in cui il computer umano di Turing e il suo computer meccanico implementano algoritmi. Ma è precisamente questa assunzione che abbiamo visto essere erronea. Per rendercene conto chiedamoci cosa succede quando un sistema implementa un algoritmo. Nel computer umano il sistema svolge consapevolmente i passi dell’algoritmo, quindi il processo è sia causale che logico; logico perché l’algoritmo fornisce un insieme di regole per far derivare i simboli dell’output dai simboli dell’input; causale, perché l’agente sta facendo uno sforzo cosciente per svolgere i passi dell’algoritmo. Similmente, nel caso del computer meccanico l’intero sistema include un omuncolo esterno, e con l’omuncolo il sistema è sia causale che logico. Logico perché l’omuncolo fornisce un’interpretazione al sistema della macchina, e causale perché l’hardware della macchina lo causa per avanzare nel processo. Ma tali condizioni non possono essere mescolate con le operazioni neurofisiologiche cerebrali che sono brute, cieche e inconsce. Nel computer cerebrale non c’è un’implementazione intenzionale e conscia dell’algoritmo come invece avviene nel computer umano, ma non ci può essere nessuna implementazione inconscia come avviene invece nel computer meccanico perché ciò richiederebbe un omuncolo esterno per associare un’interpretazione computazionale a degli eventi fisici. Il massimo che possiamo fare è ritrovare nel cervello una configurazione di eventi che sia formalmente simile al programma implementato dal computer meccanico, ma la configurazione da sola non ha la capacità di nominarsi da sola né, quindi, di spiegare nulla.

Insomma, il fatto che l’attribuzione di sintassi non individui alcun potere causale risulta fatale all’esigenza del programma di fornire una spiegazione causale della cognizione. Per analizzare le conseguenze di ciò, ricordiamoci di come appaiono in realtà le spiegazioni dei cognitivisti. Spiegazioni come quella di Chomsky della sintassi dei linguaggi naturali o quella di Marr del processo visivo funzionano stabilendo un insieme di regole seguendo le quali un input simbolico si trasforma in un output simbolico. Nel caso di Chomsky, per esempio, un singolo simbolo input, S, viene trasformato in uno qualsiasi dei potenziali numeri infiniti di frasi mediante l’applicazione ripetuta di un insieme di regole sintattiche. Nel caso di Marr, le rappresentazioni di vettore visivo bidimensionale vengono trasformate in «descrizioni» tridimensionali del mondo seguendo alcuni algoritmi. La distinzione tripartita di Marr tra compito computazionale, soluzione algoritmica del compito e implementazione hardware dell’algoritmo, è diventata famosa (con il nome di distinzione di Newell) come un’asserzione del modello generale della spiegazione.

Se queste spiegazioni vengono considerate ingenuamente, come faccio io, è meglio pensarle come se fosse soltanto un uomo solo in una stanza che procede attraverso una serie di passi seguendo delle regole al fine di formare frasi in inglese o descrizioni tridimensionali, secondo il caso. Ma ora chiediamoci quali eventi del mondo reale si suppone corrispondano a queste spiegazioni come fossero applicate al cervello. Nel caso di Chomsky, per esempio, non siamo tenuti a pensare che l’agente consciamente attraversi una serie di ripetute applicazioni di regole; e neppure siamo tenuti a pensare che sta percorrendo la sua strada inconsciamente attraverso una serie di regole. Piuttosto le regole sono «computazionali» e il cervello esegue le computazioni. Ma cosa significa ciò? Beh, ci si aspetta da noi che pensiamo non sia nulla di diverso da un computer commerciale. Quell’oggetto che corrisponde all’attribuzione a un computer commerciale da parte di un certo insieme di regole lo si ritiene corrispondere all’attribuzione al cervello da parte di quelle stesse regole. Ma abbiamo visto che nel computer commerciale l’attribuzione è sempre relativa all’osservatore, l’attribuzione è relativa a un omuncolo che assegna interpretazioni computazionali agli stati dell’hardware. Senza l’omuncolo non c’è computazione, ma solo un circuito elettronico. Ma allora come facciamo ad avere computazione nel cervello senza un omuncolo? Per quanto ne so né Chomsky né Marr hanno mai sollevato la questione né pensato che si potesse dare una simile questione. Ma senza un omuncolo non c’è un potere esplicativo alla postulazione delle condizioni del programma. C’è solo un meccanismo fisico, il cervello, con i suoi reali livelli causali di descrizione fisici e fisico/mentali.

VII. Quarta difficoltà: il cervello non elabora informazioni

In questa sezione tratto finalmente ciò che penso sia, per alcuni versi, la questione centrale di tutto il discorso, la questione dell’elaborazione delle informazioni. Molti di coloro che si situano nel paradigma scientifico della «scienza cognitiva» riterranno buona parte della mia discussione semplicemente irrilevante e argomenteranno contro di essa come segue:

«C’è una differenza tra il cervello e tutti questi altri sistemi che hai descritto finora, e questa differenza spiega perché una simulazione computazionale nel caso degli altri sistemi sia una mera simulazione mentre nel caso del cervello duplica effettivamente le proprietà funzionali del cervello, e non le modellizza solamente. La ragione è che il cervello, diversamente da questi altri sistemi, è un sistema che elabora informazioni. E questa caratteristica del cervello è, secondo le tue parole, «intrinseca». è un dato di fatto della biologia che le funzioni cerebrali svolgano il processo informativo, e dal momento che possiamo anche processare le stesse informazioni computazionalmente, i modelli computazionali dei processi cerebrali hanno un ruolo del tutto differente da quello dei modelli computazionali del tempo, per esempio».

Ecco allora una ben definita questione della ricerca: «Le procedure computazionali con cui il cervello elabora l’informazione sono le stesse procedure con cui i computer elaborano la medesima informazione?».

Quanto ho appena immaginato che un oppositore dicesse rappresenta uno dei peggiori errori della scienza cognitiva. L’errore è di presupporre che i cervelli elaborino informazioni nello stesso modo in cui i computer sono usati per elaborare informazioni. Per vedere che è un errore confrontiamo quel che accade in un computer con quel che accade in un cervello. Nel caso del computer, un agente esterno codifica delle informazioni in una forma tale da poter essere processata dai circuiti di un computer. Ovvero, lui o lei mettono a punto una realizzazione sintattica dell’informazione che il computer può implementare, per esempio, in differenti livelli di voltaggio. Il computer, quindi, attraversa una serie di passaggi elettrici che l’agente esterno può interpretare sia sintatticamente che semanticamente, anche se, ovviamente, l’hardware non ha sintassi o semantica intrinseche: è tutto nell’occhio dell’osservatore. E la fisica non ha importanza, a condizione che si possa arrivare ad essa per implementare l’algoritmo. Infine, l’output viene prodotto nella forma di un fenomeno fisico che un osservatore può interpretare come simbolo con una sintassi e una semantica.

Confrontiamo quanto sopra con il cervello. Nel caso del cervello nessuno dei processi neurobiologici principali sono relativi all’osservatore (sebbene, ovviamente, possano essere descritti dal punto di vista di un osservatore, come ogni altra cosa) e la specificità della neurofisiologia conta moltissimo. Per chiarire tale differenza facciamo un esempio. Supponete che io veda una macchina venire verso di me. Un modello computazionale standard della visione prenderà l’informazione dalla mia retina e infine emetterà la frase: «C’è una macchina che viene verso di me». Tuttavia non è questo ciò che accade nella realtà biologica. In biologia una serie concreta e determinata di reazioni elettrochimiche vengono prodotte dall’arrivo dei fotoni sulle cellule fotorecettrici della mia retina, e l’intero processo si risolve alla fine in un’esperienza visiva concreta. La realtà biologica non è quella di un mucchio di parole o simboli prodotti dal sistema visivo quanto piuttosto un evento visivo cosciente, determinato e concreto; questa è la vera esperienza visiva. Ora, l’evento visivo concreto è determinato e concreto quanto lo è un uragano o la digestione di un pasto. Noi possiamo, con il computer, creare un modello di elaborazione dell’informazione di quell’evento o della sua produzione, così come possiamo creare un modello per il tempo, per la digestione o per qualunque altro fenomeno, ma i fenomeni di per se stessi non sono sistemi di elaborazione dell’informazione.

In breve, l’elaborazione dell’informazione nel senso usato nelle scienze cognitive è un concettto con un livello di astrazione troppo elevato per catturare la concreta realtà biologica dell’intenzionalità intrinseca. L’«informazione» nel cervello è sempre relativa a una qualche modalità. è specifica per il pensiero, per la visione, l’udito o il tatto, per esempio. Il livello di elaborazione dell’informazione quale è descritto nel modello computazionale della cognizione delle scienze cognitive, d’altra parte, è semplicemente il fatto di ricevere un insieme di simboli come output in risposta a un insieme di simboli immessi come input.

Noi siamo impossibilitati a cogliere questa differenza per il fatto che la stessa frase, «Vedo una macchina venire verso di me», può essere usata per registrare sia l’intenzionalità della visione che l’output del modello computazionale della visione. Ma ciò non dovrebbe impedirci di vedere che l’esperienza visiva è un evento concreto ed è prodotto nel cervello da determinati processi biologici ed elettrochimici. Confondere tali eventi e processi con la manipolazione di simboli formali equivale a confondere la realtà con il suo modello. Il punto centrale di questa parte del discorso è che usando il termine «informazione» nell’accezione usata nelle scienze cognitive è semplicemente falso dire che il cervello è un dispositivo per elaborare informazioni.

VIII. Indice della discussione

Questa breve discussione ha una semplice struttura logica che ora vado ad esporre:

Nella definizione standard, la computazione è definita sintatticamente in termini di manipolazione di simboli.

Ma sintassi e simboli non sono definiti in termini di fisica. Sebbene le occorrenze dei simboli siano sempre occorrenze fisiche, «simbolo» e «stesso simbolo» non sono definiti in termini fisici. In breve, la sintassi non è connessa intrinsecamente alla fisica.

La conseguenza di ciò è che la computazione non è stata scoperta con la fisica ma ad essa è stata attribuita. Alcuni fenomeni fisici sono attribuiti o usati o programmati o interpretati sintatticamente. La sintassi e i simboli sono relativi all’osservatore.

Ne consegue che non è possibile «scoprire» che il cervello o qualsiasi altra cosa sia intrinsecamente un computer digitale, sebbene sia possibile attribuirgli un’interpretazione computazionale così com’è possibile per qualsiasi altra cosa. La questione non è che l’affermazione: «Il cervello è un computer digitale» sia falsa, ma piuttosto che non raggiunga un livello di falsità. Non ha un senso chiaro. Il mio discorso sarà mal interpretato se si crede che io stia argomentando sul fatto che sia semplicemente falso che il cervello sia un computer digitale. La domanda «Il cervello è un computer digitale?» è mal posta come le domande «è un abaco?», «è un libro?», «è un insieme di simboli?» o «è un insieme di formule matematiche?».

Alcuni sistemi fisici facilitano l’uso computazionale molto meglio di altri. Per questo noi li costruiamo, li programmiamo e li usiamo. In tali casi noi siamo l’omuncolo nel sistema che interpreta i fenomeni fisici sia in termini sintattici che semantici.

Ma le spiegazioni causali che diamo non citano proprietà causali diverse da quelle fisiche dell’implementazione e dell’intenzionalità dell’omuncolo.

La via d’uscita standard, sebbene tacita, è di affidarsi alla fallacia dell’omuncolo. La fallacia dell’omuncolo è endemica ai modelli computazionali di cognizione e non può essere rimossa dagli argomenti di scomposizione ricorsiva standard. Questi ultimi affrontano una questione diversa.

Non possiamo evitare i risultati precedenti supponendo che il cervello «elabori informazioni». Il cervello, per quanto riguarda le operazioni intrinseche, non elabora informazioni. è un organo biologico specifico e i suoi processi neurobiologici specifici producono forme specifiche di intenzionalità. Nel cervello, intrinsecamente, avvengono processi neurobiologici e qualche volta questi producono consapevolezza. Ma qui finisce la storia.




Bibliografia


LETTURE