LA NUOVA SFIDA DI PROMETEO:
ACCENDERE LA FIAMMA DELLA COSCIENZA IN UN COMPUTER di Astro Calisi

Il notevole sviluppo delle neuroscienze, negli ultimi due o tre decenni, con i paralleli progressi realizzati nel campo della cosiddetta intelligenza artificiale, hanno alimentato la convinzione di poter penetrare con relativa facilità nella cittadella della mente utilizzando gli stessi strumenti e modalità di indagine che tanto successo hanno ottenuto nelle scienze fisiche.
Senonché, alle grandi aspettative dei ricercatori e alle rinnovate dichiarazioni programmatiche, non hanno fatto seguito i risultati attesi. Una autentica comprensione della mente umana continua ad apparire un traguardo piuttosto lontano. Se è vero, infatti, che numerose esperienze indicano una stretta correlazione tra i nostri stati mentali e le attività rilevate in alcune zone cerebrali, è altrettanto vero che tale correlazione non ci dice sostanzialmente nulla circa il rapporto causale esistente tra i due domini di fenomeni. La correlazione non rende conto del come, da un insieme di processi che si svolgono impersonalmente all'interno dei neuroni cerebrali seguendo leggi fisiche ben note, si giunga a esperienze soggettive vissute in prima persona da un determinato individuo.
Non parliamo poi della riproduzione di una facoltà come la coscienza realizzata per mezzo di un calcolatore elettronico opportunamente programmato: traguardo a cui mirano i fautori dell'intelligenza artificiale fin dalla sua fondazione e considerato potenzialmente raggiungibile da molti scienziati e filosofi attuali. Qui, non soltanto si è ben lontani dall'aver raggiunto un qualsiasi risultato concreto, ma non c'è nessuno che sia in grado di indicare, neppure in linea di principio, come un artefatto del genere dovrebbe essere strutturato per acquisire una simile capacità. E quando parliamo di riproduzione della coscienza, non pretendiamo il raggiungimento delle vette dell'autocoscienza, bensì qualcosa di molto più modesto, come ad esempio un barlume, sia pur minimo, di sensitività cosciente - caldo, freddo, pressione, dolore, piacere - magari limitato anche a una sola di tali sensazioni.
La strategia più frequente per giustificare questo stato di impasse è quella di ricordare l'enorme complessità del cervello, con un numero di neuroni che va da 10 a 100 miliardi e le relative interconnessioni assoniche e dendridiche, da poche centinaia a molte decine di migliaia per ogni singolo neurone. Complessità al cui confronto le attuali realizzazioni hardware/software sono da considerarsi di una semplicità quasi ridicola.
Il richiamo alla complessità non avviene tuttavia sulla base di uno schema progettuale, sia pur solo abbozzato, dal quale emergano con sufficiente chiarezza i limiti quantitativi e/o qualitativi dei nostri artefatti di fronte alla struttura e all'organizzazione del cervello. Anzi, ad essere precisi, non abbiamo alcuna idea di come i processi cerebrali, che pure possiamo rilevare grossolanamente con i nostri strumenti e in alcuni casi mettere i rapporto con certe capacità mentali, diano luogo a dette capacità. Mentre sappiamo con sufficiente esattezza quale dev'essere l'organizzazione software/hardware di un elaboratore elettronico per renderlo capace di eseguire calcoli o compiti determinati, purché esattamente definibili in termini di procedure e operazioni elementari, ci troviamo nel buio più completo per quanto riguarda un'ipotetica organizzazione in grado di dar luogo a un fenomeno mentale come quello della coscienza
Ma, a dispetto di questa totale oscurità, molti scienziati mantengono ferma la loro convinzione che i computer rappresentino un buon modello della mente umana e che quindi lo sviluppo di facoltà coscienti sia solo una questione di organizzazione funzionale. In tale loro certezza, tuttavia, essi non possono ignorare certe problematiche che la loro prospettiva inevitabilmente solleva.
Dette problematiche riguardano principalmente alcune caratteristiche della coscienza, come la soggettività dell'esperienza e la libertà implicita nel concetto di volontà cosciente, contrapposte all'oggettività e all'impersonalità dei processi computazionali, che fanno riferimento ad algoritmi determinati, e più in generale a leggi fisiche che vincolano i fenomeni a comportamenti ben precisi.
Le scappatoie più frequenti di fronte a tali difficoltà sono essenzialmente due, e possono essere sintetizzate come segue:
1) tendenza a sminuire l'importanza dei fenomeni coscienti all'interno del processo di adattamento dell'organismo all'ambiente, che arriva in certi casi a considerare la coscienza come un mero epifenomeno, privo di qualsiasi ruolo nella determinazione e nel controllo del comportamento;
2) ricorso alla nozione di "emergenza", secondo la quale livelli molto elevati di complessità strutturale e/o funzionale darebbero origine a caratteristiche e capacità del tutto nuove, non prevedibili e non spiegabili sulla base delle leggi valide ai livelli inferiori.
Questi due aspetti sono spesso compresenti e agiscono in maniera sinergica così da ridurre le distanze (in senso metodologico o, addirittura, ontologico) che separano la coscienza dagli ordinari oggetti e fenomeni del mondo fisico. Tale scopo viene sostanzialmente raggiunto attraverso una svalutazione sistematica dei fattori di diversità e il tentativo di render conto di eventuali residui non eliminabili ricorrendo al concetto ad hoc di "proprietà emergente".
E' appena il caso di far rilevare che tali strategie si collocano agli antipodi del corretto procedere scientifico. In particolare, l'utilizzo del concetto di "proprietà emergente", svincolato da qualsiasi prospettiva di verifica empirica, introduce una componente di valenza metafisica, appartenente alla classe di quegli elementi che la scienza ha sempre dichiarato di voler bandire dalle proprie formulazioni. Il ricorso a tale concetto, avendo un carattere "difensivo" e non euristico, tende a trasformare la complessità, alla quale esso risulta strettamente legato, da "giustificazione" per il mancato raggiungimento di certi risultati a fattore esplicativo, capace di render conto di per sé del sorgere di determinate attitudini mentali.
Un rappresentante "tipico" in tal senso è il filosofo Daniel Dennet, fisicalista convinto, uno dei più accaniti sostenitori dell'analogia funzionale tra mente e computer. Egli trova abbastanza comprensibile che la gente comune abbia difficoltà ad accettare l'idea che il cervello funzioni come un elaboratore elettronico e che le diverse facoltà mentali siano interamente riconducibili a tale funzionamento. Se, infatti, proviamo ad immaginare un qualsiasi programma che giri su un computer, giungiamo con relativa facilità alla conclusione che esso non potrà che limitarsi ad eseguire meccanicamente un certo numero di operazioni sulla base delle istruzioni che lo costituiscono, senza che ciò implichi la minima traccia di coscienza. Questo però accade, secondo Dennet, perché siamo portati a pensare a programmi eccessivamente semplici. Affinché l'analogia tra mente e computer acquisti un senso, dobbiamo pensare a qualcosa di veramente complesso, tanto complesso da essere immaginato solo con grande difficoltà.
Non esiste altra strada da percorrere: se la mente è prodotta unicamente dall'attività del cervello (e non può essere altrimenti) e i nostri attuali artefatti non danno prova di alcun fenomeno cosciente, allora l'unica spiegazione possibile è che essa sorga a livelli di complessità molto superiori, magari talmente elevati da collocarsi al limite delle nostre capacità immaginative. (1)
Chi si aspetta di trovare, nelle argomentazioni di Dennet, ulteriori elementi a sostegno delle sue tesi, non può che rimanere deluso. Non c'è nulla, all'infuori di una fede incondizionata nella validità del modello proposto. Posizione che ha come corrispettivo un prezzo altissimo pagato in termini di componenti metafisiche che egli è costretto a tollerare all'interno del proprio sistema.
Le posizioni "estremiste" come quella di Dennet contano un numero di sostenitori via via decrescente all'interno della comunità scientifica. Emblematico, in tal senso, il caso di un autore come Hilary Putnam, il quale, partito da una sostanziale accettazione del computazionismo come adeguata teoria della mente, ne ha successivamente preso le distanze. (2)
Di fronte a una crescente insoddisfazione per tale modello, si avverte tuttavia la mancanza di una valida alternativa, capace di inserirsi coerentemente all'interno dell'attuale paradigma scientifico. E' questo probabilmente il principale motivo per cui, mentre le indagini sperimentali in campo neurofisiologico continuano ad accumulare dati sul rapporto mente-cervello, gli scienziati teorici sembrano girare in tondo, attardandosi in marginali ritocchi a concezioni largamente insoddisfacenti, introducendo concetti o distinzioni ad hoc, alimentando un ampio dibattito che rischia però di rimanere sterile.
A parte casi isolati, come quello del fisico Roger Penrose (3), la maggioranza degli scienziati non appare neppure sfiorata dal dubbio che le difficoltà incontrate, invece che essere dovute alla straordinaria complessità del cervello umano in rapporto alle ancor limitate conoscenze e risorse strumentali disponibili, possano derivare dall'aver adottato un quadro di riferimento inadeguato.
E' forse prematuro pretendere un drastico mutamento di rotta, un affrancamento più o meno pronunciato dal modello scientifico basato sulla riconduzione dei fenomeni a leggi generali. Ma la strada da percorrere sembra essere proprio questa. Come conciliare altrimenti il determinismo e la prevedibilità, che le suddette leggi inevitabilmete implicano, con la libertà e la creatività dell'agire umano?

---------------
NOTE
(1) Dennet, Coscienza. Che cos'è, Rizzoli, Milano, 1993, pag. 487
(2) Hilary Putnam, Rappresentazione e realtà, Garzanti, Milano, 1993
(3) Cfr. Roger Penrose, Ombre della mente, Rizzoli, Milano, 1996. In quest'opera, l'autore afferma senza mezzi termini che le leggi fisiche attualmente disponibili sono insufficienti per spiegare certe caratteristiche e proprietà della mente umana.