LA NUOVA SFIDA DI PROMETEO:
ACCENDERE LA FIAMMA DELLA COSCIENZA IN UN COMPUTER di
Astro Calisi
Il notevole sviluppo delle neuroscienze, negli ultimi due
o tre decenni, con i paralleli progressi realizzati nel campo
della cosiddetta intelligenza artificiale, hanno alimentato
la convinzione di poter penetrare con relativa facilità nella
cittadella della mente utilizzando gli stessi strumenti e
modalità di indagine che tanto successo hanno ottenuto nelle
scienze fisiche.
Senonché, alle grandi aspettative dei ricercatori e alle rinnovate
dichiarazioni programmatiche, non hanno fatto seguito i risultati
attesi. Una autentica comprensione della mente umana continua
ad apparire un traguardo piuttosto lontano. Se è vero, infatti,
che numerose esperienze indicano una stretta correlazione
tra i nostri stati mentali e le attività rilevate in alcune
zone cerebrali, è altrettanto vero che tale correlazione non
ci dice sostanzialmente nulla circa il rapporto causale esistente
tra i due domini di fenomeni. La correlazione non rende conto
del come, da un insieme di processi che si svolgono
impersonalmente all'interno dei neuroni cerebrali seguendo
leggi fisiche ben note, si giunga a esperienze soggettive
vissute in prima persona da un determinato individuo.
Non parliamo poi della riproduzione di una facoltà
come la coscienza realizzata per mezzo di un calcolatore elettronico
opportunamente programmato: traguardo a cui mirano i fautori
dell'intelligenza artificiale fin dalla sua fondazione e considerato
potenzialmente raggiungibile da molti scienziati e filosofi
attuali. Qui, non soltanto si è ben lontani dall'aver raggiunto
un qualsiasi risultato concreto, ma non c'è nessuno che sia
in grado di indicare, neppure in linea di principio, come
un artefatto del genere dovrebbe essere strutturato per acquisire
una simile capacità. E quando parliamo di riproduzione della
coscienza, non pretendiamo il raggiungimento delle vette dell'autocoscienza,
bensì qualcosa di molto più modesto, come ad esempio un barlume,
sia pur minimo, di sensitività cosciente - caldo, freddo,
pressione, dolore, piacere - magari limitato anche a una sola
di tali sensazioni.
La strategia più frequente per giustificare questo stato di
impasse è quella di ricordare l'enorme complessità del cervello,
con un numero di neuroni che va da 10 a 100 miliardi e le
relative interconnessioni assoniche e dendridiche, da poche
centinaia a molte decine di migliaia per ogni singolo neurone.
Complessità al cui confronto le attuali realizzazioni hardware/software
sono da considerarsi di una semplicità quasi ridicola.
Il richiamo alla complessità non avviene tuttavia sulla base
di uno schema progettuale, sia pur solo abbozzato, dal quale
emergano con sufficiente chiarezza i limiti quantitativi e/o
qualitativi dei nostri artefatti di fronte alla struttura
e all'organizzazione del cervello. Anzi, ad essere precisi,
non abbiamo alcuna idea di come i processi cerebrali, che
pure possiamo rilevare grossolanamente con i nostri strumenti
e in alcuni casi mettere i rapporto con certe capacità mentali,
diano luogo a dette capacità. Mentre sappiamo con sufficiente
esattezza quale dev'essere l'organizzazione software/hardware
di un elaboratore elettronico per renderlo capace di eseguire
calcoli o compiti determinati, purché esattamente definibili
in termini di procedure e operazioni elementari, ci troviamo
nel buio più completo per quanto riguarda un'ipotetica organizzazione
in grado di dar luogo a un fenomeno mentale come quello della
coscienza
Ma, a dispetto di questa totale oscurità, molti scienziati
mantengono ferma la loro convinzione che i computer rappresentino
un buon modello della mente umana e che quindi lo sviluppo
di facoltà coscienti sia solo una questione di organizzazione
funzionale. In tale loro certezza, tuttavia, essi non possono
ignorare certe problematiche che la loro prospettiva inevitabilmente
solleva.
Dette problematiche riguardano principalmente alcune caratteristiche
della coscienza, come la soggettività dell'esperienza
e la libertà implicita nel concetto di volontà cosciente,
contrapposte all'oggettività e all'impersonalità dei processi
computazionali, che fanno riferimento ad algoritmi determinati,
e più in generale a leggi fisiche che vincolano i fenomeni
a comportamenti ben precisi.
Le scappatoie più frequenti di fronte a tali difficoltà sono
essenzialmente due, e possono essere sintetizzate come segue:
1) tendenza a sminuire l'importanza dei fenomeni coscienti
all'interno del processo di adattamento dell'organismo all'ambiente,
che arriva in certi casi a considerare la coscienza come un
mero epifenomeno, privo di qualsiasi ruolo nella determinazione
e nel controllo del comportamento;
2) ricorso alla nozione di "emergenza", secondo la
quale livelli molto elevati di complessità strutturale e/o
funzionale darebbero origine a caratteristiche e capacità
del tutto nuove, non prevedibili e non spiegabili sulla base
delle leggi valide ai livelli inferiori.
Questi due aspetti sono spesso compresenti e agiscono in maniera
sinergica così da ridurre le distanze (in senso metodologico
o, addirittura, ontologico) che separano la coscienza dagli
ordinari oggetti e fenomeni del mondo fisico. Tale scopo viene
sostanzialmente raggiunto attraverso una svalutazione sistematica
dei fattori di diversità e il tentativo di render conto di
eventuali residui non eliminabili ricorrendo al concetto ad
hoc di "proprietà emergente".
E' appena il caso di far rilevare che tali strategie si collocano
agli antipodi del corretto procedere scientifico. In particolare,
l'utilizzo del concetto di "proprietà emergente", svincolato
da qualsiasi prospettiva di verifica empirica, introduce una
componente di valenza metafisica, appartenente alla classe
di quegli elementi che la scienza ha sempre dichiarato di
voler bandire dalle proprie formulazioni. Il ricorso a tale
concetto, avendo un carattere "difensivo" e non euristico,
tende a trasformare la complessità, alla quale esso
risulta strettamente legato, da "giustificazione" per il mancato
raggiungimento di certi risultati a fattore esplicativo,
capace di render conto di per sé del sorgere di determinate
attitudini mentali.
Un rappresentante "tipico" in tal senso è il filosofo Daniel
Dennet, fisicalista convinto, uno dei più accaniti sostenitori
dell'analogia funzionale tra mente e computer. Egli trova
abbastanza comprensibile che la gente comune abbia difficoltà
ad accettare l'idea che il cervello funzioni come un elaboratore
elettronico e che le diverse facoltà mentali siano interamente
riconducibili a tale funzionamento. Se, infatti, proviamo
ad immaginare un qualsiasi programma che giri su un computer,
giungiamo con relativa facilità alla conclusione che esso
non potrà che limitarsi ad eseguire meccanicamente un certo
numero di operazioni sulla base delle istruzioni che lo costituiscono,
senza che ciò implichi la minima traccia di coscienza. Questo
però accade, secondo Dennet, perché siamo portati a pensare
a programmi eccessivamente semplici. Affinché l'analogia tra
mente e computer acquisti un senso, dobbiamo pensare a qualcosa
di veramente complesso, tanto complesso da essere immaginato
solo con grande difficoltà.
Non esiste altra strada da percorrere: se la mente è prodotta
unicamente dall'attività del cervello (e non può essere altrimenti)
e i nostri attuali artefatti non danno prova di alcun fenomeno
cosciente, allora l'unica spiegazione possibile è che essa
sorga a livelli di complessità molto superiori, magari talmente
elevati da collocarsi al limite delle nostre capacità immaginative.
(1)
Chi si aspetta di trovare, nelle argomentazioni di Dennet,
ulteriori elementi a sostegno delle sue tesi, non può che
rimanere deluso. Non c'è nulla, all'infuori di una fede incondizionata
nella validità del modello proposto. Posizione che ha come
corrispettivo un prezzo altissimo pagato in termini di componenti
metafisiche che egli è costretto a tollerare all'interno del
proprio sistema.
Le posizioni "estremiste" come quella di Dennet contano un
numero di sostenitori via via decrescente all'interno della
comunità scientifica. Emblematico, in tal senso, il caso di
un autore come Hilary Putnam, il quale, partito da una sostanziale
accettazione del computazionismo come adeguata teoria della
mente, ne ha successivamente preso le distanze. (2)
Di fronte a una crescente insoddisfazione per tale modello,
si avverte tuttavia la mancanza di una valida alternativa,
capace di inserirsi coerentemente all'interno dell'attuale
paradigma scientifico. E' questo probabilmente il principale
motivo per cui, mentre le indagini sperimentali in campo neurofisiologico
continuano ad accumulare dati sul rapporto mente-cervello,
gli scienziati teorici sembrano girare in tondo, attardandosi
in marginali ritocchi a concezioni largamente insoddisfacenti,
introducendo concetti o distinzioni ad hoc, alimentando un
ampio dibattito che rischia però di rimanere sterile.
A parte casi isolati, come quello del fisico Roger Penrose
(3), la maggioranza degli scienziati non appare neppure sfiorata
dal dubbio che le difficoltà incontrate, invece che essere
dovute alla straordinaria complessità del cervello umano in
rapporto alle ancor limitate conoscenze e risorse strumentali
disponibili, possano derivare dall'aver adottato un quadro
di riferimento inadeguato.
E' forse prematuro pretendere un drastico mutamento di rotta,
un affrancamento più o meno pronunciato dal modello scientifico
basato sulla riconduzione dei fenomeni a leggi generali. Ma
la strada da percorrere sembra essere proprio questa. Come
conciliare altrimenti il determinismo e la prevedibilità,
che le suddette leggi inevitabilmete implicano, con la libertà
e la creatività dell'agire umano?
---------------
NOTE
(1)
Dennet, Coscienza. Che cos'è, Rizzoli, Milano, 1993,
pag. 487
(2) Hilary Putnam, Rappresentazione e realtà, Garzanti,
Milano, 1993
(3) Cfr. Roger Penrose, Ombre della mente, Rizzoli,
Milano, 1996. In quest'opera, l'autore afferma senza mezzi
termini che le leggi fisiche attualmente disponibili sono
insufficienti per spiegare certe caratteristiche e proprietà
della mente umana.
|