La mente naturale e la mente artificiale (Fonte)

Cosa potrebbe esser fatto, naturalmente, non indica ciò che dovrebbe esser fatto; causare una nuova era glaciale per dar fastidio ad alcuni, o una nuova era tropicale al fine di far tutti contenti, non è necessariamente un programma razionale. Ma non dobbiamo ingannarci: una volta che tali possibilità diventano fattibili, esse verranno realizzate 

John von Neumann, (Possiamo sopravvivere alla tecnologia? (1955) 

1. Dalla psicologia dinamica alla psicoanalisi

L'inizio del XX secolo vede la nascita di un nuovo approccio allo studio dei fenomeni mentali e di una nuova terapia dei fenomeni mentali 'anormali': la psicoanalisi. Se tale disciplina sia 'scientifica' oppure no è stato oggetto di un vivace dibattito fra i filosofi della scienza. Probabilmente il più noto sostenitore della tesi negativa è stato il filosofo della scienza Karl Popper (1902-1994): la teoria psicoanalitica non è scientifica perché non soddisfa i criteri metodologici che, secondo Popper, caratterizzano la scienza e la distinguono dalla non-scienza, criteri popperiani, da lui pensati in origine già negli anni '20 e compiutamente formulati in seguito, attraverso un confronto critico con le tesi del Circolo di Vienna circa la distinzione fra metafisica e scienza (la prima edizione del libro in cui Popper espone le sue idee, La logica della scoperta scientifica, è del 1934). Il dibattito interno alla filosofia della scienza negli ultimi cinquant'anni e i lavori degli storici della scienza hanno però messo in luce come, se è vero che la psicoanalisi non soddisfa i criteri di Popper, è anche vero che nessuna teoria fisica, compresa la relatività di Einstein, li ha mai soddisfatti. La visione originaria di Popper costituisce un ideale irraggiungibile anche per le scienze più sviluppate ed è stata sostituita da versioni più 'liberalizzate' dei suoi criteri metodologici.

  Va per altro detto come il Circolo di Vienna non avesse affatto posizioni negative sulla teoria psicoanalitica, come del resto la cultura scientifica dell'epoca. La teoria di Freud era considerata ancora una filiazione legittima della psicologia e della fisiologia positiviste, come d'altronde la considerava lo stesso Freud, tant'è che, in un manifesto pubblicato nel 1912 su una rivista scientifica tedesca, la Physikalische Zeitschrift, manifesto che perorava la creazione di una società per lo sviluppo e la diffusione delle filosofia positivista, accanto alle firme, fra gli altri, di Ernst Mach, di Albert Einstein e di David Hilbert, troviamo anche quella di Sigmund Freud.

  Il movimento surrealista trovò la sua ispirazione iniziale nella cosiddetta 'psicologia dinamica' sviluppata in Francia nella seconda metà del XIX secolo dal fisiologo Jean Martin Charcot (1825-1893) e dal suo erede scientifico Pierre Janet (1859-1947). Il fondatore del movimento, André Breton (1896-1966), aveva fatto studi di medicina e conosceva le idee di Charcot e Janet.

  "Nel 1919 Breton e lo scrittore francese Philippe Soupault fanno il loro primo esperimento di scrittura automatica, nel quale essi imitavano i pazienti di Janet che erano colpiti da forme patologiche di automatismo psicologico; come affermò lo stesso Soupault, 'il termine 'scrittura automatica ci venne suggerito da Pierre Janet.' I due poeti sospesero il controllo cosciente lasciando le parole fluire liberamente, andando a comporre uno dei primi esempi di poesia del flusso di coscienza, Les Champs magnétiques. Abbracciando la teoria che la sospensione del controllo cosciente permetterebbe alla mente inconscia di esprimersi, gli artisti che si riunirono attorno a Breton, come Max Ernst, svilupparono altre tecniche automatiche. [....] Nel primo manifesto Surrealista del 1924, Breton pone l'automatismo come fondamento del Surrealismo, che definiva come 'automatismo psichico allo stato puro'" (Gamwell, Exploring the Invisible, pp. 243-44). Sulla rivista La Révolution surréaliste, Breton e Louis Aragon celebravano nel 1928 il cinquantesimo anniversario della 'scoperta' dell'isteria: "Noi Surrealisti festeggiamo il cinquantesimo anniversario dell'isteria, la più grande scoperta poetica della fine del diciannovesimo secolo" (cit. da Gamwell, Exploring the Invisible, p. 244). Il termine 'isteria' era stato coniato da Charcot per identificare quella che si riteneva essere una nuova malattia mentale.

  "Nel corso del diciannovesimo secolo, i dottori [...] credevano che gli stati mentali fossero resi evidenti dall'aspetto del volto e del corpo, ed essi usavano manuali medici illustrati per diagnosticare le tre principali categorie di malattie mentali- la mania, la melancolia e la demenza- comparando l'aspetto e il comportamento dei loro pazienti con tipi standard" (Gamwell, Exploring the Invisible, p. 243-44). Anche Charcot conduce i suoi studi sull'isteria osservando, fotografando e catalogando i comportamenti isterici nel suo laboratorio di psicologia fisiologica presso l'ospedale parigino della Salpetrière.

  Il cliché della donna isterica ebbe un immediato successo. Karl-Joris Huysmans, nel suo romanzo Á rebours (Controcorrente), una delle opere più rappresentative del Decadentismo, descriveva la figura di Salomé che addita la testa del Battista, nel dipinto del pittore Simbolista Gustave Moreau, come "la dea immortale dell'Isteria, Bellezza maledetta esaltata al di sopra di tutte le altre beltà dalla catalessi che irrigidisce la sua pelle e rende d'acciaio i suoi muscoli"

   "Nel 1882 Charcot, con un cambiamento di posizione sorprendente per uno scienziato affermato e al culmine della carriera, presentò un lavoro alla Académie des Sciences nel quale affermava che non solamente cause fisiche ma anche cause psicologiche potevano produrre eventi mentali e che tali cause potevano essere investigate usando la tecnica, proibita per uno scienziato, dell'ipnotismo. [...] A partire dal 1884, quando il celebre neurologo sposò una ricca vedova, fino alla sua morte nel 1893, egli tenne nel suo lussuoso appartamento delle soirée con cadenza settimanale, frequentate da scienziati, artisti e scrittori. Edmond de Goncourt prese ripetutamente in giro la pomposità di queste serate. ma non mancava di parteciparvi. Charcot teneva anche delle lezioni pubbliche settimanali sulla mente e il cervello molto spettacolari e le sue dimostrazioni pubbliche del trattamento ipnotico ne fecero uno degli argomenti preferiti di conversazione nei circoli intellettuali parigini di quegli anni, procurandogli il soprannome di 'Napoleone della nevrosi'" (Gamwell, Exploring the Invisible, pp. 133-34).

  Il trattamento ipnotico dell'isteria fatto da Charcot consisteva fondamentalmente nella inibizione dei sintomi attraverso comandi dati al paziente sotto ipnosi. Per studiare i metodi di Charcot si era recato in quegli anni a Parigi anche un giovane fisiologo viennese, Sigmund Freud (1856-1939).

  Freud all'epoca era collaboratore di un altro medico viennese, Josef Breuer (1842-1925) e aveva partecipato con lui, nel 1880-82, al trattamento di una paziente isterica, Anna O., che mostrava sintomi bizzarri (parlava inglese ma non tedesco, aveva sete ma non riusciva a bere). Trattata sotto ipnosi, Anna O. poté ricordare la causa del suo stato e eliminare i sintomi. Il metodo ipnotico sviluppato da Breuer e Freud negli anni della loro collaborazione, fino al 1895, era diverso da quello di Charcot: nel metodo 'catartico', come venne chiamato, l'ipnosi veniva usata per determinare uno stato di sospensione della coscienza vigile del soggetto che permette di sondare la sua personalità e di ricostruire la storia del sintomo. Anna O. chiamerà questo metodo 'la cura della parola'. Breuer e Freud pubblicheranno insieme nel 1893-95 gli Studi sull'isteria, ma le loro strade si divideranno subito dopo per il disaccordo sulla centralità data da Freud alla sessualità nella spiegazione dei sintomi nevrotici e Freud pubblicherà da solo, nel 1900, il testo fondante della psicoanalisi, L'interpretazione dei sogni.

  La causa dei sintomi isterici è, per Freud, un evento psichico traumatico che il paziente non riesce a ricordare spontaneamente perché l'emozione collegata al fatto è un'emozione 'proibita', cioè sentita come riprovevole e vergognosa dalla mente conscia del paziente, per via dei condizionamenti culturali che quest'ultima subisce. Il compito della terapia è quello di rimuovere questa resistenza e di far riaffiorare alla mente del paziente il ricordo dell'evento e l'emozione ad esso associata, perché, nel riprovare questa emozione, i sintomi isterici scompaiono. Con l'ipnosi la coscienza vigile del paziente viene sospesa, ma non tutti i malati di mente sono ipnotizzabili e, col tempo, Freud affina una tecnica terapeutica diversa dall'ipnosi, per aggirare le difese della mente conscia: la tecnica delle 'associazioni libere'. Il paziente è invitato a dire liberamente ciò che pensa e, sulla base di ciò che ha ascoltato, e dei silenzi, l'analista dovrà ricostruire la storia che giace sotto i comportamenti patologici.

  Un'altra via maestra per arrivare all'inconscio è il sogno, perché esso sfugge alla censura operante durante lo stato di veglia. Ma, poiché nello stato di sogno continua ad operare la resistenza della coscienza, anche se indebolita, il sogno va interpretato per distinguere il contenuto manifesto, cioè quello che il soggetto ricorda e racconta, dal pensiero onirico latente, cioè gli impulsi inconsci che stanno alla base del sogno. 

2. Freud e il surrealismo

L'interpretazione dei sogni viene tradotta in Francia negli anni '20 e Surrealisti come Magritte applicano la libera associazione alla pittura. Per alcuni Surrealisti è il cinema l'arte che meglio può visualizzare le distorsioni della realtà prodotte nei sogni. Il film Un chien Andalou (1928) di Luis Bunuel e Salvador Dalì presenta una serie di eventi onirici apparentemente scollegati fra di loro e privi di una sequenza temporale coerente. "Secondo Bunuel, il film non rappresentava un sogno particolare, ma piuttosto mescolava 'l'estetica del surrealismo con le scoperte Freudiane'" (cit. da Gamwell, Exploring the Invisible, p. 245).

  In una lettera a Breton del 1937, Freud scriveva: "Il racconto del sogno, ciò che chiamo il sogno manifesto, non è interessante per me. Io ho cercato il modo di trovare il significato latente del sogno, quello che può essere ricavato dal sogno manifesto con l'interpretazione psicoanalitica. Una collezione di sogni senza le associazioni ad essi connesse, senza conoscenza delle circostanze nelle quali sono stati fatti, non ha per me alcun significato e posso difficilmente immaginare cosa possa significare per altre persone" (cit. da Gamwell, Exploring the Invisible, p. 247).

  "Queste osservazioni puntavano il dito su una differenza fondamentale fra l'uso dei sogni che in questo periodo fanno gli scienziati e gli artisti. Freud, in quanto terapeuta, puntava a demistificare il sogno cercando l'origine delle sue componenti apparentemente scollegate nell'esperienza passata del paziente. I Surrealisti, in quanto artisti, miravano ad esprimere l'irrazionalità della mente inconscia conservando il mistero del sogno. Per questo i Surrealisti stanno all'origine di decenni di arte non interpretabile, come un sogno che venga semplicemente raccontato senza le associazioni di colui che ha sognato. I collages di Ernst sono esempi particolarmente significativi delle immagini oniriche dei Surrealisti perché essi rendono inintellegibili proprio quelli che dovrebbero essere casi esemplari di chiarezza visiva- i diagrammi e le illustrazioni scientifiche" (cit. da Gamwell, Exploring the Invisible, pp. 247-48).

  Nella sua tesi di dottorato nel 1932, un giovane psicoanalista francese, Jacques Lacan (1901-1981), fa uso di un'idea di Salvador Dalì, il 'metodo critico-paranoico', come lo chiama l'artista stesso, secondo il quale la percezione del mondo di un paranoico è una ricostruzione simbolica della realtà. "Lacan stava tentando di estendere la psicoanalisi Freudiana dal trattamento di nevrosi non molto gravi al trattamento di psicotici gravi. Egli era interessato alla paranoia perché essa comporta una rappresentazione distorta della realtà che costituisce una versione estrema di fantasie nevrotiche comuni. Lacan prese a frequentare lo studio di Dalì, apprendendo dall'artista il 'metodo critico-paranoico', consistente nella combinazione di immagini senza relazione fra loro, per formare una nuova entità simbolica, come ne La metamorfosi di Narciso, nella quale il giovane piegato su se stesso è metaforicamente combinato con una pila di rocce. Dalì chiamava il suo metodo "paranoico" perché riconosceva che, così come lo psicotico ha allucinazioni, l'artista creava delle illusioni inventando delle immagini doppie" (Gamwell, Exploring the Invisible, p. 248). Negli anni '50 Lacan si allontanerà dalla ortodossia freudiana e dall'idea che la mente inconscia è 'visiva', sostenendo invece, usando concetti della linguistica strutturale, che l'inconscio è strutturato come un linguaggio. Anche la psicoanalisi strutturalista di Lacan avrà una certa influenza sulle arti visive, specialmente sull'arte Concettuale degli anni '60.

  Sulla base delle sue esperienze terapeutiche, Freud svilupperà una teoria della struttura della psiche umana, in opere come Al di là del principio del piacere (1920), teoria che estenderà ad una visione generale della cultura e della società, ad esempio in Totem e tabù (1914) e il Disagio della civiltà (1929). È su questa teoria generale che si sono concentrate soprattutto le discussioni circa la 'scientificità' della psicoanalisi, dal momento che le ipotesi di questa teoria, come l'esistenza di un principio del piacere e del suo contrario, o la suddivisione della personalità nelle tre componenti dell'es (dove agisce il principio del piacere), del super-io (dove agiscono le censure provenienti dai condizionamenti culturali), e dell'io (che deve mediare fra le contraddittorie esigenze dell'es e del super-io), sono di difficile controllo empirico. 

3. Gli archetipi junghiani

Lo psichiatra svizzero Carl Gustav Jung (1975-1961) si avvicina alle teorie di Freud attraverso i suoi studi sulla schizofrenia ma, dopo un periodo di collaborazione, se ne allontana non condividendo l'importanza fondamentale data all'impulso sessuale. Agli anni precedenti alla Guerra Mondiale risalgono la convinzione di aver scoperto l'esistenza di un parallelismo fra i miti antichi e le fantasie degli psicotici e l'idea di un inconscio collettivo: nell'inconscio individuale non vi sarebbero solo contenuti che risalgono alle esperienze individuale represse, ma anche contenuti che risalirebbero a un comune patrimonio ancestrale di tutta l'umanità. Questa idea di un inconscio collettivo è una differenza fondamentale fra la psicoanalisi freudiana e la psicologia analitica, o psicologia del profondo, junghiana. Nella sua opera fondamentale del 1921, I tipi psicologici, egli riteneva di aver individuato i contenuti fondamentali dell'inconscio collettivo, immagini primordiali tramandate nella memoria della specie, che chiamò archetipi(dal greco archè, origine, e typos, modello), usando il nome con cui in filosofia erano indicate le idee platoniche. Alcuni di questi archetipi, come l'Ombra, e l'Animus-Anima, giocano un ruolo fondamentale nel processo di maturazione psicologica personale di ciascun individuo che, secondo Jung, ripercorre e ricapitola le fasi dello sviluppo dell'inconscio collettivo. L'Ombra rappresenta il lato inconscio della personalità che si contrappone all'Io, e con il quale l'Io entra in contatto attraverso i sogni (per la psicologia analitica il sogno non ha bisogno di interpretazione, anche se l'Io può non comprenderne il significato). L'Anima è l'elemento simbolico femminile presente nella psiche dell'uomo, determinato dalla relazione con la madre; l'Animus, specularmente, è l'elemento simbolico maschile presente nella psiche della donna, determinato dal rapporto con la  figura paterna. L'elemento simbolico della totalità è il Sé, dove i contrari devono raggiungere la loro unità.

  Per trovare i materiali su cui basare le sue teorie, Jung studiò a fondo l'alchimia, la magia le credenze religiose antiche e quelle dei popoli extra-europei, anche con ricerche sul campo, collaborando con lo studioso delle religioni e della mitologia Károly Kerényi (1897-1973), insieme al quale scrisse i Prolegomeni allo studio scientifico della mitologia (1941).

  Ci sono quattro funzioni psicologiche fondamentali, secondo Jung, delle quali due razionali, il pensiero e il sentimento, e due irrazionali, la sensazione e l'intuizione. In libri di divulgazione come L'uomo moderno alla ricerca dell'anima (1933), Jung espose la tesi che le funzioni razionali dell'uomo contemporaneo sono troppo sviluppate a scapito di quelle irrazionali e che bisognerebbe ristabilire un equilibrio. Il compito dell'artista è quello di dare forma agli archetipi nascosti nell'inconscio: "Il processo creativo, per quanto noi siamo in grado di seguirlo, consiste nella attivazione inconscia di un'immagine archetipale, e nella elaborazione e modellazione di questa immagine nell'opera finita" (Jung, L'uomo moderno alla ricerca dell'anima, cit. da Gamwell, Exploring the Invisible, p. 250).

  Le idee di Jung non attecchirono presso i Surrealisti, ma esercitarono invece una forte influenza negli Stati Uniti, durante la prima fase dell'Espressionismo Astratto, su artisti come Mark Rothko e Jackson Pollock. Pollock, che aveva un grave problema di alcolismo, si sottopose anche a una analisi junghiana fra il 1939 e il 1941. Nella sua opera Maschio e femmina, gli archetipi junghiani dell'Animus-Anima sono raffigurati come scolpiti su un totem Indiano, a rappresentazione del fatto che l'inconscio collettivo è comune a tutti i popoli.  

4. Breve storia del computer, della realtà virtuale e della Rete delle reti

La matematica dall'inizio del Novecento si era interessata, fra le altre cose, alla ricerca di procedure meccaniche per risolvere date classi di problemi. Esempi familiari di queste procedure sono le regole per eseguire le quattro operazioni aritmetiche. Una buona procedura 'meccanica' deve essere composta da un numero finito di istruzioni precise che, applicate in un ordine specificato ai dati del problema, producono sempre una soluzione, dopo un numero finito di passi. A una procedura che soddisfa queste caratteristiche si è dato il nome di algoritmo (dal nome di un matematico arabo del nono secolo dopo Cristo, Al-Khuwarizmi).

  Ora, non è affatto scontato che esista sempre un algoritmo per risolvere una data classe di problemi. Oggi sappiamo che esistono problemi logici e matematici per i quali non esistono procedure meccaniche per la soluzione, ovvero che non sono algoritmicamente risolvibili. La cosa interessante è che è stato logicamente dimostrato che certe classi di problemi non sono risolvibili. Questa dimostrazione ha spalancato la strada alla scienza dei calcolatori.

  "Mentre per stabilire che esiste un algoritmo che risolve una data classe di problemi è sufficiente esibirne uno dimostrando che ha questa proprietà, per stabilire che non ne esiste alcuno, dobbiamo sapere con assoluta precisione che cosa debba intendersi per 'algoritmo' e non possiamo accontentarci della definizione informale e intuitiva che abbiamo usato finora. Una definizione di questo tipo [precisa] emerse solo intorno alla metà degli anni Trenta dal lavoro di una serie di logici e matematici, fra cui il più noto è probabilmente l'inglese Alan Turing (1912-1954). [...] La mossa geniale di Turing fu quella di prendere sul serio l'idea di algoritmo come procedura che può essere eseguita da una macchina. Ma da che tipo di macchina? Per rispondere a questa domanda Turing definì [in un celebre articolo del 1936] una classe di macchine astratte che vennero poi dette 'macchine di Turing'. [...] L'idea sottostante a tale definizione era che tali macchine dovevano essere in grado di 'simulare' il lavoro di un essere umano quando esegue un calcolo con carta e penna" (M. Mondadori, M. D'Agostino, Logica, Bruno Mondadori, Milano 1997, pp. 240-41).

  Una 'macchina di Turing' è un nastro di lunghezza infinita (per poter eseguire calcoli di lunghezza arbitraria) suddiviso in caselle, e da un dispositivo di lettura e scrittura (il 'lettore'), posizionato su una casella alla volta, che può eseguire soltanto le seguenti operazioni: leggere il simbolo nella casella (che appartiene a un prefissato insieme finito di simboli, l'alfabeto della macchina); cancellare il simbolo dalla casella; scrivere un nuovo simbolo nella casella; spostarsi a destra o a sinistra lungo il nastro, di una casella alla volta. La macchina possiede un numero finito di stati interni e la sua azione è univocamente determinata dal suo stato interno e dal simbolo della casella su cui è posizionato il 'lettore'. Un'azione consiste nel cambiare il simbolo osservato e nello spostarsi di una casella a destra oppure a sinistra ed è descrivibile da una regola del tipo "se ... allora": ad esempio, una regola può essere "se il lettore legge il simbolo 1, e la macchina è nello stato x, allora il lettore cancella 1, scrive al suo posto 0, e poi si sposta nella casella a destra, mentre la macchina va nello stato y". 
 

                       1    0      1     1     0     1     0 

                              x 

                       1    0      0     1     0     1     0 

                               y 
 
 "Turing riteneva che la sua definizione 'catturasse' completamente la nozione intuitiva di algoritmo, e cioè che dato un qualunque algoritmo (nel senso intuitivo) potesse essere definita una particolare macchina di questo tipo che lo eseguisse. Questa tesi è nota, appunto, come tesi di Turing. [...] Si tratta di un'ipotesi molto 'audace': sembra a prima vista del tutto implausibile che le semplicissime operazioni di cui è capace una macchina di Turing siano sufficienti a 'simulare' qualunque dispositivo di calcolo che sia mai stato o sarà mai escogitato. Essa ha tuttavia resistito finora ai controlli più severi. Basti pensare che qualunque programma scritto nel più sofisticato fra i linguaggi di programmazione oggi disponibili può in linea di principio essere eseguito da una macchina di Turing" (M. Mondadori, M. D'Agostino, Logica, p. 242).

  Più precisamente, un algoritmo è effettivamente calcolabile se e solo se esiste una macchina di Turing che lo esegue. Turing definì anche il concetto di macchina di Turing universale, che è una macchina di Turing capace di simulare qualunque altra macchina di Turino. Possiamo far corrispondere un programma di computer a una macchina di Turino e il computer digitale, che è una macchina fisica capace di eseguire qualunque programma, alla macchina di Turing universale. Turing anticipava così la distinzione fra macchina e programma, fra hardware e software, introdotta pochi anni dopo da John von Neumann, e che è stata adottata da tutti i moderni computers.

  L'era dei computers si fa iniziare con la macchina ENIAC, presentata al pubblico negli Stati Uniti nel febbraio del 1946 (la macchina funzionava già da alcuni anni, ma era un segreto militare). ENIAC era però ancora strutturalmente diverso dai computers che usiamo oggi. In questa macchina ogni cambio di programma comportava cambiare la configurazione delle valvole, cioè cambiare la stessa struttura fisica della macchina. Fu von Neumann a disegnare la moderna architettura, dando una descrizione del computer nel linguaggio della logica, e non nel linguaggio dell'ingegneria elettronica, come era stato fatto fino ad allora, e separando così la struttura fisica dal programma.

  L'architettura di von Neumann si ispirava al modello del neurone formulato nel 1943 da Warren McCulloch e Walter Pitts. Questo modello astratto del funzionamento del neurone eseguiva le seguenti operazioni: contava il numero di impulsi ricevuti in ingresso; confrontava il risultato ottenuto con un valore di soglia predeterminato; trasmetteva un impulso in uscita se la somma degli ingressi superava il valore di soglia. La 'macchina' di von Neumann era composta da unità elementari di calcolo binario, cioè capaci di entrare in due soli stati (1,0), collegate fra loro in modo da trasmettersi dei messaggi binari che mandano notizia dello stato in cui si trovano (lo stato 1 oppure lo stato 0).

  Questa moderna architettura venne implementata per la prima volta nel calcolatore EDVAC, costruito a Princeton, che possedeva una memoria interna nella quale si potevano immagazzinare diversi programmi. Nel 1951 uscì sul mercato UNIVAC, il primo calcolatore commerciale, e nel corso degli anni '50 le valvole furono sostituite dai transistors (inventati nel 1947) e poi dai microprocessori, sempre più piccoli e veloci. Nello stesso periodo, venivano eseguite le prime simulazioni al computer di un processo fisico, quello della fusione nucleare incontrollata. Nasceva la 'realtà virtuale' e il primo 'oggetto virtuale' era la bomba termonucleare, la bomba H.

  A Hiroshima e Nagasaki erano esplose due bombe atomiche, o bombe A, ordigni che usavano una reazione di fissione a catena incontrollata di atomi di uranio (o di plutonio). Un nucleo di uranio colpito da un neutrone si divide in due e la massa totale delle due parti è inferiore a quella del nucleo originale: la differenza si trasforma in energia, secondo quanto previsto dalla meccanica relativistica, un'enorme quantità di energia. La fissione rilascia altri due neutroni che, se colpiscono altri due nuclei producono lo stesso effetto, rilasciando altri quattro neutroni e così via. Una reazione di fissione a catena controllata è quella che avviene, invece, nei reattori nucleari. Nel caso della fissione nucleare, era possibile condurre esperimenti reali per calcolare la massa critica, usando il prototipo di reattore nucleare messo a punto all'università di Chicago, sotto la direzione di Enrico di Fermi, e nel quale nel 1942 venne ottenuta la prima fissione a catena controllata.

  La bomba termonucleare, la bomba H, sfrutta la fusione incontrollata del nucleo di atomi di idrogeno. Nella fusione si libera un'energia quattro volte più grande di quella liberata dalla fissione ma, affinché avvenga la fusione del nucleo, occorre che gli atomi vengano portati a temperature altissime (milioni di gradi), le temperature che si trovano solo all'interno del Sole e delle altre stelle: la fusione nucleare 'controllata' è infatti il processo fondamentale che produce l'energia solare. Uno dei problemi principali è, ovviamente, quello di produrre sulla Terra le temperature delle fornaci stellari. Il metodo che fu trovato per la bomba H non è raccomandabile per scopi pacifici: la temperatura necessaria è ottenuta facendo 'esplodere' dentro la bomba H una bomba A. Coloro che lavoravano alla fine degli anni '40 al progetto della bomba all'idrogeno, non potevano condurre esperimenti reali per ottenere i dati necessari alla costruzione delle bomba. Così inventarono esperimenti virtuali, nei quali il processo di fusione del nucleo veniva simulato da un programma di computer.

  Nel corso di questi esperimenti virtuali il programma stesso doveva prendere delle decisioni a caso e, come prodotto collaterale della simulazione della reazione termonucleare fu scritto il primo algoritmo per la generazione quelle sequenze di numeri casuali o pseudo-casuali delle quali abbiamo già parlato a proposito della definizione del 'caso'. Questa idea venne applicata per la prima volta nel 1947 nei laboratori segreti di Los Alamos, creando il metodo di simulazione numerica chiamato 'metodo Monte Carlo', che venne reso pubblico nel 1949. Il nome deriva proprio dalla città sede del famoso casinò, perché la roulette è uno dei più semplici metodi di scelta casuale, come tirare un dado. Nel 1952 esplodeva nell'isolotto di Eniwetok nel Pacifico la prima bomba H Usa, seguita l'anno dopo da quella Sovietica.

  Il prodotto di queste simulazioni erano armadi di schede perforate, non seducenti pixels animati su uno schermo video, ma è solo questione di avere una tecnologia migliore, perché il salto concettuale venne fatto allora.

  "La seduzione del cyberspazio come un'alternativa alla dura realtà della vita di tuti i giorni era manifesta a coloro che lavoravano con le simulazioni. Anni dopo aver collaborato alle simulazioni della prima bomba H, un fisico mi disse, a proposito di quegli anni in cui era un giovane ricercatore: 'Avevo una strana attitudine verso la realtà dell'hardware e la realtà delle esplosioni, che adesso mi è difficile spiegare. Ma che era intensa e reale a quel tempo. Non mi interessava vedere il materiale di una bomba atomica in laboratorio [...] E non volevo vedere una esplosione nucleare.[...] Il computer all'inizio era uno 'strumento', un oggetto per la manipolazione di altre macchine, altri oggetti, ed equazioni. A poco a poco (byte a byte), i designers di computers hanno decostruito la nozione stessa di strumento nel momento in cui il computer non fa le veci di uno strumento, ma della natura stessa" (Galison, Image and Logic, pp. 771; 777).

  L'anno 1957, quando Herbert Simon e Alan Newell presentarono il programma Logic Theorist. segna la data ufficiale di nascita dell'intelligenza artificiale. Il programma eseguiva dimostrazioni di teoremi del calcolo proposizionale dei Principia Mathematica di Russell e Whitehead. Nel 1960 un calcolatore IBM impiegò meno di nove minuti a dimostrare tutti i 340 teoremi contenuti nei Principia, a partire dai cinque assiomi formulati da Russell e Whitehead. "Sembra che Russell abbia esclamato: 'Sarei stato felice di poter disporre di questa possibilità; avrei evitato di sprecare dieci anni della mia vita su quelle maledette 340 proposizioni!" (M. Mondadori, Il sogno di Leibniz, in Logica e politica, per Marco Mondadori, a cura di M. D'Agostino, G. Giorello, S. Veca, Il Saggiatore, 2001, p. 23).

  Logic Theorist stabiliva il paradigma della cosiddetta teoria computazionale della mente, secondo la quale la mente umana è una macchina di Turing. La tesi fondamentale della teoria computazionale della mente dice che, qualsiasi operazione esegua il cervello, essa sia eseguibile anche per mezzo di una manipolazione simbolica. Poiché una macchina di Turing è in grado di eseguire qualsiasi manipolazione simbolica (almeno fino ad oggi non abbiamo trovato nessuna operazione simbolica che non sia eseguibile da una macchina di Turing) ne segue che una macchina di Turing, secondo la teoria computazionale della mente, può in linea di principio eseguire qualsiasi operazione compiuta dal cervello umano.

  Se la storia del computer è legata alle ricerche militari durante la Seconda Guerra Mondiale e nella corsa agli armamenti della Guerra Fredda, la storia della Rete non è da meno.

  Nel 1958 il governo degli Stati Uniti creava l'Advanced Research Project Agency (ARPA), che doveva creare una rete di computers collegati fra loro per poter identificare nel più breve tempo possibile un attacco nucleare e lanciare immediatamente le contromisure. Il tempo era la variabile fondamentale e la rapidità nel raccogliere i dati e nell'elaborarli era diventata, nell'epoca della possibile guerra nucleare, una questione di vita o di morte. La Rete viene teorizzata nel 1961 dai ricercatori che lavorano al progetto militare come "una rete che consiste di nodi che ricevono, combinano, immagazzinano, e trasmettono messaggi in entrata e in uscita per mezzo di connessioni".

  Nel 1959 vengono creati i linguaggi FORTRAN e COBOL, l'anno successivo LISP, che diventerà il linguaggio in cui verranno scritti quasi tutti i programmi di intelligenza artificiale degli anni Sessanta e Settanta. Il 1963 vede la nascita della grafica computerizzata, con il programma Sketchpad. Ivan Sutherland trova il modo di riprodurre sul monitor sotto forma grafica i risultati di calcoli numerici. Nel 1965 avviene il primo collegamento, realizzato dall'ARPA, fra computers remoti, uno situato sulla costa atlantica degli Stati Uniti e l'altro in California realizzato. Nel 1969 entra in funzione la rete militare ARPANET e si realizza anche la prima applicazione civile con il collegamento in parallelo di due computers situati all'Università di California a Los Angeles e all'Università di Stanford presso San Francisco. Nello stesso anno all'IBM viene creato il primo linguaggio per modificare, condividere e riutilizzare testi elettronici, chiamato Generalized Markup Language. Nel 1984 esce sul mercato il pc Apple con Hypercard.

  1989: Tim Berners-Lee, un ricercatore presso lo European Particle Physics Laboratory, crea il prototipo di un sistema con il quale scienziati e ricercatori sparsi per il mondo potevano scambiarsi informazioni. Il sistema si basava su tre elementi: l'assegnazione di un indirizzo standardizzato, un protocollo di trasmissione e un linguaggio. Il linguaggio sviluppato da Berners-Lee apparve nel 1991 e il suo nome era Hypertext Markup Language, HTLM. Venne creato un server su piattaforma NEXT per memorizzare e distribuire le informazioni e un'applicazione per accedere ad esse. Berners-Lee battezzò il sistema WorldWideWeb e cominciò a distribuire il software. Poco dopo cominciarono ad essere create altre applicazioni, chiamate 'browser', per utilizzare piattaforme diverse da NEXT. Nel 1993 il NSCA statunitense (National Center for Supercomputing Applications) pubblica la prima versione del browser MOSAIC che permette per la prima volta di integrare testi, immagini, suoni e brevi sequenze animate. Netscape Navigator appare nel 1994, seguito da Internet Explorer l'anno seguente.

  L'influenza della nuova scienza dell'informatica sulla pratica artistica è stata sintetizzata nel modo seguente.

  "Il computer è una macchina di feed-back che retroagisce sull'immaginazione tecnica dell'artista e apre ad essa della possibilità agli inizi insospettate per l'artista stesso. Queste interazioni fra il cervello umano e il sistema informatico contribuiscono a eliminare la vecchia opposizione fra l'idea e la tecnica, e quest'ultima diventa, a sua volta, con le tecnologie digitali, una cosa mentale, o una macchina per pensare. In questo senso, le tecnologie digitali costituiscono una vera rottura con la vecchia nozione della tecnica, sempre viva nella nostra visione dell'arte, fondata sulla separazione tra il fine e i mezzi. Non è più solamente questione di realizzare il programma delle avanguardie con le nuove tecnologie, ma si tratta di un'altra scena artistica che non ha più nulla a che vedere con la scena 'all'italiana', la quale, a partire dalla finestra dell'Alberti per finire al cinema e alle proiezioni, le più diverse, dell'arte nello spazio e nei tempi dei supporti analogici, ha sempre costituito il quadro delle sperimentazioni, anche delle più audaci. Una nuova scena, dunque, che vede tutto l'insieme dei paradigmi artistici rimesso in discussione, compresi quelli stessi delle avanguardie con i loro slanci prometeici" (E. Couchot, N. Hillaire, L'Art numérique. Comment la tecnologie vient au monde de l'art, Flammarion, Parigi, 2003, p. 20) 

5. L'immagine digitale

L'immagine tradizionale è analogica, basata sulla similitudine, la congruenza e la continuità, mentre l'immagine digitale è composta da elementi discontinui che simulano figure continue analogiche. Lo schermo di un monitor è una spazio numerico dove a ogni numero codificato in un byte(1/0), o in un paio di bytes (0,1 oppure 1,0 oppure 1,1 oppure 0,0), o in una sequenza (ad esempio 0,1,1,0,1) è associato un punto. I numeri servono anche a codificare colore e intensità dei punti. Il computer calcola la sequenza numerica, cioè la sequenza di punti che sullo schermo creano l'impressione di una linea continua. Maggiore è la capacità di risoluzione, migliore è la simulazione della continuità, perché i punti sono più vicini tra loro.

  L'immagine digitale ha due caratteristiche fondamentali: è il risultato di un calcolo; può interagire con il creatore e con il fruitore. Ci sono due tipi di immagini digitali: quelle dette anche di sintesi, prodotte a partire di un calcolo numerico e traducendo numeri in immagini; quelle prodotte a partire da un'immagine già esistente, che viene tradotta in numeri per mezzo di interfaccia appropriati (scanner o videocamere digitali).

  "La differenza fra le immagini non digitali e quelle digitali è semplice. Mentre le immagini tradizionali sono sempre ottenute tramite la registrazione di una traccia-traccia materiale (pigmenti, inchiostri ecc.) nel disegno, nella pittura, nella stampa, traccia ottico-chimica nella fotografia, nell'olografia e nel cinema o traccia ottico-elettronica nella televisione-, l'immagine digitale non è più un marchio o l'impronta lasciati da un oggetto materiale su un supporto, essa è il risultato d'un calcolo effettuato da un computer. I suoi processi di fabbricazione non sono più fisici, ma computazionali, linguistici" (E. Couchot, N. Hillaire, L'Art numérique, p. 23).

  Ãˆ vero che l'immagine è concretamente prodotta da un processo fisico che ha luogo nel mio computer. Certe configurazioni dei microcircuiti elettronici in silicio dentro l'hardware del computer corrispondono all'immagine che appare sullo schermo, ma teniamo presente che il mio computer è una macchina di Turing: il mio computer fisico sta eseguendo quello che può eseguire qualsiasi macchina di Turing, anche se venisse realizzata come oggetto fisico in maniera completamente diversa. Ciò vuol dire che la stessa operazione astratta che produce quella immagine adesso corrisponde a un certo processo fisico, ma potrebbe corrispondere a qualsiasi altro processo fisico in grado di grado di eseguire quella operazione: ciò che conta non è il supporto fisico, ma l'operazione astratta.

  Il punto che viene sottolineato nelle riflessioni sull'immagine digitale è che non c'è un'immagine reale a fungere da modello, ma ci sono solo numeri e operazioni di calcolo che creano le forme che appaiono sullo schermo.

  "L'immagine diventa il prodotto di un'astrazione formale; è generata matematicamente, può prescindere da ogni rapporto con un referente esistenziale e si origina da un puro procedimento di calcolo, anche se imita le regole del pensiero e dell'invenzione figurativa umana. [...] L'immagine digitale può essere completamente manipolata; il passaggio da un oggetto alla sua rappresentazione avviene in due fasi: l'analisi, che scompone l'oggetto in modello numerico, e la sintesi, che rende l'immagine visibile su uno schermo. [...] Tutte le tecniche, dalla pittura al cinema, si concentrano sulla superficie dell'oggetto da rappresentare, mentre l'immagine sintetica parte dall'interno; il dato visivo finale è l'effetto esteriore di una struttura complessa, che non si limita a rispecchiare analogicamente il fenomeno, ma ne fornisce una conoscenza più approfondita, fino a riprodurre le condizioni di visione: 'i cambi di punti di vista, le metamorfosi degli oggetti, il ritmo veloce, la compresenza di più prospettive, uno spazio pluridimensionale che non conosce barriere per l'osservazione [...] Il riferimento alla realtà riprodotta, nel caso di immagini realistiche, è mediato dalla presenza di un forte modello interpretativo, ottenuto con il massimo di astrazione possibile: quella matematica'. L'immagine sintetica è una frattura epistemologica: l'ordine della rappresentazione si basa sul modello della visione prospettica elaborato nel Rinascimento, che richiede la preesistenza dell'oggetto ed è il riflesso speculare della realtà.; l'icona sintetica, al contrario, non descrive l'aspetto fenomenico del reale, ma le leggi che lo regolano." (V. De Angelis, Arte e linguaggio nell'era elettronica, Bruno Mondadori, 2000, pp. 244-5).

  Un'altra novità che si vuole importante è l'interattività dell'immagine: "se non tutte le immagini digitali sono interattive quando le si guarda, tutte sono realizzate con degli strumenti informatici che sono interattivi. Tutte le immagini digitali sono interattive in un momento o in un altro della loro esistenza. Queste caratteristiche-calcolo e interattività-costituiscono l'incontestabile novità tecnica dell'immagine digitale che nessuna immagine aveva mai posseduto in precedenza. [...] Opere, mediatori artistici e pubblico vivono d'ora in poi nell'epoca del digitale" (E. Couchot, N. Hillaire, L'Art numérique, pp. 24-5").

  L'era digitale vedrebbe anche un rilevante cambiamento nei rapporti fra arte e scienza, così come li abbiamo seguiti per gli ultimi due secoli.

  "Tutte le relazioni tra arte e scienza nel corso del XIX e del XX secolo si sono stabilite nel modo della 'metafora'. La scienza forniva all'arte delle rappresentazioni o dei modelli astratti del mondo che quest'ultima trasformava in immagini materiali; l'arte operava per sostituzione analogica, per transfert e dislocazione sensoriale. La scienza dava delle idee, proponeva delle concezioni del mondo, della realtà, ispirava, suggeriva, lavorava sull'arte dal basso. Gli artisti vi trovavano sovente la conferma di certe loro intuizioni o uno stimolo per l'immaginazione. [...] Questa relazione metaforica è fortemente rimessa in questione dalla tecnologia digitale. [...] I modelli di simulazione digitale utilizzati nei programmi sono, come tutti i modelli scientifici, delle interpretazioni formalizzate del reale. [...] Ne risulta che sul video di un calcolatore non si può dare una forma visibile, sensibile, che a ciò che è già intelligibile, che è già un'interpretazione razionale del mondo. Gli artisti si trovano allora nella delicata necessità di creare il concreto (delle forme artistiche) con l'astratto (dei programmi informatici), che sono in qualche modo delle ricadute applicative della scienza. Due conseguenze principali derivano da tutto ciò. Prima conseguenza: tutto il rapporto dell'arte con il reale e la conoscenza è rovesciato. Se è vero che l'arte moderna si è impegnata a liberarsi di ogni tecnicismo specificatamente artistico [...] il che si è tradotto nella possibilità e volontà demiurgica di fare arte non importa con quali materiali e con quali mezzi, [...] l'utilizzazione di questi modelli [astratti e digitali] reintroduce, paradossalmente, un tecnicismo molto sofisticato, quello del digitale, sia che l'autore faccia lo sforzo di diventare egli stesso un programmatore sia che si accontenti della possibilità di sfruttare i programmi standard. Si realizza così un ritorno al saper fare fino ad oggi screditato. Seconda conseguenza: la scienza acquista un'importanza sempre maggiore nella sua relazione con l'arte. [...] Con il digitale, la scienza non può più venire interpretata metaforicamente come lo è stata finora nella storia dell'arte, ma adesso impone direttamente la sua presenza all'interno stesso dell'arte, fornendole, con i modelli di simulazione, i suoi materiali, i suoi strumenti, e in più larga misura ancora i suoi processi" (E. Couchot, N. Hillaire, L'Art numérique, pp. 33-5"). 

6. Il modello della Rete

Il modello paradigmatico della rete è il sistema nervoso, e il modello si è sviluppato nell'ambito degli studi sulla neurofisiologia della visione alla fine degli anni Cinquanta. Secondo certe interpretazioni, il sistema nervoso è un sistema organizzativamente chiuso. La tesi della chiusura del sistema nervoso si può sintetizzare dicendo che ogni cambiamento di stato del sistema è solamente funzione di un altro stato del sistema stesso e l'ambiente in cui si trova il sistema è completamente mappato nel sistema stesso, cioè per ogni stato dell'ambiente esterno vi è un corrispondente stato interno del sistema. Il sistema nervoso non fa alcuna differenza fra 'esterno' e 'interno', fra inputs esterni e stati interni. Esso non 'sa' di avere ricevuto certi inputs dall'ambiente: tutto ciò che 'sa' è che certe sue unità o certi suoi sotto-sistemi sono entrati in un certo stato, e da queste unità una certa attività si propaga per la rete neuronale.

  "Operativamente, il sistema nervoso è una rete chiusa di neuroni interagenti tale che un cambiamento in un neurone porta sempre ad un cambiamento di attività in altri neuroni, o direttamente mediante un'azione sinaptica, o indirettamente mediante l'intervento di qualche elemento fisico o chimico. [...] I neuroni sensori ed effettori come sarebbero descritti da un osservatore che osserva un organismo in un ambiente, non costituiscono un'eccezione perché tutta l'attività sensoria in un organismo conduce ad un'attività sulle sue superfici effettrici, e tutta l'attività effettrice in esso conduce a cambiamenti sulle sue superfici sensorie. Che a questo punto un osservatore debba vedere elementi ambientali che intervengono tra le superfici effettrici e quelle sensorie dell'organismo, è irrilevante, perché il sistema nervoso è definito come una rete di interazioni dalle interazioni dei suoi neuroni componenti, indipendentemente dagli elementi intervenuti. [...] La fenomenologia dei cambiamenti di stato del sistema nervoso è esclusivamente la fenomenologia dei cambiamenti di stato di una rete neuronale chiusa; cioè, per il sistema nervoso come rete neuronale non vi è interno od esterno" (H. Maturana, F. Varela, Autopoiesi e cognizione, Marsilio, Venezia 1985, pp. 188-9).

  Il programma di ricerca connessionista in intelligenza artificiale è sorto negli anni Ottanta, all'incrocio fra computer science e psicologia cognitiva, ispirandosi direttamente al modello della rete neuronale. Una macchina connessionista è composta da molte unità elementari (teoricamente potrebbero essere migliaia e anche milioni) che si scambiano segnali inibitori ed eccitatori attraverso le loro interconnessioni. Queste unità elementari sono anch'esse modellate sul 'neurone' di McCulloch e Pitts ma, a differenza delle unità binarie della macchina di von Neumann, le unità della macchina connessionista possono avere livelli diversi di attività e gli impulsi che ricevono e trasmettono possono essere pesati, cioè modulati, in modo diverso.

  Queste unità elementari 'rappresentano' ipotesi elementari circa le caratteristiche 'dell'ambiente': "possibili ipotesi circa cose come le lettere in una particolare configurazione o i ruoli sintattici delle parole in una certa frase. In questi casi i livelli di attività delle unità stanno grosso modo per la plausibilità associata alle differenti ipotesi possibili, e le interconnessioni fra le unità stanno per i vincoli che il sistema conosce esistenti fra le ipotesi. In altri casi, le unità stanno per possibili scopi ed azioni, come il compito di battere a macchina una particolare lettera, o l'azione di muovere il dito indice sinistro, e le connessioni collegano gli scopi ai sotto-scopi, i sotto-scopi alle azioni, e le azioni ai movimenti muscolari" (J. McClelland, D. Rumelhart, G. Hinton, The Appeal of Parallel Distributed Processing, in D. Rumelhart, J. McClelland, Parallel Distributed Processing. Explorations in the Microstructure of Cognition, Vol 1, MIT Press, 1986, p. 9).

  Ogni unità riceve un input dai suoi vicini sotto forma di segnali eccitatori o inibitori, computa un output e lo invia a sua volta come segnale inibitore o eccitatore, l' intensità del quale dipende dal livello di attivazione dell'unità stessa. Le interconnessioni fra le unità costituiscono "ciò che il sistema conosce (...) Specificare il sistema di trattamento dell'informazione e la conoscenza codificata dentro di esso è questione di specificare questo pattern di connessioni fra le unità della rete [...] Tutta la conoscenza è nelle connessioni. Noi siamo abituati dai convenzionali computers programmabili a pensare alla conoscenza come qualcosa immagazzinato nello stato di certe unità del sistema. Nei nostri sistemi PDP (Parallel Distributed Processing) l'immagazzinamento di lungo termine ha luogo nelle connessioni" (D. Rumelhart, G. Hinton, J. McClelland, A General Framework for Parallel Distributed Processing, in D. Rumelhart, J. McClelland, Parallel Distributed Processing. Explorations in the Microstructure of Cognition, Vol 1, pp. 49; 75).

  La 'macchina' connessionista non esegue computazioni manipolando simboli, ed esegue le sue operazioni in parallelo, ovvero non le esegue sequenzialmente, passo dopo passo ma le esegue attivando contemporaneamente tutte le sue unità: ognuna di esse esegue un'operazione elementare, scambiando informazioni con le unità vicine, attraverso le connessioni che ha con esse, e modificando il risultato della propria operazione in base ai messaggi che riceve dalle unità vicine. L'operazione che esegue la macchina è il risultato di tutte le micro-operazioni che eseguono, contemporaneamente, le sue unità.

  Benché la velocità con cui una singola unità esegue la sua operazione non sia molto alta (millisecondi invece dei picosecondi dei più progrediti computers seriali, che eseguono cioè le operazioni in sequenza) il parallelismo delle operazioni fa sì che le computazioni finali della macchina siano molto più veloci del più veloce computer seriale: una sequenza che richiederebbe milioni di cicli in una macchina seriale potrebbe essere eseguita in pochi cicli in una macchina parallela che avesse centinaia di migliaia di interconnessioni fra le sue unità. Ma non è solo, né soprattutto una questione di velocità: il paradigma connessionista comporta un radicale riorientamento nel modo di concepire e descrivere la rappresentazione della conoscenza, l'apprendimento, la memoria.

  Adesso sono le interconnessioni fra le unità che costituiscono ciò che il sistema conosce: tutta la conoscenza è nelle connessioni, connessioni che possono essere modificate, create o soppresse. Per la teoria computazionale della mente, l'apprendimento consiste in un cambiamento di strutture rappresentazionali simboliche contenute nella memoria. In una macchina connessionista l'apprendimento consiste, invece, in un cambiamento degli stati del sistema stesso, dove ogni possibile pattern o configurazione dei livelli di attività delle unità e dei pesi attribuiti alle connessioni corrisponde ad una 'descrizione' che la macchina fa del suo 'ambiente', così come patterns differenti di attività nella rete neuronale corrisponderebbero a differenti interazioni dell'organismo con il suo ambiente. La struttura rappresentazionale è la rete stessa.

  Il passaggio di informazione avviene sotto forma di attivazione di unità, non di trasmissione di messaggi: scompare la distinzione fra l'informazione e le strutture che la manipolano, l'informazione non è qualcosa che è manipolata da un processore, ma l'informazione sta nella configurazione stessa delle strutture: l'informazione è la struttura.

  Il sociologo Manuel Castells combina i paradigmi delle reti neuronali e del caos deterministico applicandoli alla società dell'informazione. "Le nostre società sono fatte fondamentalmente di flussi scambiati attraverso reti di organismi sociali ed istituzioni. Per 'flussi' intendo sequenze intenzionali, ripetitive, programmabili, di scambio e di interazione fra luoghi fisicamente distanti occupati da attori sociali in organizzazioni e istituzioni sociali. [...] Sono le reti a organizzare la posizione degli attori, delle organizzazioni e delle istituzioni nelle società e nelle economie. La rilevanza sociale in ciascuna unità sociale è condizionata dalla sua presenza o assenza in reti specifiche. [...] Effetti sociali, economici e culturali molto importanti sono conseguenza della formazione di 'turbolenze' nello spazio dei flussi. Non sto sostenendo che l'azione sociali diventi casuale. Sto sostenendo che una logica strutturale dominata da flussi largamente incontrollabili dentro e fra le reti crea le condizioni dell'imprevedibilità delle conseguenze dell'azione umana attraverso la riflessione di tale azione in uno spazio dei flussi invisibile e senza mappe. [...] La capacità di produrre nuova conoscenza e di raccogliere informazione strategica dipende dall'accesso ai flussi di tale conoscenza o informazione [...] Ma il punto chiave da tenere a mente è che non c'è una singola, privilegiata, fonte di scienza o di informazione. Anche la conoscenza è un flusso. Nella scienza moderna, nessun ricercatore, nessun centro di ricerca può sopravvivere in isolamento." (M. Castells, The net and the self. Working notes for a critical theory of the Informational Society, in P. Weibel, T. Druckrey, Net_condition. Art and global media, MIT Press 2001, pp. 43-4).

  Castells allarga, per così dire, il modo di produzione della realtà virtuale al modo di produzione di tutta la cultura della Rete: la Rete diventa una metafora della cultura contemporanea. "A causa della convergenza dell'evoluzione storica e del cambiamento tecnologico, siamo entrati in uno schema puramente culturale di interazione sociale e di organizzazione sociale. E questo perché l'informazione è l'ingrediente chiave della nostra organizzazione sociale e perché i flussi di messaggi e di immagini fra le reti costituiscono il tessuto di base della nostra struttura sociale" (M. Castells, The net and the self. Working notes for a critical theory of the Informational Society, p. 47).  

7. Il Cyberspazio e la Net Art

L'origine del termine "Net Art" è degna di "un esperimento casuale" di Tristan Tzara.

  "Nel dicembre 1995 Vuk Cosic ricevette un messaggio, inviato da un mittente anonimo. A causa dell'incompatibilità del software, il testo, una volta aperto, risultò un abracadabra in codice ASCII praticamente illeggibile. L'unico frammento leggibile risultava essere una cosa come:

  [...]J8~g# | \ ; Net. Art {¯^s1 [...

  [...] Quando il testo venne infine decodificato, la frase corrispondente era all'incirca la seguente: "All this became possibile only with emergence of the Net. Art as a notino becomes obsolete etc." (T. Druckrey, [...]J8~g# | \ ; Net.Art {¯^s1 [..., in P. Weibel, T. Druckrey, Net_condition. Art and global media, MIT Press 2001, p. 25).

  Con l'Art and Global Media Project tenutosi dall'ottobre 1998 al febbraio 2000 fra Barcellona, Graz, Karlsruhe e Tokyo, l'esposizione non avviene in un luogo e in un tempo locali, ma nello spazio stesso dei media. I luoghi materiali e le istituzioni culturali locali servono solamente come base per estendere le attività artistiche nello spazio informatico.

  "Il modo in cui i media costruiscono la società, la storia, la memoria, la politica, il mercato, l'economia e la conoscenza è il tema principale del progetto Art and global media. In giro per il mondo vediamo come i media abbiano ormai sostituito le tradizioni funzioni e i tradizionali operatori coinvolti nella costruzione della realtà. In misura sempre crescente, la costruzione del mondo è dominata dai media. La società sta diventando sempre di più una società mediatica. Per questo l'osservazione dei media sta prendendo il posto, nell'arte, dell'osservazione del mondo" (P. Weibel, The Project: Art and global media. An exhibition in the media space, in P. Weibel, T. Druckrey, Net_condition. Art and global media, MIT Press 2001, p. 9).

  Le installazioni sulla Rete sono il passo successivo dopo l'arte video degli anni Ottanta e le installazioni interattive su computer degli anni Novanta. L'arte interattiva elettronica produce opere attraverso cui il pubblico può camminare, indossare o attivare con il proprio corpo, combinando grafica digitale, realtà virtuale, musica e video. Si può sostenere come essa non rappresenti che un'estensione dell'arte performativa degli anni Sessanta e più indietro, fino alle prime esperienze Futuriste e Dada. Allora la vera novità sarebbe costituita dall'arte in rete, dall'arte nel cyberspazio, perché andrebbe oltre i limiti spazio-temporali di quelle esperienze artistiche.

  La Rete collega spazi materiali e locali attraverso lo spazio virtuale e non locale dell'informazione. "La rete consiste di isole di non-località. Noi non stiamo viaggiando come in un veicolo lungo uno spazio-tempo continuo, come erroneamente fa pensare la metafora delle autostrade informatiche, ma stiamo piuttosto saltando da un tempo locale ad un altro, da un luogo all'altro. La struttura della non-località, introdotta dal telefono e della televisione, viene amplificata dalla Rete. L'area dell'azione si allarga dall'immagine allo spazio globale dell'informazione. Per la prima volta, dislocazione e non-località permettono la comunicazione oltre l'orizzonte locale. Fino ad oggi, lo spettatore e l'immagine condividevano lo stesso orizzonte locale. Anche in una installazione interattiva, lo spettatore e l'immagine erano nello stesso spazio e nello stesso tempo. La net art interattiva rende possibile che lo spettatore e l'immagine si trovino in luoghi differenti in tempi differenti. Per la prima volta, immagini, testi e suoni non sono legati a luoghi specifici, al luogo dello spettatore. In secondo luogo, l'interazione non è unidirezionale, monosensoriale e irreversibile, come era il caso in precedenza. [....] La natura reversibile dell'effetto fra reale e virtuale, fra locale e non-locale, è il prossimo stadio dopo l'interattività" (P. Weibel, The Project: Art and global media. An exhibition in the media space, p. 14).

  Un altro aspetto dell'interattività resa possibile dalla computer science è quella che Couchot e Hillaire chiamano "la seconda interattività", che fa uso anche di modelli di reti neuronali sviluppate dentro il paradigma connessionista, il cui funzionamento abbiamo descritto nel precedente paragrafo.

  "Mentre la prima interattività s'interessava alle interazioni fra la macchina e l'uomo secondo il modello stimolo-risposta o azione-reazione, la seconda interattività si interessa soprattutto all'azione in quanto guidata dalla percezione, alla corporeità e ai processi moto-sensoriali, all'autonomia (ma si dirà più precisamente all''autopoiesi', concetto del quale siamo debitori al neubiologo Francisco J. Varela). I modelli fisici e meccanici della prima si contrappongono e/o si aggiungono quelli provenienti dalle scienze cognitive e dalle scienze del vivente" (E. Couchot, N. Hillaire, L'Art numérique, pp. 99-100).

  Due sono gli approcci artistici al connessionismo. "Il primo concerne l'utilizzo dei modelli connessionisti dentro opere che si possono vedere solo su supporti tradizionali non interattivi (film o video). L'interattività è allora strettamente interna al programma (e si dice 'endogena'). Il ricercatore crea una situazione spazio-temporale (micro-universi, scene diverse, ecc.) dove gli oggetti virtuali, realistici o di fantasia, intrattengono fra loro delle relazioni che manifestano proprietà 'emergenti', [cioè proprietà nuove e imprevedibili, che sono il risultato delle nuove relazioni che gli oggetti allacciano, che a livello della rete neuronale, la macchina PDP, sono costituite dalle nuove interconnessioni che si stabiliscono fra le unità di computazione] si lasciano svilupparsi più o meno liberamente controllando la loro autonomia e si registrano I momenti che si ritengono più interessanti dal punto di vista estetico." (E. Couchot, N. Hillaire, L'Art numérique, p. 101).

  Questo approccio è più sofisticato dell'ormai 'vecchio' disegno computerizzato di frattali, in quanto fa uso di veri e propri programmi di intelligenza artificiale, e non di 'semplici' equazioni matematiche, ma non sembra concettualmente diverso. Più interessante è il secondo tipo di approccio, dove "il ricercatore propone dei dispositivi interattivi dotati di interfaccia specifici grazie ai quali lo spettatore entra in interazione con l'immagine in tempo reale (l'interattività è allora 'esogena'). Questi interfaccia sono muniti di recettori capaci di registrare certe azioni dello spettatore (spostamenti nello spazio, accelerazioni/decelerazioni, gesti specifici, suoni diversi, comandi vocali, la semplice presenza, gradienti termici, manipolazioni della tastiera e del mouse, ecc." (E. Couchot, N. Hillaire, L'Art numérique, p. 103).

  Particolarmente interessanti sono gli esempi delle applicazioni teatrali di queste tecnologie: in una messa in scena de L'orgia di Pasolini fatta da Jean-Lambert Wild, gli attori hanno dei recettori che registrano alcune loro attività corporali come il ritmo cardiaco, la respirazione, la temperatura superficiale; queste informazioni sono trattate in tempo reale da un programma che le trasmette come sintomi emozionali a degli esseri virtuali (sorta di organismo marini immaginari) che si muovono secondo questi impulsi e sviluppano un comportamento parzialmente autonomo. L'immagine di queste creature è proiettata sulla scena di modo che per lo spettatore esse e gli attori in carne ed ossa appartengono allo stesso spazio (E. Couchot, N. Hillaire, L'Art numérique, pp. 104-5).

  In Danse avec moi (2001), Michel Bret e Marie-Hélène Tramus hanno creato una ballerina virtuale che interagisce con una vera ballerina. La ballerina virtuale è controllata da una rete neuronale e questo controllo fa sì che la ballerina virtuale non sia una semplice copia di quella reale, ma abbia una certa sensibilità e capacità di apprendimento. In una prima fase, la rete neuronale 'apprende' diversi passi di danza che sono eseguiti da una vera ballerina che indossa un esoscheletro elettronico che registra i principali movimenti del suo corpo e li trasmette alla rete: queste informazioni vengono interpretate in tempo reale come delle forze che agiscono sulla ballerina virtuale La rete memorizza i passi di danza. In seguito la ballerina reale danza con quella virtuale e la prima è dotata di un apparecchio che ne registra la posizione: anche in questo caso le informazioni sono elaborate in tempo reale e la ballerina virtuale risponde improvvisando dei passi. "Ma non sono esattamente quelli che ha già appreso, ma il risultato di un compromesso fra quelli che ha in memoria e i gesti imprevedibili della ballerina reale. I metodi impiegati permettono alla rete neuronale di autoconfigurarsi a seconda e a misura delle azioni della ballerina reale. [...] Segue un'interazione più evoluta nella quale la ballerina reale controlla e modifica le proprie azioni in funzione del comportamento della ballerina digitale" (E. Couchot, N. Hillaire, L'Art numérique, pp. 106-7).

  Couchot e Hillaire osservano come "questa nuova forma di ibridazione fra l'opera e lo spettatore, lungi dallo spingere l'arte verso una pretesa dematerializzazione in cui il corpo strenne negato a favore di pure astrazioni, si apre a differenti orizzonti. L'attenzione prestata alla corporeità le fa riprendere un posto che in parte aveva perduto in una certa arte contemporanea" (E. Couchot, N. Hillaire, L'Art numérique, p. 108).

  Concludiamo osservando come il cyberspazio arrivi a configurarsi, secondo alcuni, come un sistema chiuso, nel quale tende a scomparire la distinzione fra 'esterno' e 'interno' come nel sistema nervoso nella visione di Maturana e Varela. Sono forse qua al lavoro, in profondità, modelli ancora una volta provenienti dalle nuove frontiere delle scienza.

  "L'integrazione e la convergenza delle varie tecnologie offusca ancora più rapidamente la linea di confine tra interno ed esterno; lo scambio tra il soggetto e la realtà comincia a confondersi per effetto di un'interazione ininterrotta, la cui velocità aumenta fino all'immediatezza" (V. De Angelis, Arte e linguaggio nell'era elettronica, p. 285). "I nuovi media elettronici si sforzano di divenire ambienti intermedi, che abbiano accesso alla realtà interiore della nostra psiche individuale e gettino un ponte sul mondo esterno. Essi svolgono una specie di mediazione sociale in un'unica continua estensione dei nostri poteri individuali d'immaginazione, concentrazione ed azione e funzionano, in larga misura, come una seconda mente. Una mente che sarà presto dotata di autonomia maggiore di quanto forse vorremmo. [...] le psico-tecnologie creano le condizioni per un Io esteso, che scaturisce da un Io individuale fino a giungere ai più remoti confini di tutto ciò che possiamo indagare" (D. de Kerckhove, Brainframes, pp. 178; 186; cit. da De Angelis, p. 285).

  Come ricorda uno dei pionieri del lavoro sugli ipertesti e la grafica computerizzata negli anni Sessanta, Andries van Dam, le ricerche di allora erano viste da chi le portava avanti, allora su mainframe computers che occupavano una stanza intera, "come un esercizio per espandere la mente". 

8. Letture per approfondire