|
Il bambino
cyborg ha capito: |
L'interazione precoce e costante con computer, simulazioni virtuali, giocattoli elettronici e trasformabili sta abituando i bambini a considerare sempre più fluidi i confini tra uomo e macchina, tra animato e inanimato. Ogni criterio di distinzione che appare acquisito viene rimesso in dubbio dall'evoluzione di giochi e programmi che simulano efficacemente il comportamento degli esseri viventi.
E' merito del genio di Jean Piaget1 aver dimostrato come osservando gli oggetti del mondo esterno, il modo in cui "funzionano", i bambini arrivano a costruire le categorie astratte di spazio, tempo, numero, causalità, vita, mente. Cinquant'anni fa, quando Piaget formulava le sue teorie, il mondo dei bambini era popolato di oggetti che potevano essere spiegati in termini semplici, meccanicistici. Una bicicletta poteva essere compresa in termini di pedali e ingranaggi, una macchinetta in termini di meccanismi a molla. I bambini erano in grado di afferrare il funzionamento di apparecchi elettronici come le prime radio e inquadrarli (con una certa difficoltà) in questo sistema di spiegazione "meccanicistico". Dalla fine degli anni Settanta, tuttavia, con l'introduzione dei giocattoli e dei giochi elettronici, la natura degli oggetti e il modo in cui i bambini li percepiscono sono cambiati. Oggi, quando un bambino apre i suoi giocattoli computerizzati per "vedere" come funzionano, trova un chip, una batteria e alcuni fili. Rendendosi conto che cercare di capire questi oggetti in termini fisici non porterebbe da nessuna parte, i bambini adottano un tipo di interpretazione psicologica2, chiedendosi se i giochi sono coscienti, se hanno cognizioni, sentimenti, e persino se "imbrogliano". Gli oggetti tradizionali incoraggiavano a operare una distinzione tra il mondo della psicologia e il mondo delle macchine, ma il computer ha cambiato questo stato di cose. La sua "opacità" induce i bambini a considerare gli oggetti computazionali come macchine dotate di proprietà psichiche.
Nel corso degli ultimi
vent'anni, utilizzando metodi etnografici e clinici ho osservato e intervistato
centinaia di bambini nelle loro interazioni con diversi tipi di oggetti
computazionali: tra la fine degli anni Settanta e l'inizio degli anni Ottanta
con i primi giochi e giocattoli elettronici, negli anni Novanta con una
nuova generazione di giochi elettronici e di software, e con Internet. Tra
gli oggetti computazionali della prima generazione vi era un gioco chiamato
Merlin, che sfidava i bambini a filetto. Merlin seguiva una strategia ottimale
per vincere il gioco la maggior parte delle volte, ma era programmato in
modo tale da commettere un errore ogni tanto. Così quando i bambini scoprivano
una strategia che avrebbe consentito loro di vincere, e la utilizzavano
una seconda volta, di solito non funzionava. La macchina dava l'impressione
di non essere abbastanza "stupida" da abbassare due volte le sue difese.
Robert, sette anni, giocando con altri bambini sulla spiaggia, vede l'amico
Craig utilizzare il trucco vincente, ma quando lo prova a sua volta, Merlin
non commette l'errore e il gioco finisce in pareggio. Perplesso e frustrato,
Robert accusa allora Merlin di essere una "macchina imbrogliona". Abituati
a macchine prevedibili, i bambini restavano sconcertati di fronte al comportamento
di questo gioco.
In un impeto di rabbia e di frustrazione, Robert scaglia Merlin sulla sabbia.
«Imbroglione! Spero che ti rompa!». Craig e Greg, di sei e otto anni, che
hanno assistito alla scena, raccolgono il giocattolo, e cercano di spiegare
a Robert come stanno le cose. Craig avanza l'idea che «Merlin non sa se
imbroglia; non si accorge di essere rotto. Non si accorge se lo rompi, Robert.
Non è vivo». Greg aggiunge: «E' abbastanza bravo da fare il giusto tipo
di rumori. Ma non sa realmente se perde. E' così che puoi imbrogliarlo.
Non sa che lo stai imbrogliando. E quando imbroglia lui, non sa nemmeno
che sta imbrogliando». Al che Jenny, sei anni, lo interrompe sprezzante:
«Greg, per imbrogliare devi sapere che stai imbrogliando. Saperlo fa parte
dell'imbrogliare».
All'inizio degli
anni Ottanta queste scene non erano insolite. Di fronte a oggetti che parlavano,
mettevano in atto strategie e "vincevano", i bambini erano indotti a interrogarsi
sullo status morale e metafisico delle macchine in base alla loro psicologia:
le macchine sanno quello che fanno? hanno intenzioni, coscienza, sentimenti?
I primi computer che entrarono nella vita dei bambini divennero l'occasione
per sviluppare nuove definizioni di ciò che è umano e ciò che è meccanico.
Perché nonostante l'obiezione di Jenny, secondo cui «sapere che si sta imbrogliando
fa parte dell'imbrogliare», i bambini finivano per attribuire agli oggetti
computazionali una forma di consapevolezza. Jenny apparteneva a una prima
generazione di bambini che di fronte a "macchine pensanti" erano indotti
a considerarle vive e ad attribuire loro una forma di coscienza.
Negli ultimi vent'anni gli oggetti che popolano la vita dei bambini hanno
cominciato a includere macchine sempre più intelligenti, giocattoli, giochi
e programmi che fanno sembrare primitive le ambizioni di questi primi cibergiocattoli.
Di fronte a oggetti computazionali che si propongono esplicitamente come
esemplari di vita artificiale, i criteri tradizionali di identificazione
del vivente entrano in crisi.
1. Dalla fisica alla
psicologia.
Studiando la psicologia infantile nell'universo degli oggetti tradizionali
- ossia non computazionali - Piaget scoprì che il movimento costituiva il
criterio fondamentale per distinguere il vivente dall'inanimato. Dapprima
il bambino considerava vivo tutto ciò che si muove, in seguito solo ciò
che si muove "spontaneamente", senza un impulso esterno. Nelle tappe successive
dell'evoluzione, il bambino raffinava il concetto di movimento spontaneo,
identificandolo con i movimenti vitali della respirazione e del metabolismo:
"vivo" era quindi solo ciò che respira e cresce. Ma ai bambini degli anni
Settanta e dei primi anni Ottanta, cresciuti a contatto con computer, giocattoli
e giochi elettronici, il classico modello evolutivo individuato da Piaget
non sembra più applicabile. Il movimento - una dimensione "fisica" - cominciò
a perdere la sua centralità come criterio distintivo del vivente, e al suo
posto subentrava la dimensione "psichica", che il bambino percepiva come
proprietà psicologiche del computer.
Oggi, a soli dieci anni di distanza, i bambini hanno imparato che i computer
sono solo macchine, ma continuano ad attribuire loro proprietà (come l'intenzionalità
e il pensiero) che in precedenza erano riservate agli esseri umani.
Holly, una bambina
di undici anni, osserva un gruppo di robot che percorrono un labirinto.
I robot mettono in atto diverse strategie per raggiungere il loro obiettivo,
e Holly è indotta a usare termini come "personalità" e "intelligenza" per
commentare il loro comportamento. Alla fine, quando le si chiede se i robot
siano "vivi", arriva a formulare questa sorprendente idea: «Sono come Pinocchio
[...] prima Pinocchio era solo un burattino, non era vivo. Poi era un burattino
vivo, e alla fine un bambino vivo, un bambino vero. Ma era vivo anche prima
di essere un bambino vero. Così penso che per i robot sia lo stesso. Sono
vivi come Pinocchio, ma non sono "bambini veri"». E conclude: «Loro sono
in un certo senso vivi».
Nel settembre del 1987 più di cento scienziati e tecnici si riunirono a
Los Alamos, nel New Mexico, per fondare una disciplina dedicata alla messa
a punto di macchine in grado di valicare il confine tra quasi vivo e realmente
vivo, e chiamarono questa nuova impresa "vita artificiale". Secondo Christopher
Langton3, uno dei fondatori
della disciplina della vita artificiale, l'evoluzione biologica si basa
su effetti imprevedibili "dal basso": regole semplici che interagiscono
dando luogo a un comportamento complesso. La vita artificiale, a suo parere,
avrebbe potuto avere successo solo se avesse condiviso con la natura questa
estetica degli effetti emergenti.
Sin dall'inizio,
molti pionieri della vita artificiale svilupparono le loro idee attraverso
la creazione di programmi sui personal computer. Questi programmi, facilmente
diffusi su floppy disk o condivisi via Internet, hanno rivoluzionato la
propagazione sociale delle idee.
Il concetto chiave di emergenza dal basso, decentrata, è ben illustrato
da un programma che fu messo a punto verso la metà degli anni Ottanta. Il
suo creatore, Craig Reynolds, intendeva verificare se il comportamento gregario
- dei pesci, degli uccelli o degli insetti - possa aver luogo senza che
intervenga l'ordine esplicito di un capo o l'intenzione aggregativa. Reynolds
realizzò un programma in cui un gruppo di uccelli virtuali formava uno stormo,
e ogni singolo "uccello" agiva «esclusivamente in base alla propria percezione
locale del mondo»4.
Reynolds chiamò "boidi" questi uccelli digitali - un'estensione del gergo
high-tech che designa oggetti generalizzati aggiungendo il prefisso "oidi".
"Boide" poteva essere qualunque creatura gregaria. Ogni boide agiva in base
a tre semplici regole: 1) se sei troppo vicino a un boide contiguo, allontanati;
2) se non sei veloce come il boide vicino, accelera; se non sei lento come
il boide vicino, rallenta; 3) se ti stai muovendo verso la maggiore densità
di boidi, mantieni questa direzione, in caso contrario, seguila. L'interazione
di queste regole produceva stormi di boidi in grado di aggirare gli ostacoli
e di cambiare direzione. Il programma di Reynolds sollevava una questione
cruciale: come possiamo stabilire che il comportamento esibito dai boidi
(comportamento al quale verrebbe spontaneo attribuire intenzionalità e leadership)
è differente dal comportamento degli esseri viventi? Il comportamento complesso
degli animali reali non potrebbe essere il prodotto di regole semplici?
E non si potrebbe affermare lo stesso del comportamento complesso degli
esseri umani?
2. "Vivi" nel computer.
Verso la metà degli anni Ottanta il biologo Thomas Ray si propose di creare
al computer un universo in cui creature digitali autoreplicanti potevano
evolversi spontaneamente. Ray immaginò che il motore dell'evoluzione degli
organismi artificiali fosse la competizione per il tempo di Uec (Unità di
elaborazione centrale). Quanto minore era il tempo necessario a un organismo
digitale per replicarsi, tanto più esso sarebbe risultato adatto al suo
ambiente. Ray chiamò il suo sistema Tierra. Nel gennaio del 1990 creò il
programma per la sua prima creatura digitale, basato su ottanta istruzioni.
Da essa si sviluppò una progenie in grado di replicarsi con un numero ancora
minore di istruzioni. Ciò significava che i discendenti erano più adatti
dei progenitori in quanto potevano competere meglio in un ambiente in cui
la memoria del computer era una risorsa scarsa. L'ulteriore evoluzione produsse
creature autoreplicanti ancora più piccole, "parassiti" digitali che trasmettevano
il loro patrimonio genetico attaccandosi a organismi di maggiori dimensioni.
Quando alcuni organismi ospiti svilupparono un'immunità alla prima generazione
di parassiti, ne comparvero subito nuovi tipi. Per Ray, un sistema che si
autoreplica ed è in grado di un'evoluzione "aperta" può essere considerato
vivente. In base a questo criterio il programma Tierra dovrebbe essere ritenuto
vivo.
Ray non era in grado
di prevedere gli sviluppi del suo sistema. Come nel caso dei boidi, il comportamento
complesso delle creature digitali di Tierra emergeva "dal basso".
Al Media laboratory del Mit lo studioso di informatica e di pedagogia Mitchel
Resnick si propose di introdurre l'estetica della vita artificiale nel mondo
dei bambini, con un kit per la costruzione di robot che comprendeva sensori
e motori oltreché normali pezzi di costruzioni Lego. I bambini finivano
ben presto per considerare le loro creazioni alla stregua di esseri viventi.
Un piccolo robot veniva giudicato "confuso" perché si muoveva avanti e indietro
tra due punti (a causa di due regole che gli imponevano contemporaneamente
di cercare oggetti e di allontanarsi rapidamente se ne avvertivano la presenza).
Altri robot erano definiti nervosi, impauriti o tristi. I primi robot in
Lego-Logo erano collegati a un computer "madre", ma alla fine i ricercatori
riuscirono a renderli autonomi dotandoli di un computer incorporato. In
questo modo assomigliavano assai più a creature che a macchine, suggerendo
ai bambini l'idea che le macchine potrebbero essere creature e le creature
macchine.
Resnick mise a punto anche vari linguaggi di programmazione tra cui StarLogo, che consentiva di controllare le azioni parallele di molte centinaia di "creature" sullo schermo di un computer. Mentre i programmi tradizionali seguono un'istruzione alla volta, con il programma StarLogo di Resnick istruzioni multiple erano eseguite contemporaneamente, simulando il modo in cui i processi si verificano in natura. E come accade in natura, da regole semplici scaturiscono comportamenti complessi. Ad esempio, a una popolazione di "termiti" digitali poste in un ambiente disseminato di schegge di legno digitali venivano date due regole: se non stai trasportando nulla e trovi una scheggia di legno, raccoglila; se stai trasportando una scheggia di legno e ne trovi un'altra, deponi a terra quella che stai trasportando. Erano sufficienti queste due regole per ottenere che le termiti digitali accatastassero una pila di schegge di legno5, senza un comando esplicito in questo senso. Analogamente, con StarLogo era possibile creare uno stormo di uccelli, una colonia di formiche, un ingorgo stradale - tutte situazioni in cui un comportamento complesso emerge dall'interazione di regole semplici. Come osservò uno dei bambini che sperimentavano questi materiali, «si può ottenere [dal programma] più di quello che gli si dice di fare»6.
Un oggetto come StarLogo
offre qualcosa di più che nuove possibilità tecniche: esso fornisce ai bambini
un materiale concreto per sviluppare quella che Resnick ha definito una
"struttura mentale decentrata". Il principio chiave qui è l'auto-organizzazione:
la complessità compare senza che vi sia alcun tipo di intervento o di controllo
dall'alto. In un modello evolutivo centralizzato, Dio progetta il processo,
lo mette in moto e lo sorveglia da vicino per assicurarsi che si conformi
al progetto. In un modello decentrato, Dio può essere presente, ma soltanto
nei dettagli: regole semplici, le cui interazioni danno tuttavia luogo alla
complessità della natura.
StarLogo insegna in che modo regole decentrate possano essere il fondamento
di un comportamento che può apparire "intenzionale" o frutto di un comando.
Esso mette in luce altresì le resistenze che incontra il pensiero decentrato.
Resnick riferisce che di fronte alle pile di schegge di legno accatastate
dalle termiti digitali la maggior parte degli adulti preferiva assumere
che fosse intervenuto un capo per dirigere il processo, o che vi fosse un'asimmetria
nel mondo che dava luogo a un determinato schema; ad esempio, una fonte
di cibo vicino all'ubicazione finale di una catasta7.
La nostra tendenza
a privilegiare un modello centralizzato può essere ricondotta a diversi
fattori: la tradizione del monoteismo occidentale; l'esperienza millenaria
di società su larga scala governate da un'autorità centrale e controllate
da una burocrazia centralizzata; la percezione di noi stessi come attori
unitari e intenzionali (l'Ego come Io); e, infine, il fatto che tradizionalmente
ci sono mancati oggetti del mondo esterno (come, appunto, StarLogo) che
ci stimolassero a pensare in termini di decentramento e di effetti emergenti.
Via via che una gamma sempre più vasta di oggetti di questo tipo entra a
far parte della nostra cultura, le nostre preferenze potrebbero orientarsi
verso un modello esplicativo basato sull'emergenza dal basso. Per i bambini
odierni che hanno dimestichezza con la computazione parallela, l'idea di
processi multipli e di metodi decentrati è del tutto naturale, anzi, essi
finiscono per apprezzare questa "qualità dell'emergenza" e cominciano a
identificarla con l'essenza del vivente.
L'idea che il tutto è qualcosa di più della somma delle sue parti ha sempre
avuto connotazioni religiose e spirituali. Di fronte a fenomeni decentrati,
emergenti, si ha la sensazione che esistano delle regole, ma nello stesso
tempo si è consapevoli che l'esito finale è imprevedibile. Agli occhi dei
bambini, i fenomeni emergenti appaiono quasi magici, in quanto si può sapere
cosa farà ogni singolo oggetto, ma non l'assetto finale che avrà il sistema
nel suo complesso. E' questa la sensazione espressa dai bambini quando affermavano
che riuscivano a ottenere da StarLogo più di quello che gli si diceva di
fare. I bambini sanno che vi sono regole dietro la magia e che vi è qualcosa
di magico nelle regole. In una visione del mondo cyborg, gli oggetti sono
re-incantati.
Quando i bambini che utilizzavano StarLogo ottenevano raggruppamenti prevedibili di oggetti attraverso un comando esplicito, non consideravano "interessante" questo risultato, in quanto dissimile da ciò che accade in natura. Lo stesso risultato ottenuto attraverso regole semplici che non avevano alcuna relazione evidente con la formazione di gruppi appariva invece una simulazione di processi reali. Per questi bambini quindi "insegnare" agli uccelli del computer a formare uno stormo dicendo loro dove andare in ogni circostanza appariva una sorta di "imbroglio". Essi andavano sviluppando un'"etica della simulazione" in cui il decentramento e l'emergenza costituivano i requisiti perché le cose apparissero abbastanza vive da risultare interessanti. In questo esempio, i media computazionali dimostrano la loro capacità di generare nuovi modi di pensare. Così come i bambini a contatto con giocattoli e giochi elettronici cominciarono a definire in termini diversi la nozione di vivente (ossia in termini di psicologia anziché di movimento fisico), quelli esposti all'elaborazione parallela cominciano a pensare la vita in termini di fenomeni emergenti.
3. I Sims.
Il proposito esplicito dei creatori della serie di giochi elettronici di
simulazione noti come Sims (tra cui SimAnt, SimCity, SimHealth, SimLife)
era quello di illustrare i fondamenti della vita artificiale8. Ad esempio, una
delle versioni più elementari di questi giochi, SimAnt, che simula la vita
in un formicaio, illustra il meccanismo della determinazione locale, dal
basso, dei processi: il comportamento di ciascuna formica è determinato
dalla sua situazione, dalla percezione delle compagne più vicine, e da un
insieme di regole. Come i boidi di Reynolds e gli oggetti di StarLogo, le
formiche cambiano la loro situazione a seconda di chi sono e di chi incontrano.
Giocando con SimAnt si apprende l'esistenza dei feromoni, i messaggeri chimici
(nel nostro caso virtuali) attraverso cui le formiche, al pari degli oggetti
di StarLogo, comunicano tra loro. Oltre a ciò SimAnt insegna come in certe
circostanze determinate azioni locali che sembrano innocue (ad esempio l'accoppiamento
di alcune formiche) può portare a risultati complessivi disastrosi (sovrappopolazione
e morte).
Con un altro gioco di questa serie, SimLife, si ottengono specie diverse
di piante e animali attraverso processi di mutazione. Come spiega Laurence,
un adolescente di 15 anni, «il succo del gioco è dimostrare che si possono
creare cose che sono vive nel computer. Così come noi ricaviamo energia
dal sole, l'organismo in un computer ricava energia dalla spina della corrente.
Sono sicuro che molti saranno d'accordo con me quando faranno una SimLife
in cui le creature sono abbastanza intelligenti da comunicare. Ti sentiresti
a disagio se una creatura in grado di parlare con te si estinguesse».
Una bambina di dieci
anni, Robbie, mette l'accento sulla mobilità anziché sulla comunicazione
quando si chiede se le creature evolutesi in SimLife siano vive: «Penso
che in un certo senso siano vive nel gioco, ma se lo spegni non puoi "salvare"
la partita, e quindi tutte le creature che hai ottenuto scompaiono. Ma se
riuscissero a scoprire un modo per eliminare questa parte del programma
così da essere costretti a salvare il gioco, quando il modem è acceso, potrebbero
uscire dal computer e andare su America Online». Il tredicenne Sean offre
questa variante della tesi di Robbie sulle creature di SimLife e sul loro
viaggio in Internet: «Le creature [di SimLife] potrebbero essere più vive
se potessero andare in Dos».
Come mise in luce Piaget nei suoi classici studi degli anni Venti, per i
bambini cresciuti a contatto con oggetti tradizionali, vivo era tutto ciò
che è capace di muoversi spontaneamente. Tra la fine degli anni Settanta
e l'inizio degli anni Ottanta, studiando le reazioni infantili a una prima
generazione di oggetti elettronici che erano fisicamente "statici", ma capaci
di notevoli exploit cognitivi (parlare, compitare, eseguire operazioni matematiche,
giocare a filetto), scoprii che il criterio per attribuire a un oggetto
lo status di vivente era identificato non più con il movimento ma con le
proprietà psichiche.
A dieci anni di distanza, analizzando i commenti dei bambini sulle creature ottenute con i giochi di simulazione, emerge che la variabile centrale è diventata l'evoluzione. Ma ciò implica anche una sintesi di criteri che attengono sia alla dimensione fisica sia alla dimensione psichica. I bambini parlano di "propagazione" digitale attraverso la messa in circolazione di dischetti o via modem. Parlano di virus e di reti. In questo linguaggio, la biologia e il movimento ricompaiono in forma nuova, e si ritrovano associati nei concetti di comunicazione e di evoluzione. Significativamente, il movimento (il criterio classico di Piaget) ricompare associato a presunte proprietà psicologiche: i bambini tendono ad assumere che le creature incontrate nei giochi di simulazione provino il desiderio di "uscire" dal sistema e di svilupparsi in un più vasto mondo computazionale.
4. Bricoleurs del
pensiero.
All'inizio degli anni Ottanta, la comparsa di oggetti computazionali mise
in crisi il classico criterio di definizione del vivente imperniato sul
movimento, ma il nuovo sistema di categorizzazione adottato dai bambini
aveva la sua coerenza. Di fronte a un nuovo universo di oggetti "intelligenti",
essi definirono un nuovo ordine del mondo basato non più sulla fisica bensì
sulla psicologia. Negli anni Novanta, tuttavia, quest'ordine è arrivato
ai limiti della rottura. I bambini parlano dei computer come di "semplici
macchine", ma li descrivono come esseri senzienti e dotati di intenzionalità.
Di fronte a oggetti computazionali sempre più complessi si trovano nella
situazione di bricoleurs del pensiero che si arrangiano con i materiali
che hanno a disposizione: mettono insieme le teorie più disparate adottando
quella che di volta in volta risulta più adatta a una determinata situazione.
Passano così dall'evoluzione alla psicologia, e riesumano la nozione di
movimento ritraducendola in termini di comunicazione di bit.
Quando ho chiesto a diversi gruppi di bambini se si possono definire vivi i robot mobili, le creature digitali dei giochi di simulazione della serie Sims e del programma Tierra, ho ottenuto le risposte più disparate. Ecco alcuni esempi: i robot hanno il controllo ma non sono vivi; sarebbero vivi se avessero un corpo; sono vivi perché hanno un corpo; sarebbero vivi se avessero sentimenti; sono vivi come lo sono gli insetti ma non come gli esseri umani; i Tierrani non sono vivi perché esistono solo nel computer; potrebbero essere vivi se uscissero dal computer; sono vivi sinché non si spegne il computer, dopodiché muoiono; non sono vivi perché nulla nel computer è reale; le creature dei Sims non sono vive ma quasi vive; sarebbero vive se parlassero; sarebbero vive se si propagassero; sono vive ma non reali; non sono vive perché non hanno corpi; sono vive perché possono avere figli; infine, per una bimba undicenne relativamente nuova al gioco SimLife, non sono vive perché i figli non hanno genitori: «Ti fanno vedere le creature e il gioco dice che hanno una madre e un padre, ma non ci credo. Sono solo numeri, non sono madri e padri reali». Abbiamo qui una notevole eterogeneità di teorie. Bambini diversi propongono teorie diverse, e uno stesso bambino può sostenere contemporaneamente teorie differenti.
L'eterogeneità dei punti di vista infantili diventa particolarmente evidente quando si passa da un grande problema, ad esempio se una creatura digitale sia viva, a un piccolo problema, ad esempio perché un robot programmato con metodi emergenti è in grado di muoversi in una certa maniera. Parlando della creatura che aveva costruito con il LegoLogo, Sara, una bambina di dieci anni, passava continuamente da un linguaggio di ordine psicologico a un linguaggio di ordine meccanico. Ad esempio, alla domanda se schiacciando il sensore della macchina da lei costruita questa avrebbe emesso o no un segnale, le sue risposte furono: «dipende se la macchina vuole dire [...] se vogliamo che la macchina ci dica [...] se diciamo alla macchina di dirci...»9. In altre parole, nel giro di pochi secondi Sara aveva adottato tre differenti punti di vista sulla sua creatura (come essere psicologico, come Sé intenzionale, come strumento delle intenzioni del suo programmatore). La velocità con cui passava dall'una all'altra di queste concezioni indica che tutte e tre erano presenti simultaneamente nella mente della bambina, la quale ricorreva, di volta in volta, ora all'una, ora all'altra a seconda delle circostanze.
Nella breve storia delle trasformazioni apportate dal computer nel nostro modo di pensare, spesso i bambini hanno avuto un ruolo pionieristico. Ad esempio, all'inizio degli anni Ottanta, stimolati da giocattoli elettronici che parlavano, eseguivano operazioni matematiche e giocavano a filetto, i bambini impararono a separare la nozione di coscienza da quella di vita, cosa che storicamente non si era fino ad allora verificata. I bambini di quella generazione erano in grado di concepire un computer senziente ma non vivo, un'idea con cui gli adulti cominciano soltanto adesso a familiarizzarsi. I bambini cyborg dei nostri giorni si spingono ancora più in là, e di fronte ad artefatti computazionali che evocano l'essere vivente scelgono un approccio che è improntato alla più radicale eterogeneità di teorie. Nella sua storia della vita artificiale, Steven Levy10 afferma che un modo per conciliare la stessa vita artificiale con la nostra concezione del vivente è quello di immaginare un continuum in cui Tierra, ad esempio, è più viva di una macchina ma meno viva di un batterio. Le mie osservazioni peraltro suggeriscono che i bambini non costruiscono gerarchie, ma si orientano verso un'alternanza di definizioni parallele.
L'eterogeneità delle teorie infantili ovviamente rispecchia gli sviluppi del più ampio contesto culturale. Autorevoli esponenti delle più diverse discipline stanno proponendo una concezione fluida e pluralistica del Sé. Secondo Daniel C. Dennet 11, ad esempio, esistono differenti "versioni" del Sé, nessuna delle quali può pretendere di essere l'unica, vera versione. Nessun aspetto del Sé può essere dichiarato il Sé assoluto, autentico. Robert Jay Lifton12, dal canto suo, definisce il Sé contemporaneo come "proteiforme", molteplice e tuttavia integrato. Donna Haraway, infine, sostiene che il "Sé consapevole" è un Sé "scisso e contraddittorio". «Il Sé consapevole è parziale in tutti i suoi aspetti, non è mai finito, intero, semplice e originario; è sempre costruito e cucito insieme in modo imperfetto»13. Nei contesti computazionali, queste concezioni dell'identità e della molteplicità si materializzano ed entrano a far parte dell'orizzonte dei bambini sin dai primi giorni di vita. Persino il sistema operativo dei computer utilizzati per giocare, disegnare e scrivere veicola questo messaggio. Le finestre di un computer sono una potente metafora del Sé come sistema molteplice e distribuito14. I collegamenti ipertestuali sono diventati una metafora della molteplicità di prospettive. Nelle comunità virtuali di Internet i partecipanti possono entrare in una varietà di mondi digitali (aperti come altrettante finestre) in cui hanno la possibilità di esprimere diversi aspetti della propria identità. Ma questi messaggi veicolati dai media sul pluralismo delle identità e delle teorie non vengono recepiti senza resistenze.
Quanti sono adulti
oggi, sono cresciuti in una cultura psicologica in cui l'unità del Sé era
identificata con la salute psichica e in una cultura scientifica per la
quale una disciplina ha raggiunto la maturità quando può esibire una teoria
unificante. Di fronte alla mutevolezza di prospettive su se stessi ("io
sono le mie sostanze chimiche", "io sono la mia storia", "io sono i miei
geni"), gli adulti di solito si trovano a disagio15. Ma per la nuova
generazione di bambini cyborg questa mutevolezza di prospettive probabilmente
riflette semplicemente il modo d'essere della realtà. Abituati ai giocattoli
trasformabili - macchine che possono trasformarsi in robot e da robot in
animali (talvolta anche in esseri umani), i bambini di oggi si abituano
a considerare del tutto fluidi i confini tra uomo e macchina, animato e
inanimato. Il morphing - un termine generale che designa qualsiasi
cambiamento di forma - è per loro un fenomeno perfettamente naturale. Dimostrando
una sensibilità da alchimista, un bambino di nove anni spiega la tecnica
usata dall'androide cattivo di Terminator II per assumere le sembianze di
tutto ciò che tocca, compresi gli esseri umani: «E' molto semplice. Nell'universo,
qualsiasi cosa può trasformarsi in qualsiasi altra cosa se hai la formula
giusta. Quindi puoi essere ora una persona, e un minuto dopo una macchina».
Stimolati dai loro oggetti cyborg, i bambini della nuova generazione sviluppano
concezioni fluide ed emergenti del Sé e della vita, si abituano ad associare
cose incompatibili. E se, come sostiene Donna Haraway, «le contraddizioni
che non si risolvono in totalità più grandi [...] la tensione che scaturisce
dall'associare cose incompatibili perché entrambe o tutte sono necessarie
e vere»16 costituiscono
l'essenza dell'ironia, i bambini di oggi vanno sviluppando una visione del
mondo imperniata sull'ironia.
(Traduzione di Margherita Zizi)
Note
1 J. Piaget, La rappresentazione del mondo del fanciullo, Bollati Boringhieri, Torino, 1973, edizione originale 1929.
2 S.Turkle, The second self: computers and the human spirit, Simon and Schuster, New York, 1984, pagg 26-63. [I temi affrontati dall'autrice in questo articolo sono stati da lei esposti anche in Cyborg Babies and Cy-Dough-Plasm, testo inserito nel libro antologico Cyborg Babies: From Techno-Sex to Techno Tots, Routledge, New York, 1998].
3 C.G. Langton, Artificial life, in C.G. Langton (a cura di), Artificial life: the proceedings of an interdisciplinary workshop on the synthesis and simulation of living systems, Santa Fe institute studies in the science of complexity, Addison - Wesley, vol. 6, Redwood City, (Cal.) 1989, pag 13.
4 C. Reynolds, Flocks, herds, and schools: a distributed behavioral model, "Computer graphics" 21 July 1987, pag 27.
5 M. Resnick, Turtles, termites, and traffic jams, Mit press, Cambridge, (Mass.), 1992, pag 76.
6 Ibidem, pagg 131-132.
7 Ibidem, pagg 13 e segg.
8 M. Bremer, SimAnt user manual, Orinda, (Cal.), 1991, pag 163.
9 M. Resnick, Lego, logo and life, in C.G. Langton (a cura di), Artificial life: The proceedings of an interdisciplinary workshop on the synthesis and simulation of living systems, Santa Fe institute studies in the science of complexity, Addison-Wesley, vol 6, Redwood City, (Cal.), 1989, pag 402.
10 S. Levy, Artificial life: the quest for a new frontier, Pantheon, New York, 1992, pag 6-7.
11 D.C. Dennett, Consciousness explained, Little, Brown, Boston, (Pen.), 1991.
12 R.J. Lifton, The protean self: human resilience, in An age of fragmentation, Basic Books, New York, 1993.
13 D. Haraway, The actors are cyborg, nature is coyote, and the geography is elsewhere: postscript to "Cyborgs at large" in C. Pneley and A. Ross (a cura di), Technoculture, University of Minnesota press, Minneapolis, 1991, pag 22.
14 S. Turkle, La vita sullo schermo. Nuove identità e relazioni sociali nell'epoca di Internet, Apogeo, Milano, 1997, edizione originale 1995.
15 P. Kramer, Listening to Prozac: a psychiatrist explores antidepressant drugs and the remaking of the self, Viking, New York, 1993, pagg XII - XIII.
16 D. Haraway, Manifesto cyborg. Donne tecnologie e biopolitiche del corpo, Feltrinelli, Milano, 1995, edizione originale 1991.
{text}