{text}

Il bambino cyborg ha capito:
le macchine sono vive, o quasi

Sherry Turkle

L'interazione precoce e costante con computer, simulazioni virtuali, giocattoli elettronici e trasformabili sta abituando i bambini a considerare sempre più fluidi i confini tra uomo e macchina, tra animato e inanimato. Ogni criterio di distinzione che appare acquisito viene rimesso in dubbio dall'evoluzione di giochi e programmi che simulano efficacemente il comportamento degli esseri viventi.

E' merito del genio di Jean Piaget1 aver dimostrato come osservando gli oggetti del mondo esterno, il modo in cui "funzionano", i bambini arrivano a costruire le categorie astratte di spazio, tempo, numero, causalità, vita, mente. Cinquant'anni fa, quando Piaget formulava le sue teorie, il mondo dei bambini era popolato di oggetti che potevano essere spiegati in termini semplici, meccanicistici. Una bicicletta poteva essere compresa in termini di pedali e ingranaggi, una macchinetta in termini di meccanismi a molla. I bambini erano in grado di afferrare il funzionamento di apparecchi elettronici come le prime radio e inquadrarli (con una certa difficoltà) in questo sistema di spiegazione "meccanicistico". Dalla fine degli anni Settanta, tuttavia, con l'introduzione dei giocattoli e dei giochi elettronici, la natura degli oggetti e il modo in cui i bambini li percepiscono sono cambiati. Oggi, quando un bambino apre i suoi giocattoli computerizzati per "vedere" come funzionano, trova un chip, una batteria e alcuni fili. Rendendosi conto che cercare di capire questi oggetti in termini fisici non porterebbe da nessuna parte, i bambini adottano un tipo di interpretazione psicologica2, chiedendosi se i giochi sono coscienti, se hanno cognizioni, sentimenti, e persino se "imbrogliano". Gli oggetti tradizionali incoraggiavano a operare una distinzione tra il mondo della psicologia e il mondo delle macchine, ma il computer ha cambiato questo stato di cose. La sua "opacità" induce i bambini a considerare gli oggetti computazionali come macchine dotate di proprietà psichiche.

Nel corso degli ultimi vent'anni, utilizzando metodi etnografici e clinici ho osservato e intervistato centinaia di bambini nelle loro interazioni con diversi tipi di oggetti computazionali: tra la fine degli anni Settanta e l'inizio degli anni Ottanta con i primi giochi e giocattoli elettronici, negli anni Novanta con una nuova generazione di giochi elettronici e di software, e con Internet. Tra gli oggetti computazionali della prima generazione vi era un gioco chiamato Merlin, che sfidava i bambini a filetto. Merlin seguiva una strategia ottimale per vincere il gioco la maggior parte delle volte, ma era programmato in modo tale da commettere un errore ogni tanto. Così quando i bambini scoprivano una strategia che avrebbe consentito loro di vincere, e la utilizzavano una seconda volta, di solito non funzionava. La macchina dava l'impressione di non essere abbastanza "stupida" da abbassare due volte le sue difese.
Robert, sette anni, giocando con altri bambini sulla spiaggia, vede l'amico Craig utilizzare il trucco vincente, ma quando lo prova a sua volta, Merlin non commette l'errore e il gioco finisce in pareggio. Perplesso e frustrato, Robert accusa allora Merlin di essere una "macchina imbrogliona". Abituati a macchine prevedibili, i bambini restavano sconcertati di fronte al comportamento di questo gioco.
In un impeto di rabbia e di frustrazione, Robert scaglia Merlin sulla sabbia. «Imbroglione! Spero che ti rompa!». Craig e Greg, di sei e otto anni, che hanno assistito alla scena, raccolgono il giocattolo, e cercano di spiegare a Robert come stanno le cose. Craig avanza l'idea che «Merlin non sa se imbroglia; non si accorge di essere rotto. Non si accorge se lo rompi, Robert. Non è vivo». Greg aggiunge: «E' abbastanza bravo da fare il giusto tipo di rumori. Ma non sa realmente se perde. E' così che puoi imbrogliarlo. Non sa che lo stai imbrogliando. E quando imbroglia lui, non sa nemmeno che sta imbrogliando». Al che Jenny, sei anni, lo interrompe sprezzante: «Greg, per imbrogliare devi sapere che stai imbrogliando. Saperlo fa parte dell'imbrogliare».

All'inizio degli anni Ottanta queste scene non erano insolite. Di fronte a oggetti che parlavano, mettevano in atto strategie e "vincevano", i bambini erano indotti a interrogarsi sullo status morale e metafisico delle macchine in base alla loro psicologia: le macchine sanno quello che fanno? hanno intenzioni, coscienza, sentimenti? I primi computer che entrarono nella vita dei bambini divennero l'occasione per sviluppare nuove definizioni di ciò che è umano e ciò che è meccanico. Perché nonostante l'obiezione di Jenny, secondo cui «sapere che si sta imbrogliando fa parte dell'imbrogliare», i bambini finivano per attribuire agli oggetti computazionali una forma di consapevolezza. Jenny apparteneva a una prima generazione di bambini che di fronte a "macchine pensanti" erano indotti a considerarle vive e ad attribuire loro una forma di coscienza.
Negli ultimi vent'anni gli oggetti che popolano la vita dei bambini hanno cominciato a includere macchine sempre più intelligenti, giocattoli, giochi e programmi che fanno sembrare primitive le ambizioni di questi primi cibergiocattoli. Di fronte a oggetti computazionali che si propongono esplicitamente come esemplari di vita artificiale, i criteri tradizionali di identificazione del vivente entrano in crisi.

1. Dalla fisica alla psicologia.
Studiando la psicologia infantile nell'universo degli oggetti tradizionali - ossia non computazionali - Piaget scoprì che il movimento costituiva il criterio fondamentale per distinguere il vivente dall'inanimato. Dapprima il bambino considerava vivo tutto ciò che si muove, in seguito solo ciò che si muove "spontaneamente", senza un impulso esterno. Nelle tappe successive dell'evoluzione, il bambino raffinava il concetto di movimento spontaneo, identificandolo con i movimenti vitali della respirazione e del metabolismo: "vivo" era quindi solo ciò che respira e cresce. Ma ai bambini degli anni Settanta e dei primi anni Ottanta, cresciuti a contatto con computer, giocattoli e giochi elettronici, il classico modello evolutivo individuato da Piaget non sembra più applicabile. Il movimento - una dimensione "fisica" - cominciò a perdere la sua centralità come criterio distintivo del vivente, e al suo posto subentrava la dimensione "psichica", che il bambino percepiva come proprietà psicologiche del computer.
Oggi, a soli dieci anni di distanza, i bambini hanno imparato che i computer sono solo macchine, ma continuano ad attribuire loro proprietà (come l'intenzionalità e il pensiero) che in precedenza erano riservate agli esseri umani.

Holly, una bambina di undici anni, osserva un gruppo di robot che percorrono un labirinto. I robot mettono in atto diverse strategie per raggiungere il loro obiettivo, e Holly è indotta a usare termini come "personalità" e "intelligenza" per commentare il loro comportamento. Alla fine, quando le si chiede se i robot siano "vivi", arriva a formulare questa sorprendente idea: «Sono come Pinocchio [...] prima Pinocchio era solo un burattino, non era vivo. Poi era un burattino vivo, e alla fine un bambino vivo, un bambino vero. Ma era vivo anche prima di essere un bambino vero. Così penso che per i robot sia lo stesso. Sono vivi come Pinocchio, ma non sono "bambini veri"». E conclude: «Loro sono in un certo senso vivi».
Nel settembre del 1987 più di cento scienziati e tecnici si riunirono a Los Alamos, nel New Mexico, per fondare una disciplina dedicata alla messa a punto di macchine in grado di valicare il confine tra quasi vivo e realmente vivo, e chiamarono questa nuova impresa "vita artificiale". Secondo Christopher Langton3, uno dei fondatori della disciplina della vita artificiale, l'evoluzione biologica si basa su effetti imprevedibili "dal basso": regole semplici che interagiscono dando luogo a un comportamento complesso. La vita artificiale, a suo parere, avrebbe potuto avere successo solo se avesse condiviso con la natura questa estetica degli effetti emergenti.

Sin dall'inizio, molti pionieri della vita artificiale svilupparono le loro idee attraverso la creazione di programmi sui personal computer. Questi programmi, facilmente diffusi su floppy disk o condivisi via Internet, hanno rivoluzionato la propagazione sociale delle idee.
Il concetto chiave di emergenza dal basso, decentrata, è ben illustrato da un programma che fu messo a punto verso la metà degli anni Ottanta. Il suo creatore, Craig Reynolds, intendeva verificare se il comportamento gregario - dei pesci, degli uccelli o degli insetti - possa aver luogo senza che intervenga l'ordine esplicito di un capo o l'intenzione aggregativa. Reynolds realizzò un programma in cui un gruppo di uccelli virtuali formava uno stormo, e ogni singolo "uccello" agiva «esclusivamente in base alla propria percezione locale del mondo»4. Reynolds chiamò "boidi" questi uccelli digitali - un'estensione del gergo high-tech che designa oggetti generalizzati aggiungendo il prefisso "oidi". "Boide" poteva essere qualunque creatura gregaria. Ogni boide agiva in base a tre semplici regole: 1) se sei troppo vicino a un boide contiguo, allontanati; 2) se non sei veloce come il boide vicino, accelera; se non sei lento come il boide vicino, rallenta; 3) se ti stai muovendo verso la maggiore densità di boidi, mantieni questa direzione, in caso contrario, seguila. L'interazione di queste regole produceva stormi di boidi in grado di aggirare gli ostacoli e di cambiare direzione. Il programma di Reynolds sollevava una questione cruciale: come possiamo stabilire che il comportamento esibito dai boidi (comportamento al quale verrebbe spontaneo attribuire intenzionalità e leadership) è differente dal comportamento degli esseri viventi? Il comportamento complesso degli animali reali non potrebbe essere il prodotto di regole semplici? E non si potrebbe affermare lo stesso del comportamento complesso degli esseri umani?

2. "Vivi" nel computer.
Verso la metà degli anni Ottanta il biologo Thomas Ray si propose di creare al computer un universo in cui creature digitali autoreplicanti potevano evolversi spontaneamente. Ray immaginò che il motore dell'evoluzione degli organismi artificiali fosse la competizione per il tempo di Uec (Unità di elaborazione centrale). Quanto minore era il tempo necessario a un organismo digitale per replicarsi, tanto più esso sarebbe risultato adatto al suo ambiente. Ray chiamò il suo sistema Tierra. Nel gennaio del 1990 creò il programma per la sua prima creatura digitale, basato su ottanta istruzioni. Da essa si sviluppò una progenie in grado di replicarsi con un numero ancora minore di istruzioni. Ciò significava che i discendenti erano più adatti dei progenitori in quanto potevano competere meglio in un ambiente in cui la memoria del computer era una risorsa scarsa. L'ulteriore evoluzione produsse creature autoreplicanti ancora più piccole, "parassiti" digitali che trasmettevano il loro patrimonio genetico attaccandosi a organismi di maggiori dimensioni. Quando alcuni organismi ospiti svilupparono un'immunità alla prima generazione di parassiti, ne comparvero subito nuovi tipi. Per Ray, un sistema che si autoreplica ed è in grado di un'evoluzione "aperta" può essere considerato vivente. In base a questo criterio il programma Tierra dovrebbe essere ritenuto vivo.

Ray non era in grado di prevedere gli sviluppi del suo sistema. Come nel caso dei boidi, il comportamento complesso delle creature digitali di Tierra emergeva "dal basso".
Al Media laboratory del Mit lo studioso di informatica e di pedagogia Mitchel Resnick si propose di introdurre l'estetica della vita artificiale nel mondo dei bambini, con un kit per la costruzione di robot che comprendeva sensori e motori oltreché normali pezzi di costruzioni Lego. I bambini finivano ben presto per considerare le loro creazioni alla stregua di esseri viventi. Un piccolo robot veniva giudicato "confuso" perché si muoveva avanti e indietro tra due punti (a causa di due regole che gli imponevano contemporaneamente di cercare oggetti e di allontanarsi rapidamente se ne avvertivano la presenza). Altri robot erano definiti nervosi, impauriti o tristi. I primi robot in Lego-Logo erano collegati a un computer "madre", ma alla fine i ricercatori riuscirono a renderli autonomi dotandoli di un computer incorporato. In questo modo assomigliavano assai più a creature che a macchine, suggerendo ai bambini l'idea che le macchine potrebbero essere creature e le creature macchine.

Resnick mise a punto anche vari linguaggi di programmazione tra cui StarLogo, che consentiva di controllare le azioni parallele di molte centinaia di "creature" sullo schermo di un computer. Mentre i programmi tradizionali seguono un'istruzione alla volta, con il programma StarLogo di Resnick istruzioni multiple erano eseguite contemporaneamente, simulando il modo in cui i processi si verificano in natura. E come accade in natura, da regole semplici scaturiscono comportamenti complessi. Ad esempio, a una popolazione di "termiti" digitali poste in un ambiente disseminato di schegge di legno digitali venivano date due regole: se non stai trasportando nulla e trovi una scheggia di legno, raccoglila; se stai trasportando una scheggia di legno e ne trovi un'altra, deponi a terra quella che stai trasportando. Erano sufficienti queste due regole per ottenere che le termiti digitali accatastassero una pila di schegge di legno5, senza un comando esplicito in questo senso. Analogamente, con StarLogo era possibile creare uno stormo di uccelli, una colonia di formiche, un ingorgo stradale - tutte situazioni in cui un comportamento complesso emerge dall'interazione di regole semplici. Come osservò uno dei bambini che sperimentavano questi materiali, «si può ottenere [dal programma] più di quello che gli si dice di fare»6.

Un oggetto come StarLogo offre qualcosa di più che nuove possibilità tecniche: esso fornisce ai bambini un materiale concreto per sviluppare quella che Resnick ha definito una "struttura mentale decentrata". Il principio chiave qui è l'auto-organizzazione: la complessità compare senza che vi sia alcun tipo di intervento o di controllo dall'alto. In un modello evolutivo centralizzato, Dio progetta il processo, lo mette in moto e lo sorveglia da vicino per assicurarsi che si conformi al progetto. In un modello decentrato, Dio può essere presente, ma soltanto nei dettagli: regole semplici, le cui interazioni danno tuttavia luogo alla complessità della natura.
StarLogo insegna in che modo regole decentrate possano essere il fondamento di un comportamento che può apparire "intenzionale" o frutto di un comando. Esso mette in luce altresì le resistenze che incontra il pensiero decentrato. Resnick riferisce che di fronte alle pile di schegge di legno accatastate dalle termiti digitali la maggior parte degli adulti preferiva assumere che fosse intervenuto un capo per dirigere il processo, o che vi fosse un'asimmetria nel mondo che dava luogo a un determinato schema; ad esempio, una fonte di cibo vicino all'ubicazione finale di una catasta7.

La nostra tendenza a privilegiare un modello centralizzato può essere ricondotta a diversi fattori: la tradizione del monoteismo occidentale; l'esperienza millenaria di società su larga scala governate da un'autorità centrale e controllate da una burocrazia centralizzata; la percezione di noi stessi come attori unitari e intenzionali (l'Ego come Io); e, infine, il fatto che tradizionalmente ci sono mancati oggetti del mondo esterno (come, appunto, StarLogo) che ci stimolassero a pensare in termini di decentramento e di effetti emergenti. Via via che una gamma sempre più vasta di oggetti di questo tipo entra a far parte della nostra cultura, le nostre preferenze potrebbero orientarsi verso un modello esplicativo basato sull'emergenza dal basso. Per i bambini odierni che hanno dimestichezza con la computazione parallela, l'idea di processi multipli e di metodi decentrati è del tutto naturale, anzi, essi finiscono per apprezzare questa "qualità dell'emergenza" e cominciano a identificarla con l'essenza del vivente.
L'idea che il tutto è qualcosa di più della somma delle sue parti ha sempre avuto connotazioni religiose e spirituali. Di fronte a fenomeni decentrati, emergenti, si ha la sensazione che esistano delle regole, ma nello stesso tempo si è consapevoli che l'esito finale è imprevedibile. Agli occhi dei bambini, i fenomeni emergenti appaiono quasi magici, in quanto si può sapere cosa farà ogni singolo oggetto, ma non l'assetto finale che avrà il sistema nel suo complesso. E' questa la sensazione espressa dai bambini quando affermavano che riuscivano a ottenere da StarLogo più di quello che gli si diceva di fare. I bambini sanno che vi sono regole dietro la magia e che vi è qualcosa di magico nelle regole. In una visione del mondo cyborg, gli oggetti sono re-incantati.

Quando i bambini che utilizzavano StarLogo ottenevano raggruppamenti prevedibili di oggetti attraverso un comando esplicito, non consideravano "interessante" questo risultato, in quanto dissimile da ciò che accade in natura. Lo stesso risultato ottenuto attraverso regole semplici che non avevano alcuna relazione evidente con la formazione di gruppi appariva invece una simulazione di processi reali. Per questi bambini quindi "insegnare" agli uccelli del computer a formare uno stormo dicendo loro dove andare in ogni circostanza appariva una sorta di "imbroglio". Essi andavano sviluppando un'"etica della simulazione" in cui il decentramento e l'emergenza costituivano i requisiti perché le cose apparissero abbastanza vive da risultare interessanti. In questo esempio, i media computazionali dimostrano la loro capacità di generare nuovi modi di pensare. Così come i bambini a contatto con giocattoli e giochi elettronici cominciarono a definire in termini diversi la nozione di vivente (ossia in termini di psicologia anziché di movimento fisico), quelli esposti all'elaborazione parallela cominciano a pensare la vita in termini di fenomeni emergenti.

3. I Sims.
Il proposito esplicito dei creatori della serie di giochi elettronici di simulazione noti come Sims (tra cui SimAnt, SimCity, SimHealth, SimLife) era quello di illustrare i fondamenti della vita artificiale8. Ad esempio, una delle versioni più elementari di questi giochi, SimAnt, che simula la vita in un formicaio, illustra il meccanismo della determinazione locale, dal basso, dei processi: il comportamento di ciascuna formica è determinato dalla sua situazione, dalla percezione delle compagne più vicine, e da un insieme di regole. Come i boidi di Reynolds e gli oggetti di StarLogo, le formiche cambiano la loro situazione a seconda di chi sono e di chi incontrano. Giocando con SimAnt si apprende l'esistenza dei feromoni, i messaggeri chimici (nel nostro caso virtuali) attraverso cui le formiche, al pari degli oggetti di StarLogo, comunicano tra loro. Oltre a ciò SimAnt insegna come in certe circostanze determinate azioni locali che sembrano innocue (ad esempio l'accoppiamento di alcune formiche) può portare a risultati complessivi disastrosi (sovrappopolazione e morte).
Con un altro gioco di questa serie, SimLife, si ottengono specie diverse di piante e animali attraverso processi di mutazione. Come spiega Laurence, un adolescente di 15 anni, «il succo del gioco è dimostrare che si possono creare cose che sono vive nel computer. Così come noi ricaviamo energia dal sole, l'organismo in un computer ricava energia dalla spina della corrente. Sono sicuro che molti saranno d'accordo con me quando faranno una SimLife in cui le creature sono abbastanza intelligenti da comunicare. Ti sentiresti a disagio se una creatura in grado di parlare con te si estinguesse».

Una bambina di dieci anni, Robbie, mette l'accento sulla mobilità anziché sulla comunicazione quando si chiede se le creature evolutesi in SimLife siano vive: «Penso che in un certo senso siano vive nel gioco, ma se lo spegni non puoi "salvare" la partita, e quindi tutte le creature che hai ottenuto scompaiono. Ma se riuscissero a scoprire un modo per eliminare questa parte del programma così da essere costretti a salvare il gioco, quando il modem è acceso, potrebbero uscire dal computer e andare su America Online». Il tredicenne Sean offre questa variante della tesi di Robbie sulle creature di SimLife e sul loro viaggio in Internet: «Le creature [di SimLife] potrebbero essere più vive se potessero andare in Dos».
Come mise in luce Piaget nei suoi classici studi degli anni Venti, per i bambini cresciuti a contatto con oggetti tradizionali, vivo era tutto ciò che è capace di muoversi spontaneamente. Tra la fine degli anni Settanta e l'inizio degli anni Ottanta, studiando le reazioni infantili a una prima generazione di oggetti elettronici che erano fisicamente "statici", ma capaci di notevoli exploit cognitivi (parlare, compitare, eseguire operazioni matematiche, giocare a filetto), scoprii che il criterio per attribuire a un oggetto lo status di vivente era identificato non più con il movimento ma con le proprietà psichiche.

A dieci anni di distanza, analizzando i commenti dei bambini sulle creature ottenute con i giochi di simulazione, emerge che la variabile centrale è diventata l'evoluzione. Ma ciò implica anche una sintesi di criteri che attengono sia alla dimensione fisica sia alla dimensione psichica. I bambini parlano di "propagazione" digitale attraverso la messa in circolazione di dischetti o via modem. Parlano di virus e di reti. In questo linguaggio, la biologia e il movimento ricompaiono in forma nuova, e si ritrovano associati nei concetti di comunicazione e di evoluzione. Significativamente, il movimento (il criterio classico di Piaget) ricompare associato a presunte proprietà psicologiche: i bambini tendono ad assumere che le creature incontrate nei giochi di simulazione provino il desiderio di "uscire" dal sistema e di svilupparsi in un più vasto mondo computazionale.

4. Bricoleurs del pensiero.
All'inizio degli anni Ottanta, la comparsa di oggetti computazionali mise in crisi il classico criterio di definizione del vivente imperniato sul movimento, ma il nuovo sistema di categorizzazione adottato dai bambini aveva la sua coerenza. Di fronte a un nuovo universo di oggetti "intelligenti", essi definirono un nuovo ordine del mondo basato non più sulla fisica bensì sulla psicologia. Negli anni Novanta, tuttavia, quest'ordine è arrivato ai limiti della rottura. I bambini parlano dei computer come di "semplici macchine", ma li descrivono come esseri senzienti e dotati di intenzionalità. Di fronte a oggetti computazionali sempre più complessi si trovano nella situazione di bricoleurs del pensiero che si arrangiano con i materiali che hanno a disposizione: mettono insieme le teorie più disparate adottando quella che di volta in volta risulta più adatta a una determinata situazione. Passano così dall'evoluzione alla psicologia, e riesumano la nozione di movimento ritraducendola in termini di comunicazione di bit.

Quando ho chiesto a diversi gruppi di bambini se si possono definire vivi i robot mobili, le creature digitali dei giochi di simulazione della serie Sims e del programma Tierra, ho ottenuto le risposte più disparate. Ecco alcuni esempi: i robot hanno il controllo ma non sono vivi; sarebbero vivi se avessero un corpo; sono vivi perché hanno un corpo; sarebbero vivi se avessero sentimenti; sono vivi come lo sono gli insetti ma non come gli esseri umani; i Tierrani non sono vivi perché esistono solo nel computer; potrebbero essere vivi se uscissero dal computer; sono vivi sinché non si spegne il computer, dopodiché muoiono; non sono vivi perché nulla nel computer è reale; le creature dei Sims non sono vive ma quasi vive; sarebbero vive se parlassero; sarebbero vive se si propagassero; sono vive ma non reali; non sono vive perché non hanno corpi; sono vive perché possono avere figli; infine, per una bimba undicenne relativamente nuova al gioco SimLife, non sono vive perché i figli non hanno genitori: «Ti fanno vedere le creature e il gioco dice che hanno una madre e un padre, ma non ci credo. Sono solo numeri, non sono madri e padri reali». Abbiamo qui una notevole eterogeneità di teorie. Bambini diversi propongono teorie diverse, e uno stesso bambino può sostenere contemporaneamente teorie differenti.

L'eterogeneità dei punti di vista infantili diventa particolarmente evidente quando si passa da un grande problema, ad esempio se una creatura digitale sia viva, a un piccolo problema, ad esempio perché un robot programmato con metodi emergenti è in grado di muoversi in una certa maniera. Parlando della creatura che aveva costruito con il LegoLogo, Sara, una bambina di dieci anni, passava continuamente da un linguaggio di ordine psicologico a un linguaggio di ordine meccanico. Ad esempio, alla domanda se schiacciando il sensore della macchina da lei costruita questa avrebbe emesso o no un segnale, le sue risposte furono: «dipende se la macchina vuole dire [...] se vogliamo che la macchina ci dica [...] se diciamo alla macchina di dirci...»9. In altre parole, nel giro di pochi secondi Sara aveva adottato tre differenti punti di vista sulla sua creatura (come essere psicologico, come Sé intenzionale, come strumento delle intenzioni del suo programmatore). La velocità con cui passava dall'una all'altra di queste concezioni indica che tutte e tre erano presenti simultaneamente nella mente della bambina, la quale ricorreva, di volta in volta, ora all'una, ora all'altra a seconda delle circostanze.

Nella breve storia delle trasformazioni apportate dal computer nel nostro modo di pensare, spesso i bambini hanno avuto un ruolo pionieristico. Ad esempio, all'inizio degli anni Ottanta, stimolati da giocattoli elettronici che parlavano, eseguivano operazioni matematiche e giocavano a filetto, i bambini impararono a separare la nozione di coscienza da quella di vita, cosa che storicamente non si era fino ad allora verificata. I bambini di quella generazione erano in grado di concepire un computer senziente ma non vivo, un'idea con cui gli adulti cominciano soltanto adesso a familiarizzarsi. I bambini cyborg dei nostri giorni si spingono ancora più in là, e di fronte ad artefatti computazionali che evocano l'essere vivente scelgono un approccio che è improntato alla più radicale eterogeneità di teorie. Nella sua storia della vita artificiale, Steven Levy10 afferma che un modo per conciliare la stessa vita artificiale con la nostra concezione del vivente è quello di immaginare un continuum in cui Tierra, ad esempio, è più viva di una macchina ma meno viva di un batterio. Le mie osservazioni peraltro suggeriscono che i bambini non costruiscono gerarchie, ma si orientano verso un'alternanza di definizioni parallele.

L'eterogeneità delle teorie infantili ovviamente rispecchia gli sviluppi del più ampio contesto culturale. Autorevoli esponenti delle più diverse discipline stanno proponendo una concezione fluida e pluralistica del Sé. Secondo Daniel C. Dennet 11, ad esempio, esistono differenti "versioni" del Sé, nessuna delle quali può pretendere di essere l'unica, vera versione. Nessun aspetto del Sé può essere dichiarato il Sé assoluto, autentico. Robert Jay Lifton12, dal canto suo, definisce il Sé contemporaneo come "proteiforme", molteplice e tuttavia integrato. Donna Haraway, infine, sostiene che il "Sé consapevole" è un Sé "scisso e contraddittorio". «Il Sé consapevole è parziale in tutti i suoi aspetti, non è mai finito, intero, semplice e originario; è sempre costruito e cucito insieme in modo imperfetto»13. Nei contesti computazionali, queste concezioni dell'identità e della molteplicità si materializzano ed entrano a far parte dell'orizzonte dei bambini sin dai primi giorni di vita. Persino il sistema operativo dei computer utilizzati per giocare, disegnare e scrivere veicola questo messaggio. Le finestre di un computer sono una potente metafora del Sé come sistema molteplice e distribuito14. I collegamenti ipertestuali sono diventati una metafora della molteplicità di prospettive. Nelle comunità virtuali di Internet i partecipanti possono entrare in una varietà di mondi digitali (aperti come altrettante finestre) in cui hanno la possibilità di esprimere diversi aspetti della propria identità. Ma questi messaggi veicolati dai media sul pluralismo delle identità e delle teorie non vengono recepiti senza resistenze.

Quanti sono adulti oggi, sono cresciuti in una cultura psicologica in cui l'unità del Sé era identificata con la salute psichica e in una cultura scientifica per la quale una disciplina ha raggiunto la maturità quando può esibire una teoria unificante. Di fronte alla mutevolezza di prospettive su se stessi ("io sono le mie sostanze chimiche", "io sono la mia storia", "io sono i miei geni"), gli adulti di solito si trovano a disagio15. Ma per la nuova generazione di bambini cyborg questa mutevolezza di prospettive probabilmente riflette semplicemente il modo d'essere della realtà. Abituati ai giocattoli trasformabili - macchine che possono trasformarsi in robot e da robot in animali (talvolta anche in esseri umani), i bambini di oggi si abituano a considerare del tutto fluidi i confini tra uomo e macchina, animato e inanimato. Il morphing - un termine generale che designa qualsiasi cambiamento di forma - è per loro un fenomeno perfettamente naturale. Dimostrando una sensibilità da alchimista, un bambino di nove anni spiega la tecnica usata dall'androide cattivo di Terminator II per assumere le sembianze di tutto ciò che tocca, compresi gli esseri umani: «E' molto semplice. Nell'universo, qualsiasi cosa può trasformarsi in qualsiasi altra cosa se hai la formula giusta. Quindi puoi essere ora una persona, e un minuto dopo una macchina». Stimolati dai loro oggetti cyborg, i bambini della nuova generazione sviluppano concezioni fluide ed emergenti del Sé e della vita, si abituano ad associare cose incompatibili. E se, come sostiene Donna Haraway, «le contraddizioni che non si risolvono in totalità più grandi [...] la tensione che scaturisce dall'associare cose incompatibili perché entrambe o tutte sono necessarie e vere»16 costituiscono l'essenza dell'ironia, i bambini di oggi vanno sviluppando una visione del mondo imperniata sull'ironia.
(Traduzione di Margherita Zizi)


Note

1 J. Piaget, La rappresentazione del mondo del fanciullo, Bollati Boringhieri, Torino, 1973, edizione originale 1929.

2 S.Turkle, The second self: computers and the human spirit, Simon and Schuster, New York, 1984, pagg 26-63. [I temi affrontati dall'autrice in questo articolo sono stati da lei esposti anche in Cyborg Babies and Cy-Dough-Plasm, testo inserito nel libro antologico Cyborg Babies: From Techno-Sex to Techno Tots, Routledge, New York, 1998].

3 C.G. Langton, Artificial life, in C.G. Langton (a cura di), Artificial life: the proceedings of an interdisciplinary workshop on the synthesis and simulation of living systems, Santa Fe institute studies in the science of complexity, Addison - Wesley, vol. 6, Redwood City, (Cal.) 1989, pag 13.

4 C. Reynolds, Flocks, herds, and schools: a distributed behavioral model, "Computer graphics" 21 July 1987, pag 27.

5 M. Resnick, Turtles, termites, and traffic jams, Mit press, Cambridge, (Mass.), 1992, pag 76.

6 Ibidem, pagg 131-132.

7 Ibidem, pagg 13 e segg.

8 M. Bremer, SimAnt user manual, Orinda, (Cal.), 1991, pag 163.

9 M. Resnick, Lego, logo and life, in C.G. Langton (a cura di), Artificial life: The proceedings of an interdisciplinary workshop on the synthesis and simulation of living systems, Santa Fe institute studies in the science of complexity, Addison-Wesley, vol 6, Redwood City, (Cal.), 1989, pag 402.

10 S. Levy, Artificial life: the quest for a new frontier, Pantheon, New York, 1992, pag 6-7.

11 D.C. Dennett, Consciousness explained, Little, Brown, Boston, (Pen.), 1991.

12 R.J. Lifton, The protean self: human resilience, in An age of fragmentation, Basic Books, New York, 1993.

13 D. Haraway, The actors are cyborg, nature is coyote, and the geography is elsewhere: postscript to "Cyborgs at large" in C. Pneley and A. Ross (a cura di), Technoculture, University of Minnesota press, Minneapolis, 1991, pag 22.

14 S. Turkle, La vita sullo schermo. Nuove identità e relazioni sociali nell'epoca di Internet, Apogeo, Milano, 1997, edizione originale 1995.

15 P. Kramer, Listening to Prozac: a psychiatrist explores antidepressant drugs and the remaking of the self, Viking, New York, 1993, pagg XII - XIII.

16 D. Haraway, Manifesto cyborg. Donne tecnologie e biopolitiche del corpo, Feltrinelli, Milano, 1995, edizione originale 1991.

 

{text}