Ma se noi siamo scaricati nella nostra tecnologia, quali sono
le possibilità che da li in poi rimarremo noi stessi o addirittura
umani? A me sembra molto più probabile che l'esistenza robotica
non possa essere in nessun senso come quella umana a noi comprensibile,
che i robot non sarebbero in nessun senso i nostri figli, e che
su questo percorso la nostra umanità possa essere perduta.
L'ingegneria genetica promette di rivoluzionare l'agricoltura
incrementando la produzione del raccolto riducendo l'uso dei pesticidi;
creando decine di migliaia di nuove specie di batteri ,piante,
virus, e animali; sostituendo la procreazione o complementandola,
con la clonazione; producendo cure per molte malattie, aumentando
la nostra longevità e qualità della vita; e molto, molto di più.
Adesso sappiamo con certezza che questi profondi cambiamenti nelle
scienze biologiche sono imminenti e contrasteranno tutte le nostre
nozioni sul senso della vita.
Tecnologie come la clonazione umana hanno alzato in particolare
la nostra coscienza dei profondi problemi etici e morali. Se,
per esempio, dovessimo ricostruire noi stessi in alcune specie
separate e ineguali usando il potere dell'ingegneria genetica,
allora potrebbe essere minacciata l'idea di uguaglianza che è
la vera pietra miliare della nostra democrazia. Dato il potere
incredibile dell'ingegneria genetica, non ci sorprende che ci
siano problemi di sicurezza significativi nel suo uso. Il mio
amico Amory Lovins ha recentemente coscritto, insieme con Hunter
Lovins, un editoriale che fornisce una visione ecologica di alcuni
di questi pericoli.
Tra le preoccupazioni: "che la nuova botanica allinea lo sviluppo
delle piante con il loro successo economico e non evolutivo".
(vedi "A Tale of Two Botanies," page 247.) La lunga carriera di
Amory è stata focalizzata su l'efficacia dell'energia e risorse
accettando una visione di "sistema-intero" per sistemi di fattura
umana; tale visione a "sistema-intero" spesso trova semplici e
perspicaci soluzioni per problemi altrimenti apparentemente difficili,
ed è applicato anche qui utilmente. Dopo aver letto gli editoriali
di Lovins, ho visto un articolo (op-ed) di Gregg Easterbrook sul
New York Times (19 novembre 1999) dei raccolti manipolati geneticamente,
titolato: " Cibo per il futuro: Un giorno il riso avrà in se la
vitamina A. A meno che non vincano i luddisti".
Sono luddisti Amory e Hunter Lovins? Certamente no, credo che
saremmo tutti d'accordo che il riso, con la suainnata vitamina
A, è probabilmente una buona cosa, se sviluppato con la dovuta
cura e rispetto per i probabili pericoli nel muovere i geni attraverso
le barriere delle specie.
La coscienza dei pericoli inerenti all'ingegneria genetica sta
cominciando a crescere, come riflette l'editoriale di Lovins.
L'opinione pubblica è cosciente e preoccupata sul cibo geneticamente
modificato, e sembra che respingere la nozione che a tali cibi
possa essere permesso di essere non etichettati.
Ma la tecnologia dell'ingegneria genetica è già molto avanti.
Come fanno notare Lovins, l'USDA ha già approvato circa 50 raccolte
geneticamente modificate per distribuzione illimitata; più di
metà dei semi di soia del mondo e un terzo del granturco ora contiene
geni provenienti da altre forme di vita.
Mentre ci sono importanti questioni qui, la mia principale preoccupazione
riguardo l'ingegneria genetica è ristretta: che da il potere -
o militare, accidentale, o in un deliberato atto terroristico
- a creare un "Piaga Bianca".
Le molte meraviglie della nanotecnologia furono per la prima volta
immaginata dal fisico nobel Richard Feyman in un discorso che
dette nel 1959, successivamente pubblicato sotto il titolo "There's
Plenty of Room at the Bottom."
Il libro che mi colpì molto, verso la metà degli anni '80, fu
"Engines of Creation" di Eric Drexler, dove descrive magnificamente
come la manipolazione a livello atomico possa creare un futuro
utopico di abbondanza, dove quasi ogni cosa possa essere prodotta
a basso costo, e quasi ogni tipo di immaginabile infezione o problema
fisico possa essere risolto usando la nanotecnologia e l'intelligenza
artificiale.
Un libro successivo, "Unbounding the Future: The Nanotechnology
Revolution", che Drexler coscrissse, immagina alcuni dei cambiamenti
che potrebbero avvenire in un mondo dove avremmo "assemblatori"
a livello molecolare. Gli assemblatori potrebbero rendere possibile
a un incredibile basso-costo cure per il cancro a energia solare
e cure per un comune raffreddore attraverso l'ampliamento del
sistema immunitario umano, essenzialmente completare la pulizia
dell'ambiente, creare incredibili economici supercomputer tascabili
- infatti, qualsiasi prodotto potrebbe essere fabbricato dagli
assemblatori ad un costo non maggiore di quello del legno - rendere
viaggi spaziali più accessibili che i viaggi transoceanici di
oggi, e ripristinare le specie estinte.
Ricordo di aver avuto una buona impressione della nanotecnologia
dopo aver letto "Engines of Creation". Da tecnologico, mi ha dato
un senso di calma - ovvero, la nanotecnologia ci dimostrava che
incredibili progressi erano possibili, e di fatto forse inevitabili.
Se la nanotecnologia era il nostro futuro, allora non mi sentivo
costretto a risolvere così tanti problemi nel presente. Avrei
raggiunto in tempo il futuro utopico di Dexler; a quel punto potevo
godere al meglio la vita "qui e ora". Non aveva senso, data la
sua visione, di rimanere in piedi tutta la notte, tutto il tempo.
La visione di Drexler portava anche molto divertimento. Occasionalmente
mi ritrovavo a descrivere le meravigle della nanotecnologia ad
altri che non ne avevano sentito parlare. Dopo averli stuzzicati
con tutte le cose che aveva descritto Drexler, gli assegnavo di
mio dei compiti per casa: "Usate la nanotecnologia per creare
un vampiro; per punti extra, create anche l'antitodo". Con queste
meraviglie divennero chiari anche i pericoli, di cui io ero acutamente
cosciente. Come dissi alla conferenza di nanotecnologie nel 1989,
"Non possiamo solamente fare la nostra scienza e non preoccuparci
dei problemi etici".(5) Ma la mia seguente conversazione con i
fisici mi convinse che la nanotecnologia non poteva nemmeno funzionare
- o, perlomeno non avrebbe funzionato in tempi brevi. Di li a
poco, mi trasferii in Colorado, per uno lavoraccio che avevo iniziato,
e il centro del mio lavoro si spostò sul software per Internet,
specificatamente su le idee che divennero Java e Jini. Poi, la
scorsa estate, Brosl Hasslacher mi disse che l'elettronica molecolare
nanoscala era ora realizzabile. Questa fu una nuova notizia, almeno
per me, e penso anche per molte altre persone - e ha cambiato
radicalmente la mia opinione sulla nanotecnologia. Mi portò indietro
alla "Engines of Creation". Rileggendo il lavoro di Drexler dopo
più di 10 anni, fui sconcertato nel rendermi conto come fosse
piccolo il ricordo della sua lunga sezione chiamata "Dangers and
Hopes", "pericoli e speranze" inclusa una discussione di come
le nanotecnologie possono diventare "macchine per la distruzione".
Infatti, nella mia rilettura di questo materiale oggi, sono stupito
di quanto naive sembrassero alcune proposte di difesa di Drexler,
e di quanto più grandi giudico adesso essere i pericoli piuttosto
di come li giudicava allora. (Avendo anticipato e descritto molti
problemi tecnici e politici della nanotecnologia, Drexler iniziò
al Foresight Institute negli anni '80 per "aiutare a preparare
la società per anticipate tecnologie avanzate" - più importante,
la nanotecnologia). Rendere possibile un rapido progresso di assemblare
sembra abbastanza probabile entro i prossimi 20 anni. L'elettronica
molecolare - il nuovo sotto campo delle nanotecnologia dove molecole
singole sono elementi di circuito - potrebbero maturare rapidamente
e diventare enormemente lucrative entro questa decade, causando
ampi incrementi di investimento in tutte le nanotecnologie.
Sfortunatamente, come con le tecnologie nucleari, è di gran lunga
più facile creare utilizzi distruttivi che costruttivi per le
nanotecnologie. Le nanotecnologie hanno chiari usi militari e
terrorostici, e non c'è bisogno di essere suicidi per utilizzare
un apparecchio nanotecnologicamente di massima distruzione - tali
apparecchi possono essere costruiti per essere selettivamente
distruttivi, colpendo, per esempio, solamente una certa area geografica
o un gruppo di persone che sono geneticamente distinti.
Un'immediata conseguenza del Faustiano affare nell'ottenere il
grande potere della nanotecnologia è che corriamo un grave rischio
- il rischio che potremmo distruggere la biosfera dalla quale
tutta la vita dipende.
Come spiegava Drexler:
"Piante" con "foglie" non più efficienti delle cellule solari
attuali potrebbero competere con piante reali, affollando la biosfera
con un fogliame non commestibile. Un resistente "batterio "onnivoro
potrebbe sopraffare con reali batteri: potrebbero disperdersi
come polline soffiato, replicarsi rapidamente, e ridurre la biosfera
in polvere in pochi giorni. Pericolosi replicanti potrebbero facilmente
essere troppo forti, minuti e rapidamente sparsi per essere fermati
- a meno che non siamo preparati. Abbiamo già abbastanza problemi
per controllare i virus e i pidocchi della frutti.
Tra intenditori di nanotecnologie, queste minacce sono diventate
note come "gray goo problem". Sebbene masse di replicatori incontrollati
non debbano essere ne grigi o appiccicosi, il termine "gray goo"
enfatizza che i replicatori capaci di cancellare la vita potrebbero
essere meno coinvolgenti che una singola specie di erbacce. Potrebbero
essere superiori in un senso evolutivo, ma questo non vuol dire
che siano preziosi. La minaccia "gray goo" rende perfettamente
chiara una cosa: non possiamo permetterci certi tipi i di incidenti
con assemblatori replicanti. "Gray goo" potrebbe sicuramente essere
una fine deprimente della nostra avventura umana sulla terra,
molto peggio del fuoco o del ghiaccio, o di un arginabile semplice
incidente di laboratorio. (6)oops
E' sopratutto il potere di autoreplicazione distruttiva in genetica,
nonotecnologia e robotica (GNR) che dovrebbero fermarci. L'auto-replicazione
è il Modus Operandi dell'ingegneria genetica, che usa il meccanismo
delle cellule per replicare le proprie architetture, e il primario
pericolo sottostante al "gray goo" in nanotecnologia. Storie di
robots "run-amuk" (che corrono qua e la presi da una pazzia sanguinaria)
come i Borg, replicando o mutando per sfuggire alle limitazioni
etiche imposte dai loro creatori, sono ben affermate nei nostri
libri e film di fantascienza. E' anche possibile che l'auto-replicazione
possa essere più necessaria di quanto pensiamo, e quindi più difficile
- o anche impossibile - da controllare. Un recente articolo di
Stuart Kauffman in "Nature", titolato "Self-Replication: Even
Peptides Do It" trattava la scoperta che 32-peptidi-amino-acidi
possono "autocatalizzare la propria sintesi". Non sappiamo come
questa abilità possa diffondersi, ma Kauffman nota che ciò può
far supporre "un percorso verso sistemi molecolari di auto-riproduzione
sulla base molto più estesa del principio di accoppiamento di
Watson-Crick. (7)
In verità, abbiamo avuto nelle mani per anni chiare ammonizioni
dei pericoli inerenti alle vaste conoscenze delle tecnologie GNR
- delle possibilità di conoscenza che permettessero da sole distruzioni
di massa. Ma questi ammonimenti non sono stati ampiamente pubblicizzati;
le discussioni pubbliche sono state chiaramente inadeguate. Non
c'è alcun profitto nella pubblicizzazione dei pericoli.
Le tecnologie nucleari, biologiche e chimiche (NBC) usate nelle
armi di distruzione di massa del 20esimo secolo furono e sono
in gran parte militari, sviluppate e costruite nei laboratori
statali. In netto contrasto le tecnologie GNR del 21° secolo hanno
un chiaro utilizzo commerciale e le stanno sviluppando quasi esclusivamente
le imprese private. In questa epoca della trionfante commercializzazione,
la tecnologia - con la scienza come sua aiutante sta consegnando
una serie di invenzioni quasi magiche che sono le più fenomenalmente
lucrative mai viste. Siamo aggressivamente inseguiti dalle promesse
di queste nuove tecnologie dentro l'attuale indiscusso sistema
del capitalismo globale e dei suoi numerosi incentivi finanziari
e pressioni competitive. Questo è il primo momento nella storia
del nostro pianeta in cui qualsiasi specie, a causa della propria
azione volontaria, è diventata pericolosa per se stessa - tanto
quanto ad un grande numero di altri.
Potrebbe essere una progressione familiare, trapelata in molti
mondi - un pianeta, di nuova formazione, che placidamente si evolve
intorno alla sua stella; la vita si forma lentamente; una processione
caleidoscopica di creature si evolve; l'intelligenza emerge e,
almeno fino ad un certo punto, conferisce un enorme valore di
sopravvivenza; e allora la tecnologia è inventata. Viene in mente
che ci sono cose come leggi della natura, le quali possono essere
svelate dagli esperimenti, e che la conoscenza di queste leggi
può essere fatta sia per salvare e per prendere vita, sia su scale
sconosciute. La scienza, lo riconoscono, concede immensi poteri.
In un attimo essi creano dispositivi per l'alterazione del mondo.
Alcune civiltà planetarie vedono il loro percorso, pongono limiti
su ciò che si può e non si deve fare, e passano con sicurezza
tempi pericolosi. Altri, non così fortunati o prudenti, periscono.
Questi era Carl Sagan, scrivendo nel 1994, in "Pale Blue Dot",
un libro che descrive la sua visione del futuro umano nello spazio.
Solo adesso mi sto rendendo conto come fosse profonda la sua intuizione,
e come dolorosamente sento e sentirò la mancanza, della sua voce.
Per tutta la sua eloquenza, il contributo di Sagan non fu meno
di un semplice buon senso - un attributo che, assieme all'umiltà,
sembrano mancare in molti dei difensori principali delle tecnologie
del 21esimo secolo.
Ricordo durante la mia infanzia che mia nonna era fortemente contro
l'abuso degli antibiotici. Aveva lavorato fino a prima della I
Guerra Mondiale come infermiera e aveva il buon senso di pensare
che prendere gli antibiotici, a meno che non fosse stato assolutamente
necessario, facesse male. Non che fosse una nemica del progresso.
Aveva visto talmente tanto progresso in quasi 70 anni di carriera
infermieristica; mio nonno, un diabetico, ha beneficiato moltissimo
delle cure avanzate che diventavano disponibili durante la sua
vita. Ma lei, così come molte altre persone equilibrate, penserebbe
che sia di grande arroganza, ora, progettare una "specie di rimpiazzo"
robotico, mentre abbiamo così tanti problemi a far funzionare
cose relativamente semplici, e abbiamo così tante difficoltà a
gestire - o addirittura a capire - noi stessi.
Ho realizzato ora che lei aveva una consapevolezza sulla natura
dell'ordine della vita, e sulla necessità di vivere e convivere
con questo ordine. Con questo rispetto diviene necessario un'umiltà
che siamo manchevoli, al nostro pericolo. La visione "di buon
senso", impregnata in questo rispetto, è spesso giusta, in anticipo
alla dimostrazione scientifica. La chiara fragilità ed inefficienza
dei sistemi umani che abbiamo costruito dovrebbe dare a tutti
noi una pausa; la fragilità dei sistemi sui quali ho lavorato
certamente mi rende umile.
Avremmo dovuto imparare una lezione dalla fabbricazione della
prima bomba atomica e dal risultato della corsa agli armamenti.
Non facemmo bene allora, e il parallelismo della situazione corrente
è preoccupante.
Lo sforzo per costruire la prima bomba atomica fu condotta dal
brillante fisico J. Robert Oppenheimer. Oppenheimer non era evidentemente
interessato nella politica ma diventò dolorosamente consapevole
di ciò che egli percepiva come una minaccia grave alla civiltà
occidentale a partire dal Terzo Reich, una minaccia sicuramente
grave a causa della possibilità che Hitler potesse ottenere armamenti
nucleari. Stimolato da questa preoccupazione, portò le sue caratteristiche
di forte intelletto, passione per la fisica, e di leadership carismatica
a Los Alamos e condusse un rapido e fruttuoso sforzo con l'incredibile
unione di grandi menti per inventare velocemente la bomba.
Ciò che sorprende è come questi sforzi siano continuati così naturalmente
dopo che era stato rimosso l'iniziale impeto. In una riunione
poco dopo il V-E Day con alcuni fisici che sentivano che forse
gli sforzi dovevano essere finiti, Oppenheimer insistette per
continuare. La sua dichiarata ragione sembrava un po' strana:
non era per la paura di molte vittime dovute ad una invasione
del Giappone, ma perché le Nazioni Unite, che da li a poco sarebbero
state costituite, dovevano avere una pre-conoscenza delle armi
atomiche. Una ragione più probabile per cui il progetto continuò
è dovuta al momentum che lo costituì - il primo test atomico,
Trinity, era quasi a portata di mano.
Sappiamo che preparando questo primo test atomico i fisici procedettero
nonostante un gran numero di possibili pericoli. Inizialmente
erano preoccupati, basandosi su un calcolo di Edward Teller, che
un'esplosione atomica poteva incendiare l'atmosfera. Un calcolo
rivisto, ridusse il pericolo di distruzione del mondo ad un terzo
di un milione di possibilità. (Teller dice che più tardi era in
grado di smentire completamente la prospettiva di combustione
atmosferica). Oppenheimer, benchè fosse abbastanza preoccupato
per i risultati di Trinity dispose per una possibile evacuazione
della parte Sudovest dello Stato del New Mexico. E, naturalmente,
c'era il chiaro pericolo di un inizio alla corsa di armi nucleari.
Entro un mese dal primo test di successo, 2 bombe atomiche distrussero
Hiroshima e Nagasaki. Alcuni scienziati suggerirono che le bombe
dovevano essere semplicemente dimostrate, piuttosto che buttate
sulle città giapponesi - dicendo che questo avrebbe migliorato
la possibilità di controllo delle armi dopo la guerra - ma senza
alcun esito. Con la tragedia di Pearl Harbor ancora fresco nelle
menti americane, sarebbe stato molto difficile per il presidente
Truman di ordinare una dimostrazione di armi piuttosto che usarle
come ha fatto - il desiderio di finire velocemente la guerra e
salvare le vite che sarebbero state perse in un'invasione del
Giappone era molto forte. Ma, la sovrastante verità venuta era
probabilmente molto semplice: Come disse il fisico Freeman Dyson
più tardi: "La ragione per cui è stata buttata fu che nessuno
ebbe il coraggio o la previsione di dire no".
E' importante rendersi conto come erano attoniti i fisici in seguito
al bombardamento di Hiroshima, il 6 Agosto del 1945. Essi descrissero
una serie di onde di emozioni: prima un senso di soddisfazione
che la bomba aveva funzionato, poi l'orrore per tutta la gente
che era stata uccisa, e ancora un convincente sentimento che per
nessuna ragione un'altra bomba doveva essere buttata. Ma naturalmente
un'altra bomba fu lanciata, su Nagasaky, solo tre giorni dopo
il bombardamento di Hiroshima. Nel novembre del 1945, tre mesi
dopo il bombardamento atomico, Oppenheimer si pose fermamente
dietro la posizione scientifica, dicendo: "Non è possibile essere
uno scienziato senza credere che il sapere del mondo, e il potere
che gli conferisce, è cosa di intrinseco valore per l'umanità,
e che lo stai usando per aiutare l'espansione della conoscenza
e sei disposto ad accettarne le conseguenze".
Oppenheimer cominciò a lavorare, con altri, al rapporto Acheson-Lilienthal,
il quale, come disse Richard Rhodes in un suo recente libro, "
Visions of Technology" - "Trovata una via per prevenire la corsa
all'armamento nucleare clandestino senza risultare ai governi
armati mondiali"; il loro suggerimento era di rinuncia del lavoro
sulle armi nucleari per gli stati - nazione ad una agenzia Internazionale.
Questa proposta condusse al Progetto Baruch, il quale fu sottomesso
alle Nazioni Unite nel giugno del 1946 ma mai adottato (forse
perché, come suggeriva Rhodes, Bernard Baruch aveva "insistito
nel seppellire il progetto di sanzioni convenzionali", per cui
inevitabilmente rovinandolo, anche se sarebbe stato "quasi certamente
rigettato in ogni caso dalla Russia Stalinista"). Altri sforzi
per favorire passi intelligenti verso l'internazionalizzazione
del potere nucleare per prevenire una corsa agli armamenti si
condussero in contrasto sia con la politica statunitense e l'interna
diffidenza, o sospetto dei Sovietici. L'opportunità di sfuggire
alla corsa alle armi fu persa, e molto velocemente. Due anni più
tardi, nel 1948, Oppenheimer sembrava aver raggiunto un altro
stato nel suo pensiero, dicendo: "In uno strano crudo senso che
nessuna volgarità, nessun humor, nessuna dichiarazione può estinguere,
i fisici hanno conosciuto il peccato; e questo è un sapere che
non possono perdere".
Nel 1949, i Sovietici esplosero una bomba atomica. Dal 1955, sia
gli USA che Unione Sovietica, testarono bombe all'idrogeno adatte
al rifornimento aereo. E così iniziò la corsa alle armi nucleari.
Circa 20 anni fa, nel documentario "The Day After Trinity", Freeman
Dyson riassunse le posizioni scientifiche che ci portarono al
precipizio nucleare. "Io stesso l'ho sentito. Lo splendore delle
armi nucleari. E' irresistibile, se vieni a loro come scienziato.
Sentirlo che è li, nelle tue mani, sentire questa energia che
irrora le stelle, lasciandogli fare la tua preghiera. Di fare
questi miracoli, di alzare milioni di tonnellate di pietre verso
il cielo. E qualcosa che da alla gente un'illusione di un illimitato
potere, ed è, in alcun modo, responsabile di tutti i nostri guai
- questo, che potreste chiamare arroganza tecnicistica, che soggioga
le persone quando realizzano cosa possono fare con le loro menti.(8)
Oggi, come allora, siamo creatori di nuove tecnologie e stelle
del futuro immaginato, guidati - questa volta da grandi ricompense
finanziarie e competizioni globali - nonostante i chiari pericoli,
difficilmente valutando come possa essere provare a vivere in
un mondo che è il realistico risultato di ciò che stiamo creando
e immaginando.
Nel 1947, The Bulletin of the Atomic Scientists cominciò a mettere
il Doomsday Clock (l'orologio del giorno del giudizio) sulla sua
copertina. Per oltre 50 anni, ha dimostrato una valutazione dei
pericoli relativi al nucleare che abbiamo di fronte, riflettendo
le mutevoli condizioni internazionali. Le lancette dell'orologio
sono state mosse 15 volte e oggi, a nove minuti a mezzanotte,
riflettono il continuo e reale pericolo delle armi nucleari. La
recente aggiunta dell'India e del Pakistan alla lista dei detentori
del potere nucleare ha aumentato la minaccia di fallimento dell'obiettivo
di nonproliferazione, e questo pericolo era apparso muovendo le
lancette più vicino alla mezzanotte nel 1998. Ai giorni nostri,
quanti pericoli abbiamo di fronte, non solo dagli armamenti nucleari,
ma da tutte queste tecnologie? Quanto è alto il rischio di estinzione?
Il filosofo Jhon Leslie ha studiato queste domande e ha concluso
che il rischio di estinzione umana è almeno il 30% (9), mentre
Ray Kurzweil crede che abbiamo "una migliore opportunità di farcela,
con l'obiezione per cui è sempre stato accusato di essere ottimista.
Non solo queste previsioni non sono incoraggianti ma non includono
neanche la possibilità di alcuni orrendi risultati vicini all'estinzione.
Confrontati con tali asserzioni alcune persone serie suggeriscono
di andarsene dalla terra al più presto possibile. Colonizzeremo
la galassia utilizzando le sonde? di Von Neumann che passano da
sistema stellare a sistema stellare. Per questo passo saranno
necessari 5 miliardi di anni da ora (o al più presto se il nostro
sistema solare sarà disastrosamente colpito dall'imminente collisione
della nostra galassia con la galassia di Andromeda nei prossimi
3 miliardi di anni. Ma se prendiamo per buona la parola di Kurzweil
e Moravec ciò potrebbe essere necessario per la metà di questo
secolo. Quali sono qui le implicazioni morali? Se dobbiamo andarcene
dalla terra così presto affinchè sopravviva la nostra specie,
chi accetterà la responsabilità per il destino di coloro (alla
fine quasi tutti noi) che saranno lasciati indietro? Anche se
ci sparpagliamo nelle stelle, non è probabile che ci porteremo
i nostri problemi con noi o che più tardi ci raggiungeranno? Il
destino della nostra specie sulla terra o il destino sulle galassie
sembrano inestricabilmente congiunti. Un'altra idea è di innalzare
una serie di scudi per difendersi contro ciascuna delle tecnologie
pericolose. L'Iniziativa di Difesa Strategica, proposta dall'Amministrazione
Reagan, fu un tentativo di progettare uno scudo contro la minaccia
di un attacco nucleare da parte dell'Unione Sovietica. Ma come
osservò Arthur C. Clarke, interessato a trattare sul progetto:
"Benchè fosse possibile, una immensa spesa per costruire sistemi
di difesa locale che avrebbero lasciato passare "solo" una piccola
percentuale di missili balistici, la più sollecitata idea di un
ombrello nazionale era assurda-senza-senso. Luis Alvarez, forse
il più grande fisico sperimentale di questo secolo, mi fece notare
che i difensori di questi schemi erano "tipi molto chiari con
un senso non comune". Clarke continuava: "Guardando dentro la
mia sfera di cristallo spesso nebulosa, sospetto che una totale
difesa potrebbe infatti essere possibile tra più o meno un secolo.
Ma la tecnologia in questione produrrebbe, come un effetto collaterale,
armi così terribili che nessuno perderebbe tempo con qualcosa
come missili balistici primitivi". (10)
In "Engines of Creation", Eric Drexler propose che noi avremmo
costruito uno scudo di difesa attivo nanotecnologico - una forma
di sistema immunitario per la biosfera - per difendersi contro
i pericolosi replicatori di ogni tipo che possono sfuggire dai
laboratori o essere creati con malintenzione. Ma lo stesso scudo
proposto sarebbe estremamente pericoloso - niente potrebbe impedirgli
sviluppare problema autoimmuni e di attaccare la stessa biosfera.
(11)
Simili difficoltà concernono la costruzione di scudi contro l'ingegneria
genetica e la robotica. Queste tecnologie sono troppo potenti
per crearsi uno scudo in tempo necessario.
Anche se fosse possibile implementare scudi di difesa, gli effetti
collaterali del loro sviluppo sarebbero tanto pericolosi quanto
le tecnologie da cui ci vogliamo difendere. Tutte queste possibilità
sono indesiderabili o irrealizzabili o entrambi. L'unica alternativa
realistica che io vedo è la rinuncia: limitare lo sviluppo delle
tecnologie che sono troppo pericolose, limitando la nostra aspirazione
a certi tipi di conoscenza.
Si, lo so, il sapere è buono, visto che è la ricerca di nuove
verità. Noi stiamo cercando la conoscenza da tempi antichi. Aristotele
apriva la sua "Metafisica" con una semplice espressione: "Tutti
gli uomini per loro natura desiderano sapere". Abbiamo come principio
fondamentale nella nostra società, concordato a lungo sul valore
dell'accesso libero all'informazione e riconosciuto quali problemi
sorgono col tentativo di limitare l'accesso alla conoscenza ed
il suo sviluppo. Negli ultimi tempi, siamo arrivati ad onorare
il sapere scientifico. Ma nonostante i forti precedenti storici,
se l'accesso allo sviluppo illimitato della conoscenza d'ora in
avanti ci pone tutti in serio pericolo di estinzione, allora il
buon senso richiede che rivediamo di nuovo le nostre basi, convinzioni
a lungo sostenute. Era Nietzsche ad ammonirci, alla fine del 19esimo
secolo, non solo che Dio era morto ma che "la fiducia nella scienza,
che tuttavia esiste innegabilmente, non può avere le sue origini
da un calcolo di utilità; deve essere stata originata a prescindere
dal fatto che l'inutilità e la pericolosità della volonta di "verità"
"verità ad ogni prezzo" gli sia provata costantemente". Questo
successivo pericolo con cui adesso ci imbattiamo completamente
- le conseguenze della nostra ricerca di verità. La verità che
la scienza ricerca può certamente essere considerata un sostituto
pericoloso di Dio se è possibile che ci conduca alla nostra estinzione.
Se potessimo concordare, come specie, che cosa volessimo, dove
vogliamo arrivare, e perché, allora il nostro futuro sarebbe molto
meno pericoloso - allora potremmo capire che cosa possiamo e vorremmo
abbandonare. Altrimenti possiamo facilmente immaginare la corsa
agli armamenti sulle tecnologie GNR, così come è successo con
le tecnologie NBC nel 20esimo secolo. Questo è forse il rischio
più grande, una volta iniziata tale corsa, è molto difficile terminarla.
Questa volta - a differenza del Progetto di Manhattan - non siamo
in guerra, di fronte ad un implacabile nemico che minaccia la
nostra civiltà; siamo guidati, invece, dalle nostre abitudini,
i nostri desideri, il nostro sistema economico, e la nostra necessità
competitiva di sapere. Credo che tutti desideriamo che il nostro
destino sia determinato dai nostri valori collettivi, etici e
morali. Se avessimo acquistato più saggezza collettiva nelle passate
migliaia di anni, allora un dialogo verso questo fine sarebbe
molto più pratico, e l'incredibile potere che stiamo per scatenare
non sarebbe poi così preoccupante.