6 - I nuovi giochi del presente-futuro: il caso
Xml
Dall'Internet verso i consumatori all'Internet delle imprese. Intorno
a una sigla tecnica, a un linguaggio, Xml, dietro cui emerge uno dei
più importanti esempi, attualmente in corso, di gioco a guadagno condiviso
intorno a cui si costruisce Internet. Abbiamo visto, nei precedenti
paragrafi, come queste interazioni multiple e a retroazione positiva
possano spiegare in pratica tutto il percorso evolutivo (quantomeno
nei suoi aspetti salienti) della rete. Internet è nata da un ambiente
aperto, fortemente cooperativo 24 . Il Web è solo delle punte più
visibili di questo iceberg. Nato nel 1990 da un gruppetto di ricercatori
del Cern guidato dal fisico Tim Berners Lee è oggi il centro funzionale
di Internet. Ma come tutti gli standard, i mattoni su cui si basa
e si consolida il lavoro cooperativo sulla rete anche il Web sta evolvendo
secondo una visione di crescente generalità (Web semantico) non a
caso lanciata dal W3c, l'organismo di standardizzazione, avviato al
Mit dallo stesso Berners Lee. Questa "visione", tradottasi in una
famiglia di standard Xml (alcuni dei quali ancora in fase di messa
a punto), oggi sta innescando un duplice gioco a guadagno condiviso,
dal lato della domanda (utenti) e dell'offerta di software, in pratica
su tutti i soggetti del settore, da Microsoft all'area Java fino alle
comunità open-source come Apache. Un gioco,
insomma, competitivo-cooperativo che coinvolge tutti. Spinto dai vantaggi
derivanti dall'immissione di una ulteriore dose di "intelligenza comune"
nel corpo globale del Web e di Internet. Nel bel mezzo della sua prima
grande tempesta recessiva, tra chiusure delle dot.com e altolocati
nomi delle telecomunicazioni in difficoltà, Internet, infatti, è più
che mai capace di continuare a crescere, e persino accelerare, dove
i suoi giochi a guadagno condiviso effettivamente attraggono comunità
crescenti di utenti e di produttori. E dove, effettivamente, si ottengono
risultati tangibili. E' il caso dell'adolescenza del Web come ambiente
applicativo. Questo enorme sistema di server esploso negli scorsi
dieci anni sulla base di una tecnologia semplice e elegante, capace
di distribuire e connettere informazioni con un'efficacia mai sperimentata
prima. Ma anche, come sempre avviene, con dei limiti piuttosto visibili:
il Web di oggi è ancora una gigantesca biblioteca on-line che in comune
ha soltanto una sorta di alfabeto di scrittura e di connessione (lo
standard Html). Non ha ancora un vero e proprio "linguaggio",
ovvero un sistema di mutua comprensione (e quindi di cooperazione)
tra le informazioni, tra i "robot" (software e hardware)
che lo compongono, tra i soggetti professionali che operano sulle
sue "catene operative". Dal 1997 la risposta a questo problema è venuta
proprio da uno dei padri del Web, dal fisico inglese Tim Berners-Lee,
leader del consorzio di standardizzazione W3c 26 . Si chiama Xml (Extensible
Markup Language) e sta al vecchio Html come un sofisticato programma
informatico sta a un foglio vergato a penna 27 . Prendiamo il caso
di un server di e-business. I suoi moduli sono oggetti software, compatibili
con i database e le applicazioni aziendali "pregresse",
capaci di comunicare l'uno con l'altro e di connettersi tra di loro
in vario modo in processi applicativi multipli. Non solo: questi oggetti,
tramite la famiglia di standard Xml, devono poter riconoscere e lavorare
con altri loro simili sulla rete, in modo tale che due applicazioni
di due aziende diverse, per esempio di gestione degli ordini, possano
lavorare assieme, scambiandosi in automatico dati e funzioni applicative
attraverso i rispettivi portali Web. Ed è qui che Internet, dal basso,
in modo poco appariscente ma con migliaia di soggetti attivi, continua
a crescere. Proprio perché Xml, tra le sue varie opportunità, consente
di creare siti capaci di "capirsi" tra di loro. Almeno quanto
basta perché una informazione scritta su una pagina Xml possa essere
adattata (per esempio visualizzata) su dispositivi diversi. Oppure
una fattura elettronica emessa da un'azienda sia correttamente interpretata,
catalogata, analizzata dal software di un'altra azienda. E così via,
fino alla formazione di migliaia e migliaia di comunità professionali
on-line accomunate da "vocabolari" e intelligenza comune.
Un processo solo apparentemente tecnico. Ma ben visibile nella sua
portata, su migliaia di consorzi moltiplicatisi proprio durante gli
scorsi mesi di crisi, che ha come obbiettivo l'approdo all'intelligenza
condivisa del Web. Verso il nuovo paradigma del Web computing che
promette, a breve, l'uso più efficiente dei siti internet. Ma che
a più lungo termine implica una autentica trasformazione nella natura
del software e dei servizi.
La foresta di sigle è piuttosto vasta. Systems
Biology markup language; Darpa agent markup language; telecommunications
interchange markup; openphilantrophy exchange... negli ultimi due
anni la proliferazione dei linguaggi settoriali basati su Xml è stata
massiccia, su una autentica foresta di iniziative che puntano a standardizzare
le proprie regole di comunicazione e di transazione. Perché tanto
interesse per l'Xml? Semplice: perché tutti (utenti, produttori di
software e di servizi piccoli e grandi) hanno da avvantaggiarsi dalla
diffusione piena della sua famiglia di standard. La formazione nel
corpo del Web di una vasta rete "semantica" è la condizione
chiave per il decollo di una nuova industria delle applicazioni, etichettata
come "Just in time software", ovvero la possibilità anche per un singolo
programmatore di genio di sviluppare la sua soluzione, di pubblicarla
sul Web e offrirla come micro-servizio a pagamento. Dove questo modulo
(per esempio un programma capace di eseguire comparazioni intelligenti
tra varie offerte commerciali) può essere "chiamato" via
rete anche da altri moduli-servizi fino a concatenarsi in processi
applicativi completi. C'è quindi un preciso incentivo economico. Un
tempo il software applicativo le aziende se lo scrivevano anche in
casa, dentro reparti informatici affollati di programmatori e brulicanti
di tabulati, lunghe liste di Cobol o Fortran che andavano modificate
per ogni computer proprietario. Poi venne il software a pacchetto,
prodotto all'esterno per i sistemi standard. E quindi Internet con
la sua ubiquità, che dalla metà degli anni `90 ha reso possibile eseguire
programmi Java, più o meno complessi, ovunque vi sia un navigatore
(browser) o un server dotato dell'apposita "macchina virtuale" Java.
L'Xml descrive il significato e la funzione del servizio ma anche
incorpora il modulo applicativo che può essere scritto in Java o in
.Net , ovvero in un linguaggio eseguibile su tutto il Web. E questa
prospettiva dei "Web service" è oggi la maggiore frontiera
per l'intera industria mondiale del software, dai grandi nomi commerciali
fino alle comunità open-source e ai singoli programmatori. Oggi siamo
sulla soglia del terzo passo. Contrassegnato come Web computing o,
a piacere, come fase dei Web services. Dove la promessa è quella,
all'estremo, di non dover nemmeno più investire un euro in software
applicativo residente in casa. Ma, semplicemente, di accedere a Internet,
scaricare volta per volta i servizi software che la Rete fornisce
e pagarli soltanto per il loro utilizzo effettivo. Un sogno? Non tanto,
se si pensa che già da un paio d'anni il grosso dell'industria informatica
mondiale è impegnata su questa frontiera. Che nomi come Microsoft
vi scommettono il proprio futuro a lungo termine, fino a ridisegnare
completamente il proprio modello di business sotto il segno della
nuova piattaforma software.Net. Che una vasta coalizione, sotto il
simbolo di Java, le disputa la supremazia nella nuova fase di Internet,
in cui l'intelligenza del software circolerà così come oggi si ramifica
il patrimonio informativo del Web. Le previsioni del Gartner Group
29 dicono che al 2007 il Just in time (Jit) software sarà una industria
da 20 miliardi di dollari, e prevalentemente concentrata in settori
di consumo, quali i servizi per i cellulari, i giochi, la tv interattiva.
E anche qui inizialmente conterà solo per lo 0,2% di questi mercati.
Ovvero: una partenza sui settori più avanzati della mobilità dove
i vantaggi combinati di Xml e del Jit software saranno più evidenti.
Per esempio, nelle automobili che al 2005, secondo il Gartner, avranno
a bordo per il 75% dispositivi per l'accesso a servizi personalizzati
via Web (informazioni localizzate sul traffico, canali informativi
su misura e entertainment). Non solo: un'area in cui si assisterà
a uno sviluppo più rapido del nuovo software Jit saranno i paesi emergenti,
dalla Cina all'America Latina dove il peso dell'infrastruttura esistente
è minore. Nella galassia delle imprese occidentali, invece, varrà
un percorso diverso. L'ibridazione progressiva di almeno il 50% del
software applicativo esistente con gli standard Xml nei prossimi cinque
anni. E, allo stesso tempo, la nascita e il primo sviluppo di quelle
soluzioni che il Gartner definisce come e-hub (perni applicativi),
ovvero server logici Xml in grado di instradare e smistare i messaggi,
leggere e tradurre i significati, distribuirli alle applicazioni.
Ma anche qui con una crescita graduale: la tecnologia e-hub non supererà,
al 2006, i 50 miliardi di dollari. Niente miracoli esplosivi in vista,
quindi, nella costruzione dal basso del Web computing. Che però si
conferma come la maggiore opportunità aperta oggi nella costruzione
di Internet. E' fondamentale però notare come questo processo stia
svolgendosi secondo un modello di interazione (competizione e cooperazione)
rappresentabile, in gran parte, come un ecosistema di comunità. Dove
il W3c ha il ruolo di coordinatore leader della visione e degli standard
(comunità tecnica "perno"), quindi le "sottostanti" (per massimo di
semplificazione) due aree del software. Da un lato il campo Java (circa
3 milioni di sviluppatori) e dall'altro il campo Microsoft (non solo
l'impresa ma anche, e soprattutto, il suo ecosistema di 3-4 milioni
di programmatori). Infine il reticolo delle "comunità professionali"
interessate a sviluppare linguaggi e vocabolari comuni, scontando
dall'approccio Xml vantaggi e benefici concreti (sulla qualità applicativa,
la possibilità di reinventare processi interni, i costi del software,
l'accesso a servizi professionali più avanzati sulla rete, l'apertura
di nuove frontiere verso i consumatori....). Anche in questo caso
tutti si attendono (o già fruiscono) di nuovo valore tramite il "gioco
Xml": il coordinatore semplicemente perché la sua visione si realizza;
i campi industriali perché, sul lato imprese, si genera nuovo business,
e su un modello (software Jit) più avanzato, flessibile, dinamico
e aperto (per esempio ai mercati emergenti); i partecipanti alle comunità,
sia di software libero che proprietario, perché accedono a nuovi livelli
di qualificazione professionale, in aree non-mature; gli utenti perché
possono già adottare soluzioni Xml relativamente semplici (pagine
e documenti in grado di sfruttare i nuovi gradi di libertà resi possibili
dal linguaggio), sviluppare applicazioni "ibridate", prepararsi alle
nuove piattaforme future.
7 - Le grid
Quali altri giochi ci riserverà l'Internet dei prossimi anni? Impossibile
affermarlo oggi, e a tavolino. Ma è anche possibile ipotizzare che
ogni nuova tecnologia "abilitante" (o la sinergia tra più tecnologie)
determini l'espressione di un suo peculiare "ambiente" per nuovi giochi
sociali, produttivi, professionali. Così è stato per la condivisione
in rete di archivi e messaggi (di qui le Bbs, le comunità open-source
e di standardizzazione, il reticolo dei server scientifici...). Così
per il Web informativo e i motori di ricerca (portali). Per il Web
e i motori d'asta (E-Bay); per il Web, la multimedialità musicale,
il peer-to-peer (Napster e successori). Ed è altrettanto prevedibile
che la nuova generazione di software Xml Java-based metterà in moto
altri giochi: mercati elettronici evoluti? Nuove comunità professionali?
Nuove forme di open-source?. Non è possibile, ovviamente, dare una
risposta univoca. Nulla più di un win-win game può apparire
a prima vista elusivo, sfuggente, improvviso. Può apparire, ripeto.
In realtà vi sono dei criteri anche abbastanza precisi e prevedibili
per interpretare e prevedere i giochi a guadagno condiviso, e quindi
impostare efficaci politiche di sviluppo della rete e dell'innovazione.
Basti qui un ulteriore esempio: quel movimento, che oggi principalmente
coinvolge migliaia di scienziati e tecnologi, focalizzato sulla costruzione
delle "grid", da molti viste come il prossimo grande passo di Internet.
Che cosa è una grid? Fondamentalmente è l'idea, semplice e
piuttosto antica nell'informatica, di mettere in comune le risorse
di calcolo e di memoria, in modo da raggiungere livelli di potenza,
accessibili ad ogni partecipante alla comunità scientifica, altrimenti
impossibili. In pratica è un gioco a guadagno condiviso molto semplice,
in cui si sviluppa nuovo un super-strumento collettivo dall'integrazione
stretta di quelli esistenti. Le tecnologie abilitanti per questo gioco
win-win già esistono, e da tempo. In primo luogo le comunicazioni.
Oggi "larga banda" è già un termine restrittivo. Velocità di trasmissione
dati di un gigabit al secondo su rete locale tecnicamente costano
poche centinaia di dollari per nodo e sulla Internet a lunga distanza,
con la tecnologia wdm (wavelenght division multipelxing, la scomposizione
della luce, sulla fibra ottica, nelle sue varie frequenze spettrali
o "colori") si raggiungono velocità di migliaia di gigabit (terabit)
su un centinaio di "colori" contemporaneamente trasmessi su una fibra,
ciascuna frequenza capace di velocità di trasporto di 2,5 gigabit.
E questi colori, o lambda, molto presto diverranno capaci di 40 gigabit
ciascuna, in ragione di 200-300 di essi inviabili su singola fibra
ottica. Un lambda, ovvero 2,5 gigabit permanenti da Parigi a New York,
già oggi è un canale di comunicazione sufficientemente potente (e
a basso costo) perché due computer, o sistemi di computer, possano
in pratica divenire una cosa sola. Condividendo risorse di elaborazione
o capacità di memoria quasi come se fossero fisicamente adiacenti.
I computer stessi stanno velocemente incrementando, anche al di là
di molte previsioni date per ottimistiche negli anni scorsi, il loro
rapporto tra prestazioni e costo. Su tre assi: microprocessori, memorie,
software. Basta considerare un normale Pc venduto in negozio: supera
il gigahertz (miliardo di cicli al secondo), contiene hard disk che
ormai raggiungono il centinaio di gigabyte, può essere pilotato da
un sistema operativo evoluto, stabile e a bassissimo costo come è
Linux, completo di tutti i protocolli e gli standard di Internet,
provati su milioni di connessioni. Da un anno a questa parte, poi,
Linux sta esponenzialmente evolvendo verso lo status di ambiente informatico
(nella sua accezione estesa) capace di gestire server di fascia alta,
quali i cluster (reti "strette" di elaboratori) capaci di erogare
potenze di elaborazione prima riservate ai grandi sistemi, di ordini
di grandezza più costosi. Gli standard aperti di Internet, Linux e
l'open-source rendono possibile l'accesso attivo da parte di tecnologi
e di scienziati all'innovazione "diffusa" nelle architetture informatiche.
Non esistono più i "santoni" intoccabili del software proprietario,
segreto e chiuso. Oggi, per un centro di ricerca, diviene conveniente
investire sui sistemi standard (basati su tecnologia Pc) risparmiando
il costo (enorme) di grandi supercomputer proprietari per dirottare
le proprie risorse risparmiate sulla formazione di ampi laboratori
di programmazione, capaci di plasmare Linux e il software open- source
secondo le proprie esigenze di ricerca. E queste esigenze di potenza
di calcolo oggi crescono a dismisura, sulle frontiere della ricerca
fondamentale. Anche oltre le potenze massime ottenibili dai più grandi
sistemi centralizzati. Gli esempi sono molteplici. Basti pensare alle
enormi basi di dati necessarie per la decodifica del genoma umano
e alla loro istantanea necessità di confronto e di analisi. Ai modelli
di simulazione meteorologici, nucleari, alle basi di dati astronomiche
e astrofisiche. Alla mappatura dell'intero pianeta attraverso le immagini
ad alta risoluzione continuamente trasmesse dai satelliti. Alla fisica
delle alte energie, ormai di fronte all'enigma del nucleo atomico,
dell'interazione forte. E qui il Cern, con il suo progetto Lhc dal
2006 prevede di attivare il suo super-anello superconduttore per studiare
le collisioni tra protoni, spaccarlo ad altissima energia, produrre
per ogni esperimento decine di petabyte (miliardi di gigabyte) di
dati grezzi da elaborare, raffinare, studiare. Soltanto quest'ultimo
enorme flusso di dati scientifici corrisponderebbe alla necessità
di 200 milioni di Pc contemporaneamente attivi o di dieci telefonate
contemporanee di ogni abitante del pianeta. Negli anni scorsi, peraltro,
un evento poco noto è avvenuto. Il raggiunto limite del supercalcolo
centralizzato. Protagonista involontario è stato il maggiore programma
di ricerca lanciato negli Usa dall'amministrazione Clinton. Il progetto
Asci, per la simulazione completa di una esplosione nucleare da parte
di un sistema informatico. Qui i maggiori centri di ricerca militare
Usa (Livermore, Sandia, Pittsburgh) hanno commissionato alle principali
industrie le massime configurazioni di supercomputer producibili.
Per esempio al Livermore è attivo Asci White, un supersistema parallelo
Ibm composto da 252 supercomputer Sp/2 Ibm ciascuno con mille nodi
di elaborazione. La sorpresa (per così dire) è stata quella, da parte
dei ricercatori, di aver scoperto il limite superiore dei sistemi
operativi, in particolare delle più potenti versioni Unix "proprietarie".
Oltre queste configurazioni massime, infatti, il software non regge,
il sistema non può essere ulteriormente espanso. A meno di non riscrivere
parti dell'ambiente operativo stesso. Ma quest'ultimo, coperto da
brevetti dei costruttori, resta di loro esclusiva proprietà, quindi
con costi e ostacoli difficilmente superabili. Questo sistema di opportunità
tecnologiche, di esigenze di calcolo e di vincoli sta così portando
l'intera comunità scientifica mondiale verso il gioco a guadagno condiviso
delle grid. Tecnicamente una grid è uno strato di software
sovrapposto alle architetture esistenti (Internet, Unix e Linux, cluster,
server, singole workstation o Pc tutti connessi da canali permanenti
a larga banda) che trasforma questa rete di sistemi in un solo sistema
di elaborazione o di memoria, completamente trasparente all'utente.
La grid, come la rete elettrica da cui mutua il nome, è il
progetto di un ambiente in cui l'utente non sa (o non si cura) di
"dove" avviene la sua elaborazione o di "dove" i suoi dati vengono
memorizzati. Questo lavoro di coordinamento tra i sistemi viene svolto
dal middleware. L'utente, nel grid, opera in modo non dissimile
da come, anni fa, si lavorava sui computer time-sharing, in cui l'accesso
condiviso alle risorse di calcolo era regolato dal sistema centrale.
Esistono già dei pacchetti software e delle iniziali implementazioni
delle grid. Il più rilevante è Globus, un toolkit sviluppato
in ambiente scientifico (Argonne National Laboratory e Università
della California del Sud, Marina del Rey) che offre vari servizi:
di autenticazione, controllo delle elaborazioni, ottimizzazione delle
risorse. Questo toolkit, messo in open-source dai suoi autori (Ian
Foster di Argonne e Karl Kesselman di Marina del Rey) è oggi il punto
di convergenza anche della principale iniziativa europea, il progetto
Datagrid guidato dal Cern e finanziato dalla Ue (quest'ultimo è in
realtà il progetto coordinatore di una decina di iniziative spuntate
negli scorsi diciotto mesi, in tema di grid, da parte di vari
soggetti europei sotto l'ombrello dei fondi di ricerca di Bruxelles).
Globus sta velocemente evolvendo e attraendo intorno a sé partner,
scientifici come industriali. Tra questo ultimi Ibm, Compaq, Sun,
che nello scorso autunno lo hanno adottato per lo sviluppo di proprie
soluzioni di grid orientate al mondo dell'industria e dell'internet
in senso lato. Notevole è anche il fatto che Ibm abbia messo al lavoro,
su Globus, una consistente quantità di tecnologi. E che l'ambiente
stia velocemente evolvendo (nella sua versione 3) verso una fusione
con l'altro grande gioco win-win in essere: quello della famiglia
Xml e dei web services (di veda il paragrafo precedente). La visione
che sta dietro a questa convergenza è già delineabile oggi: l'obbiettivo
non è solo quello di disporre, entro pochi anni, di una infrastruttura
computazionale e di memoria "globale". Ma sopra di questa, tramite
gli standard dei Web services, di un "macro-ambiente" di programmazione
e di servizi uniformemente aperto, capace di lavorare con agilità
su tutto il sistema delle grid. Che cosa significa? Che, in
altri termini, si sta preparando la base per l'esplosione di una nuova
serie di giochi a guadagno condiviso: la comunità scientifica può
estendere e equalizzare le opportunità di ricerca e di accesso alle
frontiere anche ai ricercatori più lontani, con un effetto dirompente
sulla sua produttività intellettuale; le risorse di calcolo aumentano
enormemente fino a comprendere, in teoria, l'intera rete Internet
globale: il computer connesso può ulteriormente abbassare il suo costo
anche per una piccola impresa o una famiglia, semprechè partecipi
a una grid che remuneri, in qualche misura, il suo utilizzo;
l'ambiente delle grid può generare nuove comunità anche fuori
dal mondo scientifico (quelle che oggi chiamiamo reti peer-to-peer).
Esempi come Napster, Gnutella e Freenet sono solo i primi vagiti di
una generazione di comunità ben più solide che potranno spuntare sulla
scia delle grid scientifiche; il produttore di un determinato
web service può vendere liberamente su tutta Internet la sua soluzione
e aggregarvi intorno una comunità; si possono creare "database globali"
e connessi strumenti d'uso universali intorno a ogni comunità professionale.
Per esempio un "planetario globale" (Nasa), un archivio televisivo
globale, un "mappamondo globale" (Eartvie wer.com, per riferimento)
oppure un archivio globale delle radiografie del seno (mammografie),
progetto recentemente lanciato dalla Ibm con una Università americana
per consentire ai medici il confronto in tempo reale delle proprie
radiografie con quelle contenute su questa specifica grid;
possono nascere innumerevoli "virtual organisations" centrate intorno
a catene applicative, di servizi e di database situate sulle grid.
Valgono un paio di osservazioni in conclusione di questo paragrafo.
Il caso delle grid è emblematico per almeno un paio di motivi.
In primo luogo perché conferma l'osservazione fatta sia nel caso dell'open-source
che di E-bay. Ovvero la constatazione che un gioco a guadagno condiviso
si sprigiona innanzitutto laddove esiste una possibilità attraente
ma NON RISOLVIBILE ALTRIMENTI che attraverso l'uso innovativo di Internet.
In questo caso l'opportunità, anzi la necessità impellente per la
ricerca, è la massiccia aggregazione di "comunità computative" (in
realtà comunità scientifiche di rete) in grado di affrontare i problemi
analitici e conoscitivi dell'attuale frontiera. Siamo quindi di fronte
a una innovazione collettiva resa necessaria dall'USO. Dalla sopravvivenza
stessa della "noosfera" scientifica. La seconda considerazione è che,
dopo la sbornia capitalistica della New Economy, la prospettiva delle
grid nasce ancora una volta dalla "noosfera" guida di Internet.
Dalla comunità scientifica. Non è un caso che i progetti e le idee
di Foster e Kesselman, snobbate dall'industria negli anni caldi della
"corsa all'oro", oggi vengano portate sugli allori dai big dell'informatica.
Si ripete la stessa vicenda dei primi anni 90 quando Tim Berners Lee
inventò l'http-html per visualizzare e condividere dati scientifici
su Internet e solo dopo alcuni anni vide il Web divenire lo standard
principale della rete. Internet, quindi, si conferma come un sistema
di "noosfere" e di giochi a guadagno condiviso. In cui l'industria
è solo uno dei soggetti, e nemmeno quello guida.
8 - Conclusioni
Per sommi capi abbiamo ripercorso i punti chiave dello sviluppo di
Internet alla luce di un filo interpretativo. Questo filo può essere
una bussola anche per il futuro: i modelli di giochi a guadagno condiviso
possono aiutarci a cogliere il valore di molte iniziative su Internet,
anche quelle che partono piccole e modeste. Ma di più: questa interpretazione
può essere la chiave per una efficace politica per l'innovazione,
sia in campo tecnologico che culturale. Vediamo come: sia nel caso
della costruzione della prima Internet, che del Pc, dell'open-source
e delle comunità di rete a ben riflettere si osserva una regolarità.
Questi processi iniziano come "giochi a guadagno condiviso" sul piano
puramente sociale, scientifico, esplorativo-amatoriale, tecnico, culturale.
Poi, e con i loro tempi (veloci o lenti che siano) cominciano a "solidificarsi"
(anche) in nuove industrie, che generano valore aggiunto economico,
occupazione, sinergia ulteriore con la crescita dei giochi stessi.
La particolarità di Internet, che la differenzia dai precedenti media,
sta nella sua capacità intrinseca di mantenere contemporaneamente
presenti i giochi win-win "sociali" con l'emergenza industriale
successiva. E di farli arricchire a vicenda. Internet è quindi un
"incubatore sociale" e allo stesso tempo un terreno di industrializzazione.
Quindi: mantenere attivo un "contesto sociale" per la generazione
continua di nuovi giochi win-win, secondo questa prospettiva,
è fondamentale per generare innovazione, anche economica e industriale.
Si possono però indicare, dalle esperienze osservate, alcuni caratteri
tipici dei giochi a guadagno condiviso.
Valore d'uso. Essi hanno rilevanza con la vita
dei partecipanti. La natura intrinseca di questi giochi sta nella
creazione di un valore effettivamente percepito attraverso l'interazione
in rete. Anzi, possibile soltanto attraverso l'interazione in rete.
E tale valore è tanto più grande quanto l'interazione più estesa.
Inoltre questo valore deve essere comunicabile, perché il gioco si
autoestenda. Per esempio la qualità del software open-source, e la
sua disponibilità è il miglior "ambasciatore" delle comunità
di rete. Altrettanto evidente, se vogliamo, è l'incentivo intrinseco
a E-Bay: l'estensione della propria personalità attraverso un collezionismo
personalizzato, molto spesso ad alto contenuto di ricerca culturale
individuale. E così per il movimento verso le grid: sono l'unica
soluzione realistica, oggi, alle esigenze di calcolo della frontiera
scientifica.
Progetto (o progetti). Il secondo termine che è estremamente frequente
nei giochi a guadagno condiviso di rete è il progetto, o il sistema
dei progetti. Il progetto è qualcosa di esistente, comunicabile e
attraente, ma è anche qualcosa di non finito, di evolutivo, di aperto.
E' abilitante, produttivo di valore, ed è dominio di possibilità per
l'innesco di altri progetti. Così è anche per comunità locali, come
insegnano sette anni di esperienza sulla Rete Civica di Milano (Rcm),
punto di coalescenza di numerosi progetti individuali e collettivi:
alcuni sfociati, come è stato il caso di "Scopri il Tesoro", gioco
di rete educativo sviluppato da un gruppo di insegnanti, in un fenomeno
di auto-diffusione spontaneo (che non ha avuto bisogno di alcuna azione
di marketing) su base nazionale italiana.
Viralità. La consistenza del valore ottenuto dai partecipanti
al gioco è una potente spinta alla comunicazione di questo ad altri
potenziali partecipanti. I mezzi e le forme di comunicazione sono
però cruciali. Internet, con la sua crescita commerciale e di massa,
è rapidamente diventata uno spazio di informazione sovrabbondante,
in cui la risorsa attenzione diviene scarsa. Per questo un gioco win-win
efficace ha necessità oggi di canali di comunicazione appropriati
per la sua viralità. Di qui il ruolo chiave delle comunità, spazi
verticali (anche di multiple verticalità) di comunicazione tra soggetti
con interessi simili, in grado di valutare e percepire adeguatamente
il valore che il gioco win-win propone, e di decidere una autentica
adesione al gioco. Così è per le comunità amatoriali che decidono
di servirsi di E-Bay, per i siti di discussione e di progetto di programmatori
e di informatici che possono valutare le attività open-source. Esempi
anche di grandi dimensioni, qui, non mancano. Per esempio "Slashdot.org"
, sito web di informazione e di discussione, è negli ultimi anni divenuto
uno dei maggiori centri di aggregazione di Internet non solo sull'open-source,
ma anche sull'informazione "alternativa" in tema di tecnologie dell'informazione.
Famose, ormai, sono le sue campagne spontanee contro le iniziative
(ritenute pericolosamente monopolistiche) di Microsoft, che hanno
mosso anche alcuni passi (in corso) del Dipartimento della Giustizia
Usa in termini di indagini sui prodotti, servizi e strategie dell'azienda
di Redmond (per esempio su Passport, il sistema di accesso ai servizi
Internet diffuso da Microsoft che l'azienda ha dovuto parzialmente
mettere in open-source, e modificarne la licenza d'uso, appunto per
le critiche venute in prima battuta proprio dai partecipanti a Slashdot).
Ma non solo: vale anche il caso di SourceForge.org, sito che ospita
ben 30mila progetti open- source avviati spontaneamente dalle comunità
di programmatori. Questo sito, avvisto a sua volta da aziende editoriali
e di servizi sul software open-source, è stato progettato fin dall'inizio
per la viralità. Ovvero per dare la massima trasparenza ai progetti,
ben documentati, persino valutati fino al rating dei singoli partecipanti
(da parte degli altri collaboratori), con un effetto attrattivo che
tuttora perdura, nonostante la crisi della New Economy. La viralità
quindi ha sì una valenza spontanea, ma anche spazi, oggi abbastanza
discernibili, di organizzazione e di ulteriore valorizzazione. Che
convergono sulla nozione di comunità, comunità abilitata dalle tecnologie
di informazione e di comunicazione proprie di Internet.
Stabilità. Il caso di E-Bay è al proposito illuminante. Il
gioco a guadagno condiviso deve essere gioco a guadagno condiviso
per TUTTI i suoi partecipanti. Per gli utenti-aderenti al gioco, secondo
le "facce" delineate sopra, ma anche per il gestore. Che deve ricavare
dal gioco stesso le risorse, economiche e umane, per far persistere
nel tempo e per aiutare la replicazione del gioco stesso. Qui entriamo
nel nocciolo del dibattito sulla questione "dot.com": risorse ricavate
direttamente o indirettamente dal gioco stesso? L'Internet degli anni
`94-2000 ha in assoluta prevalenza scelto la seconda strada, rivelatasi
però instabile. Per esempio Yahoo, come si è argomentato in precedenza,
ha sviluppato un proprio modello simile a quello della televisione
commerciale (ricavi attraverso le entrate pubblicitarie attratte dall'audience
di massa). Che però ha rivelato la sua fragilità di fronte alla "disillusione
pubblicitaria" sui banner indifferenziati e sull'effetto demoltiplicativo
seguito alla crisi delle dot.com (tra i maggiori investitori
pubblicitari sul portale). La progettazione di iniziative su Internet
basate su giochi a guadagno condiviso, perché risponda a requisiti
di prevedibile stabilità, deve pertanto sviluppare modelli di acquisizione
di risorse diversi, anche complementari all'indiretto, ma comunque
capaci di sostenere le iniziative. E-Bay, con la sua "sacra" commissione
sulle transazioni che avvengono nel sito è una indicazione. Un modello
"forte" anche se non replicabile in tutti i casi (non sempre un "gioco"
si basa sugli scambi monetariamente misurabili). Ma lo è anche il
business di servizi che ruota intorno all'open- source e che consente,
per esempio, ai promotori di SourceForge, di Apache e di Slashdot
di mantenere e sviluppare le proprie iniziative di rete. La questione
della stabilità dei giochi a guadagno condiviso è comunque aperta.
Non mi pare vi siano soluzioni univoche valide in ogni caso. Resta
il fatto che, nella progettazione di una iniziativa di rete, questo
elemento oggi va assunto fin dall'inizio come centrale. Come lezione
derivante dall'esperienza della precedente fase di boom e rapido declino
dei primi modelli dot.com.
Segnali. Abbiamo visto come sia Amazon che E-bay e Yahoo (ma anche
il Pc, Linux e l'open- source in generale, e il Grid) siano nati,
in quanto giochi a guadagno condiviso, da esigenze sociali latenti.
Rese soddisfacibili da nuove tecnologie e da nuove idee di utilizzo
di queste ultime.L'esistenza di queste esigenze latenti (esplorazione
personale del futuro-Pc, ambiente software evoluto, gratuito e cooperativo,
accesso "informato" alla cultura, scambio personalizzante-globale,
orientamento gradevole nell'oceano Internet....) può essere percepito
e anticipato dai segnali (anche deboli) che provengono dalla rete
stessa. E quindi divenire terreno di sperimentazione e di avvio di
nuovi giochi a guadagno condiviso. Per questo è fondamentale, per
chi voglia davvero fare politica per l'innovazione e lo sviluppo,
disporre di luoghi in cui questi segnali si producono e, soprattutto,
possano essere letti, interpretati, tradotti in iniziative. Questi
luoghi, come credo appaia chiaramente dall'analisi sviluppata, sono
le comunità.
8.1 - Il valore strategico di Virtuose (
http://www.virtuose.it/)
L'analisi delineata nelle precedenti sezioni ha una conseguenza
significativa. Abbiamo visto come sia le comunità virtuali di utenti
che le comunità "produttive" dell'open-source si fondino, nel loro
sviluppo, su "giochi a guadagno condiviso". Una piattaforma pubblica,
per comunità civiche basate su software open-source può avviare,
per la prima volta, la messa in sinergia dei due grandi "giochi"
tra di loro. Il progetto Virtuose può infatti dare luogo a un duplice
gioco a guadagno condiviso. Il primo sulla fruizione stessa, e sull'evoluzione
della community per cui il software viene sviluppato. E il secondo
nello sviluppo della piattaforma software sottostante, secondo il
modello open-source. Questo doppio gioco innescabile e potenzialmente
sinergico tra "comunità di utenti" e "comunità di sviluppatori"
è ancora una frontiera inesplorata nella galassia dell'Ict. Ci troviamo
quindi di fronte a un progetto d'avanguardia e ad elevato contenuto
di ricerca (applicativa), che non va assolutamente letto soltanto
negli usuali termini di software open-source meno costoso, più stabile,
più sicuro, più facilmente diffondibile (tutti vantaggi tecnici
peraltro veri, confermati dall'esperienza quotidiana di milioni
di utenti). Il nuovo valore aggiunto di Virtuose sta nella possibile
messa in sinergia dei due "giochi a guadagno condiviso". Una ipotesi
di modello è così rappresentabile: la "noosfera" della comunità
utente che elabora di continuo, sulla base propria esperienza, modalità
d'uso e esplorazione multipla di domini aggiuntivi di possibilità,
"richieste" sull'evoluzione stessa della piattaforma software su
cui la comunità virtuale opera. Dall'altro lato la "noosfera" degli
sviluppatori-ricercatori (di qui l'importanza di un laboratorio
universitario, costantemente alimentato da nuovi cervelli) che interagisce
con queste esigenze, le filtra in progetti ulteriori, li "assembla"
(con software open- source già esistente) e/o li "crea" sviluppando
nuove soluzioni. Che possono essere ulteriormente diffuse nella
duplice comunità esterna, con ulteriori retroazioni positive su
ambedue i livelli.
|