Giuseppe Caravita (www.airec.net)
Estratto da Internet come gioco a guadagno condiviso - Parti 1 | 2 | 3 | 4 | 5

6 - I nuovi giochi del presente-futuro: il caso Xml
Dall'Internet verso i consumatori all'Internet delle imprese. Intorno a una sigla tecnica, a un linguaggio, Xml, dietro cui emerge uno dei più importanti esempi, attualmente in corso, di gioco a guadagno condiviso intorno a cui si costruisce Internet. Abbiamo visto, nei precedenti paragrafi, come queste interazioni multiple e a retroazione positiva possano spiegare in pratica tutto il percorso evolutivo (quantomeno nei suoi aspetti salienti) della rete. Internet è nata da un ambiente aperto, fortemente cooperativo 24 . Il Web è solo delle punte più visibili di questo iceberg. Nato nel 1990 da un gruppetto di ricercatori del Cern guidato dal fisico Tim Berners Lee è oggi il centro funzionale di Internet. Ma come tutti gli standard, i mattoni su cui si basa e si consolida il lavoro cooperativo sulla rete anche il Web sta evolvendo secondo una visione di crescente generalità (Web semantico) non a caso lanciata dal W3c, l'organismo di standardizzazione, avviato al Mit dallo stesso Berners Lee. Questa "visione", tradottasi in una famiglia di standard Xml (alcuni dei quali ancora in fase di messa a punto), oggi sta innescando un duplice gioco a guadagno condiviso, dal lato della domanda (utenti) e dell'offerta di software, in pratica su tutti i soggetti del settore, da Microsoft all'area Java fino alle comunità open-source
come Apache. Un gioco, insomma, competitivo-cooperativo che coinvolge tutti. Spinto dai vantaggi derivanti dall'immissione di una ulteriore dose di "intelligenza comune" nel corpo globale del Web e di Internet. Nel bel mezzo della sua prima grande tempesta recessiva, tra chiusure delle dot.com e altolocati nomi delle telecomunicazioni in difficoltà, Internet, infatti, è più che mai capace di continuare a crescere, e persino accelerare, dove i suoi giochi a guadagno condiviso effettivamente attraggono comunità crescenti di utenti e di produttori. E dove, effettivamente, si ottengono risultati tangibili. E' il caso dell'adolescenza del Web come ambiente applicativo. Questo enorme sistema di server esploso negli scorsi dieci anni sulla base di una tecnologia semplice e elegante, capace di distribuire e connettere informazioni con un'efficacia mai sperimentata prima. Ma anche, come sempre avviene, con dei limiti piuttosto visibili: il Web di oggi è ancora una gigantesca biblioteca on-line che in comune ha soltanto una sorta di alfabeto di scrittura e di connessione (lo standard Html). Non ha ancora un vero e proprio "linguaggio", ovvero un sistema di mutua comprensione (e quindi di cooperazione) tra le informazioni, tra i "robot" (software e hardware) che lo compongono, tra i soggetti professionali che operano sulle sue "catene operative". Dal 1997 la risposta a questo problema è venuta proprio da uno dei padri del Web, dal fisico inglese Tim Berners-Lee, leader del consorzio di standardizzazione W3c 26 . Si chiama Xml (Extensible Markup Language) e sta al vecchio Html come un sofisticato programma informatico sta a un foglio vergato a penna 27 . Prendiamo il caso di un server di e-business. I suoi moduli sono oggetti software, compatibili con i database e le applicazioni aziendali "pregresse", capaci di comunicare l'uno con l'altro e di connettersi tra di loro in vario modo in processi applicativi multipli. Non solo: questi oggetti, tramite la famiglia di standard Xml, devono poter riconoscere e lavorare con altri loro simili sulla rete, in modo tale che due applicazioni di due aziende diverse, per esempio di gestione degli ordini, possano lavorare assieme, scambiandosi in automatico dati e funzioni applicative attraverso i rispettivi portali Web. Ed è qui che Internet, dal basso, in modo poco appariscente ma con migliaia di soggetti attivi, continua a crescere. Proprio perché Xml, tra le sue varie opportunità, consente di creare siti capaci di "capirsi" tra di loro. Almeno quanto basta perché una informazione scritta su una pagina Xml possa essere adattata (per esempio visualizzata) su dispositivi diversi. Oppure una fattura elettronica emessa da un'azienda sia correttamente interpretata, catalogata, analizzata dal software di un'altra azienda. E così via, fino alla formazione di migliaia e migliaia di comunità professionali on-line accomunate da "vocabolari" e intelligenza comune. Un processo solo apparentemente tecnico. Ma ben visibile nella sua portata, su migliaia di consorzi moltiplicatisi proprio durante gli scorsi mesi di crisi, che ha come obbiettivo l'approdo all'intelligenza condivisa del Web. Verso il nuovo paradigma del Web computing che promette, a breve, l'uso più efficiente dei siti internet. Ma che a più lungo termine implica una autentica trasformazione nella natura del software e dei servizi.
La foresta di sigle è piuttosto vasta.
Systems Biology markup language; Darpa agent markup language; telecommunications interchange markup; openphilantrophy exchange... negli ultimi due anni la proliferazione dei linguaggi settoriali basati su Xml è stata massiccia, su una autentica foresta di iniziative che puntano a standardizzare le proprie regole di comunicazione e di transazione. Perché tanto interesse per l'Xml? Semplice: perché tutti (utenti, produttori di software e di servizi piccoli e grandi) hanno da avvantaggiarsi dalla diffusione piena della sua famiglia di standard. La formazione nel corpo del Web di una vasta rete "semantica" è la condizione chiave per il decollo di una nuova industria delle applicazioni, etichettata come "Just in time software", ovvero la possibilità anche per un singolo programmatore di genio di sviluppare la sua soluzione, di pubblicarla sul Web e offrirla come micro-servizio a pagamento. Dove questo modulo (per esempio un programma capace di eseguire comparazioni intelligenti tra varie offerte commerciali) può essere "chiamato" via rete anche da altri moduli-servizi fino a concatenarsi in processi applicativi completi. C'è quindi un preciso incentivo economico. Un tempo il software applicativo le aziende se lo scrivevano anche in casa, dentro reparti informatici affollati di programmatori e brulicanti di tabulati, lunghe liste di Cobol o Fortran che andavano modificate per ogni computer proprietario. Poi venne il software a pacchetto, prodotto all'esterno per i sistemi standard. E quindi Internet con la sua ubiquità, che dalla metà degli anni `90 ha reso possibile eseguire programmi Java, più o meno complessi, ovunque vi sia un navigatore (browser) o un server dotato dell'apposita "macchina virtuale" Java. L'Xml descrive il significato e la funzione del servizio ma anche incorpora il modulo applicativo che può essere scritto in Java o in .Net , ovvero in un linguaggio eseguibile su tutto il Web. E questa prospettiva dei "Web service" è oggi la maggiore frontiera per l'intera industria mondiale del software, dai grandi nomi commerciali fino alle comunità open-source e ai singoli programmatori. Oggi siamo sulla soglia del terzo passo. Contrassegnato come Web computing o, a piacere, come fase dei Web services. Dove la promessa è quella, all'estremo, di non dover nemmeno più investire un euro in software applicativo residente in casa. Ma, semplicemente, di accedere a Internet, scaricare volta per volta i servizi software che la Rete fornisce e pagarli soltanto per il loro utilizzo effettivo. Un sogno? Non tanto, se si pensa che già da un paio d'anni il grosso dell'industria informatica mondiale è impegnata su questa frontiera. Che nomi come Microsoft vi scommettono il proprio futuro a lungo termine, fino a ridisegnare completamente il proprio modello di business sotto il segno della nuova piattaforma software.Net. Che una vasta coalizione, sotto il simbolo di Java, le disputa la supremazia nella nuova fase di Internet, in cui l'intelligenza del software circolerà così come oggi si ramifica il patrimonio informativo del Web. Le previsioni del Gartner Group 29 dicono che al 2007 il Just in time (Jit) software sarà una industria da 20 miliardi di dollari, e prevalentemente concentrata in settori di consumo, quali i servizi per i cellulari, i giochi, la tv interattiva. E anche qui inizialmente conterà solo per lo 0,2% di questi mercati. Ovvero: una partenza sui settori più avanzati della mobilità dove i vantaggi combinati di Xml e del Jit software saranno più evidenti. Per esempio, nelle automobili che al 2005, secondo il Gartner, avranno a bordo per il 75% dispositivi per l'accesso a servizi personalizzati via Web (informazioni localizzate sul traffico, canali informativi su misura e entertainment). Non solo: un'area in cui si assisterà a uno sviluppo più rapido del nuovo software Jit saranno i paesi emergenti, dalla Cina all'America Latina dove il peso dell'infrastruttura esistente è minore. Nella galassia delle imprese occidentali, invece, varrà un percorso diverso. L'ibridazione progressiva di almeno il 50% del software applicativo esistente con gli standard Xml nei prossimi cinque anni. E, allo stesso tempo, la nascita e il primo sviluppo di quelle soluzioni che il Gartner definisce come e-hub (perni applicativi), ovvero server logici Xml in grado di instradare e smistare i messaggi, leggere e tradurre i significati, distribuirli alle applicazioni. Ma anche qui con una crescita graduale: la tecnologia e-hub non supererà, al 2006, i 50 miliardi di dollari. Niente miracoli esplosivi in vista, quindi, nella costruzione dal basso del Web computing. Che però si conferma come la maggiore opportunità aperta oggi nella costruzione di Internet. E' fondamentale però notare come questo processo stia svolgendosi secondo un modello di interazione (competizione e cooperazione) rappresentabile, in gran parte, come un ecosistema di comunità. Dove il W3c ha il ruolo di coordinatore leader della visione e degli standard (comunità tecnica "perno"), quindi le "sottostanti" (per massimo di semplificazione) due aree del software. Da un lato il campo Java (circa 3 milioni di sviluppatori) e dall'altro il campo Microsoft (non solo l'impresa ma anche, e soprattutto, il suo ecosistema di 3-4 milioni di programmatori). Infine il reticolo delle "comunità professionali" interessate a sviluppare linguaggi e vocabolari comuni, scontando dall'approccio Xml vantaggi e benefici concreti (sulla qualità applicativa, la possibilità di reinventare processi interni, i costi del software, l'accesso a servizi professionali più avanzati sulla rete, l'apertura di nuove frontiere verso i consumatori....). Anche in questo caso tutti si attendono (o già fruiscono) di nuovo valore tramite il "gioco Xml": il coordinatore semplicemente perché la sua visione si realizza; i campi industriali perché, sul lato imprese, si genera nuovo business, e su un modello (software Jit) più avanzato, flessibile, dinamico e aperto (per esempio ai mercati emergenti); i partecipanti alle comunità, sia di software libero che proprietario, perché accedono a nuovi livelli di qualificazione professionale, in aree non-mature; gli utenti perché possono già adottare soluzioni Xml relativamente semplici (pagine e documenti in grado di sfruttare i nuovi gradi di libertà resi possibili dal linguaggio), sviluppare applicazioni "ibridate", prepararsi alle nuove piattaforme future.

7 - Le grid
Quali altri giochi ci riserverà l'Internet dei prossimi anni? Impossibile affermarlo oggi, e a tavolino. Ma è anche possibile ipotizzare che ogni nuova tecnologia "abilitante" (o la sinergia tra più tecnologie) determini l'espressione di un suo peculiare "ambiente" per nuovi giochi sociali, produttivi, professionali. Così è stato per la condivisione in rete di archivi e messaggi (di qui le Bbs, le comunità open-source e di standardizzazione, il reticolo dei server scientifici...). Così per il Web informativo e i motori di ricerca (portali). Per il Web e i motori d'asta (E-Bay); per il Web, la multimedialità musicale, il peer-to-peer (Napster e successori). Ed è altrettanto prevedibile che la nuova generazione di software Xml Java-based metterà in moto altri giochi: mercati elettronici evoluti? Nuove comunità professionali? Nuove forme di open-source?. Non è possibile, ovviamente, dare una risposta univoca. Nulla più di un win-win game può apparire a prima vista elusivo, sfuggente, improvviso. Può apparire, ripeto. In realtà vi sono dei criteri anche abbastanza precisi e prevedibili per interpretare e prevedere i giochi a guadagno condiviso, e quindi impostare efficaci politiche di sviluppo della rete e dell'innovazione. Basti qui un ulteriore esempio: quel movimento, che oggi principalmente coinvolge migliaia di scienziati e tecnologi, focalizzato sulla costruzione delle "grid", da molti viste come il prossimo grande passo di Internet. Che cosa è una grid? Fondamentalmente è l'idea, semplice e piuttosto antica nell'informatica, di mettere in comune le risorse di calcolo e di memoria, in modo da raggiungere livelli di potenza, accessibili ad ogni partecipante alla comunità scientifica, altrimenti impossibili. In pratica è un gioco a guadagno condiviso molto semplice, in cui si sviluppa nuovo un super-strumento collettivo dall'integrazione stretta di quelli esistenti. Le tecnologie abilitanti per questo gioco win-win già esistono, e da tempo. In primo luogo le comunicazioni. Oggi "larga banda" è già un termine restrittivo. Velocità di trasmissione dati di un gigabit al secondo su rete locale tecnicamente costano poche centinaia di dollari per nodo e sulla Internet a lunga distanza, con la tecnologia wdm (wavelenght division multipelxing, la scomposizione della luce, sulla fibra ottica, nelle sue varie frequenze spettrali o "colori") si raggiungono velocità di migliaia di gigabit (terabit) su un centinaio di "colori" contemporaneamente trasmessi su una fibra, ciascuna frequenza capace di velocità di trasporto di 2,5 gigabit. E questi colori, o lambda, molto presto diverranno capaci di 40 gigabit ciascuna, in ragione di 200-300 di essi inviabili su singola fibra ottica. Un lambda, ovvero 2,5 gigabit permanenti da Parigi a New York, già oggi è un canale di comunicazione sufficientemente potente (e a basso costo) perché due computer, o sistemi di computer, possano in pratica divenire una cosa sola. Condividendo risorse di elaborazione o capacità di memoria quasi come se fossero fisicamente adiacenti. I computer stessi stanno velocemente incrementando, anche al di là di molte previsioni date per ottimistiche negli anni scorsi, il loro rapporto tra prestazioni e costo. Su tre assi: microprocessori, memorie, software. Basta considerare un normale Pc venduto in negozio: supera il gigahertz (miliardo di cicli al secondo), contiene hard disk che ormai raggiungono il centinaio di gigabyte, può essere pilotato da un sistema operativo evoluto, stabile e a bassissimo costo come è Linux, completo di tutti i protocolli e gli standard di Internet, provati su milioni di connessioni. Da un anno a questa parte, poi, Linux sta esponenzialmente evolvendo verso lo status di ambiente informatico (nella sua accezione estesa) capace di gestire server di fascia alta, quali i cluster (reti "strette" di elaboratori) capaci di erogare potenze di elaborazione prima riservate ai grandi sistemi, di ordini di grandezza più costosi. Gli standard aperti di Internet, Linux e l'open-source rendono possibile l'accesso attivo da parte di tecnologi e di scienziati all'innovazione "diffusa" nelle architetture informatiche. Non esistono più i "santoni" intoccabili del software proprietario, segreto e chiuso. Oggi, per un centro di ricerca, diviene conveniente investire sui sistemi standard (basati su tecnologia Pc) risparmiando il costo (enorme) di grandi supercomputer proprietari per dirottare le proprie risorse risparmiate sulla formazione di ampi laboratori di programmazione, capaci di plasmare Linux e il software open- source secondo le proprie esigenze di ricerca. E queste esigenze di potenza di calcolo oggi crescono a dismisura, sulle frontiere della ricerca fondamentale. Anche oltre le potenze massime ottenibili dai più grandi sistemi centralizzati. Gli esempi sono molteplici. Basti pensare alle enormi basi di dati necessarie per la decodifica del genoma umano e alla loro istantanea necessità di confronto e di analisi. Ai modelli di simulazione meteorologici, nucleari, alle basi di dati astronomiche e astrofisiche. Alla mappatura dell'intero pianeta attraverso le immagini ad alta risoluzione continuamente trasmesse dai satelliti. Alla fisica delle alte energie, ormai di fronte all'enigma del nucleo atomico, dell'interazione forte. E qui il Cern, con il suo progetto Lhc dal 2006 prevede di attivare il suo super-anello superconduttore per studiare le collisioni tra protoni, spaccarlo ad altissima energia, produrre per ogni esperimento decine di petabyte (miliardi di gigabyte) di dati grezzi da elaborare, raffinare, studiare. Soltanto quest'ultimo enorme flusso di dati scientifici corrisponderebbe alla necessità di 200 milioni di Pc contemporaneamente attivi o di dieci telefonate contemporanee di ogni abitante del pianeta. Negli anni scorsi, peraltro, un evento poco noto è avvenuto. Il raggiunto limite del supercalcolo centralizzato. Protagonista involontario è stato il maggiore programma di ricerca lanciato negli Usa dall'amministrazione Clinton. Il progetto Asci, per la simulazione completa di una esplosione nucleare da parte di un sistema informatico. Qui i maggiori centri di ricerca militare Usa (Livermore, Sandia, Pittsburgh) hanno commissionato alle principali industrie le massime configurazioni di supercomputer producibili. Per esempio al Livermore è attivo Asci White, un supersistema parallelo Ibm composto da 252 supercomputer Sp/2 Ibm ciascuno con mille nodi di elaborazione. La sorpresa (per così dire) è stata quella, da parte dei ricercatori, di aver scoperto il limite superiore dei sistemi operativi, in particolare delle più potenti versioni Unix "proprietarie". Oltre queste configurazioni massime, infatti, il software non regge, il sistema non può essere ulteriormente espanso. A meno di non riscrivere parti dell'ambiente operativo stesso. Ma quest'ultimo, coperto da brevetti dei costruttori, resta di loro esclusiva proprietà, quindi con costi e ostacoli difficilmente superabili. Questo sistema di opportunità tecnologiche, di esigenze di calcolo e di vincoli sta così portando l'intera comunità scientifica mondiale verso il gioco a guadagno condiviso delle grid. Tecnicamente una grid è uno strato di software sovrapposto alle architetture esistenti (Internet, Unix e Linux, cluster, server, singole workstation o Pc tutti connessi da canali permanenti a larga banda) che trasforma questa rete di sistemi in un solo sistema di elaborazione o di memoria, completamente trasparente all'utente. La grid, come la rete elettrica da cui mutua il nome, è il progetto di un ambiente in cui l'utente non sa (o non si cura) di "dove" avviene la sua elaborazione o di "dove" i suoi dati vengono memorizzati. Questo lavoro di coordinamento tra i sistemi viene svolto dal middleware. L'utente, nel grid, opera in modo non dissimile da come, anni fa, si lavorava sui computer time-sharing, in cui l'accesso condiviso alle risorse di calcolo era regolato dal sistema centrale. Esistono già dei pacchetti software e delle iniziali implementazioni delle grid. Il più rilevante è Globus, un toolkit sviluppato in ambiente scientifico (Argonne National Laboratory e Università della California del Sud, Marina del Rey) che offre vari servizi: di autenticazione, controllo delle elaborazioni, ottimizzazione delle risorse. Questo toolkit, messo in open-source dai suoi autori (Ian Foster di Argonne e Karl Kesselman di Marina del Rey) è oggi il punto di convergenza anche della principale iniziativa europea, il progetto Datagrid guidato dal Cern e finanziato dalla Ue (quest'ultimo è in realtà il progetto coordinatore di una decina di iniziative spuntate negli scorsi diciotto mesi, in tema di grid, da parte di vari soggetti europei sotto l'ombrello dei fondi di ricerca di Bruxelles). Globus sta velocemente evolvendo e attraendo intorno a sé partner, scientifici come industriali. Tra questo ultimi Ibm, Compaq, Sun, che nello scorso autunno lo hanno adottato per lo sviluppo di proprie soluzioni di grid orientate al mondo dell'industria e dell'internet in senso lato. Notevole è anche il fatto che Ibm abbia messo al lavoro, su Globus, una consistente quantità di tecnologi. E che l'ambiente stia velocemente evolvendo (nella sua versione 3) verso una fusione con l'altro grande gioco win-win in essere: quello della famiglia Xml e dei web services (di veda il paragrafo precedente). La visione che sta dietro a questa convergenza è già delineabile oggi: l'obbiettivo non è solo quello di disporre, entro pochi anni, di una infrastruttura computazionale e di memoria "globale". Ma sopra di questa, tramite gli standard dei Web services, di un "macro-ambiente" di programmazione e di servizi uniformemente aperto, capace di lavorare con agilità su tutto il sistema delle grid. Che cosa significa? Che, in altri termini, si sta preparando la base per l'esplosione di una nuova serie di giochi a guadagno condiviso: la comunità scientifica può estendere e equalizzare le opportunità di ricerca e di accesso alle frontiere anche ai ricercatori più lontani, con un effetto dirompente sulla sua produttività intellettuale; le risorse di calcolo aumentano enormemente fino a comprendere, in teoria, l'intera rete Internet globale: il computer connesso può ulteriormente abbassare il suo costo anche per una piccola impresa o una famiglia, semprechè partecipi a una grid che remuneri, in qualche misura, il suo utilizzo; l'ambiente delle grid può generare nuove comunità anche fuori dal mondo scientifico (quelle che oggi chiamiamo reti peer-to-peer). Esempi come Napster, Gnutella e Freenet sono solo i primi vagiti di una generazione di comunità ben più solide che potranno spuntare sulla scia delle grid scientifiche; il produttore di un determinato web service può vendere liberamente su tutta Internet la sua soluzione e aggregarvi intorno una comunità; si possono creare "database globali" e connessi strumenti d'uso universali intorno a ogni comunità professionale. Per esempio un "planetario globale" (Nasa), un archivio televisivo globale, un "mappamondo globale" (Eartvie wer.com, per riferimento) oppure un archivio globale delle radiografie del seno (mammografie), progetto recentemente lanciato dalla Ibm con una Università americana per consentire ai medici il confronto in tempo reale delle proprie radiografie con quelle contenute su questa specifica grid; possono nascere innumerevoli "virtual organisations" centrate intorno a catene applicative, di servizi e di database situate sulle grid. Valgono un paio di osservazioni in conclusione di questo paragrafo. Il caso delle grid è emblematico per almeno un paio di motivi. In primo luogo perché conferma l'osservazione fatta sia nel caso dell'open-source che di E-bay. Ovvero la constatazione che un gioco a guadagno condiviso si sprigiona innanzitutto laddove esiste una possibilità attraente ma NON RISOLVIBILE ALTRIMENTI che attraverso l'uso innovativo di Internet. In questo caso l'opportunità, anzi la necessità impellente per la ricerca, è la massiccia aggregazione di "comunità computative" (in realtà comunità scientifiche di rete) in grado di affrontare i problemi analitici e conoscitivi dell'attuale frontiera. Siamo quindi di fronte a una innovazione collettiva resa necessaria dall'USO. Dalla sopravvivenza stessa della "noosfera" scientifica. La seconda considerazione è che, dopo la sbornia capitalistica della New Economy, la prospettiva delle grid nasce ancora una volta dalla "noosfera" guida di Internet. Dalla comunità scientifica. Non è un caso che i progetti e le idee di Foster e Kesselman, snobbate dall'industria negli anni caldi della "corsa all'oro", oggi vengano portate sugli allori dai big dell'informatica. Si ripete la stessa vicenda dei primi anni 90 quando Tim Berners Lee inventò l'http-html per visualizzare e condividere dati scientifici su Internet e solo dopo alcuni anni vide il Web divenire lo standard principale della rete. Internet, quindi, si conferma come un sistema di "noosfere" e di giochi a guadagno condiviso. In cui l'industria è solo uno dei soggetti, e nemmeno quello guida.

8 - Conclusioni
Per sommi capi abbiamo ripercorso i punti chiave dello sviluppo di Internet alla luce di un filo interpretativo. Questo filo può essere una bussola anche per il futuro: i modelli di giochi a guadagno condiviso possono aiutarci a cogliere il valore di molte iniziative su Internet, anche quelle che partono piccole e modeste. Ma di più: questa interpretazione può essere la chiave per una efficace politica per l'innovazione, sia in campo tecnologico che culturale. Vediamo come: sia nel caso della costruzione della prima Internet, che del Pc, dell'open-source e delle comunità di rete a ben riflettere si osserva una regolarità. Questi processi iniziano come "giochi a guadagno condiviso" sul piano puramente sociale, scientifico, esplorativo-amatoriale, tecnico, culturale. Poi, e con i loro tempi (veloci o lenti che siano) cominciano a "solidificarsi" (anche) in nuove industrie, che generano valore aggiunto economico, occupazione, sinergia ulteriore con la crescita dei giochi stessi. La particolarità di Internet, che la differenzia dai precedenti media, sta nella sua capacità intrinseca di mantenere contemporaneamente presenti i giochi win-win "sociali" con l'emergenza industriale successiva. E di farli arricchire a vicenda. Internet è quindi un "incubatore sociale" e allo stesso tempo un terreno di industrializzazione. Quindi: mantenere attivo un "contesto sociale" per la generazione continua di nuovi giochi win-win, secondo questa prospettiva, è fondamentale per generare innovazione, anche economica e industriale. Si possono però indicare, dalle esperienze osservate, alcuni caratteri tipici dei giochi a guadagno condiviso.

Valore d'uso. Essi hanno rilevanza con la vita dei partecipanti. La natura intrinseca di questi giochi sta nella creazione di un valore effettivamente percepito attraverso l'interazione in rete. Anzi, possibile soltanto attraverso l'interazione in rete. E tale valore è tanto più grande quanto l'interazione più estesa. Inoltre questo valore deve essere comunicabile, perché il gioco si autoestenda. Per esempio la qualità del software open-source, e la sua disponibilità è il miglior "ambasciatore" delle comunità di rete. Altrettanto evidente, se vogliamo, è l'incentivo intrinseco a E-Bay: l'estensione della propria personalità attraverso un collezionismo personalizzato, molto spesso ad alto contenuto di ricerca culturale individuale. E così per il movimento verso le grid: sono l'unica soluzione realistica, oggi, alle esigenze di calcolo della frontiera scientifica.

Progetto (o progetti).
Il secondo termine che è estremamente frequente nei giochi a guadagno condiviso di rete è il progetto, o il sistema dei progetti. Il progetto è qualcosa di esistente, comunicabile e attraente, ma è anche qualcosa di non finito, di evolutivo, di aperto. E' abilitante, produttivo di valore, ed è dominio di possibilità per l'innesco di altri progetti. Così è anche per comunità locali, come insegnano sette anni di esperienza sulla Rete Civica di Milano (Rcm), punto di coalescenza di numerosi progetti individuali e collettivi: alcuni sfociati, come è stato il caso di "Scopri il Tesoro", gioco di rete educativo sviluppato da un gruppo di insegnanti, in un fenomeno di auto-diffusione spontaneo (che non ha avuto bisogno di alcuna azione di marketing) su base nazionale italiana.

Viralità.
La consistenza del valore ottenuto dai partecipanti al gioco è una potente spinta alla comunicazione di questo ad altri potenziali partecipanti. I mezzi e le forme di comunicazione sono però cruciali. Internet, con la sua crescita commerciale e di massa, è rapidamente diventata uno spazio di informazione sovrabbondante, in cui la risorsa attenzione diviene scarsa. Per questo un gioco win-win efficace ha necessità oggi di canali di comunicazione appropriati per la sua viralità. Di qui il ruolo chiave delle comunità, spazi verticali (anche di multiple verticalità) di comunicazione tra soggetti con interessi simili, in grado di valutare e percepire adeguatamente il valore che il gioco win-win propone, e di decidere una autentica adesione al gioco. Così è per le comunità amatoriali che decidono di servirsi di E-Bay, per i siti di discussione e di progetto di programmatori e di informatici che possono valutare le attività open-source. Esempi anche di grandi dimensioni, qui, non mancano. Per esempio "Slashdot.org" , sito web di informazione e di discussione, è negli ultimi anni divenuto uno dei maggiori centri di aggregazione di Internet non solo sull'open-source, ma anche sull'informazione "alternativa" in tema di tecnologie dell'informazione. Famose, ormai, sono le sue campagne spontanee contro le iniziative (ritenute pericolosamente monopolistiche) di Microsoft, che hanno mosso anche alcuni passi (in corso) del Dipartimento della Giustizia Usa in termini di indagini sui prodotti, servizi e strategie dell'azienda di Redmond (per esempio su Passport, il sistema di accesso ai servizi Internet diffuso da Microsoft che l'azienda ha dovuto parzialmente mettere in open-source, e modificarne la licenza d'uso, appunto per le critiche venute in prima battuta proprio dai partecipanti a Slashdot). Ma non solo: vale anche il caso di SourceForge.org, sito che ospita ben 30mila progetti open- source avviati spontaneamente dalle comunità di programmatori. Questo sito, avvisto a sua volta da aziende editoriali e di servizi sul software open-source, è stato progettato fin dall'inizio per la viralità. Ovvero per dare la massima trasparenza ai progetti, ben documentati, persino valutati fino al rating dei singoli partecipanti (da parte degli altri collaboratori), con un effetto attrattivo che tuttora perdura, nonostante la crisi della New Economy. La viralità quindi ha sì una valenza spontanea, ma anche spazi, oggi abbastanza discernibili, di organizzazione e di ulteriore valorizzazione. Che convergono sulla nozione di comunità, comunità abilitata dalle tecnologie di informazione e di comunicazione proprie di Internet.

Stabilità. Il caso di E-Bay è al proposito illuminante. Il gioco a guadagno condiviso deve essere gioco a guadagno condiviso per TUTTI i suoi partecipanti. Per gli utenti-aderenti al gioco, secondo le "facce" delineate sopra, ma anche per il gestore. Che deve ricavare dal gioco stesso le risorse, economiche e umane, per far persistere nel tempo e per aiutare la replicazione del gioco stesso. Qui entriamo nel nocciolo del dibattito sulla questione "dot.com": risorse ricavate direttamente o indirettamente dal gioco stesso? L'Internet degli anni `94-2000 ha in assoluta prevalenza scelto la seconda strada, rivelatasi però instabile. Per esempio Yahoo, come si è argomentato in precedenza, ha sviluppato un proprio modello simile a quello della televisione commerciale (ricavi attraverso le entrate pubblicitarie attratte dall'audience di massa). Che però ha rivelato la sua fragilità di fronte alla "disillusione pubblicitaria" sui banner indifferenziati e sull'effetto demoltiplicativo seguito alla crisi delle dot.com (tra i maggiori investitori pubblicitari sul portale). La progettazione di iniziative su Internet basate su giochi a guadagno condiviso, perché risponda a requisiti di prevedibile stabilità, deve pertanto sviluppare modelli di acquisizione di risorse diversi, anche complementari all'indiretto, ma comunque capaci di sostenere le iniziative. E-Bay, con la sua "sacra" commissione sulle transazioni che avvengono nel sito è una indicazione. Un modello "forte" anche se non replicabile in tutti i casi (non sempre un "gioco" si basa sugli scambi monetariamente misurabili). Ma lo è anche il business di servizi che ruota intorno all'open- source e che consente, per esempio, ai promotori di SourceForge, di Apache e di Slashdot di mantenere e sviluppare le proprie iniziative di rete. La questione della stabilità dei giochi a guadagno condiviso è comunque aperta. Non mi pare vi siano soluzioni univoche valide in ogni caso. Resta il fatto che, nella progettazione di una iniziativa di rete, questo elemento oggi va assunto fin dall'inizio come centrale. Come lezione derivante dall'esperienza della precedente fase di boom e rapido declino dei primi modelli dot.com.

Segnali.
Abbiamo visto come sia Amazon che E-bay e Yahoo (ma anche il Pc, Linux e l'open- source in generale, e il Grid) siano nati, in quanto giochi a guadagno condiviso, da esigenze sociali latenti. Rese soddisfacibili da nuove tecnologie e da nuove idee di utilizzo di queste ultime.L'esistenza di queste esigenze latenti (esplorazione personale del futuro-Pc, ambiente software evoluto, gratuito e cooperativo, accesso "informato" alla cultura, scambio personalizzante-globale, orientamento gradevole nell'oceano Internet....) può essere percepito e anticipato dai segnali (anche deboli) che provengono dalla rete stessa. E quindi divenire terreno di sperimentazione e di avvio di nuovi giochi a guadagno condiviso. Per questo è fondamentale, per chi voglia davvero fare politica per l'innovazione e lo sviluppo, disporre di luoghi in cui questi segnali si producono e, soprattutto, possano essere letti, interpretati, tradotti in iniziative. Questi luoghi, come credo appaia chiaramente dall'analisi sviluppata, sono le comunità.

8.1 - Il valore strategico di Virtuose ( http://www.virtuose.it/)
L'analisi delineata nelle precedenti sezioni ha una conseguenza significativa. Abbiamo visto come sia le comunità virtuali di utenti che le comunità "produttive" dell'open-source si fondino, nel loro sviluppo, su "giochi a guadagno condiviso". Una piattaforma pubblica, per comunità civiche basate su software open-source può avviare, per la prima volta, la messa in sinergia dei due grandi "giochi" tra di loro. Il progetto Virtuose può infatti dare luogo a un duplice gioco a guadagno condiviso. Il primo sulla fruizione stessa, e sull'evoluzione della community per cui il software viene sviluppato. E il secondo nello sviluppo della piattaforma software sottostante, secondo il modello open-source. Questo doppio gioco innescabile e potenzialmente sinergico tra "comunità di utenti" e "comunità di sviluppatori" è ancora una frontiera inesplorata nella galassia dell'Ict. Ci troviamo quindi di fronte a un progetto d'avanguardia e ad elevato contenuto di ricerca (applicativa), che non va assolutamente letto soltanto negli usuali termini di software open-source meno costoso, più stabile, più sicuro, più facilmente diffondibile (tutti vantaggi tecnici peraltro veri, confermati dall'esperienza quotidiana di milioni di utenti). Il nuovo valore aggiunto di Virtuose sta nella possibile messa in sinergia dei due "giochi a guadagno condiviso". Una ipotesi di modello è così rappresentabile: la "noosfera" della comunità utente che elabora di continuo, sulla base propria esperienza, modalità d'uso e esplorazione multipla di domini aggiuntivi di possibilità, "richieste" sull'evoluzione stessa della piattaforma software su cui la comunità virtuale opera. Dall'altro lato la "noosfera" degli sviluppatori-ricercatori (di qui l'importanza di un laboratorio universitario, costantemente alimentato da nuovi cervelli) che interagisce con queste esigenze, le filtra in progetti ulteriori, li "assembla" (con software open- source già esistente) e/o li "crea" sviluppando nuove soluzioni. Che possono essere ulteriormente diffuse nella duplice comunità esterna, con ulteriori retroazioni positive su ambedue i livelli.

Torna a.....parte1