Giuseppe Caravita (www.airec.net)
Estratto da Internet come gioco a guadagno condiviso - Parti 1 | 2 | 3 | 4 | 5

4 - Le comunità produttive dell'open-source

Dalla cultura tecnica "aperta" che ha sempre nutrito lo sviluppo di Internet erompe negli anni
`90, in modo visibile e auto-alimentato, il fenomeno dell'open-source. Il caso più noto è quello di Linux. Erede diretto della cultura software sviluppatasi negli anni `70 e `80 intorno a Unix. Nel 1969 Dennis Ritchie e Ken Thomson dei Bell Laboratories sviluppano questo sistema operativo, il primo concepito fin dall'inizio per operare su ogni tipo di computer, in quanto scritto in un linguaggio di alto livello, il C che, con il suo compilatore, ne assicura l'indipendenza dall'hardware. Il compilatore traduce le istruzioni del linguaggio in comandi macchina, a seconda della sua specifica versione per ciascuna architettura hardware.

Gli anni successivi vedono Unix, come il principale "laboratorio" di sviluppo del software per l'intera comunità internazionale della computer science. I Bell Laboratories e l'At&T, impegnati il primo nella ricerca di base e la seconda nelle telecomunicazioni, lo ritengono uno strumento non immediatamente strategico per le proprie attività, ma anzi ne favoriscono la diffusione all'esterno, in particolare verso università e altri centri di ricerca, in modo da avvantaggiarsi dagli arricchimenti ulteriori apportati dalla nascente comunità Unix. La licenza di Unix (sistema di proprietà At&T) è in questa prima fase nei fatti gratuita; l'ambiente viene distribuito senza restrizioni, compreso il codice sorgente e i compilatori (ovvero gli strumenti per mettere le mani nel codice e modificarlo).
E' il primo ambiente informatico completo "aperto". Lungo gli anni `70 e primi anni `80 Unix diviene così il centro della prima comunità open-source (anche se, di fatto, priva di un suo reale e unico centro di coordinamento e di certificazione del software). Viene portato su vari elaboratori (dai mainframe ai minicomputer fino alle nuove workstation e ai Pc), viene costantemente arricchito degli standard che via via si formano lungo l'evoluzione tecnologica di Internet. Esce, già nei primi anni `80, dal mondo esclusivo dei tecnologi per fare il suo ingresso nel business, come piattaforma chiave per le applicazioni tecnico-scientifiche, di progettazione e poi anche gestionali.

Con questo successo, però, cambia natura. Unix è divenuto un affare di vasta portata. E At&T lo trasforma in prodotto a pagamento (come, del resto, anche gli altri costruttori vecchi e nuovi impegnati sull'ambiente, che ne sviluppano ciascuno proprie versioni parzialmente incompatibili tra di loro). Ne impone la proprietarietà, escludendo ogni incentivo per gli hackers universitari alla sua evoluzione "comunitaria".

Nella sostanza, dai primi anni `80, si genera un vuoto. Non esiste più, nei fatti, l'ambiente avanzato di libero accesso, e condiviso, su cui sviluppare ulteriormente quella cultura di "costruzione comune" che già aveva prodotto, nel decennio precedente, uno spettacolare avanzamento nel settore. La comunità Unix ha ormai basi solide, regole interne di funzionamento efficienti, persino una propria "ideologia" che trascende gerarchie accademiche o aziendali, ma che si fonda solo sulla qualità del software e delle soluzioni, in un contesto di cooperazione tecnica aperta a qualsiasi contributo (semprechè validato dal funzionamento effettivo sul sistema). Ma il perno è scomparso: o ci si adegua alla "proprietarizzazione" di Unix oppure si chiude quel reticolo di esperienze e di cooperazioni tanto fruttuoso, in puro spirito hacker.

Ricercatori come Richard Stallman, del laboratorio di Intelligenza artificiale del Mit, esplicitano in modo radicale il problema. Con la "chiusura" commerciale di Unix manca la libertà del software. Di qui l'avvio nel 1985 dell'organizzazione Free Software Foundation e del progetto Gnu (che non a caso si chiama ricorsivamente, "Gnu is Not Unix", con l'obbiettivo di uno Unix "libero", sul modello anni `70). Sulla genesi e la vicenda della Free Software Foundation si veda: www.gnu.org. In dieci anni Stallman in Gnu produce, via cooperazione in rete, un gran numero di programmi: in pratica gran parte dell'ambiente Unix stesso (compilatori in C, editor, utilities...) salvo il "nocciolo". Che viene spontaneamente trovato proprio su Internet, intorno a un ancora rudimentale ambiente (di stretta derivazione Unix) sviluppato da uno studente finlandese, Tovarld Linus, per i personal computer basati su processore Intel. E' l'inizio della traiettoria di Linux, tuttora la principale iniziativa del software libero. Oggi Linux è il secondo ambiente informatico mondiale dopo la famiglia Microsoft. La sua comunità è cresciuta potentemente negli scorsi dieci anni. Da poche decine di adepti (escludendo l'area Gnu-Fsf) a 3-4mila programmatori stabilmente attivi sul solo "nocciolo" (stima del 1999) e oltre 30mila "contributori" su specifici parti e moduli del sistema. Con centinaia di aziende che "editano", distribuiscono e soprattutto sviluppano attività di servizio su questa piattaforma. Non solo: buona parte del successo di Linux, e della sua crescente diffusione, è spiegata dalla
formazione, sulla sua scia, di una più vasta serie di comunità open-source sulle soluzioni applicative. In primo luogo la comunità Apache, che dai primi anni `90, ha diffuso il suo server Web su oltre il 60% dei siti internet oggi in funzione. Non solo: la comunità Apache ha nei fatti determinato il successo del linguaggio e dell'ambiente Java, integrando le sue applicazioni modulari nei servizi del server Web (servlets), dopo l'insuccesso dei primi software Java, invece inefficientemente diretti ai client su Pc (applets). Oggi questa dei "servlet" è la principale frontiera software di Internet, su cui si giocano il futuro giganti come Ibm e Microsoft. Dove circa 3 milioni di programmatori nell'area Java si contrappongono ad altrettanti nel campo Microsoft, sull'obbiettivo di rendere questa frontiera dei
servizi software facili da usare (come è il Web) l'autentico rilancio della New Economy.

Insomma: l'open-source, il software libero, con il suo grande "gioco a guadagno condiviso" è oggi nei fatti una delle grandi guide creative del settore ICT. Così come la costruzione di Internet è avvenuta attraverso lo sviluppo di standard aperti in un processo comunitario e cooperativo. Di quale natura è questo grande gioco a somma positiva? I suoi capisaldi-incentivi, all'osso, sono semplici: accesso, uso, qualificazione "virale".

Accesso: Linux e Apache sono ambienti totalmente accessibili, sull'identico modello esplorativo che ha generato la prima diffusione del Pc. Questa loro accessibilità ne ha fatto i beniamini nelle università e tra gli studenti. Sono al contempo strumenti didattici e auto-didattici "profondi" e terreni aperti per sperimentazioni libere. Dal punto di vista economico i software open-source, con il loro prezzo di accesso minimo (o persino gratuito) accentuano ulteriormente il trend inaugurato vent'anni fa da Microsoft e altri sul software per Pc: costi bassi, fortissime economie di scala ("rendimenti crescenti" secondo gli economisti), alta redditività per chi produce il software (nel caso dell'open-source per chi lo "edita", lo "profila", vi sviluppa servizi e brand), retroazioni positive, in definitiva, sull'ulteriore capacità competitiva di allargamento del mercato. Il "prezzo zero" di accesso del software open-source è quindi uno dei principali incentivi all'auto- sviluppo del modello stesso.

Uso: Linux e Apache sono strumenti operativi fortemente utilizzati nelle iniziative (profit e non) su Internet. Coloro che li gestiscono hanno interesse a un continuo miglioramento dei sistemi, e quindi al massimo scambio di informazioni e di soluzioni incrementali. Di qui la continua rimessa in circolo dei "miglioramenti" all'interno di queste comunità apprenditive-esploranti.
E' molto difficile stimare con precisione la dimensione quantitativa di tutto ciò che ruota intorno a Linux e all'open-source, data la pluralità di canali, gratuiti e non, ufficiali e meno, di distribuzione del software. Linux Counter (http://counter.li.org/) avanza una stima di massima di diciotto milioni di utenti, sulla base di un sondaggio permamente, ma molto grossolano, in rete. Dove però non vengono eliminate duplicazioni (doppie
registrazioni sotto differenti email...) e utenti registrati che però poi hanno smesso di utilizzare Linux. Il dato più certo proviene da Netcraft che al dicembre 2001 rileva su 11 milioni di siti Web attivi una quota del 63,34% relativa a tecnologia Apache (in gran maggioranza connessa a Linux) mentre i siti a tecnologia Microsoft seguono con il 26,62% (http://www.netcraft.com/survey/). Il restante 10% si distribuisce su altre piattaforme (i-Planet, Zeus, Ibm...). Queste cifre si accompagnano ai 31.680 progetti open-source attivi su Sourceforge (http://sourceforge.net/) con 325mila utenti registrati (si veda www.apache.org)


Qualificazione "virale": chi "apprende" l'open-source ha un suo preciso modello di incentivo. Chi riesce a produrre un componente o una soluzione di successo che va sulle versioni "ufficiali" degli ambienti open-source ipso facto diviene un "nome" nelle comunità, e questa notorietà-qualificazione si amplifica viralmente con la diffusione delle piattaforme. Questo incentivo "immateriale" della "firma" è uno dei meccanismi più potenti nell'intero ambiente del "gioco". Conquistare questa posizione però richiede competenza e soluzioni provate e avanzate. Il risultato è la formazione, intorno ai "componenti" dell'ambiente, di sottocomunità a leadership riconosciuta. Che auto-promuove quindi la qualità del capitale uma no che si impegna dentro comunità a
fortissimo contenuto meritocratico (che operano su dinamiche interpersonali di rete basate sulla dimostrata competenza dei partecipanti).

Tutte e tre queste dinamiche, nel linguaggio degli economisti, possono essere etichettate sotto il termine di "esternalità di rete"; le comunità in generale, e le comunità open-source in particolare, fondano la propria dinamicità su tali effetti, che nello specifico si manifestano sotto la forma delle tre polarità citate.

Va infine evidenziato un quarto elemento, comune a tutta l'alta tecnologia, in primo luogo vista dal lato di chi la produce e la gestisce: l'effetto "lock-in" (di "imprigionamento") derivante dalla complessità della tecnologia stessa. In estrema sintesi è la conseguenza, visibile già negli anni `60 e `70 dominati dalla grande informatica proprietaria, degli elevati costi di apprendimento (più che di investimento fisico in infrastrutture) connessi ad ogni piattaforma informatica complessa. Questi costi di apprendimento sono tanto più evidenti, su base individuale e d'impresa, nello specifico delle piattaforme software. Di qui l'effetto "lock-in" che ha generato la posizione dominante di Microsoft; il lock-in che ha permesso alla Apple di poter gestire una strategia di nicchia (grafica) sulla sua piattaforma Macintosh, consentendole un successivo rilancio. E l'azione di questo effetto, strutturale nell'informatica complessa, nella stabilizzazione e nella permanenza delle comunità open-source.