4 - Le comunità produttive dell'open-source
Dalla cultura tecnica "aperta" che ha sempre nutrito lo sviluppo di
Internet erompe negli anni
`90, in modo visibile e auto-alimentato, il fenomeno dell'open-source.
Il caso più noto è quello di Linux. Erede diretto della cultura software
sviluppatasi negli anni `70 e `80 intorno a Unix. Nel 1969 Dennis
Ritchie e Ken Thomson dei Bell Laboratories sviluppano questo sistema
operativo, il primo concepito fin dall'inizio per operare su ogni
tipo di computer, in quanto scritto in un linguaggio di alto livello,
il C che, con il suo compilatore, ne assicura l'indipendenza dall'hardware.
Il compilatore traduce le istruzioni del linguaggio in comandi macchina,
a seconda della sua specifica versione per ciascuna architettura hardware.
Gli anni successivi vedono Unix, come il principale "laboratorio"
di sviluppo del software per l'intera comunità internazionale della
computer science. I Bell Laboratories e l'At&T, impegnati il primo
nella ricerca di base e la seconda nelle telecomunicazioni, lo ritengono
uno strumento non immediatamente strategico per le proprie attività,
ma anzi ne favoriscono la diffusione all'esterno, in particolare verso
università e altri centri di ricerca, in modo da avvantaggiarsi dagli
arricchimenti ulteriori apportati dalla nascente comunità Unix. La
licenza di Unix (sistema di proprietà At&T) è in questa prima
fase nei fatti gratuita; l'ambiente viene distribuito senza restrizioni,
compreso il codice sorgente e i compilatori (ovvero gli strumenti
per mettere le mani nel codice e modificarlo).
E' il primo ambiente informatico completo "aperto". Lungo gli anni
`70 e primi anni `80 Unix diviene così il centro della prima comunità
open-source (anche se, di fatto, priva di un suo reale e unico centro
di coordinamento e di certificazione del software). Viene portato
su vari elaboratori (dai mainframe ai minicomputer fino alle nuove
workstation e ai Pc), viene costantemente arricchito degli standard
che via via si formano lungo l'evoluzione tecnologica di Internet.
Esce, già nei primi anni `80, dal mondo esclusivo dei tecnologi per
fare il suo ingresso nel business, come piattaforma chiave per le
applicazioni tecnico-scientifiche, di progettazione e poi anche gestionali.
Con questo successo, però, cambia natura. Unix è divenuto un affare
di vasta portata. E At&T lo trasforma in prodotto a pagamento
(come, del resto, anche gli altri costruttori vecchi e nuovi impegnati
sull'ambiente, che ne sviluppano ciascuno proprie versioni parzialmente
incompatibili tra di loro). Ne impone la proprietarietà, escludendo
ogni incentivo per gli hackers universitari alla sua evoluzione "comunitaria".
Nella sostanza, dai primi anni `80, si genera un vuoto. Non esiste
più, nei fatti, l'ambiente avanzato di libero accesso, e condiviso,
su cui sviluppare ulteriormente quella cultura di "costruzione comune"
che già aveva prodotto, nel decennio precedente, uno spettacolare
avanzamento nel settore. La comunità Unix ha ormai basi solide, regole
interne di funzionamento efficienti, persino una propria "ideologia"
che trascende gerarchie accademiche o aziendali, ma che si fonda solo
sulla qualità del software e delle soluzioni, in un contesto di cooperazione
tecnica aperta a qualsiasi contributo (semprechè validato dal funzionamento
effettivo sul sistema). Ma il perno è scomparso: o ci si adegua alla
"proprietarizzazione" di Unix oppure si chiude quel reticolo di esperienze
e di cooperazioni tanto fruttuoso, in puro spirito hacker.
Ricercatori come Richard Stallman, del laboratorio di Intelligenza
artificiale del Mit, esplicitano in modo radicale il problema. Con
la "chiusura" commerciale di Unix manca la libertà del software. Di
qui l'avvio nel 1985 dell'organizzazione Free Software Foundation
e del progetto Gnu (che non a caso si chiama ricorsivamente, "Gnu
is Not Unix", con l'obbiettivo di uno Unix "libero", sul modello anni
`70). Sulla genesi e la vicenda della Free Software Foundation si
veda: www.gnu.org. In dieci anni
Stallman in Gnu produce, via cooperazione in rete, un gran numero
di programmi: in pratica gran parte dell'ambiente Unix stesso (compilatori
in C, editor, utilities...) salvo il "nocciolo". Che viene spontaneamente
trovato proprio su Internet, intorno a un ancora rudimentale ambiente
(di stretta derivazione Unix) sviluppato da uno studente finlandese,
Tovarld Linus, per i personal computer basati su processore Intel.
E' l'inizio della traiettoria di Linux, tuttora la principale iniziativa
del software libero. Oggi Linux è il secondo ambiente informatico
mondiale dopo la famiglia Microsoft. La sua comunità è cresciuta potentemente
negli scorsi dieci anni. Da poche decine di adepti (escludendo l'area
Gnu-Fsf) a 3-4mila programmatori stabilmente attivi sul solo "nocciolo"
(stima del 1999) e oltre 30mila "contributori" su specifici parti
e moduli del sistema. Con centinaia di aziende che "editano", distribuiscono
e soprattutto sviluppano attività di servizio su questa piattaforma.
Non solo: buona parte del successo di Linux, e della sua crescente
diffusione, è spiegata dalla
formazione, sulla sua scia, di una più vasta serie di comunità open-source
sulle soluzioni applicative. In primo luogo la comunità Apache, che
dai primi anni `90, ha diffuso il suo server Web su oltre il 60% dei
siti internet oggi in funzione. Non solo: la comunità Apache ha nei
fatti determinato il successo del linguaggio e dell'ambiente Java,
integrando le sue applicazioni modulari nei servizi del server Web
(servlets), dopo l'insuccesso dei primi software Java, invece inefficientemente
diretti ai client su Pc (applets). Oggi questa dei "servlet" è la
principale frontiera software di Internet, su cui si giocano il futuro
giganti come Ibm e Microsoft. Dove circa 3 milioni di programmatori
nell'area Java si contrappongono ad altrettanti nel campo Microsoft,
sull'obbiettivo di rendere questa frontiera dei
servizi software facili da usare (come è il Web) l'autentico rilancio
della New Economy.
Insomma: l'open-source, il software libero, con il suo grande "gioco
a guadagno condiviso" è oggi nei fatti una delle grandi guide creative
del settore ICT. Così come la costruzione di Internet è avvenuta attraverso
lo sviluppo di standard aperti in un processo comunitario e cooperativo.
Di quale natura è questo grande gioco a somma positiva? I suoi capisaldi-incentivi,
all'osso, sono semplici: accesso, uso, qualificazione "virale".
Accesso: Linux e Apache sono ambienti totalmente accessibili,
sull'identico modello esplorativo che ha generato la prima diffusione
del Pc. Questa loro accessibilità ne ha fatto i beniamini nelle università
e tra gli studenti. Sono al contempo strumenti didattici e auto-didattici
"profondi" e terreni aperti per sperimentazioni libere. Dal punto
di vista economico i software open-source, con il loro prezzo di accesso
minimo (o persino gratuito) accentuano ulteriormente il trend inaugurato
vent'anni fa da Microsoft e altri sul software per Pc: costi bassi,
fortissime economie di scala ("rendimenti crescenti" secondo gli economisti),
alta redditività per chi produce il software (nel caso dell'open-source
per chi lo "edita", lo "profila", vi sviluppa servizi e brand), retroazioni
positive, in definitiva, sull'ulteriore capacità competitiva di allargamento
del mercato. Il "prezzo zero" di accesso del software open-source
è quindi uno dei principali incentivi all'auto- sviluppo del modello
stesso.
Uso: Linux e Apache sono strumenti operativi fortemente utilizzati
nelle iniziative (profit e non) su Internet. Coloro che li gestiscono
hanno interesse a un continuo miglioramento dei sistemi, e quindi
al massimo scambio di informazioni e di soluzioni incrementali. Di
qui la continua rimessa in circolo dei "miglioramenti" all'interno
di queste comunità apprenditive-esploranti.
E' molto difficile stimare con precisione la dimensione quantitativa
di tutto ciò che ruota intorno a Linux e all'open-source, data la
pluralità di canali, gratuiti e non, ufficiali e meno, di distribuzione
del software. Linux Counter (http://counter.li.org/)
avanza una stima di massima di diciotto milioni di utenti, sulla base
di un sondaggio permamente, ma molto grossolano, in rete. Dove però
non vengono eliminate duplicazioni (doppie
registrazioni sotto differenti email...) e utenti registrati che però
poi hanno smesso di utilizzare Linux. Il dato più certo proviene da
Netcraft che al dicembre 2001 rileva su 11 milioni di siti Web attivi
una quota del 63,34% relativa a tecnologia Apache (in gran maggioranza
connessa a Linux) mentre i siti a tecnologia Microsoft seguono con
il 26,62% (http://www.netcraft.com/survey/).
Il restante 10% si distribuisce su altre piattaforme (i-Planet, Zeus,
Ibm...). Queste cifre si accompagnano ai 31.680 progetti open-source
attivi su Sourceforge (http://sourceforge.net/)
con 325mila utenti registrati (si veda www.apache.org)
Qualificazione "virale": chi "apprende" l'open-source ha un
suo preciso modello di incentivo. Chi riesce a produrre un componente
o una soluzione di successo che va sulle versioni "ufficiali" degli
ambienti open-source ipso facto diviene un "nome" nelle comunità,
e questa notorietà-qualificazione si amplifica viralmente con la diffusione
delle piattaforme. Questo incentivo "immateriale" della "firma" è
uno dei meccanismi più potenti nell'intero ambiente del "gioco". Conquistare
questa posizione però richiede competenza e soluzioni provate e avanzate.
Il risultato è la formazione, intorno ai "componenti" dell'ambiente,
di sottocomunità a leadership riconosciuta. Che auto-promuove quindi
la qualità del capitale uma no che si impegna dentro comunità a
fortissimo contenuto meritocratico (che operano su dinamiche interpersonali
di rete basate sulla dimostrata competenza dei partecipanti).
Tutte e tre queste dinamiche, nel linguaggio degli economisti, possono
essere etichettate sotto il termine di "esternalità di rete"; le comunità
in generale, e le comunità open-source in particolare, fondano la
propria dinamicità su tali effetti, che nello specifico si manifestano
sotto la forma delle tre polarità citate.
Va infine evidenziato un quarto elemento, comune a tutta l'alta tecnologia,
in primo luogo vista dal lato di chi la produce e la gestisce: l'effetto
"lock-in" (di "imprigionamento") derivante dalla complessità della
tecnologia stessa. In estrema sintesi è la conseguenza, visibile già
negli anni `60 e `70 dominati dalla grande informatica proprietaria,
degli elevati costi di apprendimento (più che di investimento fisico
in infrastrutture) connessi ad ogni piattaforma informatica complessa.
Questi costi di apprendimento sono tanto più evidenti, su base individuale
e d'impresa, nello specifico delle piattaforme software. Di qui l'effetto
"lock-in" che ha generato la posizione dominante di Microsoft; il
lock-in che ha permesso alla Apple di poter gestire una strategia
di nicchia (grafica) sulla sua piattaforma Macintosh, consentendole
un successivo rilancio. E l'azione di questo effetto, strutturale
nell'informatica complessa, nella stabilizzazione e nella permanenza
delle comunità open-source.
|