I sistemi complessi

I sistemi complessi sono un settore di ricerca straordinariamente affascinante: essi sono universalmente diffusi, non solo in fisica e chimica, ma anche in biologia, in economia e nelle scienze sociali. La scienza della complessità affronta anche domini che hanno a lungo frustrato i tentativi di descrizione quantitativa rigorosa: ad esempio in economia sono in corso importanti sviluppi legati alla possibilità di simulare l’interazione fra agenti che vengono modellati in maniera tale da rinunciare alle irrealistiche ipotesi dell’economia classica, come ad esempio quella di comportamento perfettamente razionale. Le principali caratteristiche che sono state associate alla complessità riguardano la presenza di numerosi elementi interagenti, la non linearità delle interazioni, la comparsa a livello globale di proprietà emergenti prive di un analogo microscopico, e non ultima la capacità di auto-organizzazione. Ognuno di questi aspetti meriterebbe di essere approfondito, ma è opportuno sottolineare che una caratteristica comune ai sistemi che consideriamo complessi è la possibilità di amplificare un piccolo fenomeno locale portando tutto il sistema in uno stato qualitativamente nuovo. Si pensi ad esempio ad una transizione di fase come quella da acqua a ghiaccio, che avviene (a temperature inferiori al punto di congelamento) quando fluttuazioni locali danno origine ad una regione solida abbastanza grande da far sì che il guadagno in energia libera, associato alla formazione della fase solida, superi il costo energetico relativo alla formazione di una interfaccia fra le due fasi: questa regione risulta quindi stabile e funge da nucleo di condensazione per ulteriori accrescimenti, mentre una analoga regione solida, di dimensioni inferiori, sarebbe condannata alla scomparsa. La sorte macroscopica del sistema è comunque definita: abbassando la temperatura, prima o poi la transazione acqua ® ghiaccio avrà luogo. Se non ci interessano i dettagli di questa transizione, possiamo semplificare di molto la descrizione del sistema e trattarlo in maniera deterministica. In altri casi il comportamento macroscopico può invece dipendere proprio dalle caratteristiche di una fluttuazione locale che si manifesta nel momento in cui il sistema diventa instabile, e che finisce per definirne il destino (almeno fra un insieme di scelte possibili). Lo stato finale può dipendere dalle caratteristiche di piccole fluttuazioni locali che sono presenti nel momento in cui il sistema diventa instabile, e che arrivano a dominarne le caratteristiche macroscopiche. Naturalmente la descrizione del fenomeno contiene implicitamente una scelta particolare del livello di descrizione, e quindi di quali siano le variabili "rilevanti" e quali siano quelle trattabili come "fluttuazioni"; tale scelta corrisponde peraltro a quella naturale per un osservatore macroscopico del fenomeno. Un esempio famoso di amplificazione di piccoli disturbi è il cosiddetto effetto farfalla, la dipendenza sensibile dalle condizioni iniziali che si osserva in molti sistemi dinamici non lineari. I sistemi caotici sono infatti considerati complessi, sebbene essi possano anche avere pochi gradi di libertà: la nozione di complessità suggerita in questo caso comprende anche sistemi di questo tipo, che non potrebbero essere inclusi in una definizione di complessità che richiedesse la presenza di un gran numero di elementi interagenti. È importante osservare che la complessità di un sistema non ne è una proprietà intrinseca, ma si riferisce sempre ad una sua descrizione, e dipende quindi dalla scelta di un certo "punto di vista" ovvero dal modello utilizzato nella descrizione e dalle variabili che si ritengono rilevanti. Lo studio della dinamica dei sistemi complessi è reso oggi possibile dalla disponibilità di elevata potenza di calcolo dei moderni computer. Naturalmente, si tratta di una condizione necessaria ma non sufficiente: la pura forza computazionale non è sufficiente a risolvere alcun problema interessante, e la scienza dei sistemi complessi è venuta a maturazione in questi anni grazie ai progressi dei metodi sperimentali, che consentono di conoscere nei dettagli il comportamento di numerosi sistemi fisici e biologici, e allo sviluppo di sofisticati strumenti concettuali, quali la dinamica non lineare, la meccanica statistica dei materiali disordinati, la sinergetica. Questi progressi sono stati potenziati dalla disponibilità di potenti calcolatori. Lo sviluppo scientifico è esso stesso un fenomeno complesso, e la presenza di queste interazioni non deve sorprenderci. In questo contesto il calcolatore parallelo non è solo uno strumento di simulazione, ma è esso stesso un modello concettuale e una sorgente di interessanti sfide intellettuali. Esiste un legame fra gli aspetti computazionali e gli aspetti teorici della scienza della complessità. Fin dalle origini della civiltà gli esseri umani hanno cercato di definire dei modelli della realtà circostante. La scienza e l’arte, fin dalle loro forme primitive, hanno sempre avuto insita in loro l’attività del modellare. Una delle principali motivazioni che stanno alla base della nascita e dello sviluppo dell’attività scientifica consiste nel trovare dei modelli semplici che possano spiegare e riprodurre quello che avviene in natura. Per questo motivo fin dai tempi dei Greci, i filosofi e gli scienziati hanno cercato di scoprire dei modelli matematici (teorie) che potessero essere usati per studiare i fenomeni naturali. Ad esempio Pitagora sosteneva che "il linguaggio segreto del creato sta tutto racchiuso nei numeri". Lo studio dei modelli ha portato, in tutti i campi della scienza e della tecnica, enormi progressi con effetti di grandi miglioramenti in tutti i settori della società. La fisica di Galileo è stata un grande passo di sintesi esplicativa dei fenomeni naturali in cui l’esperimento costituisce la pietra miliare di verifica delle teorie che vengono utilizzate nella spiegazione dei fenomeni studiati. Ultimamente suscita grande interesse lo studio di modelli per i sistemi complessi, sistemi per i quali non è possibile utilizzare semplificazioni concettuali in grado di ricondurre il fenomeno in esame ad un modello semplice. I sistemi complessi sono quei sistemi dinamici con capacità di auto-organizzazione composti da un numero elevato di parti interagenti in modo non lineare che danno luogo a comportamenti globali che non possono essere spiegati da una singola legge fisica. Esempi di sistemi complessi possono essere il sistema immunitario, un bosco in fiamme, il cervello umano, una comunità di persone che interagiscono tra loro, un flusso di veicoli su una rete autostradale. Il campo della scienza che si occupa di studiare e modellare questi sistemi è detto scienza della complessità. L’informatica, fin dalle sue origini, è stato un potente strumento per lo studio e la descrizione di sistemi complessi in tutti i settori della scienza e dell’ingegneria. La soluzione di problemi scientifici è stata, storicamente, una delle motivazioni principali per la realizzazione dei computer e rappresenta un settore applicativo di grande rilevanza che stimola la progettazione e la realizzazione di nuovi calcolatori ad architettura parallela ad elevate prestazioni. La realizzazione di modelli e la simulazione tramite calcolatore consente di fornire un laboratorio virtuale in cui possono essere studiati e risolti problemi complessi attinenti vari campi della scienza. Per molti anni è stato difficile studiare il comportamento dei fenomeni complessi perché i modelli usati per descriverli erano così difficili che la principale modalità computazionale usata, rappresentata dall’integrazione di equazioni differenziali, comportava tempi di calcolo estremamente elevati. Grazie ai calcolatori paralleli, i quali sono composti da più unità di elaborazione che in parallelo possono eseguire più programmi per risolvere più problemi contemporaneamente o per risolvere un singolo problema in un tempo minore, la potenza computazionale a disposizione si è accresciuta notevolmente. Inoltre sono emersi nuovi modelli di calcolo come gli automi cellulari, le reti neurali e gli algoritmi genetici, che rappresentano validi strumenti per la descrizione di fenomeni complessi. Un calcolatore può essere usato come un ambiente di sperimentazione tramite il quale si può studiare un fenomeno complesso, come l’evoluzione di alcune forme di vita o di un sistema composto da milioni di particelle e si può verificare il suo comportamento in base ai valori assunti dai parametri che lo caratterizzano. Ovviamente la simulazione di un uragano non distrugge case e ponti, ma rappresenta un buon modello del fenomeno reale consentendo la misura e la previsione dei valori delle variabili ritenute significative. Un modello semplice ma molto potente che segue questo approccio è quello degli automi cellulari (AC). Secondo questo modello, un sistema viene rappresentato come composto da tante semplici parti ed ognuna di queste parti evolve conformemente ad una propria regola interna ed interagisce solo con le parti ad essa vicine. L’evoluzione globale del sistema emerge dalle evoluzioni di tutte le parti elementari. Un automa cellulare è un sistema dinamico discreto. Spazio, tempo e stati del sistema sono discreti. Ogni elemento dell’automa in una griglia spaziale regolare è detto cella e può essere in uno degli stati finiti che la cella può avere. Gli stati delle celle variano secondo una regola locale, cioè lo stato di una cella ad un dato istante di tempo dipende dallo stato della cella stessa e dagli stati delle celle vicine all’istante precedente. Gli stati di tutte le celle sono aggiornati contemporaneamente in maniera sincrona. L’insieme degli stati delle celle compongono lo stato dell’automa. Lo stato globale dell’automa evolve in passi temporali discreti. Grazie alla disponibilità dei sistemi di calcolo parallelo ad alte prestazioni è stato possibile simulare fenomeni complessi basati sul modello degli automi cellulari, sistemi fisici complessi che si prestano ad essere formulati in termini di un numero elevato di elementi interagenti solo localmente, sfruttando il naturale parallelismo che è presente nel modello degli automi cellulari. L’integrazione degli automi cellulari e del calcolo parallelo permette di ottenere un utile strumento per la definizione di algoritmi cellulari e la loro esecuzione efficiente per la simulazione di sistemi complessi. La scienza è una delle imprese più grandi e mirabili dell’umanità. I suoi enormi progressi sono stati resi possibili da importanti scuole di pensiero e di metodologia. Sin dalle sue origini più remote, l’uomo si è trovato dinanzi a un ambiente altamente complesso. E la natura stessa lo ha aiutato a tener testa a questo ambiente attraverso un cervello che può trattare l’enorme quantità di informazione necessaria per sopravvivere. Possiamo dire che il nostro cervello è riuscito a condensare l’informazione in entrata sotto forma di alcuni dati decisivi, necessari per l’azione e la reazione. Ma in seguito l’uomo ha iniziato ad affrontare il suo ambiente in maniera più consapevole, proprio attraverso lo sviluppo della scienza. In particolare, nella fisica come in molti altri campi, ha potuto scoprire leggi di natura. La fisica Galileiana ha scoperto le sue leggi grazie ad esperimenti, reali o di pensiero, in cui vengono mutati soltanto pochi parametri: ad esempio l’altezza o il peso negli esperimenti sulla caduta dei gravi. A questa metodologia è associata la tendenza di ricercare elementi semplici attraverso la scomposizione dei sistemi nelle loro parti. È proprio questo il metodo grazie al quale la mente occidentale è stata in grado di costruire quel solenne edificio monumentale chiamato scienza. Oggi ci stiamo rendendo conto sempre di più delle limitazioni di questo approccio, e in particolar modo quando abbiamo a che fare con sistemi complessi. Si potrebbe dire che i sistemi complessi sono sistemi il cui comportamento non può essere compreso in maniera semplice a partire dal comportamento dei loro elementi. In altre parole, la cooperazione degli elementi determina il comportamento dei sistemi globali e fornisce ad essi delle proprietà che possono essere completamente estranee agli elementi che costituiscono il sistema. La sinergetica non soltanto ha come suo obiettivo lo studio di questi effetti cooperativi, ma si pone anche la domanda se esistano dei principi generali che regolano il comportamento dei sistemi complessi nonostante il fatto che i loro elementi possono essere di natura completamente differente, elettroni, atomi, molecole, cellule o esseri umani. Questi principi generali che regolano il coordinamento tra gli elementi possono essere rappresentati in maniera rigorosa a un livello matematico elevato in una opportuna rappresentazione. Molti sistemi naturali contengono un grandissimo numero di elementi. Tra gli elementi individuali di questi sistemi esistono inoltre moltissime connessioni. Per descrivere compiutamente sistemi di tal genere dobbiamo trattare una quantità di informazione enorme. Dobbiamo quindi escogitare dei metodi tendenti a condensare l’enorme quantità di informazione contenuta in sistemi di tal genere in una quantità di informazione che possa venir trattata dalla mente umana. Per far ciò di solito si distingue un livello microscopico caratterizzato da numerosi elementi e un livello macroscopico nel quale ci troviamo dinanzi alle proprietà del sistema nel suo complesso. Un metodo per studiare i sistemi complessi consiste (seguendo il paradigma più consolidato) nella loro scomposizione negli elementi costitutivi. Questa scomposizione è effettivamente possibile per molti sistemi, per i quali gli elementi sono definiti in maniera dettagliata, ma a volte questo modo di procedere non riesce a raggiungere lo scopo desiderato. In molti sistemi possono giocare un ruolo decisivo gli effetti cooperativi: in questo caso la cooperazione fra le parti risulta molto più importante per il comportamento macroscopico del sistema di quanto non lo siano le proprietà degli elementi presi separatamente. Quindi, anche se è molto importante studiare le proprietà delle singole parti, per la comprensione del sistema nel suo insieme si ha in genere bisogno di nuovi e ulteriori concetti e metodi di approccio. In un approccio di questo genere viene studiata la relazione che intercorre fra il livello microscopico e il livello macroscopico. Nel caso di molti sistemi naturali, ma anche in una serie di manufatti prodotti dall’uomo, lo stato macroscopico viene ottenuto attraverso un processo di autorganizzazione degli elementi microscopici: il sistema ottiene una specifica struttura spaziale, temporale o funzionale senza uno specifico intervento dall’esterno. La sinergetica si chiede se esistano dei principi generali che regolano il processo di autorganizzazione e che siano indipendenti dalla natura dei sottosistemi. Possiamo trovare principi di tal genere, a patto che il sistema intraprenda al livello macroscopico dei cambiamenti di ordine qualitativo. Spesso questi elementi qualitativi sono accompagnati dall’emergenza di nuove qualità del sistema macroscopico, anche se gli elementi microscopici rimangono inalterati. In fisica semplici esempi di tali fenomeni sono dati dai fluidi e dal laser. In un fluido si produce una struttura spaziale macroscopica allorché il sistema venga sottoposto a un nuovo vincolo, che è dato da un riscaldamento omogeneo: il fluido acquista cioè uno specifico stato macroscopico e ordinato che non viene imposto dall’esterno, ma che piuttosto viene innescato indirettamente. In un laser gli atti incoerenti di emissione da parte dei singoli atomi vengono coordinati e danno origine a una struttura temporale ordinata. Nella sinergetica le relazioni che intercorrono fra il livello macroscopico e il livello microscopico vengono desunte e determinate ricorrendo a due concetti, al concetto di parametri d’ordine e a quello del principio di asservimento. I parametri di ordine sono gli osservabili macroscopici che descrivono il comportamento macroscopico del sistema. Secondo il principio di asservimento il comportamento degli elementi microscopici diventa determinato nel momento in cui si danno gli osservabili macroscopici. Si ottiene in questo modo una enorme riduzione dei gradi di libertà. In un laser è presente un numero enorme di gradi di libertà degli atomi ma un solo grado di libertà del moto del campo. Una volta oltrepassata la soglia dell’effetto laser, l’intero sistema viene regolato da un unico grado di libertà, e ciò dipende proprio dal principio di asservimento. In molti casi, quando cambia un parametro di controllo, i sistemi studiati dalla sinergetica sono sottoposti a una serie di cambiamenti qualitativi. In termini più generali, può darsi il caso che i medesimi elementi mostrino (a livello macroscopico) modelli di comportamento completamente differenti. Un esempio è fornito ancora una volta dal laser. A bassa intensità della corrente di alimentazione, il laser può manifestare una emissione casuale. Con l’aumento della corrente di alimentazione la struttura dell’emissione diventa coerente. A energie di alimentazione ancora superiori si producono lampi regolari (moti quasi periodici). Se si modifica un altro parametro, l’onda coerente può degradarsi in un caos deterministico. Anche in questo caso si possono identificare diversi itinerari che portano dal moto coerente al moto teorico: vi sono ad esempio fenomeni di intermittenza, nei quali periodi di emissione laser coerente si alternano ad esplosioni caotiche. Il laser potrebbe servire da paradigma per il comportamento delle reti neurali. In particolare potrebbe essere un modello per spiegare i cambiamenti comportamentali che, apparentemente senza nessuna causa, si verificano negli esseri viventi: il problema che deve affrontare la natura consiste nell’armonizzare questi modelli comportamentali, in maniera tale che il movimento dei muscoli possa procedere senza soluzioni di continuità. La sinergetica è in certa misura complementare al riduzionismo o allo studio degli elementi microscopici. Essa tende a porre l’accento sulle proprietà dei sistemi senza tenere conto della natura dei sottosistemi componenti. In questo modo la sinergetica costruisce profonde analogie fra il comportamento macroscopico di sistemi completamente differenti. Oggi vediamo che le scienze biologiche e fisiche sono caratterizzate da una crisi della spiegazione semplice. Di conseguenza quelli che sembravano essere i residui non scientifici delle scienze umane (l’incertezza, il disordine, la contraddizione, la pluralità, la complicazione, ecc.) fanno oggi parte della problematica di fondo della conoscenza scientifica. Dobbiamo constatare che il disordine e il caso sono presenti nell’universo, e svolgono un ruolo attivo nella sua evoluzione. Non siamo in grado di risolvere l’incertezza arrecata dalle nozioni di disordine e caso: lo stesso caso non è sicuro di essere un caso. Questa incertezza rimane, e rimane anche l’incertezza sulla natura dell’incertezza arrecataci dal caso. La biologia contemporanea considera ogni specie vivente come una singolarità, che produce singolarità. La vita stessa è una singolarità, all’interno dei vari tipi di organizzazioni fisico-chimiche esistenti. Il cosmo stesso è un evento singolare, dotato di una storia singolare nella quale si produrrà la nostra storia singolare, e la storia di ciascun essere vivente è una storia singolare. Non possiamo più, consci della complessità del reale, eliminare il singolare ed il locale ricorrendo all’universale nelle nostre teorie esplicative. I fenomeni biologici e sociali presentano un numero incalcolabile di interazioni, di inter-retroazioni, uno straordinario groviglio che non può essere computato nemmeno con il ricorso al computer più potente. Prigogine ha mostrato che strutture coerenti a forma di vortice possono nascere da perturbazioni che apparentemente avrebbero dovuto dare come risultato delle turbolenze. È in questo senso che alla nostra ragione si presenta il problema di una misteriosa relazione fra ordine, disordine e organizzazione. L’ordine generato dal disordine ci appare un fatto sorprendente! È interessante che un sistema sia nel contempo qualcosa di più e qualcosa di meno di quella che potrebbe venir definita come la somma delle sue parti. L’organizzazione impone dei vincoli che inibiscono talune potenzialità che si trovano nelle varie parti, ma nel contempo il tutto organizzato è qualcosa di più della somma delle parti, perché fa emergere qualità che senza una tale organizzazione non esisterebbero. Sono qualità emergenti, nel senso che sono constatabili empiricamente ma non sono deducibili logicamente. Nel campo della complessità vi è qualcosa di ancor più sorprendente. È il principio dell’ologramma. L’ologramma è una immagine fisica le cui qualità dipendono dal fatto che ogni suo punto contiene quasi tutta l’informazione dell’insieme che l’immagine rappresenta. Gli organismi biologici possiedono una organizzazione di questo genere: ognuna delle nostre cellule, anche la cellula più modesta come può essere una cellula dell’epidermide, contiene l’informazione genetica di tutto l’organismo nel suo insieme. Naturalmente solo una piccola parte di questa informazione è espressa in una singola cellula, mentre il resto è inibito, ma comunque è presente. In questo senso possiamo dire non soltanto che la parte è nel tutto, ma anche che il tutto è nella parte. Nell’universo delle cose semplici è necessario che una "porta" sia aperta o chiusa, mentre nell’universo complesso si constata che un sistema autonomo è nel contempo aperto e chiuso. Un sistema che compie un lavoro per sopravvivere ha bisogno di energia fresca, e deve trarre questa energia dal proprio ambiente. L’organismo, pur essendo autonomo, è radicato nel suo rapporto con l’ambiente e risulta estremamente problematico studiarlo separatamente. La scienza si sviluppa non soltanto basandosi sulla logica e il raziocinio ma anche (si tratta di un paradosso sconcertante) grazie a ciò che in essa vi è di non scientifico. È proprio per ragioni logiche e sperimentali che si è giunti a una assurdità logica: il tempo nasce dal non tempo, lo spazio dal non spazio, e l’energia nasce dal nulla (teoria del Big Bang). La complessità sembra negativa o regressiva perché costituisce la reintroduzione dell’incertezza in una conoscenza che era partita trionfalmente verso la conquista della certezza assoluta. E su questo assoluto bisogna davvero farci una croce sopra. Ma l’aspetto positivo, l’aspetto progressivo che può derivare dalla risposta alla sfida della complessità consiste nel decollo verso un pensiero multidimensionale. L’errore del pensiero formalizzante e quantificatore sta nel fatto che questo pensiero è arrivato a credere che ciò che non fosse quantificabile e formalizzabile non esistesse. Sogno delirante, niente è più folle del delirio della coerenza astratta! La realtà è multidimensionale: comporta sempre una dimensione individuale, una dimensione sociale, una dimensione biologica, una dimensione fisica, ecc. La sfida della complessità ci fa rinunciare al mito della chiarificazione totale dell’universo, ma ci incoraggia a continuare l’avventura della conoscenza, che è un dialogo con l’universo. La realtà oltrepassa le nostre strutture mentali da ogni parte. Il fine della nostra conoscenza non è quello di chiudere, spiegando il tutto con una unica formula, ma quello di aprire il dialogo con l’universo. Il che significa: non soltanto strappare all’universo ciò che può essere determinato in maniera chiara, con precisione ed esattezza, ma entrare anche in quel gioco fra chiarezza e oscurità che è appunto la complessità.