CAOS

Per un demone dispettoso è facile rovinarci una bella giornata in campagna: gli basta sospendere per un solo attimo l’attrazione gravitazionale che un elettrone qualunque esercita su tutto il resto dell’universo, in particolare sulle masse d’aria dell’atmosfera del nostro pianeta. Questo cambiamento è apparentemente trascurabile e inavvertibile. Tuttavia si ripercuote sulle traiettorie di alcune molecole della nostra atmosfera. Dopo una cinquantina di collisioni, in una frazione di secondo, una molecola non incontra le molecole con cui avrebbe potuto imbattersi senza un tale cambiamento. O incontra altre molecole. I cambiamenti diventano allora di portata un po’ più ampia, e arrivano alla soglia dell’avvertibilità: possono generare un po’ di vento, sul piano locale. E la piccola massa d’aria messa in moto dall’intervento del demone, dopo un giorno, può già esercitare effetti sulla scala di taluni chilometri, modificando la forma delle nubi e la velocità dei venti. Dopo una o due settimane, può perfino dilagare su scala planetaria. Ora l’intervento del demone è da tutti avvertibile. In assenza di esso, il tempo sarebbe stato stupendo. E invece il suo piccolissimo intervento l’ha reso disastroso…

In un certo senso, la scoperta dei sistemi e dei comportamenti caotici è un effetto imprevisto di una delle fasi decisive degli sviluppi scientifici e tecnologici del XX secolo. Negli Stati Uniti degli anni ’40 e ’50 si produsse una concentrazione inusuale di brillanti ingegni, esperti in discipline differenti e tuttavia animati da prospettive che oggi diremmo inter- e transdisciplinari, catalizzati dalle esigenze belliche della seconda guerra mondiale e poi della guerra fredda.

Uno dei risultati di questa inconsueta concentrazione di intelligenze fu la produzione dei primi elaboratori elettronici ad alta velocità. Nella loro fase pionieristica, gli elaboratori elettronici parvero il mezzo per realizzare l’antico sogno di una previsione perfetta del decorso futuro degli eventi. Essi raggiunsero presto una potenza di calcolo sufficiente per elaborare le previsioni del tempo atmosferico in modo più veloce del decorso effettivo dei fenomeni. Una tale applicazione era molto significativa, dato l’elevato numero di variabili da cui dipende l’effettivo decorso degli eventi meteorologici. Per essere dominabile, l’approccio a tali fenomeni imponeva un modello semplificatore, che divideva in punti discreti l’effettivo continuum tridimensionale della superficie del nostro pianeta e dei diversi livelli della sua atmosfera. Ognuno di questi punti era caratterizzato da parametri numerici ben definiti, che rappresentavano variabili differenti: temperatura, pressione, umidità, velocità del vento… Come leggi guida furono assunte le equazioni dei moti delle masse d’aria nell’atmosfera, desunte dalla dinamica dei fluidi elaborata nel Settecento. Queste equazioni furono considerate una rappresentazione adeguata, anche se semplificata, delle grandi cause suscettibili di determinare a lungo termine le traiettorie del tempo atmosferico.

All’inizio degli anni ’60, il meteorologo Edward Lorenz si mise a studiare, attraverso simulazioni al computer, i moti di convezione con cui le masse d’aria degli strati inferiori dell’atmosfera, riscaldate dal sole, tendono a salire verso gli strati superiori. Utilizzò al proposito un sistema di tre equazioni a tre incognite (x, y, z), delle quali erano note le soluzioni in un tempo assunto come iniziale: t0. Date x0, y0 e z0, il computer era in grado di calcolare il valore delle incognite per gli istanti successivi: x1, y1, z1 a t1... fino a xn, yn, zn, a un qualsivoglia tn. La velocità e la capacità di calcolo dei computer, all’inizio degli anni ’60, erano notevolmente limitate. Potevano trascorrere alcune ore prima che il calcolatore ricostruisse nei dettagli un decorso del tempo atmosferico prolungato nel tempo.

Un giorno, Lorenz intendeva abbracciare con i suoi calcoli un periodo di tempo più lungo di quelli da lui abitualmente presi in esame. Voleva raggiungere, diciamo, t100, quando fino ad allora si era spinto fino a t50. Per abbreviare la procedura, e il tempo dedicato alla computazione da parte del computer, egli notò che erano a disposizione, in quanto già stampati dalla macchina, i rispettivi valori delle incognite per tutti i tempi che da t1 andavano a t50: x1 … x50, y1 … y50, z1 … z50. Lorenz aveva anche a disposizione i valori relativi al punto di mezzo del decorso abitualmente studiato: x25, y25, z25 per il tempo t25. Prese il tempo t25 come nuovo punto di partenza, per calcolare ora il decorso temporale esteso: fino a t100. Non avrebbe dovuto cambiare nulla: i dati a t25 erano apparentemente identici a quelli utilizzati fino ad allora, mentre l’algoritmo utilizzato dal computer per calcolare i nuovi valori era perfettamente deterministico. E invece, con grande sorpresa di Lorenz, questa volta la ricostruzione del decorso temporale del sistema studiato era molto differente. Dopo un po’ di sconcerto, il mistero fu chiarito. La sua spiegazione era apparentemente molto semplice. Il computer teneva in memoria sei cifre decimali, ma ne stampava soltanto tre. In particolare, quando sugli stampati relativi a t25, il computer indicava 0,506, in realtà aveva in memoria qualcosa come 0,506127. Ora, invece, ricominciando il processo di calcolo per i suoi nuovi obiettivi, Lorenz aveva inserito un nuovo dato di partenza: 0,506000. All’inizio, le due traiettorie differivano di una quantità infinitesimale: 0,000127. Ma, in pochi passi, iniziarono a divergere assai velocemente, fino a diventare del tutto indipendenti l’una dall’altra. Il risultato fu presto generalizzato. Nel 1963 Lorenz pubblicò Deterministic Nonperiodic Flow, l’articolo scientifico a cui viene fatta risalire l’origine di un nuovo campo di ricerca: la dinamica del caos. In effetti, una causa tanto piccola quale il battito di ali di una farfalla può influenzare il tempo atmosferico su vasta scala in un periodo di tempo sufficientemente breve. L’‘effetto farfalla’ è diventato una metafora molto popolare, che travalica lo stesso ambito di indagine della dinamica del caos, atta a indicare le molteplici situazioni in cui cause microscopiche possono generare effetti macroscopici.

Una caratteristica fondamentale del comportamento dei sistemi definiti come caotici sta nel fatto che le traiettorie che partono da due punti vicini quanto si voglia divergono nel corso del tempo in modo esponenziale. L’errore si propaga in modo non lineare. Dopo un certo periodo di tempo, pertanto, la traiettoria effettiva del sistema è molto lontana dalla traiettoria prevista. Si può ampliare il tempo per il quale le previsioni sono affidabili soltanto aumentando adeguatamente la precisione delle misurazioni, cioè la conoscenza delle cifre decimali che definiscono le condizioni iniziali. Tuttavia, per quanto precise le misurazioni possano diventare, per quanti decimali possano essere presi di volta in volta in considerazione, gli osservatori sono in grado soltanto di rallentare la divergenza fra le due traiettorie, quella reale e quella prevista: mai di annullarla. La previsione incontra limiti che non sono dovuti all’imperizia degli osservatori umani, ma alla natura dei sistemi in gioco. I sistemi caotici sono perfettamente deterministici: le leggi che regolano il loro sviluppo possono essere riassunte da poche e semplici equazioni. Un’affidabile previsione quantitativa del loro comportamento futuro, però, avrebbe bisogno di una conoscenza infinitamente perfetta delle condizioni iniziali. Minime differenze in queste ultime, non importa quanto piccole, provocano enormi differenze nelle traiettorie future dei sistemi in questione. Il divorzio fra determinismo e previsione è manifesto e irriducibile. Siamo assai lontani dall’immagine di una natura-orologio, nella quale cicli e processi si riproducono identicamente e indefinitamente a partire da condizioni iniziali prefissate. La natura dei sistemi caotici è piena di turbolenze e di discontinuità, una natura nella quale eventi microscopici possono generare i nuovi comportamenti globali di un sistema. Non viviamo in un universo fatto di componenti elementari e di regioni scomponibili e isolabili una volta per tutte. L’esperto giocatore di biliardo ha perfettamente ragione a trascurare l’attrazione gravitazionale degli spettatori che circondano il tavolo da gioco. Ma ha ragione soltanto perché, in genere, ci sono solo poche palle in gioco. Se le palle in gioco fossero nove, se la prima palla ne dovesse colpire altre otto, la sensibilità alle condizioni iniziali inizierebbe a rendere pertinente persino la posizione di questo o di quello spettatore. Ogni operazione che separi le cause vere dagli effetti secondari, che metta fuori dalla porta del laboratorio il ‘resto del mondo’, non può venire considerata scontata. È sempre un’operazione storica e contestuale. Spesso lo sperimentatore deve tornare sui suoi passi, deve rivedere il suo giudizio di pertinenza su cause apparentemente trascurabili, deve spostare il proprio sguardo su effetti e su ordini di grandezza infinitesimali, trascurati in una versione antecedente dei suoi modelli.

I sistemi semplici, stabili, non sensibili alle condizioni iniziali, si riferiscono a particolari regioni spazio-temporali dei transiti celesti, che supponiamo isolate dall’influsso delle stelle vicine e delle galassie lontane; oppure si riferiscono a situazioni specifiche di laboratorio, in cui il ricercatore crede di essere riuscito a separare con cura gli oggetti del suo studio dal resto del mondo. Ma queste regioni e queste situazioni sono casi estremi, idealizzati. La tipologia dei sistemi naturali è molto più varia e molto più estesa. I sistemi caotici sono la regola, non l’eccezione.

multiverso

15