Sistemi Caotici

Share Embed


Descrição do Produto

LO SCRIGNO DI PROMETEO COLLANA DI DIDATTICA, DIVULGAZIONE E STORIA DELLA FISICA



Direttore Ettore G Università degli Studi di Milano Piero Caldirola International Centre for the Promotion of Science

Comitato scientifico Sigfrido B Università degli Studi di Pavia

Giovanni F Università degli Studi di Ferrara

Marco Alessandro Luigi G Università degli Studi di Milano

Ignazio Licata Sistemi caotici

Copyright © MMXV Aracne editrice int.le S.r.l. www.aracneeditrice.it [email protected] via Quarto Negroni,   Ariccia (RM) () 

 ---XXXX-X

I diritti di traduzione, di memorizzazione elettronica, di riproduzione e di adattamento anche parziale, con qualsiasi mezzo, sono riservati per tutti i Paesi. Non sono assolutamente consentite le fotocopie senza il permesso scritto dell’Editore. I edizione: maggio 

Questo libro è dedicato a Martin C.Gutzwiller, primo esploratore del caos quantistico (–).

Indice



Introduzione



Capitolo I Determinismo, predicibilità e linearità in fisica classica



Capitolo II Il computer e la farfalla di Lorenz



Capitolo III Spazio delle fasi ed attrattori



Capitolo IV Amplificatori di informazione: sistemi dissipativi ed attrattori strani



Capitolo V Le transizioni ordine–caos e gli scenari universali



Capitolo VI Il caos negli esperimenti



Capitolo VII Dal caos all’ordine



Capitolo VIII Caos quantistico



Introduzione

Di cosa parliamo quando parliamo di caos? L’effetto farfalla, i frattali e tutto e l’immaginario generato dalla teoria del Caos sono ormai una forte e consolidata presenza nella cultura contemporanea. Nonostante il buon numero di libri ed articoli disponibili anche al lettore non specialista, si ha però l’impressione che l’uso metaforico e una certa confusione concettuale sovrastino di gran lunga un’effettiva comprensione scientifica del tema. Non c’è niente di strano in questo. Avviene continuamente in tutti i campi della conoscenza — pensiamo alla fisica quantistica, o persino alla relatività, nel centenario della sua nascita! —, sembra quasi una fisiologia della conoscenza collettiva che trasforma in modo imprevedibile e creativo la recezione di teoria scientifica in un’insieme di narrazioni ricche di effetti cognitivi e linguistici che vengono poi adottati in aree e contesti delle pratiche umane. Del resto, nessuno pretende che quella mostruosità statistica che ci si ostina a chiamare lettore medio debba essere un esperto di matematica. Quando si assiste (o peggio, si partecipa) ai convegni inter–disciplinari tanto di moda e si registrano così tante imprecisioni da parte di studiosi che pure dovrebbero avere almeno un’idea concettualmente chiara di certe cose, è forte la tentazione di porre la domanda che dà il titolo a questa introduzione. E naturalmente di fare un mea culpa. Perché sicuramente gli scienziati stessi sono ampiamente responsabile della percezione deformata delle loro idee. Infatti durante gli anni ’ tra gli stessi specialisti si era diffusa l’idea che la fisica non–lineare potesse costituire la base di una pervasiva ed onnipresente panacea, indicata spesso come “Teoria dell’organizzazione” (in inglese theory of organization, TOO) che avrebbe permesso di estendere il sogno determinista di predire praticamente qualunque cosa, dai sistemi biologici ai mercati finanziari. L’imprevedibilità e dunque la nostra impotenza davanti al caso (che notoriamente affatica Dio come scriveva Baudrillard, ma sopratutto ci 



Introduzione

allontana dalla nostra ambizione di possederne l’ Occhio, gli fa eco T. Vamos), poteva essere sconfitta con una certezza matematica al basso costo del recupero strategico di alcuni decimali, che è oggi facile tenere sotto controllo grazie alle sempre più potenti generazioni di dispositivi di calcolo disponibili. Passò dunque l’idea che l’incertezza era vinta, che ogni scelta poteva essere calcolata e che se qualcosa d’incerto e casuale c’è nel mondo, sta in una lontana, microscopica zona quantistica, dove non può far male a nessuno. Naturalmente non è così. La teoria dei sistemi dinamici nasce con i lavori germinali sulle perturbazioni di Aleksandr Lyapunov ed Henri Poincaré tra la fine dell’ e gli inizi del ’ per poi conoscere un importante punto di svolta con il lavoro fondamentale di Aleksandr Andronov e Lev Pontryagin sulla stabilità dei sistemi (). Comincia a delinearsi uno dei programmi più ambiziosi e raffinati nella storia della matematica: non si tratta più di “trovare le soluzioni” (quando è possibile), e neppure di approssimarle, quanto piuttosto di studiare globalmente un dato comportamento dinamico studiando la sensibilità del sistema alle perturbazioni esterne e quelle dovute all’intrinseca evoluzione del sistema stesso! Si capì ben presto che non soltanto che la dinamica “impredicibile” di molti sistemi è dovuta al tipo e grado di non linearità delle equazioni che descrivono il sistema e che questi sono molto più diffusi ed “intrattabili” di quanto si pensasse. In altre parole, c’è un solo modo di essere lineare o quasi lineare (“predicibile”), ma moltissimi di essere non–lineare (si pensi a tutto ciò che differisce da una retta!). Anzi, questi comportamenti possono presentarsi anche in sistemi molto semplici. Una condizione molto generale perché si abbiano sistemi di questo tipo è che, oltre alla non–linearità, ci sia un numero di variabili di stato ≥  (teorema di Smale, ). In questo caso parliamo di sistemi strutturalmente instabili. La dinamica di questi sistemi è impredicibile in un senso molto sottile (contrariamente a quel che si pensa, quasi tutto nella scienza è impredicibile. Il punto essenziale che caratterizza il metodo scientifico è la possibilità di utilizzare una buona strategia d’attacco per trattare le situazioni molto complicate!). In pratica si hanno continue e rapidissime biforcazioni che impediscono di fare previsioni sullo stato asintotico. Ad esempio sappiamo che una tazzina di caffè caldo — anche senza tener conto degli specifici dettagli della diffusione nell’aria — dopo un po’ di tem-

Introduzione



po diventerà una tazzina di caffè freddo. Questo tipo di previsioni a lungo termine non sono possibili nel caso di sistemi strutturalmente instabili. Le equazioni ci sono, ma non esiste una soluzione “chiusa”, che caratterizza una volte per tutte l’intero comportamento passato e futuro del sistema. Naturalmente è possibile calcolare step by step, dal tempo t al tempo t, ma il valore del risultato dipenderà criticamente da quanto piccolo è l’intervallo t – t. Non servono neppure i buoni vecchi metodi di approssimazione, l’instabilità è radicale. È questa, in estrema sintesi, la radice antica ed il messaggio essenziale della teoria dei sistemi dinamici non–lineari. Quando e come dunque è potuta avvenire la trasformazione di un argomento sottilmente matematico in una sorta di nuovo paradigma fisico? L’avvento dei computer ha permesso l’esplorazione dei comportamenti non lineari, al punto che si è parlato dell’avvento di una matematica sperimentale in cui il ruolo del computer non era più soltanto quello di generare numeri, ma di essere un ausilio efficace nelle congetture matematiche e fisiche, uno strumento cognitivo, insomma. Grazie a questo nuovo stile di lavoro sono stati raggiunti dei successi assolutamente impensabili fino a pochi anni prima. L’esempio migliore sono forse i tanti lavori dedicati allo studio della turbolenza, sulla quale si erano impegnate le migliori menti matematiche da circa un secolo (da C.L. Navier e GG. Stokes, dai quali prende il nome il famoso sistema di Navier–Stoker, a O. Reynolds fino a A. Kolmogorov e L. Landau), elaborando teorie sofisticate che dovevano però arrendersi davanti alle asperità non–lineari delle soluzioni possibili.È ai decisivi risultati su questo problema che il Feynman del caos Mitchell Feigenbaum, deve la fama. Va detto, per comprendere bene i modi ed i tempi di ricezione di una scoperta, dalla diffidenza iniziale fino all’affermazione ed agli inevitabili — a volte — effetti inflazionari, che i lavori di Feigenbaum vennero assorbiti dalla comunità in forma di pre–print, mentre accumulavano rifiuti ufficiali da parte di diverse riviste, trovandoli i matematici troppo fisici e dunque poco rigorosi, ed i fisici troppo formali e poveri di contenuto fisico! In ogni caso furono proprio questi lavori sul raddoppiamento a cascata del periodo che innescarono grandi speranze e forse aspettative eccessive. Infatti Feigenbaum ha dimostrato che questa è una caratteristica universale di una vastissima classe di sistemi non–lineari. Il messaggio era dunque: dato un sistema — fisico, biologico, socioeconomico —



Introduzione

descritto da un insieme di equazioni non–lineari, è possibile “trasportare” le stesse tecniche matematiche ed analoghi approcci concettuali. La forma semplificata del messaggio è: basta includere la non–linearità ed avremo una forma nuova e più potente di determinismo, che rinuncia allo stato asintotico ma ci permette in cambio di descrivere e simulare qualsiasi cosa. Non è un caso che in uno dei migliori film ispirati alla fisica del caos, l’australiano The Bank, di Robert Connolly () il (solito) matematico geniale trova una “formula” (ovviamente non–lineare) per anticipare l’andamento del mercato e per testarla ricorre ai finanziamenti ed ai supercomputer del (solito) finanziere faustiano. La teoria del tutto è non–lineare! Dove si infrange il sogno? Una risposta sintetica (troppo!) sarebbe: nei gradi di libertà. Prigogine e co. avevano elaborato con i “sistemi dissipativi” l’ultima geniale idea di Turing della morfogenesi. Non è un caso che questo tipo di sistema non–lineare fu affrontato dal genio inglese agli inizi degli anni ’ (sarebbe morto nel ) mentre lavorava presso il National Physical Laboratory dove ebbe la possibilità di realizzare i primi modelli di ACE (Automatic Computing Engine), che all’epoca era il calcolatore più potente ed innovativo al mondo. L’idea è quella di studiare un particolare tipo di non–linearità in grado di innescare un processo oscillatorio di feed–back tra l’energia libera in entrata e l’entropia in uscita, fino a raggiungere una certa stabilità ed autonomia.Si tratta dunque di sistemi auto–organizzanti. Inoltre esiste un teorema di Conway–Hoff–Smoller che permette di fare delle previsioni sulla forma generale della struttura dissipativa nello stadio di “mantenimento”. R. Thom aveva mostrato che esisteva una “geometria delle catastrofi” che era l’equivalente geometrico dei vari tipi di strutture dissipative, e questo suscitò ulteriore entusiasmo. Sul versante opposto, R. Landauer e R. Fox hanno dimostrato però che la congettura di Glansdorff–Prigogine non ha validità universale e subito dopo N. Kopell e D. Ruelle hanno stabilito dei limiti ben precisi per la complessità delle configurazioni raggiungibili da questo tipo di sistemi. Apparì chiaro perciò che, contrariamente alle aspettative iniziali di Prigogine, non era possibile una teoria generale unificata delle strutture dissipative capace di spiegare “ogni” passaggio dal disordine all’ordine. Va detto innanzitutto che il tipo di non–linearità considerato nelle equazioni dei sistemi dissipativi è di un tipo abbastanza “trattabile” (amplificatori polinomiali d’informazione), mentre i sistemi caotici

Introduzione



propriamente detti sono fortemente instabili (amplificatori esponenziali d’informazione), e dunque non c’è nulla di simile alle pur semplici forme organizzate studiate da Prigogine e collaboratori.Nel caso dei sistemi caotici la geometria corrispondente è quella “frattale”, sistematizzata da B. Mandelbroit. In entrambi i casi però il numero di variabili significative è piccolo. Le modellizzazioni che il lettore troverà esposte in questo libro sono infatti quelle dei sistemi dinamici non–lineari “a bassa dimensionalità”. Ma una vera comprensione del fallimento del programma “All is Chaos” viene dalle insidie nascoste nel concetto stesso di sistema! La termodinamica ci insegna che i sistemi completamente isolati sono toy–models, quelli chiusi possono scambiare solo energia con l’ambiente (ad esempio radiazione), ed infine quelli aperti sia energia che materia. Ciò che rende inestricabilmente difficile la descrizione fisica del mondo è il “grado di apertura”, i.e. l’estrema varietà delle possibilità di “accoppiamento sistema–ambiente”. Nel mondo reale — che coincide solo in piccolissima misura con i modelli che escogitiamo per descriverlo —, il numero di gradi di libertà è altissimo, dissipazione ed entropia hanno un ruolo dominante e dunque le isole d’ordine rappresentato dai sistemi dissipativi sono molto piccole,e per quello che riguarda i sistemi caotici è possibile dire si tratta di uno “scheletro matematico” che resterebbe privo di significato fisico se non lo si considerasse all’interno di scenari più ampi e complessi e sopratutto realistici. Detto altrimenti, la domanda posta nella famosa conferenza di E. Lorenz, “Può, il batter d’ali di una farfalla in Brasile, provocare un tornado in Texas?” () ha come risposta “letterale” un deciso no! Non si deve immaginare una così tortuosa catena di cause ed effetti; piuttosto la domanda è retorica e contiene già la sua risposta, che consiste semplicemente nell’affermare che le equazioni di Navier–Stokes (per intenderci, quelle cui fanno riferimento i meteorologi quando costruiscono i loro modelli) sono “strutturalmente instabili”. Sappiamo infatti che le previsioni del tempo non sono mai così precise come vorremmo, e sono necessarie un gran numero di rilevazioni dei valori atmosferici distribuite su reti molto fitte; immaginiamo ogni nodo della rete come una “farfalla”. Per quanto le misure siano precise e la rete fitta, tra un nodo ed un altro ci saranno comunque un numero altissimo di “farfalle” incontrollabili (ricordiamo che una mole di gas contiene un numero di particelle dell’ordine del



Introduzione

numero di Avogadro,  !), che rendono ogni previsione “laplaciana” impossibile. Naturalmente esisterà sempre qualcuno con particolari vocazioni teologiche o fantascientifiche che penserà: “ok, ma “se” io potessi misurare tutte le molecole dell’atmosfera e processare tutto con iper–calcolatori di nesima generazione. . . ”. Questo tipo di ragionamenti sono l’esatto contrario del procedimento scientifico, per tanti motivi. Tra questi, il più importante non è il “se” (è proprio sull’ironia dei “se” che molte persone prendono lo spunto per attaccare la “miopia”degli scienziati e motivare la loro favolistica ipermetropia!), ma il non accorgersi che si sta facendo un ragionamento anti–economico e sostanzialmente tautologico. Dire infatti che per prevedere qualcosa di enorme come l’atmosfera “basterebbe” calcolare posizione e velocità di ogni singola molecola e processarla con supercalcolatori (più in fretta del processo reale, si suppone. . . ), significa dire che l’atmosfera è l’unico sistema in grado di simulare se stesso. È questo il motivo per cui, indipendentemente dalle personali (e dunque non scientifiche) posizioni sul determinismo, è sempre meglio decidere sulla porta di casa se prendere l’ombrello o meno. Il lettore avrà notato che il caos, in effetti, non è più tra le mode scientifiche da qualche anno. Al di là dell’effimero andamento dei “mercati culturali”, questo dato rispecchia semplicemente che la fisica del caos è ridiventata la teoria dei sistemi dinamici non–lineari, i.e. un settore specialistico con alcune importanti applicazioni in fisica e in altri campi. Non bisogna pensare che abbiamo a che fare con una scienza “morta”. Almeno tre delle medaglie Fields  hanno a che fare con la teoria dei sistemi dinamici. È maturata piuttosto la convinzione che la non–linearità è un ingrediente prezioso nei processi di amplificazione dell’informazione e della formazione di strutture, ma va “immersa” in una più generale “teoria dell’emergenza”, ancora in costruzione, che riguarda le relazioni sistema–ambiente, il ruolo delle fluttuazioni dissipative, l’ergodicità e tante altre questioni che se già difficili nell’ambito classico, diventano ancora più complicate — e ampiamente inesplorate — in teoria quantistica, dove ad esempio il termine “caos” ha un’accezione profondamente diversa e le sue “tracce sottili” costituiscono ancora una sfida aperta. Tra gli sviluppi più fecondi, che arrivano ricordiamo gli studi iniziati da I. Tsuda, K. Matsumoto e S. Doi sulle interazioni tra caos e rumore ambientale (noise), che hanno grande importanza nello studio delle “dinamiche

Introduzione



neuronali”. È stato dimostrato che da questa interazione possono nascere forme di ordine, e si è avanzata l’ipotesi che l’attività caotica dei neuroni corrisponde ad una sorta di “stato attentivo” pronto ad amplificare gli input esterni. Questo quadro sembra confermato anche dai recenti studi di W. Freeman e G. Vitiello, e di G. Resconi con l’autore. Un campo diverso e contiguo che fa uso delle nozioni caotiche ma in uno scenario più ampio che si sovrappone alla fisica dell’emergenza, è quello delle “teorie della complessità”. Il plurale è d’obbligo perché ci sono tanti modi di essere “complesso” proprio come di essere non–lineare, ma sopratutto è lo stato controverso dei “lavori in corso” e del gran numero di “cantieri aperti”, spesso in competizione tra loro, che ci obbliga ad evitare ogni tentativo di definizione univoca. Dal punto di vista di un fisico ci limiteremo a dire che le teorie della complessità e dell’emergenza nascono nell’ambito degli studi sulla “materia condensata”, i cui concetti e metodi hanno poi avuto una “migrazione” verso altre applicazioni. In generale si tratta di approcci (come la teoria delle reti) in cui si cercano di definire le condizioni per l’emergenza di un sistema. Come si può facilmente comprendere, anche qui sono in gioco questioni fondamentali, come ad esempio i gradi di autonomia di un sistema rispetto all’ambiente, questione connessa a quella dell’informazione. Finora abbiamo usato infatti questo termine nella più tradizionale accezione “sintattica”, ma persino nelle più semplici forme di vita l’informazione viene selezionata ed usata in modo selettivo, dipende dalla storia del sistema, ha un “significato”. Una futura (e “non fumosa”) teoria della complessità dovrà dunque dirci qualcosa sulle relazioni sistema–ambiente ma anche sull’“osservatore” come agente dotato di uno “spazio semantico“. Adesso che il tempo degli slogan è passato, ci sembra utile offrire al lettore ed agli studenti un’introduzione “sobria” alla fisica del caos. Qua e là il lettore informato troverà tra le righe tracce di qualche lavoro più avanzato o di una prospettiva diversa, frutto delle ricerche dell’autore in questo campo. Grande è il mio debito verso i tanti amici e colleghi con cui ho avuto il piacere di lavorare e discutere degli argomenti qui trattati: E. Pessa, T. Arecchi, G. Resconi, H. Haken, W. Freeman, G. Vitiello, J. Crutchfield, M. Arbib, J. Pacheco, E. Akiyama, R. Barrio, M. Zak, il compianto Joe Zbilut e A. Giuliani. A quest’ultimo ed al suo amore per i racconti di R. Carver devo il titolo di questa introduzione,insieme ad un buon numero di dibattiti pubblici sull’os-



Sistemi caotici

sessione dei fisici nel cercare sempre un’equazione “fondamentale” contro il più pragmatico approccio statistico usato dai biofisici come lui e dagli studiosi di scienze socio–economiche. In fondo la storia della fisica del caos è stato anche questo: cercare di trovare un’ordine dove gli altri vedevano solo la possibilità di fare un po’ di statistica. Alla fin dei conti, entrambe le posizioni avevano ragione. Se da una parte il caos non ha dato il tipo di risposte “definitive” che ci si aspettava (come accade spesso, si pensi alle ambizioni della prima I.A.), ha aperto però nuove domande e scenari confluendo in altre discipline che stanno rinnovando il nostro sguardo sulla Natura. Non può esserci sorte migliore per una teoria scientifica.

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.