made n.20 Giugno 2023
LA RIPRESA DELLE OSTILITÀ
16
pagina

BASTA CON IL CASO, TACCIA IL RUMORE
Non parliamo dunque più di caso [...l
Joseph de Maistre

Quella che potremmo definire “epistemologia popolare francese” – si ritornerà più  avanti su questo strano fenomeno – ci ha negli ultimi anni gratificati di un certo numero di opere, alcune delle quali divenute assai celebri: basti citare Il Caso e la Necessità (Le hasard et la nécessité, 1970) di Jacques Monod, Il metodo (La méthode) di Edgar Morin, Tra il cristallo e il fumo (Entre le cristal et la fumée, 1979) di Henri Atlan e La nuova alleanza (La Nouvelle Alliance, 1979) di Ilya Prigogine e Isabelle Stengers. Ebbene, per quanto differenti e talora persino opposte le filosofie ad esse sottese, curiosamente denunciano almeno un tratto comune: tutte glorificano oltraggiosamente il caso, il rumore, la “fluttuazione”; tutte rendono l'aleatorio responsabile sia dell'organizzazione del mondo (attraverso le “strutture dissipative”, secondo Prigogine), sia dell'emersione della vita e del pensiero sulla terra (attraverso la sintesi e le mutazioni accidentali del DNA, secondo Monod). E l'amico Michel Serres non è da meno allorché in Lucrezio e l'origine della fisica (La naissance de la physique dans le texte de Lucrèce, 1977) si mostra sostenitore appassionato – appunto – del clinamen lucreziano ... Vorrei subito dire che la fascinazione dell'aleatorio è sintomo di un'attitudine antiscientifica per eccellenza, tanto più che – in larga misura – procede da una sorta di propensione al confusionismo, giustificabile presso autori di formazione letteraria ma imperdonabile a studiosi in linea di principio avvezzi ai rigori della razionalità scientifica.
Cos'è di fatto l'aleatorio? L'unica definizione possibile non può che avere valenza negativa: aleatorio è un processo non simulabile da alcun meccanismo né descrivibile da qualsivoglia formalismo [1]. Affermare che “il caso esiste” equivale perciò a prendere una posizione ontologica consistente nell'affermare la realtà di fenomeni naturali che non potremo mai descrivere, dunque mai comprendere. E’ rinnovare il celebre Ignorabimus di Du Bois-Reymond, è resuscitare l'ondata di irrazionalismo e antiscientismo degli apostoli della “crisi della scienza” negli anni 1880-90: Boutroux, Le Roy ...
Il mondo è costretto a un deterrninismo rigoroso o esiste un “caso” irriducibile a qualsiasi descrizione? Così posto, evidentemente, il problema è di natura metafisica [2] e solamente un'opzione del pari metafisica è in condizione di scioglierlo. In quanto filosofo, lo scienziato può lasciare aperta la questione; ma in quanto scienziato ha il dovere di principio – sotto pena di cadere nell'autocontraddizione – di adottare una posizione ottimistica e di postulare che in natura nulla è aprioristicamente inconoscibile.
Che autori quali Atlan o Prigogine, la cui filosofia è fondamentalmente antiriduzionista – e per il primo, mistica –, abbiano abbracciato il punto di vista dell'ipostasi del caso non è certo sorprendente; stupisce di più incontrare in questa posizione il materialista Jacques Monod. Ma in questa materia Monod non ha fatto altro che seguire se non Darwin almeno l'ortodossia darwiniana (ulteriormente rafforzata in neodarwinismo).
A tal proposito, è probabilmente legittimo dire che con il darwinismo è stato introdotto nella scienza l'uso illegittimo del caso, quel caso che si supponeva definitivamente sepolto dai sarcasmi che avevano salutato il clinamen di Democrito. E in fondo, perché mai rifarsi al caso per spiegare l'evoluzione sarebbe più scientifico che appellarsi alla volontà di un Creatore? Forse che il caso è altro da un succedaneo laico della finalità divina, così come teleonomia è un sostituto confessabile della teleologia?
A rendere maggiormente oscuro il dibattito ha contribuito il fatto che né la nozione di caso né quella, opposta, di determinismo, sono semplici. Si è creduto che l'impiego di metodi statistici da parte della scienza giustificasse la presenza del caso; molti – sulle tracce di Brillouin – hanno cercato di dare alle leggi stesse della fisica un fondamento statistico. Ma in tali condizioni com’è possibile seguire Einstein, lui che si rifiutava di vedere in Dio un perpetuo giocatore di dadi? E ancora, si evocano le “leggi del caso”, ad esempio la legge dei grandi numeri. Come ritrovarsi, allora, nella bizzarra dialettica fra caso e necessità? Il caso, in sé negazione di qualsiasi ordine, andrebbe soggetto a leggi laddove spesso ev olentieri il determinismo sfuma sotto una struttura statistica.
Per aprire qualche breccia in questo groviglio “problematico” converrà risalire al punto di partenza: perché un fenomeno possa diventare oggetto della scienza, e come tale essere inventariato nel patrimonio comune (e, in linea di principio, eterno) del sapere scientifico, occorre innanzitutto poterlo descrivere. Ecco perché ogni discussione sul tema “caso contro determinismo” deve muovere dall'esame dei linguaggi e dei formalismi che consentono di fare di un fenomeno l'oggetto di un sapere. Ma di simili tecniche descrittive, ne possediamo tutt'al più due: la lingua naturale e il formalismo matematico [3]. Si scomporrà dunque il reale osservabile in isole descrivibili, sia linguisticamente – isole (LN) – , sia matematicamente – isole (M) –, a loro volta separate da zone non descrivibili o per lo meno difficilmente accessibili alla descrizione.
Ciò posto, si può affermare che lo scopo di ogni scienza, una volta inventariate le isole descrivibili (LN) o (M), è tentare di organizzarle in isole maggiori che ne spieghino – determinino – la concatenazione spazio-temporale. Altrimenti detto, lo sforzo è quello di costruire una “sintassi” di queste isole descrittive tale da rendere conto dei loro sistemi associativi necessari o probabili. Quanto alle isole (LN) della realtà macroscopica usuale, disponiamo di processi mentali che permettono di prevedere gli effetti di talune situazioni inizialmente descritte: ciò che potremmo chiamare “logica naturale” (o “buon senso”). Riguardo alle isole (M), la matematica e la fisica forniscono dei metodi che sovente mettono in grado di estrapolare i dati e dunque di estendere il campo di validità di una descrizione – strumento fra i più tipici, il “prolungamento analitico”. Ma prima ancora del problema dell'estensione delle isole, un altro se ne evidenzia, quello dell'articolazione fra i due formalismi (LN) e (M). La stessa “rottura epistemologica” galileo-newtoniana può essere tradotta in questi termini: talune isole (LN) possono venir descritte – almeno in ciò che attiene a certi “effetti” ulteriori – da isole (M) che permettono, attraverso un'estrapolazione di carattere matematico, di prevedere la presenza di altre isole (LN); un'operazione non realizzabile con le risorse della “logica naturale”. In meccanica, per esempio, è possibile calcolare la traiettoria di un proiettile; conoscendo con sufficiente precisione la posizione e la velocità della freccia di Guglielmo Tell in uscita dalla balestra, si può prevedere che finirà per colpire la mela sulla testa del figlio.
A partire di qui venne fondandosi la credenza – peraltro magnificamente enunciata nella celebre formula del determinismo laplaceiano – che il linguaggio matematico, in quanto intrinsecamente più preciso, fosse più potente della lingua naturale e che, a lunga scadenza, tutte le scienze fossero destinate ad adottarlo.
Tuttavia un esame pur superficiale delle condizioni d'uso delle lingue naturali mostra che così non è. Nella realtà macroscopica esistono alla nostra scala enormi blocchi di fenomeni (isole LN) la cui descrizione verbale è qualitativamente più che soddisfacente e per i quali una descrizione matematica rigorosa del tipo laplaceiano sarebbe non solo assai difficile ma anche non pertinente. In effetti la classe di equivalenza fra oggetti del mondo definita dal riferimento a uno stesso concetto (espresso da nomi grammaticali quali “gatto”, ”albero”, “tavolo”…) non può essere formulata matematicamente in termini di posizione e velocità delle molecole costituenti gli oggetti. Tale è, in particolare, il caso della descrizione degli esseri viventi.
Ma c'è di più: può essere che un sistema naturale ammetta una rappresentazione matematica precisa, che quindi costituisca un'isola (M); allora i suboggetti del sistema, che nell'ambito di questo formalismo possono essere descritti linguisticamente, sono oggetti di forma semplice, oggetti “geometrici”. Se si segue l'evoluzione temporale descritta dal formalismo matematico, si danno due possibilità. Un'evoluzione che mantenga gli oggetti “geometrici”, linguisticamente descrivibili; si tratta specificamente dell'evoluzione di tipo geometrico di una traslazione che, conservando le distanze, preserva pertanto le forme: si pensi ai sistemi che descrivono il movimento di proiettili nell'atmosfera e alla nostra scala, per i quali si può allora parlare di sistemi a evoluzione controllabile (noti come sistemi Mc). Ma quando si tratti di sistemi di tipo ricorrente (che ritornano arbitrariamente alla posizione iniziale, il movimento dei pianeti ... ) o, per essere più precisi, di sistemi “erodici e miscelanti” (così la “trasformazione del fornaio” descritta nel libro di Prigogine e Stengers),[4] le forme geometriche si contorcono nello spazio al punto da perdere in breve tempo ogni carattere riconoscibile, sì che, al fine di descrivere tali forme, il formalismo linguistico non ha più alcuna efficacia; le sole entità accessibili alla descrizione nello stato asintotico del sistema sono definite da medie di misure invarianti estese su tutto lo spazio. Esiste per l'appunto una grandezza, l'entropia di Kolmogorov-Sinai”, che descrive con precisione il progressivo depotenziamento del formalismo linguistico nel focalizzare gli stati futuri del sistema. Per conservarne un certo controllo si dovrà perciò passare da una descrizione fine – microscopica – a una descrizione più grossolana, globale, a carattere statistico. Una degradazione statistica del determinismo che si dimostra essere un fenomeno assolutamente generale, soprattutto massiccio in ordine alle perturbazioni; è qui che troviamo la motivazione ultima delle pretese “leggi del caso”, di fatto nient'altro che proprietà del sistema deterministico nel complesso. Si parlerà allora di sistema (Ms).[5]
Per i sistemi (Ms) la descrivibilità linguistica si spoglia rapidamente di qualsiasi efficacia e sola sussiste la rappresentazione matematico-statistica; il descrivibile, come la voluta di fumo che non tarda a fondersi per diffusione in tutta l'atmosfera, diviene propriamente indescrivibile, e al proposito s'è parlato di “evoluzione caotica” D’altronde proprio nell'aumento del disordine nel corso del tempo consiste l'andamento usualmente attribuito ai sistemi a entropia crescente retti dal secondo principio della termodinamica. Nulla di sorprendente in ciò ... Assai più inatteso l'emergere del descrivibile dall'indescrivibile. Il fatto che il nostro universo non sia un caos, che vi si possano distinguere oggetti i quali danno prova di grande stabilità e che talvolta paiono nascere da un ambiente apparentemente indifferenziato è per noi un'esperienza banale. Come può il descrivibile emergere dall'indescrivibile: è questo, in fondo, il problema centrale con cui la scienza si trova a fare i conti. Talvolta il nuovo descrivibile sorge da una situazione essa stessa descrivibile, ma è il legame sintattico fra il nuovo e l'antico a risultare inabituale e sorprendente.
Jacques Monod richiama a tal riguardo la definizione spinoziana del caso come intersezione accidentale di due catene causali indipendenti: sicché il pedone, mentre cammina, resterà ucciso dal crollo di un camino provocato dal vento. In quest'ottica, è piuttosto agevole far rientrare il processo antecedente la “catastrofe” in uno schema deterministico di tipo laplaceiano, ove quelle catene causali indipendenti siano assunte quali movimenti separati di un sistema dinamico globale. La condizione di collisione fra due mobili darebbe luogo allora a uno stato fisico poggiarne sugli stati iniziali [6]: in termini matematici, le condizioni iniziali originanti una collisione formerebbero una sottovarietà S di codimensione uno nello spazio dei dati iniziali (o in un intorno tubolare stretto della varietà S).
Come dire che il fenomeno è “raro” e giustifica pertanto la sorpresa dell'osservatore. Si potrà interpretare la comparsa della catastrofe come il risultato di un fenomeno di “focalizzazione” topologicamente analogo a quello creato da un'onda d'urto in un ambiente fluido sulla parte anteriore di un pistone mosso da un movimento accelerato (“fenomeno di Riemann-Hugoniot”) o dall'onda d'urto provocata da un aereo supersonico. La sola differenza è che il primo fenomeno richiede uno stretto controllo dei dati iniziali mentre il secondo, “strutturalmente stabile”, resiste a una piccola perturbazione. Precisamente qui sta l'enorme debolezza della posizione di Monod: al momento della comparsa della vita, lo stato della terra avrebbe dovuto essere in una condizione tutta speciale di estrema instabilità  e anzi il minimo “rumore” nella preparazione di quello stato avrebbe impedito alla vita e all'intelligenza umana di manifestarsi. Sarebbe occorsa non soltanto la Creazione ma addirittura la Creazione continua ...
Tutto porta dunque ad ammettere che si realizzò  piuttosto una situazione del secondo tipo, strutturalmente stabile: una volta costituitasi la terra nelle condizioni climatiche e chimiche dell'epoca, vita e pensiero dovevano necessariamente nascere anche in presenza di “piccole perturbazioni” dell'ambiente.
Far nascere il descrivibile dall'indescrivibile è appunto il programma definito dallo slogan: “l'ordine attraverso il rumore”. Il movimento che vi si appella, creato una trentina d'anni fa da von Foerster, ha conosciuto sotto vesti differenti un notevole e persistente successo presso gli scienziati e gli epistemologi dell'Europa occidentale. Si tratta, nella maggior parte dei casi, di costruire una teoria di quei fenomeni di divergenza dinamica in cui una debole perturbazione delle condizioni iniziali è sufficiente a provocare notevoli variazioni negli effetti.
Un eccellente testo di Maxwell aveva offerto un quadro sorprendente di simili situazioni, perfettamente compatibili – inutile dirlo – con lo schema deterministico [7]. In tutti questi casi si è alle prese con un punto singolare della dinamica, che conduce a ciò che chiamiamo “biforcazione” (oppure, se la biforcazione tarda a presentarsi, a una “catastrofe”).
Ebbene, il gioco intellettuale dei teorici dell'”ordine per fluttuazione” (Prigogine e Stengers) è consistito nel cancellare mentalmente il paesaggio dinamico globale – fin d'ora deducibile da un esame sufficientemente completo del substrato – a vantaggio della piccola perturbazione scatenante cui segue il crollo della metastabilità del sistema verso un equilibrio di energia inferiore.
L'artificio sta nel far credere che l'evoluzione successiva, dagli effetti spettacolari, sia effettivamente creata dalla “fluttuazione” scatenante; come affermare – per riprendere l'esempio di Maxwell della scintilla che incendia il bosco – che è la scintilla a creare la foresta che poi incendierà. Ora, è questa una situazione generale: un esame sufficientemente completo del substrato permette di prevedere a priori i possibili esiti della biforcazione preesistente alla fluttuazione scatenante. Spetta a quest'ultima il ruolo di innescare il processo e – eventualmente – di determinare con una scelta apparentemente arbitraria fra tutti gli esiti possibili l'ulteriore evoluzione. Ma certo non la crea.
Sia pure in forma implicita, Prigogine stesso finisce per riconoscerlo notando che, a distanza dalla biforcazione, la statistica delle fluttuazioni è approssimativamente gaussiana (“a campana”) vicino all'equilibrio, ma cessa di esserlo approssimandosi ai valori di instabilità. Ciò che equivale a  confessare che è la dinamica deterministica soggiacente a modellare la statistica delle fluttuazioni, e non l'inverso. Peculiarità della fluttuazione è di essere indescrivibile (solo si può fare la statistica di un insieme di fluttuazioni); non appena una fluttuazione individuale cresce al punto di assumere dei caratteri polarizzati, orientati – vale a dire nel momento in cui presenta correlazioni di grande portata –, e si rende suscettibile di descrizione, cessa per conseguenza di essere fluttuazione per diventare perturbazione ...Perché allora questo discorso sulla fluttuazione iniziale? Cosa si guadagna ad avvolgere lo scheletro del determinismo in uno strato di grasso statistico?[8] Al più si potrà precisare una modificazione locale delle condizioni di apparizione delle soluzioni biforcate, ma ciò non coinvolgerà il programma delle fasi – il paesaggio globale delle soluzioni possibili – preesistente al rumore che colpisce il sistema. Perché allora questo fascino del clinamen, della piccola fluttuazione scatenante? Non ci si inganni: il sofismo dell'«ordine attraverso il rumore» è quello stesso del neodarwiniano Monod.
Il lavoro dell'Ermenauta nel 1968
Non va beninteso negata l'esistenza di fluttuazioni in un sistema; ma, quando esso sia strutturalmente stabile, l'esistenza delle fluttuazioni non ha effetto dal punto di vista qualitativo e può essere considerata come insignificante. E’ quanto ha scoperto il genetista Kimura: la deriva genetica delle popolazioni è “neutra”, priva d'effetto sul fenotipo della specie. La fluttuazione diviene significativa esclusivamente in seguito alla perdita di stabilità strutturale, ma soltanto nel quadro di una biforcazione preesistente.
Non sono in grado di spiegare il fascino del clinamen della piccola fluttuazione iniziatrice di grandi avvenimenti se non quale preziosismo letterario. Immergere l'evoluzione dei fenomeni in una sorta di «vaghezza artistica», immaginare se stessi all'incrocio delle vie e con involontario buffetto precipitare il mondo in un abisso di catastrofi successive ... Farsi naso di Cleopatra, o Ercole fra il vizio e la virtù: più e più volte Michel Serres ci ha trascinati a questi bivi critici dell'evoluzione, ma, sul piano razionale, che cosa ci resta di questi viaggi immaginari se non il piacere provato nel seguirli?
L'«ordine attraverso il rumore» può nondimeno ammettere un'interpretazione meno imbarazzante. Conosciamo il principio di Curie: «ogni simmetria delle cause si ritrova negli effetti»; ma è principio che si rivela difettoso al cospetto di molteplici fenomeni, specialmente nel campo dell'idrodinamica. Anche qui, però le rotture di simmetria osservate non sono arbitrarie, talché una teoria sufficientemente sottile non mancherà di definire tutti i sottogruppi in cui detta simmetria può frantumarsi; ancora una volta la situazione non è differente da quella di una matita cilindrica posta in verticale sulla punta; la matita cadrà nella direzione che imporrà un minimo scarto rispetto ai dati iniziali. Si noterà d'altra parte che in tal caso si procede da una simmetria maggiore a una minore: si può dunque legittimamente parlare di creazione di disordine piuttosto che di creazione di ordine.
E ciò richiama la diffidenza con cui conviene trattare tutti i discorsi fatti sull'ordine, sul disordine, sulla complessità (o sull'ipercomplessità!) dei sistemi; quante affermazioni avventate si è preteso di giustificare in base alla termodinamica e al secondo principio ... Ci sono innanzitutto coloro che, con un'estrapolazione abusiva – ma è un peccato veniale ­–, hanno applicato il secondo principio della termodinamica all’universo intero, avventurandosia predire l'ineluttabile morte termica del nostro mondo. Più grave è il caso di quanti hanno giocato sconsideratamente con le nozioni di ordine e di complessità. A ben vedere, infatti, quella di ordine è nozione morfologica fondamentale poggiante in ultima analisi sulla descrizione geometrica, spaziale, di un dato cui sempre soggiace un substrato formato di elementi intercambiabili, si tratti di punti geometrici o di eventi elementari equiprobabili. In linea di massima, tuttavia, è questo un riferimento mancante nel genere di discorsi fatti da costoro, per il semplice motivo che in tal contesto risulta impossibile; o meglio, nei sistemi a differenti livelli gerarchici di organizzazione, la nozione di ordine è «relativa» a un determinato livello di organizzazione, né potrebbe essere considerata come assoluta. Così in un sistema molecolare il disordine perfetto, assoluto alla scala della molecola, può essere considerato alla scala macroscopica come un ordine perfetto, e ciò perché tutti i punti del sistema hanno le stesse proprietà osservabili. E’ su tale ambivalenza della nozione di ordine che si muove Atlan per giustificare il principio dell'«ordine attraverso il rumore»; idea giusta, ma la cui fecondità per spiegare una morfogenesi specifica, pare assai limitata ...
Tutte le considerazioni sull’aumento ineluttabile del disordine sono già sospette nei casi dei sistemi chiusi. Infatti la termodinamica non è in realtà che una termostatica; non fa che affermare l'esistenza di uno stato di equilibrio ultimo del sistema, ma è muta sul tempo necessario a raggiungerlo, né sa descrivere le modalità di approccio all'equilibrio. In particolare, un tale sistema può comportare per lungo tempo delle organizzazioni spaziali e persino presentare variazioni in queste morfologie... Quanto poi ai sistemi aperti, qualora si tratti di sistemi quasi chiusi, anche ad essi si può estendere l'esistenza dell'equilibrio conosciuto per quelli chiusi. Entra qui in gioco un semplice teorema matematico («teorema delle funzioni implicite») che permette di costruire ciò che Prigogine chiama «ramo termodinamico». Al di là di questo, vale a dire sugli stati stazionari che possono presentarsi (le “stutture dissipative”) la termodinamica non ha più niente da dire. Di questi regimi è unicamente consentito affermare che dipendono da una modellizzazione specifica, da una conoscenza particolare che permette di darne una descrizione come sistema differenziale. Sistema che, una volta ottenuto, può essere studiato sia quantitativamente che qualitativamente; si cercheranno gli «attrattori» del sistema e si determinerà se su di essi la dinamica mostra «sensibilità alle condizioni iniziali» che distruggono la descrivibilità linguistica e ne fanno dei sistemi (Ms).
La corrispondenza fra la struttura interna dell'attrattore e la struttura spaziale del regime corrispondente non è semplice; in idrodinamica, segnatamente nello studio della turbolenza, questa relazione è controversa [9]. In un certo senso, e nella misura in cui ogni sistema fisico può essere modellato da un attrattore «strutturalmente stabile» (in senso debole) di una dinamica, ogni sistema è «estrinsecamente» ordinato quanto «intrinsecamente» caotico. Infatti ogni sistema osservabile si distingue per definizione dal resto dell'universo; ne è separato da una interfacie, da una «paratia» più o meno concreta, ed è questo a renderlo ordinato; il solo problema effettivo è di comprendere il rapporto fra la paratia esterna e il caos interno. Soltanto uno studio attento della biforcazione di detti «attrattori strani» – secondo la terminologia moderna [10] – permetterà di vedervi più chiaro; tutto il resto è letteratura e – temo – cattiva letteratura.
Se ultimamente nel campo della stabilità dei regimi sono state avanzate alcune idee nuove, ciò non si è dovuto agli studiosi di termodinamica, i quali continuano a giocare con gli algoritmi tradizionali (da Carnot e Clausius a Boltzmann e Gibbs), ma ai matematici, che hanno introdotto due concetti essenziali: per un verso, ci si è resi conto che un sistema dinamico classico («hamiltoniano») non è necessariamente ergodico bensì stabilmente compatibile con una certa misura di conservazione delle forme geometriche (linguisticamente descrivibili) [11]; per altro verso, i recenti progressi in dinamica qualitativa (la scuola di Smale negli Stati Uniti e quella di Sinai in Unione Sovietica) hanno in larga parte chiarito i rapporti fra schemi deterministici e descrizioni probabilistiche; intorno a ogni attrattore è in generale possibile definire delle “temodinamiche locali” atte a descrivere le proprietà stabili e intrinseche dei suddetti regimi. Gli apporti dei matematici dovrebbero poter aggiungere elementi di risposta al problema posto dalla patente contraddizione fra la permanenza della descrizione linguistica del nostro mondo e il degrado verso la vaghezza statistica prevista dal secondo principio. Da questo punto di vista, la nozione di “fase” della  materia resta ancora estremamente misteriosa; dopo tutto, se un oggetto solido è permanente e può essere oggetto di una descrizione (LN), la sua organizzazione molecolare dà prova di una certa stabilità e ciò porta alla persistenza del suo bordo, della paratia interposta fra esso e il mondo esterno ... Chi volesse mettere in imbarazzo un biologo molecolare, potrà chiedergli qual è la “fase” (solida, liquida, colloidale, gelatinosa) del citoplasma di una cellula vivente... Non c'è dubbio – almeno ai miei occhi – che la teoria delle transizioni di fase è ancora lungi da quell'approdo definitivo cui, secondo taluni teorici della meccanica statistica, sarebbe pervenuta.[12] 
Ma ritorniamo al nostro argomento, all'opposizione caso/determinismo. Il caso – lo abbiamo veduto – E’ un concetto affatto  negativo, vuoto, e dunque spoglio d'interesse scientifico; il determinismo invece è un oggetto di affascinante ricchezza per quanti sappiano esaminarlo. Alquanto sbrigativamente nella Nuova alleanza s'è ritenuto di dover danzare sopra le spoglie del determinismo laplaceiano. Ci sono, nella nostra rappresentazione matematica del determinismo, due ingredienti che conviene meglio separare: il campo dei vettori (X),la cui integrazione darà le traiettorie possibili del movimento, e lo spazio “di fase” M sul quale è definito il campo (X). Prigogine e Stengers attaccano la nozione di traiettoria, ritenendola superata ... Già la meccanica classica non si accontentava dell'usuale spazio tridimensionale per definire il movimento; dopo Galileo e Newton si è reso necessario uno spazio dimensionale doppio (perciò a sei dimensioni, con i momenti cinetici associati), luogo in cui la teoria dinamica definirà le traiettorie. Per instaurare il determinismo classico s'è dunque manifestato il bisogno di aumentare la dimensione dello spazio con l'introduzione di nuove variabili inizialmente nascoste (i momenti, o velocità). Ecco un meccanismo assolutamente generale: quando un fenomeno è apparentemente indeterminato, si può tentare di far rientrare in gioco il determinismo moltiplicando lo spazio dato U per uno spazio (interno) S di variabili nascoste; si considererà il fenomeno iniziale in U come proiezione di un sistema deterministico nel prodotto U x S. La statistica, da questo punto di vista, è null'altro che un'ermeneutica deterministica tendente a reinstaurare il determinismo laddove pare cadere in fallo; allo spazio iniziale M è stato sostituito uno spazio M' più grande entro cui tuttavia si conserva lo schema deterministico (M, X) perchè non si può fare altrimenti. [13]"
E in questo spazio si avrà nuovamente un'azione del tempo che dà origine a delle traiettorie .... Ma gli adepti della scuola di Bruxelles evitano di scrivere equazioni differenziali ordinarie o equazioni alle derivate parziali con il pretesto che la nozione di traiettoria è superata ... Per contro, l'introduzione di spazi di parametri nascosti solleva evidentemente degli altri e non facili problemi poiché è chiaro che occorre sforzarsi di mettere in evidenza il modello minimale reinstaurando il determinismo. In tale ottica la distinzione più sopra enunciata fra sistemi “controllabili” (Mc) e sistemi statistici (Ms) è grossolanamente semplificatrice. I sistemi (Mc) e (Ms) sono i poli di uno spettro quasi continuo di situazioni intermedie. Il determinismo ha, in linea di massima, una struttura stratificata (secondo le scale del tempo), una dinamica rapida in un prodotto U x S si proietta approssimativamente su una dinamica lenta in U; si potrà allora considerare quest'ultima come fondamentale (il “segnale”), perturbata da un “rumore” proveniente dalla proiezione U x S
U. La distinzione segnale/rumore è dunque sostanzialmente soggettiva; e si chiamerà “rumore” questa componente troppo piccola per intaccare sensibilmente l'evoluzione qualitativa del fenomeno, e la cui effettiva elucidazione darebbe adito a studi di minuzia tale da metterne in dubbio i benefici eventuali. Ancora, si potranno anche tentare ipotesi generiche su quel rumore, generalizzando le ipotesi gaussiane che normalmente si fanno ... E’ che nella scienza il determinismo non è un dato, è una conquista. Perciò gli zelatori del caso sono gli apostoli della diserzione.
Dopo la critica di tante opere di “epistemologia popolare”  si pone una questione di natura sociologica: da dove viene la fioritura di un genere relativamente nuovo che coltiva così ostensibilmente l'approssimazione e la “vaghezza artistica”? Perché in Francia, la razza dei veri epistemologi, dei Poincaré, dei Duhem, dei Meyerson, dei Cavaillès, dei Koyré pare estinta? Perché la filosofia scientifica francese non ha prodotto – al pari di quella anglosassone – un Popper o, più di recente, un Kuhn? E’ forse per il carattere fondamentalmente soggettivistico e ascientifico di una tradizione universitaria improntata a Husserl e a Heidegger? O dipende dall'atmosfera politico-moralizzatrice che troppo spesso vi regna sovrana?[14]
Ci si chiede allora chi ne sia il responsabile; forse un Bachelard dal sorriso bonario sarebbe all’origine della deviazione letteraria dell'epistemologia? Confesso di avere minori riserve nei riguardi di questo tipo di produzione, che meno si gloria di dire cosa dev'essere la scienza per trarre piuttosto dalle metafore scientifiche una risonanza specificamente letteraria, per il piacere di tutti; nei riguardi di quegli autori che, per lo meno, non parlano ex cathedra, dall'alto della loro reputazione scientifica.
L'ultimo rampollo della stirpe, Michel Serres, trasforma nel Parasite la visione cosmica del parassitismo in un vasto affresco morale. Avrei potuto completare così il mio titolo: «Basta con il caso, taccia il rumore, morte al parassita». Ma non ho voluto scrivere un articolo sull'utopia.
pagina


[1] . L'identificazione sistemi formalizzabili/sistemi meccanizzabili è stata precisata dalla logica sotto il nome di “tesi di Church”. Come tutte le questioni fondamentali, tale identificazione ha un carattere problematico che non discuteremo in questa sede.

[2] . Taluni autori (fra cui P. Suppes nelle lezioni tenute nel novembre 1979 al Collège de France) fanno il punto sull'indeterminismo quantistico per giustificare scientificamente  l’esistenza del caso. I tentativi di rimuovere l'indeterminismo quantistico con l'uso di “variabili nascoste” hanno dimostrato che il problema è inestricabilmente legato a due questioni di natura ancor più profonda: la “localizzazione” (esistenza di una velocità limite c per le influenze causali) e la possibilità stessa di una descrizione istantanea del mondo, completa e valida per tutti gli osservatori. “Affermare il caso” è allora solo una possibilità all’intemo di un insieme finito di opzioni, le quali tutte – bisogna riconoscerlo – mostrano un aspetto sgradevole.

[3] . Si esclude qui la pura e semplice opera di archiviazione di dati empirici grezzi, alla stregua dell’'atlante fotografico che costituisce la carta del cielo ...

[4] . Prigogine e I. Stengers, La nuova alleanza. Metamorfosi della scienza,  trad. it . a cura di P. D. Napolitani. Torino 1981, pp. 2-45-44 e 2-48-50.

[5] . I sistemi (Ms) sono i sistemi differenziali caratterizzati dalla proprietà di “sensibilità alle condizioni iniziali”, secondo la terminologia di D. Ruelle (se ne veda più innanzi il saggio Caso e determinismo: il problema della prevedibilità, specialmente le pp. 134-37): la distanza fra due punti mobili m(t) m'(t) usciti da due punti vicini m(O), m'(O) cresce – almeno all'inizio – come una funzione esponenziale del tempo t . Sistemi, questi, probabilmente corrispondenti a quelli detti “a  stabilità debole” da Prigogine e Stengers (La nuova alleanza… cit., pp. 237 sgg.). Numerosi sistemi (ad esempio quelli che soddisfano l'assioma A di Smale) presentano stabilmente questa proprietà.

[6] . Per esempio, in due strade intersecantesi ad angolo retto e i cui assi siano gli assi cartesiani OX e OY del piano OXY, due veicoli situati nel momento t = 0 rispettivamente nei punti d'ascissa x(),  y = () e x = (), y(), e procedenti rispettivamente alle velocità uniformi dx / dt = a dy / dt = b verranno a collisione in O se sarà soddisfatta la condizione x() / a = y() / b . Nello spazio delle condizioni iniziali, questa relazione definisce l'ipersuperficie (S) della quale si parla nel testo.

[7] Il ruolo delle singolarità nella dinamica era già stato rilevato nel 1880 da Boussinesq, che pensava così di inaugurare la “crisi della scienza”: cfr. supra, p. 48. Ma si ascolti Maxwell: “In tutti i casi di questo genere [...] c'è dunque una circostanza comune: il sistema possiede una quantità di energia potenziale che può essere trasformata in moto, ma che non può cominciare ad essere così trasformata fino a che il sistema non ha raggiunto una certa configurazione, il che richiede un dispendio di lavoro, che in certi casi può essere infinitesimalmente piccolo, e in generale non è commensurabile con l'energia che permette di liberare. Ad esempio il masso che il gelo ha lasciato in equilibrio su di un punto singolare del fianco della montagna, la piccola scintilla che incendia l'intera foresta, la piccola parola che fa scoppiare la guerra mondiale, il piccolo scrupolo che impedisce all’uomo di fare ciò che gli pare, la piccola gemmula che ci rende filosofi oppure idioti”. (J.C . Maxwell, Science and Free Will, in L. Campbell e W. Garnett. The Life of James Clerk Maxwell, London 1882, cit. in Prigogine e Stengers, La nuova alleanza… cit., p. 76).
[8] . Parafrasi della formula con cui i fisici inglesi descrivono il “metodo BKW”: putting some quantum flesh on classical bones.

[9] . Alludo qui all'interpretazione della turbolenza idrodinamica proposta da D. Ruelle e F. Takens, che presenta qualche problema qualora venga confrontata con la morfologia empirica delle isole turbolente in una zona laminare.
[10] . Sugli «attrattori strani» e la proprietà di sensibilità alle condizioni iniziali si veda l'articolo di D. Ruelle, Les actracteurs étranges, in La Recherche. febbraio 1980, n. 108, pp. 152-44.

[11] . I lavori di Kolmogorov, Arnol'd e Moser sul problema ristretto dei tre corpi hanno dimostrato che, contrariamente alle opinioni assai diffuse tra i fisici, un sistema hamiltoniano generico non necessariamente è ergodico; dato che l'algoritmo essenziale di Gibbs è basato sull'ergodicità locale della dinamica dei sistemi di particelle (gas), è chiaro che lo si dovrebbe applicare con una certa circospezione.

[12] . Il riferimento è alla teoria dei fenomeni critici, fondata sul gruppo di rinormalizzazione (teoria di Kenneth Wilson). Più generalmente. tutti i modelli della meccanica statistica detti “esatti” (per esempio il gas in rete) soffrono di evidente irrealismo.

[13] . Così. in presenza di un sistema deterministico classico (M, X), sarà talvolta necessario sostituire ad esso un modello detto “stocastico” basato su una distribuzione di probabilità m(x) la cui evoluzione sarà retta dall'equazione di Fokker-Planck associata: δm/δt = X(m)  con X derivata di Lie. In tal modo altro non s'è fatto che cambiare di spazio, sostituendo alla varietà M iniziale lo spazio C (M) delle funzioni reali lisce su M.

[14] . Si pensi, oltre alla tradizione dell’idealismo cristiano, assai viva in Francia, agli esponenti del pensiero marxista; contrariamente ai loro omologhi della scuola di Francoforte, l'elaborazione dei marxisti francesi è stata troppo spesso resa sterile dal dogmatismo politico.


***
Quest’articolo di René Thom, pubblicato sulla rivista Le Débat (1980.3), ricevette la replica di Ilya Prigogine sulla stessa rivista (Loi, histoire … et désertion, 1980.6) avviando una querelle che fu poi conclusa sei anni dopo con gli articoli di Thom (Postfazione al dibattito sul determinismo) e di Prigogine-Stengers (La polemica sul determinismo, sei anni dopo), entrambi pubblicati nel volume a cura di Krzysztof Pomian, La querelle du déterminisme. Philosophie de la science d’aujourd’hui (Gallimard, Paris, 1990, Ed. it., Sul determinismo. La filosofia della scienza oggi,  ed. Il Saggiatore, Milano, 1991) che raccoglie anche tutti gli altri interventi al dibattito.
pagina


Chiediedi alla voce . DETERMINISMO

René Thom . 1980
arteideologia raccolta supplementi