_antoniobernardo
(90 punti)
19' di lettura
3,8 / 5 (6)

Dobbiamo scoprire che pensare la realtà è, tra tutte, l'avventura più difficile. Significa navigare tra mutilazione e confusione, tra sclerosi e deriva, tra razionalizzazione e irrazionalità, assieme e contro ragione e follia... Il Problema - il gioco del pensiero- è di lasciarci intrattenere abbastanza dalle nostre pulsioni nella misura in cui esse ci regalano immaginazione e invenzione, ma senza cessare di controllarle, senza cessare di mettere alla prova quello che costituisce la sola e la più potente resistenza alle nostre razionalizzazioni: la complessità del reale.

E' in quel momento che la complessità del reale può stimolare la complessità del pensiero. Edgar Morin (1921) Introduzione al pensiero complesso.

Forse la Complessità non è una nuova disciplina filosofica o scientifica ma è più verosimilmente un nuovo modo di pensare ed osservare i fenomeni della realtà. Essa investe i territori di molte discipline: filosofia, sociologia, psicologia, antropologia, biologia, ecologia, chimica, fisica, matematica, informatica, ingegneria, economia, gestione, organizzazione, ecc. ponendo l'accento sulla visione globale, sulle relazioni tra le parti, sulle dinamiche non lineari e sull'auto-organizzazione.

La teoria della Complessità è nata nella seconda metà dello scorso secolo: qualcuno la fa risalire al pensiero sociologico e filosofico di Morin altri a quello fisico e scientifico di Prigogine in Europa e Gell-Mann negli USA. Nel seguito i principali programmi di ricerca e filoni di pensiero:

Pensiero Complesso (E. Morin): Morin ha dedicato gran parte della sua opera ai problemi di una "riforma del pensiero", concentrandosi su alcuni aspetti: la specializzazione e l'interdisciplinarietà, la cesura tra cultura scientifica e umanistica, la distinzione tra i valori e le conoscenze/competenze di una cultura, l'importanza della formazione e della preparazione degli educatori ad un pensiero della complessità.

Cibernetica (N. Winier, S. Beer, G. Bateson): Questa disciplina (vedi Winier) precorre la teoria della complessità e si fonda su alcune analogie osservate tra gli organismi viventi e i servomeccanismi. Bateson, antropologo, sociologo e psicologo fu un riferimento per la visione olistica sviluppata dalla scuola di Palo Alto (California). Sua la teoria del doppio legame che aiuta a comprendere e guarire la schizofrenia. Stafford Beer applicò la cibernetica e la ricerca operativa alla gestione efficiente delle organizzazioni. Celebre il suo progetto per modernizzare l'organizzazione dello stato cileno durante la presidenza di Allende.

Teoria dei sistemi (A. Bogdanov, L. Bertalanffy, J. Forrester): Un sistema (vedi Forrester) può essere pensato come un insieme di parti che interagiscono tra loro e con il mondo esterno. Bertalanffy, biologo austriaco, membro del circolo di Vienna ed ideatore della "Teoria Generale dei Sistemi" scrisse: "Pensare in termini di sistemi gioca un ruolo dominante in un ampio intervallo di settori che va dalle imprese industriali e dagli armamenti sino ai temi più misteriosi della scienza pura… ". Fu sostenitore dell'olismo contro il riduzionismo e del organicismo contro il meccanicismo. Il russo Bogdanov, fu medico, politico, filosofo, studioso di economia e organizzazione (Tectologia: scienza generale dell'organizzazione o scienza delle strutture). Tentò una formulazione dei principi organizzativi posti a fondamento della struttura di tutti i sistemi, viventi e non, con l'obiettivo di unificare tutte le scienze sociali, biologiche e fisiche. In polemica con Lenin sostenne che lo stato socialista doveva perseguire non la proprietà, ma l'organizzazione dei mezzi di produzione. Fondamentale per lui la gestione delle risorse umane ed i compiti culturali.

Il Tao della Complessità (J. Lovelock, F. Capra, M. Gell-Mann): Lovelock scienziato e futurologo è famoso per l'ipotesi di Gaia in cui presenta il nostro pianeta e l'intera biosfera come un unico organismo capace di auto controllo. A partire dal 2004 è stato contestato dai colleghi ambientalisti per aver sostenuto che l'energia nucleare è l'unico sistema per contrastare efficacemente il riscaldamento globale. Capra, fisico delle alte energie, ha scritto saggi di grande successo come il "Tao della fisica" e "La rete della Vita" in cui assume posizioni olistiche anche in connessione con le filosofie orientali (vedi Lao tsu); sono state accusate di vaghezza concettuale alcune sue critiche al riduzionismo ed in particolare a Newton, Darwin e alla biologia molecolare. Gell-Mann, fisico delle particelle elementari autore del libro "Il quark e il giaguaro", fu co-fondatore e poi direttore in New Messico dell'istituto di Santa Fe, tempio mondiale degli studi sulla complessità.

Teoria delle Reti (L. Eulero, P. Erdos): In matematica, in informatica e, più in particolare, in geometria combinatoria, i grafi (vedi Eulero) sono strutture matematiche che permettono di schematizzare una grande varietà di situazioni e di processi e spesso di consentirne l'analisi in termini quantitativi ed algoritmici. La teoria delle reti, sviluppatasi a partie dal 1950 grazie al matematico ungherese P. Erdos, si serve dei grafi come supporto metodologico, ma utilizza concetti nuovi come: reti casuali, invarianza di scala e il principio 80/20 (vedi Pareto). Si hanno applicazioni nella mappatura di: rapporti finanziari e societari, specie e geni in biologia, rapporti uomo-ambiente, sistemi di trasporto, sistemi di comunicazione, Internet, reti sociali, ecc. Sembra che, indipendentemente dalla natura del sistema, alcune leggi generali governino la struttura e l'evoluzione di tutte le reti complesse che ci circondano.

Teoria delle Catastrofi (R.Thom): Thom matematico e filosofo francese studiò negli anni 60 e 70 quei fenomeni dinamici della biologia e della fisica che in base a piccoli mutamenti dei loro parametri manifestano comportamenti bruscamente diversi (biforcazioni) e sviluppi anche qualitativamente differenti. Le 7 catastrofi elementari, se le variabili di controllo non superano il valore 4, sono: piega, cuspide, coda di rondine, farfalla e i 3 ombelichi (parabolico, iperbolico ed ellittico). Sono state proposte applicazioni nello studio di: transizioni di fase, movimenti tellurici, cedimenti strutturali, crolli dei mercati finanziari e vari altri fenomeni: fisici, biologici, psicologici, sociali ed economici. Nella individuazione di funzioni matematiche, mediante regressione o altro, è importante distinguere tra quelle strutturalmente stabili (Es. esponenziali) e quelle strutturalmente instabili (Es. polinomi) che possono cambiare forma (ad esempio nuovi massimi e/o minimi) anche per piccole variazioni dei parametri di controllo.

Sistemi Dissipativi (I. Prigogine): Il termine "struttura dissipativa" fu coniato dal belga, premio Nobel per la chimica, Prigogine alla fine degli anni '60. Per struttura dissipativa si intende un sistema termodinamicamente aperto che lavora in uno stato lontano dall'equilibrio termodinamico scambiando con l'ambiente energia, materia e/o entropia. I sistemi dissipativi sono caratterizzati dalla formazione spontanea di strutture ordinate e complesse, a volte caotiche. Questi sistemi, quando attraversati da flussi crescenti di energia e materia, possono mantenersi ed anche evolvere, passando attraverso fasi di instabilità ed aumentando la complessità della struttura (ovvero l'ordine) e diminuendo la propria entropia (neghentropia). Fra gli esempi di strutture dissipative si possono includere le celle di Benard, la reazione chimica di Belousov-Zhabotinskyi, i laser, i cicloni, gli ecosistemi e tutte le forme di vita.

Sinergetica (H. Haken): Haken, fisico e matematico dell'università di Stoccarda, Si è occupato di ottica non lineare (fisica del laser), fisica dei corpi solidi, fisica statistica, teoria dei gruppi ed è noto soprattutto come fondatore della sinergetica. La sinergetica si occupa dell'interazione cooperativa fra molti sottosistemi che può essere all'origine di un comportamento macroscopico del sistema. Benché la sinergetica derivi dalla fisica, Haken trovò comportamenti collettivi simili in svariati sistemi naturali, economici e sociali. La visione che la sinergetica ha dello sviluppo economico, per certi versi, non è molto lontana da quella di Shumpeter. Ad esempio, gli shok dell'innovazione, cui Schumpeter attribuisce la causa dei cambiamenti qualitativi dei sistemi economici, svolgono un ruolo simile a quello che, nella sinergetica, svolgono i flussi di energia nella descrizione dell'evoluzione economica.

Caos deterministico (J. Poincaré, E. Lorenz): Si è visto, scrivendo di Poincaré, che alcuni sistemi dinamici non lineari, benché rigidamente deterministici cioè non soggetti al caso, possano dare luogo a comportamenti caotici assolutamente imprevedibili perchè fortemente dipendenti anche da piccolissime variazioni dei parametri ed in particolare delle condizioni iniziali. genista-aloe.jpgLorenz, matematico e meteorologo statunitense fu tra i primi negli anni 70 a trovare modelli matematici soddisfacenti per prevedere l'evoluzione delle condizioni meteo. Desiderando riprendere e prolungare una simulazione effettuata sul computer il giorno prima, inserì nel suo modello (con 3 decimali), come punto di partenza, i dati ottenuti a metà simulazione. Con suo grande stupore la nuova simulazione assunse ben presto un andamento completamente diverso dalla precedente. Da qui una celebre conferenza tenuta da Lorenz il cui titolo era: "Può il battito di ali di una farfalla in Brasile scatenare un uragano nel Texas?"

Emergenza, Auto-organizzazione (I. Prigogine, H. Haken, S. Kauffman): Uno stesso sistema dinamico (vedi ad esempio la semplice applicazione logistica descritta nell'articolo relativo a Poincaré) può avere per certi valori dei parametri un comportamento prevedibile (asintotico, oscillante, ecc.) e per altri un comportamento caotico. Esiste nei sistemi un regime di confine tra ordine e caos (spesso chiamato il margine del caos) in cui emerge spontaneamente un comportamento organizzato. Al margine del caos, la cooperazione non ha luogo secondo uno schema predefinito, si tratta piuttosto di un processo bottom-up nel quale gli agenti affrontano la situazione auto-organizzandosi (laser, transizioni di fase, organismi viventi, gestione aziendale per emergenze, ecc.): l'auto-organizzazione dà origine a nuove strategie emergenti che nessun agente individualmente può programmare. L'emergenza può essere definita anche come un processo di formazione di schemi complessi a partire da regole semplici. Kauffman, un biologo americano, ha studiato a lungo l'origine della vita sulla terra. Egli è soprattutto conosciuto per aver sostenuto che la complessità dei sistemi biologici e degli organismi è spiegata principalmente dall'emergenza dell'auto-organizzazione piuttosto che dalla selezione naturale di Darwin (vedi anche il libro di J. Fodor e M. Piattelli Palmarini: "Gli errori di Darwin").

Automi Cellulari (J. v. Neumann, H. Conway, S. Wolfram): Un Computer Automata (CA) è un modello discreto studiato nella teoria della computazione, matematica, fisica, biologia e modellazione microstrutturale. L'idea fu originariamente sviluppata da Stanislaw Ulam e da John von Neumann nei primi anni cinquanta ed è fiorita con lo sviluppo delle teorie di computazione e le strutture hardware. Un classico esempio di CA è il gioco della vita ideato dal matematico inglese John Conway, nel quale poche semplici regole fissate per alcuni individui "iniziali" possono condurre a evoluzioni complesse, organizzate e non intuibili. Il gioco Life può essere facilmente impostato su qualunque tabella elettronica. Secondo Wolfram (inventore del software "Mathematica") e altri, gli automi cellulari, grazie alla loro struttura a rete e alla capacità di ospitare un gran numero di variabili discrete, sono una alternativa alle equazioni differenziali per la realizzazione di modelli di sistemi complessi. Sono state effettuate applicazioni in vari settori, dalla biologia all'ecologia, dall'urbanistica al traffico veicolare, alla fluidodinamica, alla chimica e alla fisica (ferromagnetismo, vetri di spin).

Geometria Frattale (G. Julia, B. Mandelbrot): Secondo Wikipedia un frattale è un oggetto geometrico che si ripete nella sua struttura allo stesso modo su scale diverse, ovvero che non cambia aspetto anche se visto con una lente d'ingrandimento. Questa caratteristica è spesso chiamata auto similarità. Il termine frattale venne coniato nel 1975 da Benoît Mandelbrot, e deriva dal latino fractus (rotto, spezzato), così come il termine frazione; infatti le immagini frattali sono considerate dalla matematica oggetti di dimensione frazionaria. I frattali compaiono spesso nello studio dei sistemi dinamici e nella teoria del caos e sono descritti in modo ricorsivo da equazioni molto semplici, scritte con l'ausilio dei numeri complessi. Ad esempio, l'equazione che descrive l'insieme di Mandelbrot è la seguente:

[math]a_(n+1) = a_n ^2 + P_0[/math]
dove
[math]a_n[/math]
e
[math]P_0[/math]
sono numeri complessi. Applicazioni dei frattali si hanno in fisica, medicina, botanica, meteorologia, studio dei materiali, superconduttività, computer graphics, telecomunicazioni, finanza, andamenti borsistici. Un semplice metodo per ottenere al computer curve frattali suggestive è ricorrere iterativamente alla seguente trasformazione affine (i coefficienti reali: a, b, c, d, e, f servono ad ottenere forme diverse):
[math]x_(n+1) = a \cdot x_n + b \cdot y_n + e[/math]

[math]y_(n+1) = c \cdot x_n + d \cdot y_n + f[/math]

Complessità computazionale (A. Turing, J. Wilkinson, S. Cook): Negli anni 40 dello scorso secolo J. Wilkinson si trovò a dover risolvere un sistema lineare di 12 equazioni in 12 incognite che tentò di risolvere, come indicavano i manuali dell'epoca con il metodo di Cramer. Ben presto si accorse che il compito era di una complessità proibitiva (i computers non esistevano) poiché il metodo dei determinanti di Cramer richiede almeno il calcolo di 12! = 479,001,600 operazioni aritmetiche. Dopo i primi inutili tentativi, Wilkinson cambiò metodo di risoluzione e scelse il più efficiente algoritmo di Gauss. Oggi sappiamo che i problemi si possono classificare, anche se un po' rozzamente, in tre categorie: quelli indecidibili o non computabili (vedi Goedel e Turing), quelli computabili in tempi che diventano presto proibitivi al crescere della dimensione del problema (complessità esponenziale) e quelli computabili in tempi ragionevoli anche per grandi dimensioni (complessità polinomiale). Tra i problemi aventi complessità esponenziale e quelli aventi complessità polinomiale (P) esiste una classe intermedia di problemi (NP) per cui ad oggi non è noto alcun algoritmo polinomiale che ne consenta di trovare la soluzione, ma che, se una soluzione è data, è possibile verificarne la validità in tempi polinomiali. Della classe NP fa parte un ampio insieme di fondamentali problemi combinatori e di calcoli su rete tra cui il celebre problema del commesso viaggiatore. Purtroppo sembra assai improbabile che sia P = NP pertanto, negli anni 70, è stata formulata da Cook la congettura P diverso da NP, ma questa congettura deve ancora essere dimostrata ed è una delle principali sfide matematiche di questo secolo.

Reti neurali artificiali (D. Hebb, J.Hopfield, T. Kohonen): Le reti neurali artificiali sono costituite da un insieme di "neuroni formali impostati sul computer", connessi tra loro da legami di intensità variabile detti pesi. Ogni unità riceve alcuni stimoli o segnali dalle altre unità della rete, attraverso i legami di connessione: quanto è più intenso il legame fra due unità tanto più lo stimolo e forte. La sommatoria degli stimoli ricevuti da una unità concorre a formare il proprio stato di attivazione, questa attivazione viene poi trasferita ad altre unità della rete. Le reti neurali sono considerate capaci di apprendimento che può essere supervisionato o non supervisionato (grazie a meccanismi automatici di auto-organizzazione). Le aree di applicazione delle reti neurali includono i sistemi di controllo (controllo di veicoli, controllo di processi), simulatori di giochi e processi decisionali (backgammon, scacchi), riconoscimento di pattern (sistemi radar, identificazione di volti, riconoscimento di oggetti, ecc), riconoscimenti di sequenze (riconoscimento di gesti, riconoscimento vocale, OCR), diagnosi medica, applicazioni finanziarie, data mining, filtri spam per e-mail ecc.

Algoritmi Genetici (J. Holland): Gli algoritmi genetici appartengono alla famiglia degli algoritmi iterativi e stocastici e possono essere applicati ad un vasto insieme di problemi di ottimizzazione o comunque di stima di buone soluzioni per tanti problemi di ricerca operativa. I meccanismi di base sono ripresi dalla biologia ed in particolare dalla selezione naturale di Darwin e dalla genetica di Mendel. Questi algoritmi operano su un insieme di soluzioni ammissibili (popolazione di base) ed effettuano una ricerca (evoluzione), basata sulla riproduzione, gli incroci, le mutazioni casuali e la selezione naturale basata su una funzione di fitness. Gli algoritmi genetici sono applicabili alla risoluzione di un'ampia varietà di problemi di intelligenza artificiale, di programmazione matematica e d'ottimizzazione (non solubili con gli algoritmi classici) compresi quelli in cui la funzione obiettivo è non convessa, non derivabile, discontinua, stocastica, o fortemente non lineare. Possono essere utilmente utilizzati assieme ad algoritmi più convenzionali, magari meno robusti, ma di più sicura convergenza.