149. Tecniche di project management, problem solving e decision making: problemi e soluzioni

maze-woodleywonderworks.jpgL’articolo riassume 10 filoni di ricerca, basati sullo sviluppo di semplici metodi e modelli, ai quali l’autore ha lavorato negli anni, finalizzati al miglioramento dei processi di project management, problem solving and decision making.
Simple tools and techniques, developed by the writer, are described hereafter in order to assist in implementation of project management, problem solving e decision making processes.

Scienza: quantità e qualità

china-festival-of-light-dragon-by-rene-mensen.jpgNei giorni scorsi la stampa si è innamorata di un conteggio fatto in Inghilterra, secondo il quale entro il 2013 la ricerca scientifica cinese avrà superato quella statunitense. Quel che si intende dire, in realtà, è che il NUMERO di articoli scientifici pubblicati dai cinesi dovrebbe superare quello degli americani entro quella data. Senza nulla togliere all’impetuosa crescita cinese e al suo immenso potenziale residuo, anche intellettuale, tra le due cose passa una differenza enorme. Agli effetti della vera produzione scientifica, infatti… Paolo Magrassi http://www.magrassi.net/  

Nei giorni scorsi la stampa si è innamorata di un conteggio fatto in Inghilterra, secondo il quale entro il 2013 la ricerca scientifica cinese avrà superato quella statunitense.

Quel che si intende dire, in realtà, è che il NUMERO di articoli scientifici pubblicati dai cinesi dovrebbe superare quello degli americani entro quella data.

Senza nulla togliere all’impetuosa crescita cinese e al suo immenso potenziale residuo, anche intellettuale, tra le due cose passa una differenza enorme.

Agli effetti della vera produzione scientifica, infatti, non conta quanto si pubblica: conta soio il cosa. (Alcuni grandissimi scienziati hanno pubblicato e pubblicano poco. Penso a Gauss, Riemann, Einstein, Sanger, Wiles, Perelman…).

Ma poiché nel mondo accademico di quasi tutti i Paesi il pubblicare serve per fare carriera, sono stati messi a punto astuti e sofisticati sistemi per pubblicare molto e persino essere molto citati, pur avendo pochissimo da dire. Il risultato è che il 95% dei “papers” che vengono pubblicati e dei congressi che vengono indetti sono ciarpame autoreferenziale, e la vera produzione scientifica è reperibile solo nel rimanente 5%.

Ci sono nazioni, Italia inclusa, in cui si può diventare cattedratici e persino Presidi di Facoltà universitarie senza avere mai prodotto null’altro che libri sostanzialmente autopubblicati e articoli per riviste di livello insignificante.

Queste riviste sono fondate e mantenute da studiosi di profilo non elevatissimo che, sapendo che non riuscirebbero mai a pubblicare su quelle importanti perché non hanno nulla da dire, ne allestiscono di proprie. Non è difficile: basta fare comunella con colleghi che hanno lo stesso problema in altre università, possibilmente situate in diversi Paesi, così da conferire anche un’aura di autorevole internazionalità alla rivista e ai congressi che vi sorgeranno attorno in meste ricorrenze annuali.

Ed ecco che sulla maggior parte delle riviste scientifiche si pubblicano cose irrilevanti, zeppe di copia&incolla da Wikipedia, concetti vecchi di anni, esperimenti al limite del ridicolo. (In medicina, per esempio, ogni iniezione o pillola somministrata a più di 20-30 pazienti, spesso senza alcun controllo statistico, diventa un paper; esistono persino giornali pubblicitari camuffati da riviste scientifiche di editori importanti).

Al mondo ci sono MIGLIAIA di queste riviste, soprattutto di argomento medico, sociologico, politico, economico, tecnologico. Ma non ne mancano in nessun settore della scienza. E la Cina non è immune dal fenomeno, anche se esso è probabilmente più pronunciato in lingua inglese che non in cinese. Perciò, non sarà certo contando le pubblicazioni che possiamo misurare l’eccellenza scientifica: né di un ricercatore né di una nazione (se non in modo molto grossolanamente approssimato).

Nel mio ultimo libro do conto di un’interessante statistica dell’OCSE (contenuta nel rapporto Measuring Innovation: A New Perspective, 2010), che è andata a spulciare solo le riviste scientifiche autorevoli e, in quell’àmbito, i top 36mila lavori più citati nel periodo 2006-2008. Ecco i primi sette posti di quella classifica:

          Percentuale dei lavori scientifici più citati
Usa . . . . . .49,1%
GB . . . . . . 14,0%
Germania . . 12,0%
Francia . . . . 7,1%
Canada . . .  7,0%
Cina  . . . . . 6,0%
Italia . . . . . 5,1%

Come si vede, per ogni lavoro scientifico cinese di grande impatto ve ne sono stati più di otto statunitensi (notate anche che l’Italia, che è venti volte più piccola, tallona la Cina da vicino).

È pur vero che in queste classifiche Cina e Giappone sono molto penalizzati, perché vi si pubblica poco in inglese. Ed è anche vero che la dominante cultura anglosassone inclina in ogni modo, non sempre consapevolmente, a lasciar prevalere i suoi costumi e le sue istituzioni: vedasi, ad esempio, le famose classifiche delle Università mondiali, dove anche i più infimi somarifici compaiono davanti alle scuole italiane, francesi, spagnole e persino tedesche, a patto di aver sede in Usa, Australia o Uk.

Però questo indicatore dell’OCSE, molto più accurato ed eloquente del mero conteggio delle pagine, sembra suggerire che siamo ancora lontani dal sorpasso.

Paolo Magrassi http://www.magrassi.net/  

Macchine pensanti? [Alan Turing]

turing-by-apburgess.jpgSi dice che una funzione è ‘effettivamente computabile’ se i suoi valori possono essere trovati sulla base di un qualche procedimento meccanico. Sebbene sia abbastanza semplice catturare intuitivamente questa idea è tuttavia desiderabile avere una definizione matematica un po’ più rigorosa di questo concetto.

Questa definizione è stata data per la prima volta da Kurt Gödel a Princeton nel 1934 […] Queste funzioni furono definite da Gödel come ricorsivamente computabili […] Un altra definizione di calcolabilità pratica ed efficace fu fornita da Alonzo Church nell’ambito del suo lambda-calcolo. L’autore [cioè Turing] suggerisce una terza definizione più vicina all’idea intuitiva. Sopra è stata definita ‘calcolabile una funzione i cui valori possono essere computati da un semplice processo meccanico’. Possiamo prendere questa affermazione alla lettera, intendendo per processo meccanico quello che può essere svolto da una macchina: è possibile fornire una descrizione matematica della struttura di queste macchine e ciò a portato l’autore ad identificare la computabilità di una funzione con la concreta possibilità di calcolarla. Non è difficile, anche se un po’ laborioso mostrare che questi tre punti di vista [ Gödel, Church, Turing] coincidono. Alan M. Turing (1912-1954), Ph.D. thesis, A. Church’s supervision, USA 1939.

"I calcolatori digitali […] possono essere classificati tra le ‘macchine a stati discreti’, cioè tra quelli che si muovono a salti o scatti improvvisi da uno stato ben definito a un altro. Questi stati sono abbastanza differenti tra loro al punto che è lecito ignorare la possibilità di confusione tra di essi. Strettamente parlando non esistono macchine del genere: in realtà ogni cosa si muove con continuità. Ma ci sono molti tipi di macchine che possono vantaggiosamente essere viste come macchie a stati discreti. Per esempio, considerando gli interruttori di un sistema d’illuminazione è comodo supporre che ogni interruttore sia decisamente o chiuso o aperto. Necessariamente esistono posizioni intermedie, ma per la maggior parte degli scopi possono essere trascurate […] Credo che entro cinquant’anni sarà possibile programmare calcolatori con una capacità di memoria di circa 10^9 , per fare giocare loro il gioco dell’imitazione così bene che un esaminatore non avrà più del 70% di probabilità di compiere l’identificazione esatta dopo 5 minuti d’interrogazione" Turing, A.(1950), "Intelligenza meccanica", Bollati Boringhieri, Torino 1994.

"… alla fine del secolo l’uso delle parole e l’opinione corrente saranno talmente mutate che chiunque potrà parlare di macchine pensanti senza aspettarsi di essere contraddetto …". Turing, I Calcolatori digitali possono pensare?, Conferenza BBC 1951.

Una macchina di Turing è il più semplice tipo di computer che si possa immaginare. E’ costituita da un unico nastro (vedi figura) diviso in quadrati, su ognuno dei quali si può imprimere un simbolo di un afabeto finito. La macchina esamina soltanto un quadrato per volta, e può eseguire soltanto una operazione per volta tra quelle, di numero limitato, che ha a disposizione: può lasciare il quadrato così com’è, o cancellare il simbolo che vi è impresso ed eventualmente stamparne uno nuovo. Può spostarsi di un quadrato a destra o a sinistra, o rimanere dov’è ed arrestarsi. Ogni operazione che la macchina compie è determinata interamente dal simbolo che legge e dal suo stato interno: una volta compiuta l’operazione è obbligata ad aggiornare il suo stato interno (il numero degli stati interni e ovviamente finito). Un’importante idealizzazione della macchina è immaginare che il nastro possa essere indefinitamente lungo.  

turing2.png

Il risultato sorprendente dovuto a Turing è che la sua semplice macchina può eseguire tutte le computazioni che possono essere fatte da un moderno computer a stati discreti, per complesse che siano la sua struttura e il suo modo di funzionamento.

A seguito di questo risultato generale è stata talora formulata una tesi meccanicistica secondo la quale la mente umana sarebbe una macchina di Turing. E’ importante rilevare però come Turing non abbia mai personalmente usato questa espressione. La sua tesi è che si potrebbe programmare un computer sufficientemente potente da sostenere il gioco dell’imitazione con successo, vale a dire che il computer sarebbe capace di simulare il pensiero umano. Il punto essenziale a questo proposito è che il cervello umano può esercitare soddisfacentemente le sue funzioni con continuità, e non risulta quindi una macchina a stati discreti (Donald Gilles, "Intelligenza artificiale e metodo scientifico", R. Cortina, Milano 1998).

In relazione alla conferenza presentata alla BBC negli anni 50, oggi, avendo da tempo superato il giro di boa del secolo, si può affermare con sufficiente certezza che la profezia di Turing non si è avverata. Quasi nessuno scienziato o filosofo sostiene che i paradigmi dell’intelligenza artificiale forte (i computer sono macchine pensanti paragonabili alle menti umane) siano realizzati e pochi ritengono che possano esserlo in tempi futuri ravvicinati. Negli anni 90 un computer della IBM (Deep Blue) ha però battuto a scacchi il campione mondiale. A febbraio del 2011 il computer della IBM denominato Watson (lo stesso nome del fondatore della società) ha battuto in USA i campioni umani del popolare quiz televisivo Jeopardy. Watson ha mostrato grandi capacità nella comprensione del linguaggio umano, nell’analisi dei dati e nella soluzione di problemi poco strutturati. Già da ora si stanno studiando applicazioni per risolvere concreti problemi in medicina, finanza, ricerca, analisi dei dati, ecc. Rispetto alle previsioni di Turing Il traguardo è stato spostato più avanti, ma per il 2030 alcuni esperti di robotica e di computer science ritengono che le menti artificiali supereranno quelle umane in molti i campi.

 

Algoritmo ricorsivo per il calcolo di pi greco partendo da poligoni regolari

happy-pi-day-by-mykl-roventine.jpgIn questo articolo viene illustrato un algoritmo per il calcolo approssimato di pi greco, con il quale, partendo da un poligono regolare si considera la successione di poligoni regolari dello stesso tipo, ognuno dei quali presenta un numero doppio di lati rispetto al precedente approssimando sempre di più il loro perimetro alle circonferenze dei due cerchi concentrici, uno inscritto nel poligono e l’altro circoscritto al poligono. I poligoni di partenza presi in considerazione sono il triangolo equilatero, il quadrato, il pentagono e l’esagono regolari.

Il moto dei satelliti artificiali

satellite-dishes-by-watchsamart.jpgIl 4 ottobre 1957 venne lanciato il primo satellite artificiale intorno alla terra, ebbe inizio l’era spaziale e l’opinione pubblica cominciò a conoscere dai mass media i concetti fondamentali della navigazione spaziale ed i termini ad essa relativi, come velocità di fuga, orbita terrestre, satellite geostazionario, ecc. Quanti però conoscono realmente il significato fisico e matematico che si nasconde dietro tali termini?

Momenti del pensiero matematico di C.F.Manara e G.Lucchini

archimede.jpgDisponibile gratuitamente il libro di Manara e Lucchini sul pensiero matematico: una raccolta antologica di brani che hanno fatto la storia della matematica e che oggi possono essere di particolare importanza per un insegnamento che tenga presente l’evoluzione di questa scienza. 1. La nascita del matematico: Platone, Euclide, Archimede. 2. Nuovi strumenti per la matematica: Pisano, Cardano, Tartaglia, Bombelli. 3. La nascita della matematica moderna: Galilei, Cartesio, Fermat, Pascal, Newton, Leibnitz. 4. Momenti della matematica moderna: Saccheri, Eulero, Laplace, Fourier, Lobacesvkij, Boole, Cantor, Frege, Klein, Poincaré, Hilbert, Hadamard, Enriques. Il libro è stato pubblicato nel 1976 da U. Mursia Editore. Attualmente è liberamente scaricabile in formato pdf dal sito della Biblioteca matematica dell’UNIMI.

Il libro può essere scaricato da

http://www.sba.unimi.it/Biblioteche/mat/5494.html

 

oppure da qui

Momenti del pensiero Matematico, letture su aspetti e problemi delle scienze matematiche

148. Ottica geometrica e fenomeni ondulatori con Geogebra

articoli96.jpgIn queste articolo, vengono mostrate alcune applicazioni del software di geometria dinamica Geogebra che permettono simulazioni di ottica geometrica e ondulatoria. Geogebra è un programma gratuito scaricabile da www.geogebra.org. Questo software nelle ultime versioni si è dotato della funzione di animazione delle slider che consente di simulare l’evoluzione temporale di processi fisici.

Cubo di Coppo n00440906012707

cubocoppo.pngIl cubo di Coppo è una variante del Sudoku inventata da Eugenio Coppo. Le regole sono abbastanza semplici e sono all’interno del file stampabile con il primo cubo che pubblichiamo. Una nuova sfida che sicuramente divertirà chi ama i rompicapo.

Soluzione del gioco n00440906012707

Management is doing things right; leadership is doing the right things [Peter Drucker]

drucker.png"Management significa fare le cose per bene, Leadership significa fare le cose giuste… Ho sempre sottolineato che l’organizzazione non ha nulla a che fare con il potere, ma con la responsabilità" . Peter Drucker (1909-2005).

druker1.pngC’è una grande differenza se il capo e il suo potere sono legittimati solo da coloro che lo hanno nominato o vengono invece accettati e riconosciuti, anche dai collaboratori, dai dipendenti, da coloro che vivono nell’ambiente in cui opera. Chi ottiene questo riconoscimento oltre che un manager è anche un leader. Il Leader indica la meta e trasmette a ogni livello dell’organizzazione l’importanza, il valore di ciò che si sta facendo, crea entusiasmo e orgoglio, per cui ciascuno mette a frutto la sua intelligenza e prodiga le sue migliori energie. Il leader non ha paura di scegliere le persone più creative, dotate di autonomia di giudizio perché sa come guidarle. Lo stato maggiore delle grandi imprese di successo è sempre formato da manager di prim’ordine, che il leader tiene costantemente informati e con cui si consulta per le decisioni importanti in un clima di rispetto e di armonia. E’ una costruzione corale di cui lui è il direttore d’orchestra, ma a cui ciascuno contribuisce con la propria abilità. L’impresa diventa allora una comunità a cui tutti sono orgogliosi di appartenere, perché vivono il suo successo come proprio….. Si può imparare a diventare leader? E’ difficile, però si può fare imparando a lavorare in equipe, cioè raccogliendo intorno a se i propri collaboratori , dando loro tutte le informazioni necessarie, discutendo coralmente i problemi e assegnando a ciascuno i suoi compiti e la volta successiva, verificando insieme i risultati… (Cfr. F. Alberoni, C.Sera 20 Sett 2010).

druker2.pngPeter Drucker (Nato in Austria e laureato in diritto internazionale) ha scritto 39 libri e una quantità indefinita di articoli e saggi sul management; i suoi lavori sono eccezionali per la vastità degli argomenti trattati e ammirevoli per la chiarezza espositiva. Le sue prime opere hanno dato un contributo significativo per stabilire ciò che costituisce la pratica del management; i suoi lavori più recenti affrontano la complessità dell’epoca post-industriale descritta, dagli anni 80 in poi, con tutte le sue problematiche gestionali. Per dare una idea del suo pensiero su come affrontare i problemi delle organizzazioni, la via qui seguita è basata su alcuni brani tratti da vari scritti; il lettore interessato potrà approfondire:

"L’ultimo dei peccati mortali è: correre dietro i problemi e trascurare le opportunità …".

"A differenza dell’approccio allo studio dell’organizzazione politica e sociale che ha dominato la cultura occidentale sin da Machiavelli, ho sempre sottolineato che l’organizzazione non ha nulla a che fare con il potere, ma con la responsabilità. Questo è il tema costante che ha caratterizzato il mio lavoro per oltre quarant’anni".

druker3.png"Stiamo cominciando a renderci conto che il management stesso è l’istituzione che sta al centro (metafora dell’amministratore delegato come direttore d’orchestra) della nostra società attuale, e che non c’è molta differenza fra la gestione di un business, di una diocesi, di un ospedale, di una università, di un laboratorio di ricerca, di un sindacato, o di una agenzia governativa ….". Economia, politica e management: nuove tendenze nello sviluppo.

"La caratteristica che distingue il manager da tutti gli altri è la sua funzione educativa. il contributo del tutto unico che si aspetta da lui è fornire agli altri una vision e la capacità di lavorare. Sono la vision e la responsabilità morale che, in ultima analisi, definiscono il manager".

"Il compito più difficile nel prendere decisioni manageriali non è mai trovare la risposta, ma è trovare la domanda giusta. Perché vi sono poche cose tanto inutili (se non pericolose) come la risposta giusta alla domanda sbagliata". The Practice of management. "

1) In primo luogo un manager stabilisce degli obiettivi. Determina quali debbano essere i risultati per ogni obiettivo …

2) In secondo luogo, un manager organizza: analizza le attività, le decisioni e le relazioni necessarie …

3) Inoltre un manager sa motivare e comunicare. Sa creare un gruppo con le persone responsabili dei vari compiti …

4) Il quarto elemento di base di un lavoro di un manager è la valutazione. Il manager stabilisce dei parametri …

5) Infine, un manager fa crescere le persone, compreso se stesso …

Manuale di management: compiti, responsabilità, metodi.

druker4.png"Sono stato il primo a rendersi conto che il business deve ricercare il proprio fine al di fuori di se stesso, cioè creando e soddisfacendo il cliente. Sono stato il primo a riconoscere il ruolo centrale del processo decisionale; il primo a mettere in rilievo che la struttura segue la strategia e infine il primo a capire, o se non altro il primo a dichiarare, che il management deve essere un ‘Management By Objectives’ che sappia autocontrollarsi". Markers of Management.

"…i cinque peccati mortali in cui può incorrere una azienda sono errori gravi – ma evitabili – in grado di mettere in ginocchio anche l’organizzazione più potente:
1) Il primo e probabilmente il più comune è: ‘il culto degli alti margini di profitto e dei prezzi remunerativi’ … avere alti margini di profitto non sempre significa massimizzare gli utili, perchè i profitti totali sono dati dai margini sul singolo prodotto moltiplicati per le vendite. il tipo di margine cui bisogna puntare, quindi, è quello che offre il massimo utile totale, e di solito si tratta del margine di profitto in grado di generare il miglior posizionamento sul mercato …
druker5.png2) Strettamente collegato al primo è il secondo peccato mortale: ‘attribuire a un nuovo prodotto non il suo prezzo effettivo, ma quello che il mercato riesce a sopportare’. Anche questo errore crea ampi spazi alla concorrenza. E’ una politica sbagliata anche se il prodotto è protetto da un brevetto esclusivo, perché se ha l’incentivo a farlo, non c’è concorrente che non riesca a trovare il modo per aggirare anche il brevetto più blindato …
3) Il terzo peccato mortale è: ‘il calcolo dei prezzi in base ai costi’. L’unica cosa che funziona è il contrario: calcolare i costi sulla base dei prezzi … In origine gli Stati Uniti possedevano la tecnologia e i prodotti, ma operavano sulla base di prezzi definiti dai costi (mentre i giapponesi operavano sulla base di costi definiti dai prezzi). Questa politica è giunta quasi a distruggere l’industria americana delle macchine utensili …
4) Il quarto peccato mortale è: ‘sacrificare le opportunità del futuro sull’altare del passato’. Paradossalmente è l’errore che ha fatto deragliare la IBM … una volta conquistata la leadership nel nuovo mercato dei PC, la IBM subordinò questo nuovo settore in crescita al suo vecchio e altamente redditizio business dei ‘mainframe’ praticamente vietando alla propria divisione PC di guardare ai potenziali acquirenti di mainframe. Questa politica non solo non fu di nessuna utilità per le vendite dei mainframe (non succede mai) ma tagliò le gambe al business dei PC …
druker6.png5) L’ultimo dei peccati mortali è: ‘correre dietro ai problemi e trascurare le opportunità’ … Anche dedicando tutte le proprie energie al ‘problem solving’ , il massimo che si può ottenere è di contenere i danni. Solo le opportunità producono risultati e crescita. E le opportunità sono difficili da trattare e richiedono attenzione tanto quanto i problemi più spinosi. Quindi prima di tutto bisogna metter giù una lista delle opportunità che l’azienda potrebbe trovarsi di fronte …. Solo a questo punto si deve pensare alla lista dei problemi e preoccuparsi di trovare le persone giuste per risolverli".
Il grande coambiamento: Imprese e manager nell’era dell’informazione.

147. Il problema del profilo ottimale

car-n-motion-by-the-busy-brain.jpgNel 1685, Isaac Newton intraprese lo studio del moto di un corpo attraverso un mezzo non viscoso e incompressibile. Scrive nei Principia mathematica philosophiae naturalis: «se in un mezzo rarefatto, composto di particelle uguali disposte liberamente ad uguale distanza l’una dall’altra, si muovono una palla e un cilindro con uguale diametro e con uguale velocità nella direzione nell’asse del cilindro, allora la resistenza della palla sarà la metà di quella del cilindro». Le pagine seguenti inquadrano il problema del profilo aerodinamico, giungendo alla costruzione del modello proposto da Newton e ne  descrivono alcune proprietà elementari.

La matematica incorniciata

matematica-incorniciata.pngDiciamo spesso che la matematica è bella. Ma pochi ci credono più dell’artista inglese Justin Mullins, che incornicia formule come fossero quadri e ce le fa percepire come solitamente si fruiscono le opere d’arte figurativa. Il suo pezzo più convincente è per me Beauty, riprodotto qui (courtesy Justin Mullins): un quadro che ferma, con perentoria efficacia fotografica, l’identità di Eulero $e^(ipi)+1=0$ per la nostra incondizionata e imperitura ammirazione.

A metà Settecento, Leonhard Euler scrisse 500 lavori fondamentali che riempivano 70 volumi e posero le basi della matematica moderna. Quando nel 1988 la rivista Mathematical Intelligencer fece un sondaggio tra i propri lettori per scegliere le più belle formule di sempre, ben tre delle sue occuparono i primi cinque posti, e in testa c’era proprio quella riprodotta qui.

Si tratta del caso speciale di una relazione più ampia, sempre di Eulero, che unì per la prima volta il mondo dell’algebra e quello della geometria ($e^(ix) = cosx + isenx$) definita «la più notevole formula della matematica» dal premio Nobel per la fisica Richard Feynman, padre dell’elettrodinamica quantistica, percussionista nei night club di Los Angeles e autore di un indimenticabile testo didattico sul quale si sono formate generazioni di fisici.

Tutti i buoni professori di liceo non mancano di far notare ai ragazzi le numerose e scoppiettanti, incredibili ramificazioni di quell’equazione. Nel breve volgere di sette simboli, essa incastona l’addizione e il suo elemento unitario (il numero “0”), la moltiplicazione e il suo elemento unitario (“1”), la relazione di uguaglianza, l’esponenziale, la costante “e” (base dei logaritmi naturali), pi greco, e il simbolo “i” (l’unità immaginaria). E’ affascinante e misterioso che questi elementi così importanti per la scienza e per il pensiero, interpreti di ruoli tanto diversi in branche della matematica lontanissime fra loro, possano comparire legati tutti assieme in una sola, semplice espressione.

Pare che un giorno Benjamin Peirce, matematico e professore a Harvard, appena dopo aver dimostrato l’identità di Eulero durante una lezione sbottasse: «Questo è proprio un bel paradosso: non possiamo comprendere questa formula e non abbiamo idea di cosa significhi. Ma l’abbiamo dimostrata, perciò sappiamo che dev’essere vera». Justin Mullins dice che contemplare l’identità di Eulero è come camminare in un paesaggio desertico e imbattersi all’improvviso nella bellezza naturale dell’Everest; poi, mentre ancora ci rallegriamo e ci commuoviamo per la scoperta, ecco che ci si para innanzi il Grand Canyon; e pochi passi più in là, maestose e torreggianti, le cascate del Niagara!

Anche chi non comprende la formula perché i ricordi scolastici non lo soccorrono più resta catturato da questa incursione, per mano di Mullins, del linguaggio matematico nel contesto artistico, fondata sulla semplice ma geniale idea di incorniciare in cm 100×70 la relazione di Eulero e per questo stesso fatto proporcela come opera d’arte (dentro di noi, forse sapevamo che lo era, ma non ci avevamo mai pensato consciamente). La cornice è il paesaggio lunare nel quale ci muoviamo sperduti e inconsapevoli, finché, d’un tratto, ecco le meraviglie che ci attendevano segrete, sciorinate una dopo l’altra, vicine come nella realtà non immaginavamo potessero essere, unite da qualche sortilegio inaccessibile.

«Bellezza è verità; verità, bellezza» dice il poeta romantico John Keats, morto ventiseienne a Roma, nella sua Ode su un’urna greca. Le stesse parole sgorgano anche guardando Beauty di Justin Mullins: la verità della matematica che si fa bella.

Da quattromila anni i babilonesi avevano inaugurato l’algebra, e duemila anni prima di Eulero i greci avevano posto le basi della geometria. Durante quei millenni, le due scienze si erano mosse separate, intente a perseguire obiettivi ritenuti diversi: lo spazio e la misura per l’una, i simboli e i problemi esprimibili come equazioni per l’altra. Poi l’irruzione del genio di Basilea. Attraverso il futile trascorrere dei secoli, si dipana il legame indissolubile tra gli oscuri computisti di Babilonia, il sublime geometra Euclide, il grande matematico svizzero che bisticciava con il connazionale Voltaire alla corte di San Pietroburgo, e il giovane poeta tisico che riposa nel Cimitero degli Inglesi.

Centocinquanta anni dopo John Keats, il filosofo Bertrand Russell usò queste parole: «La matematica, se guardata nel modo giusto, possiede non solo verità, ma anche suprema bellezza». Poi, con una strana e mistica assonanza con l’urna greca del poeta romantico, soggiunse «Una bellezza fredda e austera, come quella di una scultura.»

Guardavano oggetti diversi. Il giovane Keats, una decorazione greca. L’anziano accademico, i gioielli raccolti nei suoi Principia Mathematica. Ma videro la stessa cosa: il bello.

Paolo Magrassi

http://www.magrassi.net/

 

Analisi delle interdipendenze settoriali [Leontief]

leontief.pngEssendo arrivato alla conclusione che la così detta "partial analysis" non poteva fornire basi sufficientemente ampie per comprendere la struttura e il funzionamento dei sistemi economici, nel 1931 mi sono impegnato a formulare una teoria generale dell’equilibrio economico che fosse utilizzabile praticamente. Nel 1932 ho ricevuto dei fondi di ricerca per l’approntamento della prima tabella input-output dell’economia americana (anni 1919 e 1929). Ho iniziato ad utilizzare le calcolatrici meccaniche nel 1935 e nel 1943 Mark1 (il primo grande calcolatore elettromeccanico)…

In anni recenti ho focalizzato la mia attenzione sull’analisi del degrado ambientale e della crescita economica, mantenendo al contempo interesse per problemi più ampi relativi al metodo scientifico, e a temi di vasta portata che riguardano le politiche sociali ed economiche, e la gestione del cambiamento sia esso incrementale o radicale. Wasssily Leontief (1905 – 1999).

Leontief, nato a Monaco di Baviera, di origine russa e naturalizzato statunitense, insegnò ad Harvard dal 1931 e vinse il Nobel per l’economia nel 1973 per l’ideazione del sistema input-output, un’efficace applicazione della matematica all’economia ed uno dei più raffinati strumenti di previsione di cui un pianificatore possa servirsi. Il metodo, che si basa sull’utilizzazione di un numero enorme di dati e di statistiche, consiste nel suddividere un sistema economico in settori e nel mettere in evidenza ciò che ogni settore prende dagli altri (input) e ciò che fornisce a ogni altro (output).

leontief-tabella.pngL’analisi input-output è divenuta oggi uno strumento essenziale per la programmazione economica. Leontief costruisce una matrice, o tabella a doppia entrata (vedi un caso semplificato in figura), che riassume tutte le transazioni di beni o di servizi avvenute nel sistema in un certo periodo, e fornisce quindi una immagine analitica di quel sistema (in genere un’economia nazionale, ma può anche essere una regione o un distretto) in un certo momento e ad un certo grado di sviluppo tecnologico. Questa immagine è caratterizzata dalle relazioni di scambio fra settore e settore, che variano al variare della produzione di ogni singolo settore: lo studio di queste variazioni consente di fare previsioni molto accurate sugli effetti della introduzione di nuove tecnologiche, della fondazione di nuove industrie, ed in genere della strategia economica che si vuole applicare.

Pier Giorgio Perotto (Il Darwinismo Manageriale: il nuovo principe e la strategia dell’innovazione, Il Sole 24 Ore, Milano 1988) ha pensato di estendere questo strumento anche alle organizzazioni aziendali auspicando un maggior interscambio tra gli strumenti degli economisti (in generale si potrebbe dire dei filosofi, dei matematici e dei logici) e quelli di chi opera in azienda. La sua impostazione prevede di rappresentare sulle righe e colonne della matrice i principali enti (funzioni, divisioni, uffici o altro) dell’organizzazione, sulle celle d’incrocio l’entità degli scambi tra chi ‘acquista’ e chi ‘vende’; sulla colonna finale il venduto all’esterno e, sulla riga finali ricavi, costi e profitti attribuibili a ciascun ente interno.

Questa visione è utile per sviluppare il concetto del cliente interno e del servizio che ciascun ente è tenuto a fornire agli altri enti e alla organizzazione nel suo complesso. Inoltre, come esemplifica Perotto, lo strumento può essere utile per valutare: la creazione di nuove funzioni (Es. direzione del sistema informativo), la convenienza di vendere i prodotti/servizi di un ente anche all’esterno, la validità di una struttura divisionale, l’opportunità di scorpori o fusioni societarie.

I paradossi sono problemi particolari che spesso aiutano il progresso della conoscenza. Secondo una diffusa teoria economica, che è anche in accordo con il buon senso, ogni paese tende a specializzarsi nella produzione e nell’esportazione di quei prodotti che incorporano una percentuale superiore del fattore della produzione (terra, lavoro, capitali) di cui essi dispongono in quantità maggiore.

Dal test empirico effettuato da Leontief sulla base della matrice intersettoriale dell’economia statunitense dell’anno 1947 risultò, invece, che gli Stati Uniti (che in teoria avrebbero dovuto esportare prodotti ad alto contenuto di capitale e basso contenuto di lavoro) importavano prodotti che incorporavano una più elevata quantità di capitale ed esportavano beni ad elevata intensità di lavoro.

Il paradosso di Leontief è spiegabile sulla base di due principali motivi:

1) Leontief considerava solo due fattori della produzioni e trascurava il fattore terra (suolo, foreste, sottosuolo, minerali) che richiedeva grandi capitali e che gli USA importavano abbondantemente.

2) Trascurava pure il capitale intellettuale e la ricerca e sviluppo che avrebbero accentuato il carattere capital-intensive delle esportazioni USA.

Negli ultimi 20 anni l’analisi import-export degli USA, corretta per i motivi sopra riportati, ha evidenziato una netta prevalenza dei prodotti capital-intensive nelle esportazioni e di prodotti labour-intensive nelle importazioni.

Concludo ponendo un problema che tenta di essere un esempio di "matematica utile, ma anche semplice": Quali sono le equazioni di equilibrio per la semplice (solo tre settori) economia descritta dalla matrice input-output riportata in figura? Quale è la soluzione di equilibrio tra i settori di questa economia? Si può trovare la soluzione con l’aiuto del foglio elettronico? Se si in che modo?

Festa della matematica

festamatematica2011.pngTORINO, 11 MARZO 2011 LINGOTTO, VIA NIZZA 230, 1° PIANO Le scuole della provincia di Torino si sfidano in vista delle Olimpiadi nazionali a squadre (pomeriggio, rampa del Lingotto) Gara per il pubblico a squadre (pomeriggio, corte della Ristorazione) Dal mattino, conferenze e mostre

Prontezza di riflessi, entusiasmo e una grande passione: ritorna l’ottava edizione della Festa della Matematica, in programma venerdì 11 marzo presso i locali dell’8 Gallery in via Nizza 230, che dalle 9 alle 18 terrà impegnati studenti, appassionati e dilettanti in una serie di attività in cui numeri e logica saranno i protagonisti.

La kermesse, organizzata dall’associazione Subalpina Mathesis, sezione Bettazzi, in collaborazione con il Liceo scientifico N. Copernico, Uci Cinemas Lingotto, Centro Gioco Educativo e con il contributo della Compagnia di San Paolo, si inserisce nell’ambito delle Olimpiadi nazionali di matematica.

L’avvio sarà dato alle 9,30 in una delle multisale del Uci Cinemas con la presentazione dell’iniziativa da parte del prof. Franco Pastrone, presidente dell’associazione Mathesis, del preside Stefano Grosso (L.S. N.Copernico) e del dott. Massimo Coda della Compagnia di San Paolo.

A seguire, la conferenza “La matematica nei videogiochi” del dott. Marco Mazzaglia – IT Manager/Videogame evangelist presso Milestone, fondatore della cooperativa "La Bussola" ed esperto di intelligenza artificiale, architetture per il web e localizzazione satellitare -, che guiderà i ragazzi in un viaggio nella storia e nella realizzazione dei giochi virtuali alla scoperta della profonda connessione di mondi che coinvolgono tempi di vita così diversi come lo studio e il divertimento.

Alle ore 11,30 gli appassionati di fenomeni paranormali, magia e telecinesi non potranno invece mancare all’appuntamento con il dott. Mariano Tomatis e "La magia dei numeri", per smascherare dal punto di vista matematico i geniali stratagemmi segretamente tramandati da secoli, custoditi gelosamente dagli illusionisti e utilizzati – a scopo “ricreativo” – dai prestigiatori nei teatri di tutto il mondo.

Alle 14,30 partirà la Gara tra le delegazioni di oltre trenta istituti superiori torinesi, ma a mettersi alla prova con teoremi ed equazioni non saranno solamente i piccoli geni da Olimpiade: per incentivare la curiosità nei confronti della disciplina, la festa ospita anche una “gara del pubblico”, una competizione aperta a tutti, senza limiti di iscrizione.

I due match pomeridiani si concluderanno alle 16,30 con la premiazione dei vincitori e la consegna della “Coppa Gatteschi” alla miglior scuola.

Attualmente è possibile creare una propria formazione e prenotare la partecipazione alle attività tramite il sito www.festadellamatematica.bussola.it , compilando l’apposito modulo.

La Festa della Matematica non è solo un invito a confrontarsi con le proprie conoscenze rivolto a insegnanti, studenti ed esperti dell’ambito, ma è anche e soprattutto un’occasione per dilettanti e appassionati dell’ultima ora per scoprire insieme l’aspetto ludico delle scienze. Per tutta la mattinata sarà inoltre possibile visitare la mostra “Il mercatino delle idee”, realizzato in collaborazione con Ottobre Scienza, che raccoglie esperimenti scientifici, giochi matematici e fisici e quesiti originali proposti dalle scuole che partecipano all’iniziativa. 

Per informazioni inviare una mail all’indirizzo [email protected] oppure contattare il numero +39 340 15 21 525

146. I “PUZZLE”, polimini ante litteram

puzzle.pngTra gli appassionati di matematica ricreativa sono ben noti gli articoli di Martin Gardner sulla matematica ricreativa. Tra le creazioni rese celebri da Gardner vi sono i cosiddetti “polimini”, figure inventate dal matematico inglese Solomon Golomb che si costruiscono unendo dei quadrati lungo uno dei lati. In questo articolo, intendo trattare una serie di figure costruite in maniera simile ai polimini, ma che seguono altre regole e danno origine a configurazioni molto diverse. L’ideatore di queste figure è mio padre, scomparso da due anni, che le aveva chiamate “PUZZLE” e ne aveva costruite molte, usando diversi materiali.

Elogio della matematica inutile

jurek_d-geomtry.jpgA che serve la Divina Commedia? E l’Eneide? La Gioconda? La musica? A nulla, ovviamente. Eppure anche un bruto sarebbe disposto a convenire che vale la pena di salvarle, semplicemente in virtù della loro bellezza. Esse dispensano gioia, in modo per certi versi non dissimile da un goal di Maradona o dall’assaggio di un cannolo siciliano fatto a regola d’arte: lo si vede anche guardando le risonanze magnetiche funzionali del cervello umano che mostrano l’attivarsi dei centri del piacere.

E così come l’arte è tanto più bella quanto più è inutile, perché si fa classica e dunque indifferente al mutare delle epoche, forse non è azzardato dire che la matematica è bella proprio perché sa essere inutile.

Nel 1913 Albert Einstein si rivolse al matematico Marcel Grossmann, vecchio compagno di liceo dal quale copiava i compiti, chiedendogli di aiutarlo a trovare strumenti matematici adatti allo sviluppo della teoria della relatività generale, la nuova cosmologia che egli veniva concependo. Grossmann lo indirizzò alla geometria ellittica di Riemann e al calcolo tensoriale di Christoffel, Ricci e Levi-Civita: questi metodi matematici erano là, in attesa di essere sfruttati, rispettivamente dal 1868 e dal 1900, senza che nessuno li avesse mai utilizzati per alcuno scopo pratico. Modelli sino ad allora inutili, idee platoniche dormienti in attesa che qualcuno le proiettasse sul mondo reale e poi invece, ormai da un secolo, puntello irrinunciabile della fisica.

Nel 1830 lo straordinario matematico Évariste Galois, respinto da scuole importanti e incompreso anche ai più grandi matematici contemporanei, formulò per la prima volta la teoria dei gruppi di simmetria. Il suo lavoro, accettato solo a partire da una quindicina d’anni dalla morte dell’autore, è stato in sèguito abbracciato universalmente e sviluppato sino a divenire oggi il fondamento, fra le altre cose, della meccanica quantistica. Durante quei vent’anni di trascuratezza e oblio, cos’era la teoria di Galois? Dov’era? Era esistita solo nella mente del suo creatore e poi, per lustri, in un limbo fatto di carte posticce che quegli raggruppò affrettatamente la notte prima di morire in duello, per amore, a soli 20 anni.

La matematica è nata, in Oriente e a Babilonia, per risolvere problemi pratici: la misura dei campi, i pesi delle merci, le triangolazioni necessarie per la navigazione. Ma ben presto cominciò a farsi strada la matematica astratta, ossia non motivata da ragioni applicative. Verso la fine del Settecento questa forma pura di indagine è diventata importante e cospicua, con l’affermarsi del concetto di prova formale e con il rigore che ne è derivato. Il grande Eulero, morto nel 1783, formulò centinaia di teoremi e scrisse decine di volumi zeppi di concetti e risultati innovativi in tutti i campi della matematica, ma non si curò mai più di tanto della dimostrazione rigorosa: egli era più interessato all’indagine, alla formulazione dei problemi e alla proposta di risultati, senza indugiare troppo sull’esattezza formale delle dimostrazioni. Già con Gauss (1777-1855), l’enfasi si era invece spostata sulla certezza delle prove, e quest’attitudine non ci ha mai lasciati. Era nato il gusto di fare matematica senza scopo immediato, come un pittore dipinge o un musicista compone.

Oggi, matematica pura è, semplicemente, ciò che può essere dimostrato. Rigore, astrazione e “bellezza” sono le categorie che vengono di solito in mente a coloro che debbono descrivere a qualcuno la matematica astratta. Se, come diceva Borges, tutte le arti aspirano alla condizione della musica, che è pura forma, così le scienze aspirano alla purezza formale della matematica, come disse bene il premio Nobel Paul Dirac nel 1963: «E’ più importante che le proprie equazioni siano “belle”, piuttosto che esse combacino con gli esperimenti. Se si lavora con la prospettiva di rendere belle le equazioni, e si possiede una profonda intuizione, si è certamente sulla strada del vero progresso nella conoscenza scientifica».

L’elenco delle matematiche dapprima inutili e poi rivelatesi indispensabili è lunghissimo, e non finirà. Ancora più vasto è il catalogo di quelle che vengono concepite senza poi essere mai utilizzate. Nessuno può dichiararle definitivamente inutili, eppure esse si riveleranno tali, quando tutto il mondo sensibile si sarà consumato. Ma saranno state inutili per sé, o solo perché l’umanità non era riuscita a sfruttarle?

C’è una bellezza sublime in quel sapersi mettere da parte, nell’oblio, in attesa di un ripescaggio che potrebbe anche non avvenire. La matematiche perdute scintillano nella storia dell’avventura umana come sinfonie in sordina, come liriche struggenti, come le sculture sommerse, come gli eroi sconfitti dei poemi epici.

Paolo Magrassi, http://www.magrassi.net/

 

Nuova fisica per tutti di Carlos Fiolhais

nuova-fisica-per-tutti.pngUn fantastico viaggio tra le grandi teorie fisiche del XX secolo: la meccanica quantistica, la relatività ristretta e generale e infine la fisica nucleare. Carlos Fiolshais, già autore del libro "Fisica per tutti: e buon divertimento" riesce ancora una volta a spalancare le porte della scienza moderna a tutti con un libro, mostrandoci un mondo estremamente affascinante in poche pagine.

Dalle concrete applicazioni della fisica quantistica, per esempio i transistor che affollano le nostre vite quotidiane nei computer, nei cellulari e negli elettrodomestici, alle verifiche della più grande teoria olistica dell’umanità, la relatività di Einsten, e infine alla scoperta degli atomi e alle applicazioni della fisica nucleare ai giorni nostri.

Una raccolta di tantissime curiosità sui moderni computer, sugli elementi radioattivi e sulle particelle, dai protoni agli elettroni, dai mesoni ai gluoni, dai fotoni ai positroni.

Il libro affronta inoltre alcune delle grandi domande scientifiche dell’uomo: l’universo è infinito? Che cos’è lo spazio-tempo? Perchè è curvo? Cosa succederebbe se viaggiassimo a cavallo di un fotone? E’ possibile viaggiare alla velocità della luce? Superarla? E come ci apparirebbe il mondo in questa situazione?

Un libro davvero molto semplice, alla portata di chiunque, che non richiede alcuna conoscenza matematica o fisica, che unisce umorismo e battute sagaci a concetti erroneamente ritenuti difficili e solo per "addetti ai lavori", passando attraverso la vita dei grandi del 900: Einstein, Bohr, Planck, i coniugi Curie e molti altri.

Adatto a tutti coloro che vogliono viaggiare con la fantasia nel nostro mondo così diverso da come ce lo immaginiamo, un mondo dove, come disse il grande Albert Einstein: "Imagination is more important than knowledge" (L’immaginazione è più importante della conoscenza).

Trope Editore 2010

Probabilità come scommessa o come pronostico di singoli individui [Bruno De Finetti]

definetti.png"… non ha senso parlare della probabilità di un evento se non in relazione all’insieme di conoscenze di cui una persona dispone. … La probabilità soggettiva è quindi un aiuto per dare un’attendibile misura di ciò che non si può misurare oggettivamente" Bruno De Finetti (1906 – 1985), Filosofia della Probabilità.

"Durante la ricerca di giacimenti petroliferi (Drilling Decision by Gas Operators, Grayson, 1960) in una data zona, per esaminare se convenga o meno perforare il terreno, si considera sempre, tra i dati da esaminare il parere degli esperti. Ma le risposte degli esperti, quando sono espresse a parole, tendono ad essere piuttosto elusive. Gli esperti, tipicamente, danno valutazioni come: ‘è quasi certo, però non è sicuro, può anche darsi di no’ e così via. Dicono e disdicono per non sbilanciarsi troppo. Il risultato è che non si sa bene ciò che le loro risposte significhino. L’esperto fa in modo da garantirsi che, qualunque cosa avvenga, non gli si possa dire che ha sbagliato."

Utilizzando le probabilità soggettive gli esperti "… devono fornire risposte come: ‘in base a tutti gli elementi di cui dispongo, io stimo la probabilità intorno al 35%’ in tal caso si può (attraverso gli alberi decisionali), fare effettivamente il conto della spesa, tenendo conto che c’è il 35% di probabilità che poi si trovi ciò che si cerca…

Questo esempio mi pare istruttivo per mostrare che la probabilità si riferisce sempre ad eventi singoli e non sempre è in rapporto ad una frequenza (eventi ripetuti). In molti problemi, naturalmente, può anche darsi che basti avere una media (cioè, ad esempio, la distribuzione di frequenza dei pezzi difettosi che può essere sintetizzata nella media).

Per esempio supponiamo che in media il 5% dei pezzi costruiti da una certa macchina automatica risulti difettoso. In un caso come questo tale informazione statistica è tutto ciò che serve all’acquirente per giudicare l’affidabilità del prodotto in rapporto al suo prezzo. E sulla base delle vendite, il produttore dovrà decidere se mettere sul mercato tutti i pezzi o procedere prima alla cernita degli scarti (operazione che avrebbe un certo costo)." Filosofia della Probabilità, Il Saggiatore, Milano 1995.

"… riesce particolarmente pregiudizievole la tendenza a sopravvalutare – spesso, addirittura in modo esclusivo – la ragione che, a mio avviso, e’ invece utilissima solo a patto di venir considerata come un complemento atto a perfezionare tutte le altre facoltà istintive intuitive psicologiche (ma non -guai! – a surrogarle)." Dall’Introduzione al corso CIME – Varenna 1959

"…le esemplificazioni pratiche più semplici (ridotte magari a cenni) devono precedere ogni teorizzazione per creare anzitutto una motivazione, atta a predisporre all’accettazione di astrazioni che appaiono giustificate, ed evitare così la reazione di rigetto che la via opposta spesso produce, non del tutto ingiustificatamente."

"Il rigore è indubbiamente necessario, ma la mania del rigore è spesso controproducente. Una dimostrazione ineccepibilmente logica, valida sotto condizioni estremamente generali, è in genere complicata e priva di prospettiva, nascondendo il concetto intuitivo essenziale nella foresta di minuzie occorrenti solo per includere o casi marginali o estensioni smisurate." Dal Convegno della C.I.I.M. Viareggio (24-25-26 ottobre.1974)

Il concetto di probabilità è sicuramente trasversale: se ne sono occupati matematici, filosofi, logici, fisici ed economisti (ad esempio Fermat, Pascal, Laplace, Bernoulli, Bayes, Bohr, Russell, Keynes, Popper, etc.). Un primo approccio, definito dal russo Kolmogorov, prescinde dal significato del concetto per focalizzarsi solamente sugli assiomi matematici di partenza (la probabilità è un numero compreso tra 0 ed 1, la somma delle probabilità di tutti gli eventi possibili ha valore 1, etc.) e sulla coerenza delle deduzioni e dei teoremi (metodo assiomatico, vedi Hilbert).

Un secondo approccio è quello classico dovuto a Fermat e a Pascal.

Un terzo approccio è quello frequentista dovuto principalmente a Von Mises ed il quarto è l’approccio soggettivista di De Finetti e Ramsey (la figura rappresenta individui diversi che hanno stime diverse della probabilità dello stesso evento: "successo di Furia").

definetti-furia.png

Nel seguito si accenna brevemente alla teoria frequentista e a quella soggettivista che hanno grande rilevanza per i problemi decisionali e per le valutazioni del rischio nelle organizzazioni.

Il significato frequentista delle probabilità è principalmente utilizzabile quando si possono, almeno concettualmente, considerare prove ripetute: durata di una lampadina, pezzi difettosi, incidenti stradali, età di pensionamento, turnover dei lavoratori, successi in operazioni di routine, etc. In tutti questi casi, ed in altri similari, è ragionevole misurare la probabilità di successo (o in modo complementare il rischio di insuccesso) mediante istogrammi di frequenza (vedi anche Pareto), medie, scarti ed altri indicatori statistici.

Il significato soggettivo delle probabilità è indispensabile in tutte quelle situazioni in cui i fenomeni (ricerca e sviluppo, investimenti, progetti, innovazione, cambiamento organizzativo e strategico) richiedono decisioni uniche e difficilmente confrontabili con la storia passata. In questi casi la valutazione soggettiva degli esperti e la stima del grado di probabilità di successo (o rischio d’insuccesso) è indispensabile per quantificare il fenomeno.

Naturalmente anche in caso di decisioni uniche la rilevazione frequentista di situazioni in qualche modo similari, ammesso che esistano, può essere di ausilio alla stima soggettiva o intersoggettiva degli esperti.

Nell’istituto di Calcolo delle probabilità a Roma De Finetti, il più grande matematico applicato italiano del novecento, aveva lanciato tra i suoi studenti un concorso pronostico basato su scommesse per prevedere l’esito del campionato di calcio. Questo esercizio serviva a rendere i partecipanti consapevoli dell’importanza delle probabilità soggettive per fare delle buone previsioni (ogni partita di calcio non truccata è unica ed irrepetibile) e dell’importanza del possesso di informazioni e conoscenze per esprimere quantitativamente delle probabilità soggettive adeguate. In definitiva ci si aspettava che chi aveva migliori conoscenze calcistiche avrebbe vinto il concorso.

Oggi un mercato delle previsioni rappresenta un modo poco costoso per raccogliere, elaborare e aggregare informazioni disperse presso una moltitudine di individui. Chi è disposto a scommettere una somma di denaro sul verificarsi di un evento è presumibilmente in possesso di qualche informazione che lo induce a rischiare i suoi soldi.

Un mercato delle previsioni interno alla Hewlett Packard sull’andamento delle vendite di un nuovo modello di stampante ha finito per produrre previsioni più accurate di quelle fornite dall’ufficio marketing della società.

Anche alla Siemens, un mercato ‘previsivo interno’ ha anticipato correttamente che un certo prodotto software non sarebbe stato consegnato entro il periodo previsto, mentre i metodi tradizionali di pianificazione aziendale suggerivano che la scadenza sarebbe stata rispettata.

Ci si può aspettare che in futuro i mercati delle previsioni, che oggi hanno ancora diffusione limitata, possano affiancare i metodi tradizionali diventando utili strumenti complementari per la previsione degli eventi futuri.

Gli ultimi tre pensieri riportati riguardano l’uso della ragione, quello delle esemplificazioni e il rigore logico. La posizione di De Finetti è di limpida chiarezza e utilità sia per chi debba confrontarsi concretamente con il problem solving sia per chi voglia diventare un bravo insegnante di matematica (in particolare di quella applicata).

Bertrand Russell

Filosofo e matematico contrario a qualunque forma di dogmatismo e di ostilità al progresso, Bertrand Russell nacque a Ravenscroft (Galles) il 18 maggio 1872. Proveniva da una nobile famiglia inglese, ma presto perse entrambi i genitori rimanendo orfano all’età di tre anni. Fu pertanto educato dai nonni paterni, Lord John Russell, che fu diverse volte Primo Ministro inglese tra il 1846 e 1866, e Lady Russell, ambedue liberali e perfino antimperialisti (Lady Russell era a favore della causa dell’indipendenza irlandese, Lord John Russell aveva appoggiato il risorgimento italiano in chiave anti austriaca).

In questo periodo il giovane Bertrand intraprese degli studi privati, come conveniva ad un giovane nobile in età vittoriana, e solo in seguito entrò a far parte del Trinity College di Cambridge, dove si perfezionò, grazie al contatto di insegnanti ed amici quali Alfred North Whitehead, McTaggart, G.E.Moore, e dove si occupò in particolar modo gli studi logico-matematici.

Compiuti gli studi, a ventidue anni, passò a lavorare presso la delegazione inglese a Parigi. Qui l’anno dopo si sposò (mentre, com’è risaputo, egli maturò più avanti un’idea negativa del matrimonio, difendendo un’etica dell’amore privo di vincoli).

Poco dopo decise di trasferirsi a Berlino, anche per apprendere direttamente le dottrine socialiste nella loro terra d’origine e ne scaturì un’opera: "La Socialdemocrazia Tedesca" del 1896. L’anno seguente venne stampato lo scritto dal titolo "An Essay on the Foundations of Geometry", nel quale si evidenzia ancora l’influenza dell’idealismo di Bradley. Nel 1900 finì l’opera "Esposizione critica della Filosofia di Leibniz" che testimonia il suo rinnovato interesse per la creazione logica che il pensatore tedesco aveva cercato di presentare.

Nello stesso periodo ebbe modo di incontrare ad un Congresso Internazionale di filosofia di Parigi il matematico Giuseppe Peano e i membri della scuola peaniana (Padoa, Vailati, Pieri, ecc.), il quale aveva compiuto l’assiomatizzazione dell’intera matematica sia attraverso la trasformazione della geometria all’aritmetica, sia attraverso la riduzione della stessa aritmetica ai cinque assiomi basilari, tutti enunciabili grazie ai concetti basilari di "zero", "numero" e "immediatamente successivo". Questo ebbe come conseguenza un vero e proprio ri-orientamento del pensiero filosofico di Russell: l’abbandono dell’idealismo della giovinezza e l’accostamento alle tematiche della logica e dei fondamenti della matematica.

Il suo intenso anticonformismo gli tirò a sé scomuniche e censure da qualunque parte, causandogli, perfino, un periodo di reclusione in carcere: ma ciò non lo indusse mai ad abbandonare le sue convinzioni, mantenendo nei confronti del potere un comportamento rigido, basato sulla critica leale e coraggiosa.

Russell è menzionato nei manuali di filosofia specialmente per l’attività di matematico e di epistemologo, ma i suoi orizzonti culturali non si esaurirono, solo nell’analisi dei principi della scienza. Il suo percorso di vita può essere suddiviso in tre periodi: Il primo periodo parte dal 1872 fino agli anni della Prima Guerra Mondiale. Questo è il periodo in cui scrisse apprezzabili opere matematiche, come il Saggio sui Fondamenti della Geometria nel1897 o i Principia Mathematica del 1913.

Fu questa la fase della carriera accademica, in cui l’amore per il sapere scientifico, per la matematica, per la geometria dominava gli altri interessi. Gli orrori della Grande Guerra determinarono un cambiamento di rotta nella vita di Russell, e un nuovo genere di opere si sarebbe aggiunto al vecchio (non si scordi tra l’altro che nel 1918 fu condannato a sei mesi di carcere per aver scritto sul Tribunal, in difesa di un giovane obiettore di coscienza). Il secondo periodo che prende il via dal 1918 fino agli anni ’60 è caratterizzato dall’impegno sociale dando ad una Campagna per il disarmo nucleare, nell’ambito della quale venne scritta, il 9/7/1955, la celebre Dichiarazione Einstein – Russell.

Tra i lavori di maggior rilievo di questo lungo periodo va ricordata: Sull’educazione .

Il terzo periodo della sua vita è contraddistinto dall’impegno contro i crimini di guerra e le violazioni dei diritti dell’uomo che condurrà alla nascita del Tribunale Internazionale Russell per i Crimini di Guerra che nel 1966 dichiarò colpevole (in modo simbolico) il governo statunitense per i crimini commessi nella Guerra del Vietnam. Russell si si rese conto, come del resto anche Frege della possibilità di ricondurre la formalizzazione della matematica alla logica. Gli effetti della svolta russelliana spuntarono nella sua “Introduzione alla filosofia matematica” e in particolar modo nei monumentali tre volumi dei Principia Mathematica redatti in collaborazione con Whitehead.

Ma l’impronta di tale svolta fu evidente in tutte gli scritti successivi di Russell che presentano la sua «filosofia scientifica»: La nostra conoscenza del mondo esterno del 1914; Il metodo scientifico in filosofia, del1914; Introduzione alla filosofia matematica del1919; L’analisi dello spirito del 1921; L’analisi della materia del 1927; Panorama scientifico del 1931; Indagine sul significato e la verità del 1940; Storia della filosofia occidentale del 1945; La conoscenza umana: il suo ambito e i suoi limiti del 1948.

Nel 1921 fece ritorno in Inghilterra, divorziò dalla prima moglie e prese in moglie Dora Black. Nello stesso periodo scrisse “L’analisi della mente”. Altre opere di questo periodo sono “L’ABC della relatività” del 1925, “Perché non sono cristiano” de1927), “La conquista della felicità” (1930), “La prospettiva scientifica” (1931), “Religione e scienza” del 1935. Con la seconda moglie fondò nel 1927 una scuola per analizzare le sue idee educative e scrisse un testo di tipo pedagogico "Sull’educazione specialmente dei bambini piccoli", subito criticato per il suo "permissivismo".

Nel 1935 lasciò la seconda moglie e si unì in matrimonio con Patricia Helen Spence (e dalla quale divorziò nel 1952, sposando Edith Finch). In tale periodo insegnò in diverse università americane, compreso il City College di New York, dal quale però fu espulso perché le sue idee furono considerate immorali.

In occasione dell’assegnazione dell’incarico proprio al City College ed alle immediate polemiche esplose, lo stesso Albert Einstein assunse posizione sul New York Times del 19 marzo 1940 con tali parole: «Da sempre i grandi spiriti hanno incontrato la violenta ostilità delle menti mediocri».

Nel 1944 Russell fu finalmente richiamato come professore a Cambridge. Nel 1950 ottenne, incredibilmente, il premio Nobel per la letteratura. L’onorificenza gli fu attribuita per il suo libro sul matrimonio. Nel 1955 diffuse con Albert Einstein il "Manifesto Russel-Einstein" contro la moltiplicazione delle armi atomiche. Dopo la lettera-bomba di Einstein, divulgata il 16 maggio del 1953, Bertrand Russell si schierò sul New York Times con tali parole: «Voi condannereste i martiri cristiani che si rifiutavano di sacrificare all’imperatore? (…) Sono obbligato a supporre che voi condannereste George Washington».

Russell scomparve il 3 febbraio 1970, a seguito di un attacco influenzale.

Bertarnd Russell considera la scienza come uno strumento indispensabile per lo sviluppo dell’umanità e spera nella diffusione della “mentalità meccanicistica”, a suo tempo realizzata da Galilei e da Newton, da cui ricava tre regole indispensabili:

1. Le affermazioni sui fatti si devono fondare sull’analisi, non su autorità sprovviste di sostegno.

2. Il mondo inanimato è un sistema concluso, in cui qualunque cambiamento è conforme alle regole della natura.

3. La terra non è il centro dell’universo e forse l’individuo non è il suo fine.

Questi semplici assiomi spingono Russell a rigettare il principio d’autorità e la concezione antropomorfica e antropocentrica del mondo. La parte più importante delle sue meditazioni concerne, tuttavia, l’analisi delle reazioni che intercorrono fra l’investigazione scientifica e la comunità sociale. Infatti, pur ripetendo il compito che la scienza e la tecnica hanno per rendere migliore l’esistenza dell’uomo, egli ne teme un utilizzo contorto, che metta a rischio l’indipendenza o la salvezza dell’umanità.

Ha sempre supportato la fusione fra filosofia e scienza. Infatti, fin dagli anni ’60 dichiarò che la sua concezione del mondo si fondava su quattro scienze differenti tra loro: fisica, fisiologia, psicologia e logica matematica. Il più grande apporto di Bertrand Russell al pensiero contemporaneo è rappresentato proprio dalla logica, così come i suoi due scritti maggiori "I principi della matematica” è considerato uno classico della filosofia, meritevole di essere collocato sullo stesso piano dei capolavori della filosofia dell’antichità. Il lavoro portato avanti dal filosofo gallese è di portata colossale, proponendosi di fare vedere come l’intera matematica si basi sulla logica simbolica, nel tentativo di scoprire i principi della logica simbolica stessa. Il suo pensiero risentì in un primo momento dell’influenza dell’idealismo di Bradley, poi ebbe un’improvvisa svolta dopo la partecipazione al congresso internazionale di filosofia del 1900 dove incontrò il grande matematico e logico italiano Giuseppe Peano. Di qui il transito di Russell al realismo (orientamento sostenuto a quell’epoca anche da Moore), che permea i Principi della matematica. Tuttavia il suo platonismo dell’inizio, secondo cui ogni termine significante denota qualche cosa che fa parte del mondo reale, verrà messo da parte per far posto ad una visione più prossima al nominalismo che presume un’ontologia più economica. Nel suo primo scritto squisitamente filosofico diffuso nel 1912 dal titolo I problemi della filosofia Russell pensa la scienza, in particolare la fisica come il modello della conoscenza certa, a cui si oppone la conoscenza astratta e incoerente del senso comune.

La filosofia deve prendere il via dal senso comune, elaborando i risultati ottenuti dalla scienza per sottrarsi alle trappole dello scetticismo e del solipsismo, cioè la dottrina che pensa l’io del soggetto l’unica realtà possibile. In questo processo di interpretazione il pensatore gallese indica dei postulati (l’induzione, la causalità, l’esistenza del mondo esterno e delle menti altrui, l’affidabilità della memoria ecc.) che sono indirettamente accolti sia dalla scienza sia dal senso comune, ma di cui è non è possibile una dimostrazione filosofica certa.

Anche in ontologia il problema di Russell è di mettere in comunicazione gli oggetti del senso comune con quelli della fisica. Una prima risposta è quella dell’atomismo logico per il quale il mondo è composto da fatti atomici, fatti cioè rappresentati in una proposizione atomica che non è del tutto frazionabile. Attraverso le regole della logica si congiungono proposizioni atomiche conseguendo proposizioni complesse che riflettono le strutture articolate della realtà. I fatti atomici sono formati da una sostanza neutrale primitiva, né spirituale, né materiale, che è alla base sia della psicologia, sia della fisica.

Kant

Immanuel Kant nasce il 22 aprile 1724 a Königsberg, capoluogo della Prussia orientale e florido centro portuale e nella stessa città cessò di vivere il 27 febbraio 1804.

Proveniva da una famiglia assai modesta che soltanto al figlio più promettente, Immanuel, diede la possibilità di proseguire gli studi fino all’Università. Il filosofo ricevette un’educazione religiosa dalla sua famiglia sotto l’influenza del movimento pietista.

Nel 1732 entrò al "Collegium Fridericianum" di Königsberg nel 1732 subito si contraddistinse negli studi, pur senza rivelare quelle attitudini scientifiche e filosofiche che si evidenziarono nel filosofo, nel 1740, anno in cui si iscrisse all’Università.

In questo periodo Kant comincia gli studi di matematica, della fisica di Newton ma anche di filosofia. Forse fu proprio nel corso degli studi universitari che cominciò a sviluppare la sua opposizione nei confronti di qualunque forma di dogmatismo. Presto sia il rigore morale del pietismo che il razionalismo illuminista divennero i componenti fondamentali dell’educazione del nostro filosofo.

Nel 1747 si laureò con una tesi dal titolo “Pensieri sulla vera estimazione delle forze vive” mediante la quale tentava di conciliare il punto di vista cartesiano e leibniziano. In seguito lavorò per circa nove anni come precettore presso famiglie autorevoli della Prussia orientale. In tale periodo si occupò anche della redazione di alcuni lavori che pubblicò nel 1755 di ritorno a Königsberg con l’intenzione di intraprendere la carriera universitaria.

Nello stesso periodo conseguì il dottorato di ricerca chiedendo la cattedra di matematica che gli fu negata. Nel 1764 gli fu offerta la cattedra di poetica, con l’impegno, tra l’altro, di scrivere poesie d’occasione. Il filosofo prussiano non accettò e proseguì ad insegnare come libero precettore. Le sue lezioni ebbero un apprezzabile successo. Esse trattavano diversi argomenti: matematica, fisica, filosofia, geografia, antropologia. L’autore desiderava, talvolta, di fuggire da un’esistenza limitata; ma più potente era in lui la contrastante propensione a una vita statica e con estrema precisione regolata dall’abitudine. Infatti, non volle mai spostarsi da Königsberg, neanche quando ricevette delle offerte per occupare dei ruoli importanti.

Bisogna tener presente che la sua costituzione fisica non era di certo esuberante; così la sua vita condotta in maniera regolata gli consentiva di raccogliere tutte le sue energie nello studio. L’immane compito filosofico che Kant si era prefisso, lo indusse alla scelta di una vita ritirata, caratterizzata da consuetudini e di libri. Le opere più rilevanti di tale periodo sono: la Storia universale della natura e teoria del cielo, in cui si precorre, in forma molto differente, la teoria di Laplace (1796) sulla formazione del sistema solare, la Monadologia physica , per cui, per chiarire la «discrepanza» fra l’indivisibilità delle monadi e l’illimitata divisibilità dello spazio, si intende quest’ultimo non come una sostanza, ma come risultato dell’azione reciproca delle monadi.

Tali lavori, come anche la Nuova teoria del movimento e della quiete e il Tentativo di introdurre nella filosofia il concetto delle grandezze negative in cui si discerne tra opposizione reale e contraddizione logica, manifestano idee scientifiche autentiche e autonome sia da Newton sia da Leibniz, che Kant spesso cerca di armonizzare; comunque il loro valore non è scientifico ma filosofico.

Kant, che pure non aveva mai gradito il razionalismo wolffiano, in tale periodo si avvicina agli scritti di David Hume, i quali contribuiscono in modo decisivo a scuoterlo ed egli incomincia a contestare il valore delle dimostrazioni tradizionali dell’esistenza divina. Più che di scetticismo, è tale un momento di crisi, in cui l’accertata insufficienza della passata filosofia induce Kant alla ricerca di una filosofia nuova, che in lui comincia a portare a maturazione.

Dopo il periodo precritico, Kant ritorna alla visione newtoniana di uno spazio assoluto, libero dai corpi; bisognerà modificare lo spazio da oggettivo in soggettivo, e il periodo critico avrà inizio.

Nel 1769 Kant conseguì una cattedra universitaria di logica e metafisica. Kant mantenne il suo incarico sino alla scomparsa, rifiutando offerte pure molto più attraenti, come nel 1778 quando non accolse l’invito da parte dell’università di Halle. Nella dissertazione iniziale del 1770, De mundi sensibilis atque intelligibilis forma et principiis, che finisce quella che nella vita e negli scritti del pensatore prussiano è chiamato lo stadio precritico.

Kant svela il nuovo principio: spazio e tempo non esistono in sé, ma sono forme generalmente soggettive in cui noi regoliamo i fenomeni. Resta, comunque, il problema della conoscenza intellettuale. In tale studio viene a galla il problema del rapporto fra le due forme della conoscenza sensibile, spazio e tempo, e la realtà. Kant prende il problema molto sul serio e medita sulla questione per dieci anni, quando esce, fra i suoi scritti più celebri quella che egli stesso chiama "rivoluzione copernicana". Una riflessione attenta sulle funzioni intellettuali convince Kant che la forma dell’intera conoscenza deve regolarsi sulle funzioni dell’individuo, poste a priori nello spirito; per tale ragione Hume aveva invano cercato il principio della causalità nei dati dell’esperienza. Tutta la Critica della ragion pura , è volta a espandere tale scoperta, destinata ad innovare non soltanto il pensiero di Kant, ma l’intera filosofia. E dal momento che tale teoria era destinata ad essere equivocata, Kant volle darne nel 1783 un’enunciazione più chiara con lo scritto dal titolo Prolegomeni a ogni metafisica futura che potrà presentarsi come scienza. La maggiore differenza fra la Critica e i Prolegomeni consiste nel che la prima mediante la dottrina delle forme a priori della conoscenza dimostra che, grazie a queste, è possibile chiarire l’esistenza della scienza. La critica, invece essendo rigorosa, parte dall’esistenza della scienza per provare che vi devono essere forme a priori.

Fondata la necessità scientifica, Il pensatore prussiano fonda il dovere morale, con l’ opera intitolata Fondazione della metafisica dei costumi(): anche in questo caso, è l’esperienza di fatto quella che dà lo spunto a cercare i principi a priori della morale, che verranno più ordinatamente trattati nella Critica della ragion pratica , nonostante vogliano essere una semplice preparazione della metafisica della natura e dei costumi che l’autore si propone di dare, in verità rappresentano il nucleo di gran lunga più rilevante della filosofia kantiana.

Con l’opera dal titolo Princìpi metafisici della scienza della natura si sforzano di derivare a priori dal sistema delle categorie indicato nella Critica della ragion pura tutti i princìpi della fisica che è considerata la vera scienza della natura che è in grado di arrivare fin dove può arrivare la conoscenza matematica dei fenomeni. Nell’opera dal titolo La Metafisica dei costumi , il nostro pensatore opera una suddivisione tra una dottrina del diritto e una dottrina della virtù; la prima viene considerata la scienza delle azioni, l’accordo esterno con la legge, la seconda la determinazione interiore. Nulla di nuovo ci dice la parte etica, ma nella parte che trattava di filosofia, del diritto la mentalità propriamente giuridica di Kant ha modo di esprimersi in teorie appassionanti e originali.

Il fine ultimo del diritto, infatti, è far sì che il libero uso dell’arbitrio dell’individuo nella società possa coesistere con la libertà del prossimo. Il rapporto giuridico secondo Kant interessa solo le persone, esso non ha mai luogo tra gli uomini e le cose. La trattazione del diritto pubblico manifesta idee liberali di derivazione francese, ma collocate in un contesto culturale differente. L’idea della libertà, che si attua per gradi secondo un disegno misterioso agli uomini, è pure ciò che dà senso alla storia: questa è il tema che ritroviamo nella sua opera Idea di una storia universale dal punto di vista cosmopolitico . La guerra è l’unico modo mediante il quale la società può raggiungere un assetto giuridico stabile, come il nostro autore scrive nell’opera Per la pace perpetua in cui esce fuori un modello di organizzazione statale che poggia su basi federative. Degni di nota sono altresì gli sviluppi religiosi dell’etica kantiana, che rinveniamo nello scritto La religione nei limiti della semplice ragione. Anche per quanto concerne il rapporto con la religione, Kant non amava avere nessun vincolo che limitasse la sua libertà di pensiero. È celebre la sua risposta alla censura subita nel 1794 dalla seconda edizione dello scritto "Religione entro i limiti della semplice ragione".

Il Filosofo, dovendo ricevere la censura di buon grado, non mancò però di commentare: "se tutto ciò che viene detto deve essere vero, non è dato con questo anche il dovere di proclamarlo apertamente". Egli si domandò, infatti, nella seconda edizione della Critica del giudizio se "chi ha raccomandato, negli esercizi religiosi domestici, anche il canto di inni, abbia riflettuto che una devozione così rumorosa (e già per questo farisaica), comportasse un gran disturbo pubblico, imponendo anche al vicinato o di prender parte al canto o di rinunciare ad ogni occupazione intellettuale".

Immanuel Kant si spense nella città natale di Konigsberg il 27 febbraio 1804. Sulla sua lapide sono riportate le sue parole più celebri, tratte dalla Critica della ragion pratica: "Il cielo stellato sopra di me, la legge morale dentro di me".

Le fasi più importanti del pensiero Kantiano. Il primo periodo della produzione di Kant è contrassegnato dall’interesse verso le scienze e la filosofia naturale, nell’intento di rappresentare i fenomeni senza fare ricorso a cause solamente ipotetiche. Nella Storia universale della natura e teoria del cielo, sotto l’influenza di Newton, il filosofo applica le forze di attrazione e repulsione per formulare una teoria meccanicistica concernente la formazione dell’universo, senza avere bisogno di fare ricorso ad argomenti teologici per spiegare i fenomeni naturali. Alle opere che trattano temi scientifici, segue una serie di scritti tesi a sperimentare una riorganizzazione della filosofia, nei quali vanno gradualmente abbozzandosi i temi di quella che sarà più avanti la filosofia trascendentale kantiana. Nella Critica della ragion pura Kant si propone di sottomettere a giudizio la ragione dell’ uomo.

Per critica della ragion pura qui si intende l’osservazione rigorosa "della facoltà della ragione per quanto concerne tutte le conoscenze a cui può aspirare a prescindere da ogni esperienza", al fine di qualificare la metafisica come scienza. La conoscenza dovuta all’esperienza è detta a posteriori, mentre quella che è libera dall’esperienza è detta a priori. Soltanto la conoscenza a priori è universale e necessaria. La conoscenza è composta da una materia (le impressioni sensibili scaturenti dall’esperienza) e da una forma (l’ordine e l’unità che le nostre facoltà conferiscono alla materia).

L’esperienza scientifica, come opera nella matematica e nella fisica, è una sintesi a priori, vale a dire che include giudizi sintetici a priori, dove sintetico vuol dire che il predicato associa qualche cosa di nuovo al soggetto, e a priori significa universale e necessario e perciò non scaturente dall’esperienza. L’opera perciò si pone l’obiettivo di rispondere alla domanda come siano possibili giudizi sintetici a priori, ovvero come è possibile la scienza, considerato che opera con simili giudizi.

La Critica della ragion pura vuole analizzare gli elementi formali, o trascendentali, della conoscenza, dove con trascendentale s’intende una conoscenza "che si occupa non di oggetti, ma del nostro modo di conoscenza degli oggetti". Questa inversione nel rapporto conoscitivo per cui è l’oggetto accolto dalla sensibilità e pensato dall’intelletto che si adatta al soggetto conoscente e non viceversa è definita da Kant la rivoluzione copernicana del pensiero.

La Critica della ragion pura si divide nell’estetica trascendentale e nella logica trascendentale, la quale è a sua volta suddivisa in analitica trascendentale (analitica dei concetti e analitica dei principi) e dialettica trascendentale. L’estetica trascendentale determina le forme pure della sensibilità, entro cui le sensazioni sono ordinate. Queste sono le intuizioni pure di spazio e di tempo, che hanno una realtà empirica ed una realtà trascendentale, influenzando il modo delle cose di apparire a noi. Se la sensibilità è recettività, l’intelletto è immediatezza e la sua attività è il giudizio.

La logica trascendentale astrae dal contenuto empirico e tratta dei concetti puri, o categorie dell’intelletto. L’attività dell’intelletto si manifesta durante l’osservazione secondo classi (quantità, qualità, relazione, modalità) che si articolano in funzioni intellettuali, le dodici categorie: unità, realtà, sostanzialità e inerzia, possibilità e impossibilità, molteplicità, negazione, causalità e dipendenza, esistenza e inesistenza, totalità, limitazione, comunanza e reciprocità di azione, necessità e casualità. Per applicare le categorie agli oggetti dell’esperienza necessita il passaggio della deduzione trascendentale. Se, infatti, nella sensibilità il molteplice dell’esperienza è ordinato secondo le intuizioni di spazio e di tempo, nell’intelletto il molteplice dato dalla sensibilità deve assoggettarsi "alle condizioni dell’unità sintetica originaria dell’appercezione": l’Io penso. Obiettivo della Critica della ragion pratica è l’indagine delle condizioni della morale.

Nell’individuo è vigente una legge morale (un fatto della ragione) che comanda quale imperativo categorico, vale a dire illimitatamente. Tale legge del dovere comanda per la sua forma di legge, come regola che prescrive di ubbidire alla ragione, e per questo a differenza della massima (che regola il comportamento individuale) deve essere generale, principio oggettivo valido per tutti: indica come fine il rispetto della persona umana e dichiara l’indipendenza della volontà come pure l’autonomia della ragione.

Aritmetica indecidibile o incompleta? Terremoto nei fondamenti della matematica [Kurt Goedel]

goedel.jpg"… si potrebbe quindi congetturare che questi assiomi e regole d’inferenza siano sufficienti a decidere ogni questione matematica che possa essere formalmente espressa in questi sistemi (Principia Mathematica di Russell, teoria dei sistemi nell’assiomatizzazione di Zermelo o Von Neumann). Verrà mostrato … che non è così, che al contrario esistono nei due sistemi menzionati problemi relativamente semplici della teoria dei numeri che non possono essere decisi sulla base degli assiomi"

 Sulle proposizioni formalmente indecidibili dei ‘Principia Mathematica’ e di sistemi affini (Kurt Goedel 1906 -1978).

"la soluzione di certi problemi aritmetici richiede l’uso di assunzioni che essenzialmente trascendono l’aritmetica, cioè il dominio di evidenza elementare indiscutibile che può essere meglio confrontato con la percezione sensoriale". "Grazie al lavoro di A.M. Turing può ora esser data una definizione precisa e indiscutibilmente adeguata del concetto di sistema formale, l’esistenza di proposizioni aritmetiche indecidibili e la non dimostrabilità della coerenza di un sistema all’interno del sistema stesso possono ora essere dimostrate rigorosamente per ogni sistema formale coerente che contenga un certo frammento di teoria finitaria dei numeri".

"… D’altra parte, sulla base di quello che è stato dimostrato finora, rimane possibile che possa esistere (e anche essere empiricamente scoperta) una macchina per dimostrare teoremi che di fatto è equivalente all’intuizione matematica [della mente umana], ma che non può essere dimostrata essere tale e nemmeno che fornisce solo teoremi corretti dell’aritmetica finitaria." (Appunti vari)

goedela.png

La scoperta di Goedel, che nessun sistema di assiomi coerente può essere completo per aree della matematica come la teoria dei numeri e quella degli insiemi rende impossibile il programma di Hilbert di fondare l’intera matematica su un numero finito di assiomi e dedurre poi da essi tutti i teoremi necessari. Lo stesso principio del terzo escluso viene ad essere messo in discussione perchè accanto a proposizioni ‘vere’ e proposizioni ‘false’ potranno trovarsi proposizioni "indecidibili" (almeno nell’ambito del sistema di assiomi definito). goedelb.png

Ad esempio, il primo problema di Hilbert ‘ipotesi del continuo’ riproposto nel celebre convegno di matematica svoltosi all’inizio del 1900, che chiedeva di confermare la congettura: ‘l’insieme dei numeri reali ha una infinità di ordine immediatamente superiore a quella dei numeri interi’, è stato dimostrato essere "indecidibile" nel 1963 da Paul Cohen. Analogamente Il secondo problema di Hilbert, che chiedeva se fosse possibile dimostrare che gli assiomi dell’aritmetica sono compatibili, ossia che partendo da essi e procedendo attraverso un numero finito di passaggi logici non si può mai giungere a risultati contraddittori, è stato dimostrato dallo stesso Godel essere "indecidibile" nel suo celebre articolo del 1931.

Scrive Piergiorgio Odifreddi (Le Menzogne di Ulisse: L’avventura della logica da Parmenide ad Amartya Sen, Longanesi 2004): "Una delle conseguenze filosofiche dei teoremi di Goedel fu dunque la dimostrazione definitiva che il sogno logicista di Frege e Russell era irrealizzabile e che invece avevano ragione Kant e i suoi seguaci da Poincaré a Brouwer: l’aritmetica non è analitica, ma sintetica a priori. Le discussioni finiscono quì. Almeno per noi cioè, perché né Russell né Wittgenstein capirono l’antifona e, meno che mai, il salmo. Il primo credette per tutta la vita che Goedel avesse dimostrato che l’Aritmetica era inconsistente e il secondo si immaginò che ci fosse qualcosa di sbagliato in tutta la faccenda, perché non si poteva dimostrare che qualcosa non era dimostrabile". "…Nel 1948 Alfred Tarski dimostrò … che la teoria dei numeri reali è completa e decidibile: l’esatto contrario cioè della teoria dei numeri interi (aritmetica). E la stessa cosa (cioè la completezza) vale, come ci si può aspettare dal modello di Hilbert, anche per la geometria … Ancora una volta Poincaré e Brouwer avevano visto giusto nel sospettare che aritmetica e geometria fossero teorie sostanzialmente irriducibili l’una all’altra, e di natura completamente differente …".

Nella matematica applicata, in particolare nella rappresentazione dei problemi mediante modelli, più che la decidibilità o indecidibilità teorica interessa la complessità computazionale degli algoritmi risolutivi. Esistono infatti problemi che pur essendo decidibili non dispongono di algoritmi che possano risolverli in tempi di calcolo ragionevoli neanche utilizzando i supercomputer più veloci: si dice che questi algoritmi hanno una complessità esponenziale (cioè il tempo di calcolo cresce esponenzialmente con la dimensione del problema). Per altri problemi decidibili sono invece conosciuti algoritmi polinomiali (cioè il tempo di calcolo cresce polinomialmente con la dimensione del problema) che ne consentono la risoluzione in tempi ragionevoli per qualunque computer adeguato, si parla allora di problemi trattabili.

Goedel era convinto dell’irriducibilità della mente al cervello. Il cervello secondo lui funziona essenzialmente come una macchina di Turing, ma il cervello è un calcolatore connesso a uno spirito, anche se lo spirito probabilmente non può sussistere senza il corpo; la sua convinzione è che gli stati possibili della mente siano infiniti (a differenza di quelli del cervello che sono finiti probabilmente a causa del numero finito di neuroni). Dunque per Goedel è molto probabile che il cervello funzioni come un computer, ma la mente e la cognizione non può essere ridotta a un processo del solo cervello al contrario della digestione che è invece riducibile a un processo del solo stomaco.

Nelle organizzazioni la situazione del problem solving (prevalenza di problemi poco strutturati rispetto a quelli ben strutturati della logica e della matematica) è assai differente, ma utili insegnamenti possono essere tratti dai risultati di Goedel anche se questi possono valere solo come stimoli per generare idee; è comunque necessario chiarire che le analogie/traduzioni tra discipline diverse (nello specifico dai problemi della matematica a quelli delle organizzazioni) sono sempre solo suggestioni e/o spunti di riflessione e non devono essere presi alla lettera.

Nelle organizzazioni, a fronte di problemi che richiedono decisioni, esistono i limiti della mancanza di informazioni e della incertezza (rischio) insita negli eventi. Questa situazione rende molti problemi difficilmente decidibili all’interno degli schemi (gli assiomi?) consolidati. Conseguentemente un primo suggerimento è quello di considerare punti di vista e prospettive diverse: anche i primi due problemi di Hilbert potrebbero forse essere risolti partendo da assiomi diversi? Una seconda considerazione riguarda la indecidibilità che non può essere accettata come soluzione alle problematiche di sopravvivenza delle organizzazioni. Non prendere posizione, non decidere riguardo ad un problema vitale di una organizzazione non significa solo riconoscere uno status, "indecidibile" , alla situazione problematica, ma vuol dire far si che la decisione sia presa automaticamente (e non si sa come!) dagli eventi. Significa in altre parole abbandonarsi alla gestione per emergenze continue.

 

Delitto di Avetrana e Dilemma del Prigioniero, un equilibrio emergente per la teoria dei giochi

clairity-entry-to-the-prisoners-exhibit.jpgCon il presente scritto non si vuole assolutamente mancare di rispetto ad alcuno in un caso di incredibile crudeltà familiare, ma il delitto di Avetrana ci offre l’occasione di parlare di un nuovo concetto della teoria dei giochi, permettendo di sviluppare una soluzione innovativa anche per il ben noto Dilemma del Prigioniero proposto negli anni Cinquanta da Albert Tucker.

Tale dilemma fu proposto nell’ambito della teoria dei giochi come esempio di gioco ad informazione completa. Vedremo successivamente cosa questa definizione voglia dire.

Analizziamo, dapprima, il caso di Tucker e successivamente le analogie con l’omicidio di Avetrana. Infine, vedremo come entrambi possano essere risolti mediante un nuovo “equilibrio emergente”.

Il Dilemma del Prigioniero ipotizza la presenza di due giocatori (li chiameremo “indagati”) che, accusati per un delitto, vengono reclusi senza potersi né vedere, né parlare. Si coglie già da questo punto l’analogia con il fatto reale. I due imputati, li chiameremo a e b, hanno la possibilità di confessare l’accaduto (ovvero di accusare l’altro) oppure non confessare (non accusare l’altro). Definiremo queste due strategie opposte, modificando lievemente la formulazione originale del Dilemma, come C/A (confessa/accusa) e NC/NC (non-confessa/non-accusa), rispettivamente.

Se uno solo dei due imputati accusa l’altro o confessa la propria colpevolezza, poiché ritenuto soltanto complice o, comunque, reo confesso, prende una pena minima (3 anni di carcere), mentre l’altro viene recluso per 7 anni.

Se entrambi gli imputati si accusano a vicenda o confessano la propria colpevolezza devono scontare 6 anni di carcere ciascuno, poiché collaboratori di giustizia, ma entrambi colpevoli.

Se nessuno dei due confessa o accusa l’altro, entrambi vengono reclusi per un anno solamente, in quanto reticenti, ma non imputabili di omicidio per insufficienza di prove.

Utilizzando la matrice dei payoff (cioè dei pagamenti o, meglio, dei “guadagni” di ciascun giocatore) possiamo meglio interpretare la situazione:

 

  Imputato a   C/A NC/NA 
  Imputato b      
 C/A    (6,6)  (3,7)
 NC/NA    (7,3)  (1,1)

A questo punto ogni giocatore, che non ha la possibilità di conoscere prima della propria dichiarazione la scelta dell’altro, può decidere quale sia la strategia che gli permetta di scontare la pena minore.

Dal punto di vista di un osservatore esterno e, certamente, da una considerazione logica, la scelta di entrambi cadrebbe sulla strategia S(NC/NA; NC/NA), che permette ai due di restare in carcere il minor numero di anni possibile (1 anno). Diremo che S(NC/NA; NC/NA) è la strategia di ottimo paretiano del dilemma (valori in verde).

Purtroppo per loro, però, nessuno dei due imputati conosce cosa deciderà di dichiarare l’altro e scegliendo di non confessare o non accusare rischia di essere accusato a sua volta rischiando 7 anni di carcere. Confessando, ciascun complice, prenderebbe comunque una pena minore dell’altro che non confessa o accusa. Pertanto, nell’impossibilità di conoscere la strategia dell’avversario entrambi scelgono di accusarsi a vicenda/confessare la propria colpevolezza prendendo 6 anni di carcere a testa.

Seppur paradossale, tale soluzione rappresenta l’equilibrio del sistema ed anche l’equilibrio di Nash per il gioco (valori in rosso).

Formalizzando simbolicamente tale equilibrio abbiamo: S(C/A; C/A)>S(NC/NA; NC/NA).

Il dilemma sembra, quindi così risolto con una soluzione che chiameremmo di compromesso e che, pur andando contro la logica dell’ottimizzazione, fornisce la chiave di lettura di molte situazioni più complesse, da quelle belliche a quelle economiche.

Il dilemma del prigioniero ha incredibili analogie con quanto sta avvenendo in questi giorni, per il caso irrisolto del delitto di Avetrana.

In questa triste e reale situazione abbiamo due indagati (Sabrina e Michele) per il delitto della giovane Sara. Trascurando le prime, ed irrilevanti ai fini della nostra analisi, dinamiche di accuse e confessioni di entrambi gli imputati, notiamo come li si possa tranquillamente confrontare con i due giocatori del dilemma sopra esposto.

La mancanza di confessione, ma l’accusa reciproca li pone nella condizione di essere entrambi reclusi e di scontare, al momento, una pena identica, non essendo gli inquirenti in grado di stabilire con certezza le colpe di ognuno. Se soltanto uno dei due accusasse l’altro certamente prenderebbe una pena minore ed, allo stesso tempo, garantirebbe all’altro una permanenza in carcere superiore alla sua. Se entrambi fossero stati, dal principio, reticenti nella confessione avrebbero ricevuto la minor pena possibile.

Ma, come già detto, essendo impossibile per i due, che sono fisicamente separati conoscere a priori la strategia dell’altro, entrambi hanno scelto la S(C/A; C/A) che, come visto sopra, rappresenta l’equilibrio di Nash del “gioco” (purtroppo il caso reale non è affatto un gioco!). Sembrerebbe quindi, sia per il dilemma del prigioniero che per il caso di Avetrana, non esserci altra possibilità ed altra strategia per ciascun imputato che quella di equilibrio di Nash che supera (domina, in gergo) tutte le altre.

E’ proprio, però, il caso reale a fornirci una stupefacente soluzione alternativa ed un inaspettato equilibrio. Lo potremmo definire “equilibrio emergente” poiché esso “emerge” laddove il pantano (l’equilibrio di Nash) sembrava non dare altra scelta ai due imputati.

Troviamo, infatti, nel delitto di Avetrana, che la presenza di una terza persona (Cosima) “vicina” ai fatti accaduti, ma non imputata ed al momento non inclusa nel “gioco”, diventa rilevante nel momento in cui venisse tirata in ballo dai due accusati. Sorge così un equilibrio emergente che sposta l’equilibrio di Nash verso una nuova soluzione. I due imputati, infatti, scegliendo entrambi e senza alcun preaccordo di accusare Cosima verrebbero scagionati per non colpevolezza e collaborazione con la giustizia, garantendo alla “povera” Cosima di scontare l’intera pena.

In termini di matrice dei payoff potremmo semplificare in questa maniera:

  Imputato a   C/A  NC/NA

 Imputato c
(riceve l’accusa da b)

Imputato b         
  C/A    (6,6)  (3,7)  (0,10)
 NC/NA    (7,3)  (1,1)  —–
 Imputato c
(riceve l’accusa da a)
   (10,0)  —–   (0,0)

La matrice dei payoff ci dice che l’imputato c (il terzo giocatore, nel caso reale Cosima) penderebbe 10 anni di carcere se accusato dagli altri due, che invece sarebbero completamente assolti (valori in rosso, nuovo equilibrio emergente).

Questo ci conferma che in presenza in un terzo giocatore, che fornisce una situazione “emergente”, l’equilibrio di Nash si sposta inequivocabilmente in questa maniera: S(A3; A3)>S(C/A; C/A)>S(NC/NA; NC/NA) dove A3 rappresenta la strategia di ciascuno dei due giocatori (a e b) di accusare il 3° (c).

Ovviamente si è posta come condizione che il gioco non si prolunghi nel tempo, ove una controaccusa di d avrebbe come risultato un nuovo spostamento degli equilibri, ma avrebbe ben poca credibilità poiché sarebbe certamente considerata una banale contromossa condizionata dalla duplice accusa ricevuta.

Poiché la situazione è di un gioco ad informazione completa, in cui ogni giocatore ha tutte le informazioni sul contesto e sulle strategie dell’avversario, ma non conosce necessariamente le mosse degli altri ed i giocatori, in questi casi presentati, adottano strategie pure, in cui è possibile determinare dall’esterno quale scelta farà ciascun giocatore in qualsiasi situazione che potrebbe affrontare, la duplice accusa di a e b diventa la soluzione del caso e porta all’arresto di c.

Si deduce, quindi, che se i legali di Sabrina e Michele fossero al corrente di questo spostamento di equilibri non perderebbero neanche un secondo nel proporre ai due assistiti di accusare l’ignara Cosima. Ovviamente, i legali di quest’ultima si dovrebbero ben guardare da questo equilibrio emergente.

Se si considera quanto avviene realmente, non solo durante i processi giudiziari, ma nel mondo naturale e nelle dinamiche economiche e sociali si potrà chiaramente osservare che, sebbene la maggior parte delle analisi venga realizzata in situazioni con due “giocatori” (due specie, due concorrenti, due aziende, due attori, etc.), è sempre l’emergere di un terzo “giocatore” a spostare un equilibrio che sembra essere contro ogni logica, come quello di Nash se confrontato all’ottimo di Pareto, verso una soluzione logicamente più accettabile.

Come spiegherò prossimamente, tale constatazione ha profonde ripercussioni sul nostro attuale modo di considerare i costi/benefici di molte situazioni reali economiche, sociali ed ecologiche. Ben lungi dal voler essere una soluzione al caso di Avetrana e nel pieno rispetto della vittima e dei suoi famigliari ed amici, la strategia proposta potrebbe essere quella ottimale anche nella considerazione della moralità della scelta. Infatti, escluso il caso del payoff personale (ove almeno uno dei tre rischia comunque una pena più o meno alta), da un punto di vista di economia familiare è molto più conveniente avere un solo componente di una famiglia in carcere, anche se per più anni, piuttosto che due.

Tuttavia, qualora solo uno dei tre fosse il vero assassino, come d’altronde probabile, e gli altri due solo al corrente dei fatti, si rischierebbe con questa nuova soluzione di liberare un potenziale assassino e di arrestare un’innocente solo perché accusato dai due imputati.

Per comprendere la veridicità di quest’ultima affermazione utilizziamo il calcolo delle probabilità e consideriamo il caso di tre persone indagate, di cui due vengono ritenute maggiormente sospette e fermate dalla polizia. Qualora nessuna delle due sia maggiormente imputabile, gli inquirenti procederebbero ad una scelta casuale al fine di metterne sotto pressione almeno uno. Se dagli interrogatori emergesse che uno dei due è certamente innocente e venisse escluso dal terzetto degli indagati, mentre il terzo, primariamente escluso, venisse riconsiderato uno dei possibili colpevoli, per gli inquirenti vi sarebbero più probabilità che quest’ultimo possa effettivamente essere l’assassino.

Tale paradosso si spiega mediante il famosissimo gioco delle tre carte. Date tre carte coperte, delle quali solo una è vincente e che ci è stata mostrata prima di essere mescolata alle altre due, ci viene proposto di sceglierne una che abbia a nostro parere un maggior probabilità di essere quella giusta. A questo punto viene esclusa, dal nostro mazziere, una delle altre due e ci vien chiesto se preferiamo cambiare la nostra scelta iniziale con l’altra carta rimasta, oppure mantenere la prima decisione. Secondo il calcolo delle probabilità conviene sempre cambiare la prima scelta ed optare per l’altra carta, poiché mentre all’inizio le probabilità di individuare quella giusta erano di 1/3, nel momento in cui una delle tre viene esclusa, la probabilità che l’altra sia quella vincente sale a 1/2. Questo giustifica la maggior probabilità che il terzo indagato sia il colpevole piuttosto che colui che rimane l’unico sospettato della prima coppia.

Ovviamente, l’applicazione di tale considerazione ai singoli casi reali rischierebbe di mandare in galera moltissimi innocenti, ma un’analisi dei casi simili confermerebbe che la percentuale di colpevoli ha maggior frequenza nel terzo, e primariamente escluso, sospetto. Una constatazione che i giudici dovrebbero tenere a mente, non per accusare sulla base delle probabilità, ma per non escludere potenziali colpevoli solo perché ritenuti in origine tra i meno sospetti.

[email protected]

144. Sull’uguaglianza degli angoli retti un postulato euclideo molto discusso.

Nel corso dei secoli, molteplici sono state le discussioni sollevate su aspetti importanti del pensiero euclideo. Lo stesso Proclo, che degli Elementi di Euclide è stato uno dei più importanti diffusori, non ha mancato di rivolgere al grande Maestro diverse critiche, a volte superflue, ma a volte comprensibili, come nel caso di cui ci vogliamo occupare. Tra gli enunciati che hanno sollevato le maggiori attenzioni da parte degli esegeti dell’opera euclidea, forse, a livello di postulati, dopo quello sulle parallele (il quinto), uno dei più discussi è il postulato sull’eguaglianza degli angoli retti, considerato superfluo da parte di molti studiosi. Noi qui cercheremo di far chiarezza sull’argomento.

Tipi strani all’assalto dell’ipotesi di Riemann

riemann.jpgUn personaggio importante nella storia della matematica è la governante di casa Riemann, che si abbandonò a una pulizia troppo approfondita nell’appartamento dello studioso dopo la morte di questi avvenuta a soli trentanove anni il 20 luglio 1866. Sette anni prima, Riemann aveva congetturato che per conoscere la distribuzione dei numeri primi occorresse esaminare gli zeri della funzione Zeta introdotta da Eulero

riemann-formula.png 

previa sostituzione della variabile “s” con la variabile complessa “x+iy”. Potete facilmente trovare l’articolo di Riemann sul web, sia nella traduzione inglese sia nella forma originale (“Über die Anzahl der Primzahlen unter einer gegebenen Größe”, Sul numero di primi inferiori a una determinata grandezza).

Bernhard Riemann era rigorosissimo e poco incline a divulgare risultati che non fossero abbondantemente verificabili. Infatti pubblicò pochissimo. Proprio per questa ragione, e anche a giudicare dai reperti che i biografi riuscirono a procurarsi negli anni presso la pur recalcitrante vedova, è lecito supporre che in casa, prima che la governante agisse quel giorno di luglio, si trovassero appunti di inestimabile valore. Stiamo parlando di uno dei più grandi matematici di ogni tempo, che diede contributi originali e fondanti alla geometria differenziale, alla geometria algebrica, alla topologia, all’analisi reale, molti dei quali richiedettero due generazioni di studiosi per essere compresi.

Solo una volta Riemann aveva fatto una concessione, proprio in quella comunicazione inviata nel 1859 all’Accademia Prussiana delle Scienze di Berlino intorno a un argomento del quale non si era mai occupato e sul quale non tornerà: la teoria dei numeri. A pagina 4 scrisse: «[..] È molto probabile che le […] radici siano reali. Certo, uno qui vorrebbe una dimostrazione. Ma ne ho temporaneamente abbandonato la ricerca dopo alcuni tentativi infruttuosi. E del resto essa non è necessaria per gli scopi della trattazione che segue».

Secondo Riemann, che lo affermò “a naso” e senza dimostrarlo, la funzione Zeta si annulla solo per valori di x=1/2 (ci sono poi “zeri banali” per valori negativi di x, ma questi non sono significativi). Se si provasse vera tale ipotesi, oltre a disporre del metodo migliore per predire le posizioni dei numeri primi sulla retta reale, si verificherebbe tutta una messe di conseguenze per l’analisi matematica, la crittografia e una varietà di altri contesti.

La congettura di Riemann è assurta nel corso dei decenni al rango di ipotesi, grazie a molti indizi intervenuti e al fatto che non sono mai stati ravvisati zeri della funzione Zeta al di fuori della retta x=1/2. Per esempio, nel 1915 Hardy ha dimostrato che lungo quella linea critica stanno infiniti zeri di Zeta. Nel 1986 si è mostrato che i primi 1.500.000.001 zeri non banali sono in effetti lungo quella retta. Nel 1989 Conrey ha provato che più del 40% degli zeri sono sempre lì. Dal 2001 al 2005 Sebastian Wedeniwski ha fatto girare la ZetaGrid, ossia undicimila workstations che producevano fino a 7 TeraFLOPS e calcolavano un miliardo di zeri al giorno, individuando i primi novecento miliardi di zeri, tutti sulla linea critica. Credo che oggi si sia arrivati ai primi 10mila miliardi di zeri.

Insomma, un’ipotesi tanto fondata che, dopo Alan Turing, quasi a nessuno viene più in mente di provarsi a dimostrarla falsa! Sono ormai molti i risultati matematici ottenuti assumendo come vera l’ipotesi di Riemann, ed esiste una fiorente letteratura su quelle che sarebbero le conseguenze e le implicazioni del teorema.

Da quando fu formulata, e soprattutto in seguito alla sua comparsa tra i celebri Problemi del Millennio di Hilbert nel 1900, l’ipotesi di Riemann è una delle sfide più difficili e ambìte della matematica. Vi ci sono cimentati pensatori grandissimi, tra i quali l’italiano Enrico Bombieri, secondo cui si tratterebbe del più importante problema irrisolto della matematica pura. La storia dei tentativi fatti per dimostrarla (solo su arXiv.org, in febbraio 2011, se ne trovavano un paio di dozzine) è lunga più di un secolo e costellata anche di episodi coloriti.

Uno dei più buffi e intriganti è quello riguardante Louis de Branges, americano nato a Parigi nel 1932 che si distinse nel 1984 per aver provato un altro problema assai difficile e vecchio di cinquant’anni, la congettura di Bieberbach, la quale infatti va nota adesso come teorema di de Branges. Già allora de Branges aveva faticato a far accettare la propria dimostrazione, perché vent’anni prima aveva fatto ammattire tutti annunciando una serie di risultati strampalati, con dimostrazioni sbagliate la cui fallacia era proporzionale alla grandezza delle sfide che si era scelto.

Oggi lo scetticismo dei colleghi perdura: de Branges porta con sé la “maledizione” delle sue dissolutezze intellettuali degli anni Sessanta e forse anche un po’ di invidia per i risultati importanti che ha in ogni caso conseguito. Inoltre utilizza strumenti di analisi matematica così astrusi e personali che in pratica solo lui e qualche (raro) allievo ne hanno familiarità, il che non contribuisce ad accrescere la platea degli studiosi interessati alla sua produzione scientifica. Il risultato è che il suo lavoro sull’ipotesi di Riemann è parecchio snobbato, nonostante si tratti del solo matematico insigne che abbia mai annunciato di averla dimostrata!

D’altra parte, l’atteggiamento di de Branges è quantomeno curioso. Egli sostiene di aver dimostrato l’ipotesi e lo fa in due file Pdf che da una decina d’anni appaiono e scompaiono in successive versioni sul sito web della Purdue University, dove è professore. Uno consta, nella versione attuale (che risale al settembre 2009), di 71 pagine e contiene la dimostrazione vera e propria. L’altro, 43 pagine risalenti mentre scrivo all’aprile 2010, fornisce il contesto.

Il documento più interessante per i matematici è il primo, “Riemann Zeta Functions”: ma mi risulta che quasi nessuno se ne occupi. Il più interessante per me, invece, è il secondo, “Apology for the proof of the Riemann hypothesis”, ossia “Chiedo venia per aver dimostrato l’ipotesi di Riemann” (o, secondo alcuni ma a mio parere meno credibilmente, “Apologia della dimostrazione dell’ipotesi di Riemann”). In questo scritto de Branges sembra voler fornire una spiegazione del perché la sua dimostrazione, che se vera sarebbe un risultato storico, non venga compresa dai colleghi.

«Scrivere bene di matematica è difficile perché il lettore sa o troppo o troppo poco» dice de Branges in apertura, e fa seguire 20 pagine piuttosto pedanti di storia della matematica che servono a offrire un contesto agli strumenti di analisi utilizzati per la dimostrazione. Poi aggiunge che l’impresa è stata «resa possibile da eventi che a prima vista sembrano non avere nulla a che fare con la matematica. Persone eccezionali e circostanze eccezionali hanno preparato la dimostrazione dell’ipotesi di Riemann». Ed ecco una quindicina di pagine di storia della famiglia dell’autore, con albero genealogico dettagliatamente narrato sino al 1199, fotografie degli zii e aneddoti curiosi. Apprendiamo, fra l’altro, che il nostro si appassionò alla fatale sfida di Riemann quando era matricola all’Università.

Insomma, un bel tipo. Si è tentati di non prenderlo sul serio, visti i precedenti e l’eterodossia con cui propone la sua presunta clamorosa scoperta su una specie di blog e senza averla mai pubblicata su un journal o almeno su arXiv, alla Perelman. In più, i suoi modi possono essere ritenuti, come io credo siano, sprezzanti da parte dei colleghi.

Però, aspettate un attimo. Cosa ho detto? Prendere sul serio? Ortodossia? Furono presi sul serio, inizialmente e in alcuni casi per tutta la vita, Galois, Grassmann, Cantor, Ramanujan? E non era forse eterodosso Gödel, che praticamente morì di fame a Princeton perché non sapeva badare a se stesso? E Grisha Perelman, che non va a ritirare né la Fields Medal né il milione di dollari del Clay Millennium Price e rinuncia senza nemmeno rispondere a cattedre dorate nella Ivy League?

La verità è che non possiamo “prendere sul serio” un matematico, la grandezza della cui arte sta, prima ancora che nel rigore, nella bellezza, nella purezza eterea e nell’audacia delle sfide. Più un matematico è grande, meno possiamo prenderlo sul serio, perché i canoni ordinari della professionalità non si applicano. E i matematici lo sanno. Ecco perché quel blog di de Branges leva il sonno anche a quelli che fingono di non farci caso.

Paolo Magrassi

http://www.magrassi.net/

La Singolarità è vicina di Ray Kurzweil

singolarita.png“Ich bin ein Singularitarian” è il titolo di un capitolo centrale del libro e allo stesso tempo l’affermazione che meglio riassume il messaggio dell’autore. Ray Kurzweil possiede una visione ottimistica e positivista del futuro, derivante probabilmente dalla sua intensa attività in diversi campi di ricerca tecnologica. E’ infatti il fondatore di una società per la ricerca e lo sviluppo di software di riconoscimento vocale, oltre che attivo pensatore e scrittore divulgativo.

Ma cos’è la Singolarità? Rissumendo si può pensare come il punto di non ritorno nella storia dell’uomo, oltre il quale il progresso tecnologico avrà raggiunto un livello di sviluppo tale da poter interagire profondamente con il corpo umano fino a diventarne parte integrante.

La visione di Kurzweil si completa con l’idea che l’evoluzione tecnologica finirà per sostituire l’evoluzione biologica, costituendo allo stesso tempo la sua logica e inevitabile continuazione. A questo punto sarà la tecnologia a proseguire il processo evolutivo portando profonde modifiche al corpo umano ed ampliando sempre più le sue capacità di elaborazione quindi di pensiero.

In questo libro il tema del rapido avvicinarsi alla Singolarità viene giustificato tramite una lucida analisi del progresso tecnologico attuale, in particolare dall’avvento dei calcolatori elettronici; studiando diversi indici indicatori (capacità di calcolo dei processori, numero di gate per circuito integrato, numero di nodi di Internet, ecc.) l’autore evidenzia la natura esponenziale del processo di sviluppo. Egli, inoltre, fornisce dettagliate previsioni sugli ordini di grandezza raggiungibili in un futuro prossimo e piu’ remoto.

Il libro prosegue con un’analisi dettagliata dei principali campi trainanti l’innovazione tecnologica: la genetica, la nanotecnologia e la robotica (includendo gli studi verso l’Intelligenza Artificiale). Il racconto dei principali sviluppi in tali campi, la loro proiezione futura, sebbene a volte il lettore possa confondersi e pensare di trovarsi in un racconto di Asimov, mostra in realtà che l’autore possiede un’ampia conoscenza dello stato della ricerca e di diversi aspetti a volte lontani tra loro.

E’ questa forse la parte più interessante del libro, supportata anche da un numero di note espilicative e bibliografiche consistente (alla fine esse costituisono più di un sesto dell’intero libro).

Successivamente Kurzweil analizza quali profondamente modifiche ci dovremo attendere sul corpo e sulla mente, quali conseguenze filosofiche e pratiche avranno e come prepararci ora nell’attesa che la tecnologia evolva nella Singolarita’.

Infine egli risponde a diverse critiche che sono state mosse a lui e al movimento di pensatori che si definiscono “Singolaritiani”.

Il libro è decisamente di lettura non immediata. Il linguaggio è sì divulgativo e non necessita di particolari conoscenze matematiche ma lo stile è a volte ripetitivo: le stesse tematiche infatti vengono riprese in capitoli diversi del testo, anticipandole o rimandando approfondimenti in sezioni successive. In questo modo il lettore viene un po’ confuso o annoiato a volte. La sensazione è quella di trovarsi al cospetto di un brillante pensatore che, innamorato della propria idea e preso dalla foga di proporla, perda a volte il rigore narrativo e la chiarezza dell’esposizione. Ma se l’idea è interessante vale la pena uno sforzo per ascoltarla (o leggerla!). Si può non condividerla, si può non essere “Singolaritiani”, ma il libro di Kurzweil possiede molteplici elementi tali da interessare chi si interroga sul progresso e sul futuro di noi stessi.

Il Cane a sei zampe amico dell’uomo a quattro ruote [Enrico Mattei]

mattei.png"Ho lottato contro l’idea fissa che esisteva nel mio Paese. Che l’Italia fosse condannata a essere povera per mancanza di fonti energetiche". Enrico Mattei (1906, 1962).

"E’ antico convincimento che la scienza opera sempre a vantaggio dell’uomo. Alcuni rami del sapere, come la medicina, l’igiene, la biochimica hanno radicalmente trasformato le costanti dell’esistenza umana, riducendo al minimo la mortalità infantile e prolungando la durata della vita. Ciò ha contribuito in modo decisivo al presente rapido accrescersi della popolazione, ma ha altresì allontanato l’incubo delle malattie e il terrore della morte, ed ha quindi diminuito sacrifici e dolori. Altri rami della scienza come l’agronomia, la genetica, la scienza dell’alimentazione, oggi operano per fronteggiare il temuto eccesso demografico in modo che non si trasformino in un disastro per l’umanità i benefici ad essa apportati dall’allungamento della vita… Credo di aver sufficientemente dimostrato che… il rapido progresso realizzato nel giro di pochissimi anni permetta d’immaginare quanto sarà grande il loro apporto al mondo di domani". E.Mattei, 1960 in occasione della laurea honoris causa in chimica, Università di Camerino.

"… Io proprio vorrei che gli uomini responsabili della cultura e dell’insegnamento ricordassero che noi italiani dobbiamo toglierci di dosso questo complesso d’inferiorità che ci avevano insegnato: gli italiani sono bravi letterati, bravi poeti, bravi cantanti, bravi suonatori di chitarra, brava gente, ma non hanno la capacità della grande organizzazione industriale. Tutto ciò è falso e noi ne siamo un esempio … abbiamo creato scuole aziendali per ingegneri, per specialisti, per operai, per tutti e dappertutto con sforzo continuo …". Discorso di E.Mattei fatto nel 1961 agli allievi della Scuola Superiore degli Idrocarburi.

Mattei nasce ad Acqualagna nel 1906, piccolo paese delle Marche e a sette anni si trasferisce a Matelica, un altro paese marchigiano dove studia (senza grandi successi) ed inizia a lavorare. Divenuto presidente dell’ENI non dimenticò mai la sua terra di origine dove la Saipem, società di ingegneria e costruzioni del gruppo, ubicò una scuola per operai, saldatori e tecnici. Ancora oggi a San Donato milanese si trovano anziani pensionati marchigiani che ricordano con stima e affetto il primo presidente dell’Eni che spesso li ha assunti personalmente.

Nel 36 Mattei sposa la ballerina austriaca Margherita Maria Paulas, sua compagna di tutta la vita. In quegli anni sviluppa anche l’amicizia con Marcello Boldrini, compaesano di Matelica, che insegna statistica alla Università Cattolica di Milano. Attraverso questa frequentazione migliora la propria formazione culturale e incontra personaggi che saranno decisivi nella sua storia manageriale. Nel 1944 si arruola nel corpo dei volontari della libertà e partecipa alla resistenza ricevendo anche una medaglia dalle autorità americane dopo la liberazione di Milano.

Dopo la seconda guerra mondiale Mattei ha il compito di liquidare l’Agip, creata durante il fascismo per effettuare prospezioni alla ricerca di petrolio ma ormai praticamente inattiva, disobbedisce però al mandato. Prende tempo ed evita di portare i libri contabili in tribunale. Nel frattempo, mostrando apertura mentale e attenzione alle competenze tecnico scientifiche, richiama il suo predecessore Carlo Zanmatti, che benché fosse un tecnico valente era stato allontanato dal suo incarico in quanto repubblichino, e con il suo aiuto rimette in piedi l’azienda, riprende le esplorazioni più promettenti e riesce persino ad ottenere crediti bancari. Zanmatti gli segnala il giacimento di Metano di Caviaga, tenuto nascosto per evitare che cadesse in mano ai tedeschi, ma questa carta non basta a fermare la resistenza delle forze politiche ed economiche che vogliono sbarazzarsi dell’Agip, incluse le compagnie petrolifere americane che desiderano avere campo libero in Italia. L’appoggio decisivo viene dal democristiano Ezio Vanoni; Mattei si impegna nella campagna politica del 1948 (viene eletto lui stesso) e convince Alcide De Gasperi ad appoggiare i suoi progetti all’ Agip, Mattei sarà vicepresidente della società e Boldrini presidente. Il 19 Marzo del 1949 il colpo di scena, che l’intraprendente manager dell’ Agip sfrutta come propaganda nel migliore dei modi. Dal pozzo N°1 di Cortemaggiore sgorga il petrolio. Non è un grande giacimento ma Mattei reclamizza la scoperta sottolineandole la portata rivoluzionaria con slogan come: "Supercortemaggiore, la potente benzina italiana".

Nel 1952 l’AGIP indice un concorso per l’ideazione del marchio dell’Azienda; il bozzetto del cane a sei zampe (quattro rappresentano gli pneumatici dell’auto, due le gambe del guidatore) che sputa fuoco ed energia si piazza solo al secondo posto. Ma per Mattei è il più bello e di conseguenza vince.

Nel 1953 Mattei viene nominato presidente dell’Eni, l’ Ente nazionale idrocarburi, ideato da Vanoni, che controllerà tutta l’attività statale del settore, compresa l’Agip, che nel frattempo Mattei ha dotato di una rete distributori (solo nel 2011 il marchio Eni sostituisce ovunque il marchio Agip) e motel secondo il modello americano, nei quali va di persona a controllare la qualità del servizio all’utente, compiendo blitz inaspettati sotto mentite spoglie.

Nel 1954 Mattei abbatte i costi per il noleggio delle bombole di gas liquido (Liquigas) per le cucine, cambiando le abitudini degli italiani. In quegli anni il presidente dell’Eni crea vicino a San Donato milanese il villaggio di Metanopoli dove accanto ai palazzi uffici (i primi grattacieli italiani) vi sono le case azzurre (3-4 piani al massimo) per i dipendenti, il tutto immerso nel verde con un grande parco dotato di campo sportivo, piscine e campi di tennis. Apre la Scuola Superiore sugli idrocarburi (oggi master Medea con tre indirizzi: 1. Business Administration in Energy Industry, 2. Energy Industry Economics, 3. Managing Technical Assets in Energy Industry) dove ogni anno sono accolti 50, 60 giovani laureati prevalentemente in discipline scientifiche ed economiche e provenienti per metà da università italiane e per l’altra metà dall’estero: università e mondo del lavoro.

La rivista culturale "Gatto Selvatico", lanciata da Mattei, oltre ad argomenti tecnici ed economici pubblica scritti inediti di vari autori e intellettuali del Novecento.

In aperta polemica con le oil company americane Mattei tratta direttamente con gli stati del terzo mondo ricchi di petrolio: clamoroso soprattutto il successo ottenuto in Iran, coltivando rapporti con lo Scià Reza Palhavi e soprattutto attuando quella che passerà alla storia come formula Mattei: invece di pagare solo le royalty sulle concessioni offre di fare 50-50 delle spese di esplorazione ma anche dei ricavi ottenuti dal petrolio.

Mattei ebbe anche la lungimiranza di promuovere in Italia (altro grande sostenitore fu Felice Ippolito) l’energia nucleare. Fondò e divenne presidente dell’AGIP Nucleare e dispose l’inizio dei lavori per la costruzione della Centrale elettronucleare di Latina. La nuova società acquistò il 31 agosto 1958 dagli inglesi della NPPC (Nuclear Power Plant Co.) un reattore nucleare a grafite e uranio naturale: la centrale venne costruita e completata in soli quattro anni (un caso di project management efficace, raro nella pubblica amministrazione italiana); il primo test completo di reazione nucleare avvenne il 27 dicembre 1962, due mesi dopo la morte di Mattei. Con una potenza di 210 MW costituiva a quel tempo la più grossa centrale nucleare europea e poneva l’Italia terza nel mondo nello sviluppo di questa nuova fonte di energia, dietro USA e Inghilterra.

In molti paesi Enrico Mattei, all’apice della sua carriera, viene trattato come un Capo di Stato, mentre in Italia è accusato di aver creato uno Stato nello Stato, di sviluppare una politica estera tutta sua e anche di usare fondi neri per influenzare i politici italiani. Intervistato su alcuni finanziamenti a partiti politici, risponde con sarcasmo di usare i partiti come un taxi: "Salgo, pago la corsa, scendo". Di sicuro Mattei non si è mai arricchito personalmente. L’unico suo hobby è stata la pesca. Scherzosamente si presentava dicendo: "Sono Enrico Mattei, pescatore. E petroliere per hobby".

Il 27 Ottobre 1962, di ritorno da un viaggio in Sicilia, il suo aereo precipita durante un temporale nella zona di Bascapè nelle Campagne attorno Pavia, a pochi minuti da Linate. Un incidente dai contorni misteriosi che ormai viene giudicato dai più come un attentato.

L’Eni sopravvive alla morte del suo fondatore. Pur mantenendo lo Stato come azionista di riferimento, nel 1998 il controllo pubblico dell’ente scende al di sotto del 50% del capitale. Oggi l’ENI è di fatto il più grande gruppo italiano per capitalizzazione di borsa. Nel 2009 Eni ha 78.417 dipendenti, un fatturato di 83.22 miliardi di Euro, utili per 4.36 miliardi, produzione di 1.8 milioni di barili equivalenti al giorno, possiede riserve certe per 3463 milioni di barili di petrolio e condensati e 508 miliardi di metri cubi di gas naturale con una vita utile di 10 anni (Cfr: voce "Eni" di Wikipedia). Oggi l’ENI è l’unico gruppo al mondo a svolgere contemporaneamente le attività di una oil company, di una utility e di una società di ingegneria e costruzioni.

Purtroppo le grandi opere, ma anche molte altre utili iniziative fondate su scienza e tecnica, in Italia sono sempre state afflitte, oltre che dalla malavita organizzata, dalle lungaggini della burocrazia, dalla complessità delle autorizzazioni e da una pregiudiziale ed ideologica difesa dell’ambiente a discapito della modernizzazione e dell’efficienza/efficacia. Nonostante questi impedimenti Mattei però riuscì a costruire in Italia in tempi record la rete di condotte che tuttora serve di metano la gran parte del paese. Pare che Boldrini raccontasse di un infallibile "Metodo Mattei" per risolvere il problema di realizzare i progetti di posa dei metanodotti (rispettando i vincoli di costo, qualità, specifiche tecniche e sicurezza) in tempi certi: spesso di notte in campagna o all’interno di cittadine della Val Padana (significativo il caso di Cremona) venivano inviate le squadre che rapidamente aprivano la trincea per la posa dei tubi. Al mattino se vi erano proteste di cittadini, assessori o sindaci, gli uomini di Mattei si scusavano e assicuravano che di fronte alle legittime proteste il loro capo avrebbe immediatamente ordinato la sospensione dei lavori ed informato l’autorità competente dell’accaduto. Sembra che terrorizzati dalla prospettiva di un cantiere aperto e inoperoso a tempo indeterminato gli astanti reagissero sempre allo stesso modo: "Per carità! Posate pure la condotta, reinterrate, ripristinate al più presto lo stato precedente e andatevene!".

Lanciatori

lanciatori.pngPer mettere in orbita un veicolo spaziale occorre un lanciatore, detto anche vettore, composto da una struttura aerodinamica paragonabile alla fusoliera di un aereo, un sistema di propulsione, un sistema di guida ed il carico di strumentazione. Tutti i moderni razzi sono costruiti in modo che la loro struttura sia integrata con i serbatoi dei propellenti: lo stesso cilindro d’acciaio, o d’alluminio, che contiene i propellenti è anche la struttura attraverso la quale i motori del razzo trasmettono la spinta.

Newton

Isaac Newton nacque a Woolsthorpe Il 25 Dicembre del 1642, in quell’anno stesso cessò di vivere Galileo Galilei. Entrò a far parte del Trinity College di Cambridge dove ebbe come maestro lo studioso di matematica Isaac Barrow. Tra il 1665 e il 1667 un’epidemia di peste lo indusse ad allontanarsi da Cambridge e fare ritorno a Woolsthorpe, una contea della città di Lincoln. Quando ritornò a Cambridge Newton conseguì i suoi gradi universitari e nel 1669 subentrò al suo maestro nella cattedra di matematica. Ebbe inizio allora il periodo più prolifico per le sue scoperte.

Si occupò in un primo momento di ottica e concepì il telescopio a riflessione che porta il suo nome.

La Royal Society di Londra lo nominò allora suo membro; e Newton comunicò a questo sodalizio un’altra scoperta: quella delle diverse rifrangibilità dei raggi che rappresentano la luce bianca.

Molte e violente furono le critiche rivolte contro questo risultato che tuttavia doveva avere per la scienza la più grande rilevanza. La conoscenza dell’opera di Huygens Horologium oscillatorium (http://www.scribd.com/doc/21177254/Christiaan-Huygens-The-Father-of-Cycle-Theory-10-15-09) lo indirizzò allo studio dei primi fenomeni della gravitazione. Fu un periodo di intenso lavoro, che posero capo a una degli scritti più grandi della scienza di tutti i tempi: Philosophie Naturalis Principia Mathematica (Princìpi matematici di filosofia naturale). (http://www.archive.org/stream/100878576#page/n7/mode/2up) L’opera fu diffusa nel 1687 a spese dell’astronomo Halley.

Nel 1687 Newton fu scelto dall’Università di Cambridge come difensore dei suoi diritti storici minacciati dal sovrano; e il successo che conseguì in questa missione fece sì che la stessa Università lo scegliesse come proprio rappresentante nel Parlamento, dove Newton fu deputato dal 1689 al 1690. Difese in questa carica i princìpi della libertà religiosa e civile.

Un intenso attacco di nevrastenia lo colpì nell’autunno del 1692 e lo tenne lontano dagli studi per circa diciotto mesi.

Nel 1694 il suo amico Lord Halifax lo nominò Ispettore della Zecca di Londra, della quale in seguito diventò, sino alla sua scomparsa, il direttore. Newton adempì pure questo ufficio con molta competenza e diligenza.

Nel 1699 fu nominato Membro straniero dell’Accademia delle Scienze di Parigi.

Nel 1703 fu eletto presidente della Società reale di Londra, e nel 1075, in occasione di una visita fatta dalla regina Anna all’Università di Cambridge, gli fu attribuito il titolo di Sir, di cui desiderò sempre fregiarsi.

Gracile nella giovinezza, Newton si era andato invigorendo nella maturità. A ottant’anni, nel 1722, subì un primo attacco al mal di pietra; un altro attacco di questo male lo condusse alla morte il 20 marzo del 1727. Una tomba magnifica gli fu costruita nell’abbazia di Westminster, dove sono seppelliti i sovrani d’Inghilterra. Nel corso della sua esistenza Newton aveva stampato, oltre i Principi matematici della filosofia naturale, (http://www.archive.org/stream/100878576#page/n7/mode/2up) l’Ottica nel 1704 e l’Arithmetica universalis (http://books.google.com/books?id=P0oIAAAAIAAJ&pg=PA1&hl=it&source=gbs_toc_r&cad=4#v=onepage&q&f=false)  nel 1707.

Gli opuscoli matematici che egli aveva comunicato segretamente a studiosi e altri scritti filologici e filosofici furono divulgati dopo la sua scomparsa.

Il calcolo delle flussioni Con Newton l’unità di matematica e fisica, pioneristicamente studiata da Galileo, in modo astratto formulata da Cartesio e attiva di fatto nelle ricerche di diversi teorici e tecnici che operarono nel corso del ‘600, trova piena compimento un modello unitario e organico, che per due secoli ha dominato quasi incontrastato nella scienza. Ma la saldatura tra le due scienze richiedeva nuovi strumenti matematici, la cui necessità si era manifestata quando Galileo si era trovato a dover quantificare l’accelerazione di gravità e lo spazio percorso da un grave in un intervallo fissato.

Il problema cui fare fronte era, quello delle fluenti e delle loro flussioni, vale a dire le grandezze che variano con continuità e le loro variazioni considerate istante per istante; in primo luogo, ovviamente, lo studio del moto accelerato: la velocità (prima flussione), l’accelerazione (seconda flussione), l’incremento di accelerazione (terza flussione); gli spazi percorsi.

In termini geometrici, «le linee vengono descritte, mediante addizioni di parti, me per un moto continuo di punti, le superfici per moto di linee», i problemi del moto si traducono nei più tradizionali problemi delle tangenti e delle quadrature: trovare la direzione di una curva in ciascun punto (tangente e derivata) e l’area circoscritta dalla curva stessa (quadratura o integrale).

Ma si richiedono procedimenti che portano prepotentemente in scena quell’infinito, che la scienza aveva abitualmente considerato con sospetto e che volentieri aveva lasciato alle speculazioni metafisiche.

Comunque il problema che si poneva a Newton era tutt’altro che sconosciuto dai precedenti matematici a partire da Archimede, Galileo, Cartesio e Fermat. Ma a Newton si deve la prima enunciazione organica del metodo, divenuto canonico, per determinare derivate e integrali e la definizione della loro reciproca relazione. Da questo punto di vista Newton è considerato, insieme a Leibniz il creatore del calcolo infinitesimale.

La gravitazione universale Secondo quanto è riferito da Voltaire, l’idea della gravitazione è venuta in mente a Newton scrutando la caduta di una mela da un albero: e si sarebbe chiesto che cosa sarebbe accaduto se la mela fosse caduta da un albero alto quanto la Luna.

In verità la scoperta di Newton, come qualunque altra scoperta, scaturisce dal perfezionamento di tentativi anteriori. Prima di lui, Copernico aveva riconosciuto la gravità come una forza che attrae tra loro i corpi celesti. Huygens aveva già dato la formula della forza centrifuga, Alfonso Borrelli nel 1666 dirà che per mantenere i pianeti nelle loro orbite, deve corrispondere alla forza centrifuga un’altra forza, centripeta e attrattiva. A Newton, però, è riconosciuto il fatto di aver identificato, e abbracciato con una sola formula, la forza che mantiene i pianeti nelle loro orbite e quella che fa cadere i gravi sulla terra.

Riconosciuta l’identità del moto dei pianeti col moto dei gravi sulla Terra, Newton poté formulare la sua legge della gravitazione universale: i corpi si attraggono proporzionalmente al prodotto delle masse e in ragione inversa del quadrato delle loro distanze. Egli, poté in questo modo spiegare il movimento dei pianeti attorno al Sole, e dei satelliti intorno ai pianeti.

Il nostro studioso aveva cercato conferme della sua legge sulla base delle misure del raggio terrestre date da Snelio nel 1617; ma la conferma non era riuscita perché quelle misure erano sbagliate. Nel 1682 il francese Picard in una seduta della Royal Society diede l’esatta misura del raggio del nostro pianeta. Newton fece i suoi calcoli e trovò allora la conferma definitiva della sua legge. Solo dopo questa conferma Newton si decise di comunicare al mondo la sua scoperta, in un primo momento con le Proposizioni sul moto del 1684, e poi nei Principi matematici di filosofia naturale del 1687. (http://www.archive.org/stream/100878576#page/n7/mode/2up)  

La teoria della gravitazione di Newton si basa sulle leggi di Keplero del movimento dei pianeti, dalle quali Newton ha ricavato la formula della gravitazione. Ma la sua fecondità appare subito visibile dal fatto che essa consente di correggere quelle leggi stesse. Poiché in generale due corpi si attraggono sempre reciprocamente, ci sarà un’attrazione non soltanto, tra Sole e pianeti e satelliti ma anche tra i pianeti stessi. Newton poté così individuare una causa perturbatrice del movimento dei pianeti; per esempio la Terra non descrive attorno al Sole un’ellisse, ma una curva più complessa «un’ellisse perturbata» dall’azione degli altri pianeti che le sono attorno. Per quanto Newton si sia reso conto di queste perturbazioni, lo studio esatto di esse ha richiesto l’opera di molti grandi matematici del ‘700 e dell’800.

Newton diede un considerevole contributo anche alla dinamica che per molto tempo rimase immutata. Le evoluzioni che essa ha subito nel ‘700 e nell’800 sono di natura analitica e non incidono sui principi e sui concetti fondamentali della meccanica. La meccanica di Newton è differente da quella di Galileo e di Huygens perché si discosta per l’introduzione del concetto di massa, ma anche per la generalizzazione del concetto di forza e per l’estensione della validità delle leggi meccaniche all’intero universo. Newton opera una distinzione tra massa e peso. Infatti, secondo lo studioso inglese, la massa è la quantità di materia che non cambia mai per un dato oggetto, mentre il peso è una forza che varia secondo la regione del globo in cui il corpo si trova.

Netwon è il primo studioso a universalizzare il concetto di forza ed a collegarlo a quello di accelerazione (secondo principio della dinamica). Per primo infine ha enunciato il principio che ad ogni azione segue una reazione uguale e contraria. Egli ha potuto così stabilire i tre principi fondamentali della dinamica:
1) il principio d’inerzia: Ogni corpo persevera nel suo stato di quiete o di moto rettilineo e uniforme fino a quando non sia costretto a cambiare tale da forze impresse. Questo principio, esposto per la prima volta da Leonardo, era stato diffuso da Galileo e Cartesio;
2) il principio di proporzionalità tra la forza e l’accelerazione: la forza è proporzionale all’accelerazione, cioè alla variazione di velocità dell’unità di tempo, e non alla velocità stessa. Tale principio era stato conosciuto da Galilei limitatamente al fenomeno della caduta dei gravi, ma era stato trascurato da Cartesio;
3) il principio di azione e reazione. Ogni azione ha una reazione uguale e contraria, cioè le azioni reciproche di due corpi sono sempre uguali e di senso contrario. L’enunciato generale di tale legge, già utilizzata in casi particolari da Huygens e Wallis, è uno dei contributi più rilevanti di Newton alla meccanica generale.

Il concetto di moto assoluto è essenziale alla meccanica di Newton, che sarebbe quello riferito allo spazio vuoto, moto assoluto che suppone a sua volta un tempo e uno spazio assoluti. Newton poneva, infatti, un tempo assoluto «vero e matematico» fluente uniformemente, in sé senza relazione a qualche cosa di esterno; e poneva pure uno spazio assoluto, anch’esso non relativo a qualcosa di esterno ma permanente, sempre simile e immobile.

Il fenomeno della luce era stato da Cartesio come dovuto all’elasticità di un fluido sottile, l’etere, nel quale la luce si trasmetterebbe immediatamente. Il problema se la luce abbia una velocità finita di propagazione era stato già, trattato, con mezzi insufficienti, da Galilei, che non poté giungere ad una conclusione. Le leggi di Keplero permettono, infatti, di misurare con esattezza l’istante in cui questi satelliti si devono rendere invisibili; l’osservazione dà invece un tempo differente. La differenza di tempo si spiega se si ammette che la luce solare, per arrivare alla Terra, impieghi circa otto minuti primi; il che vuol dire che essa cammina a una velocità di circa di trecentomila chilometri al minuto secondo. Questa velocità fu poi misurata con esperienze terrestri, nel XIX secolo, da Fizeau e Foucault.

La teoria cartesiana della luce fu precisata da Huygens, il quale, come si è visto, la considerò un’oscillazione dell’etere, propaganti per onde. La teoria cartesiana della luce fu precisata per onde. Ma Newton accolse e fece prevalere la teoria corpuscolare. Secondo tale teoria, l’agitazione dell’etere produce, nei corpi incandescenti, l’emissione di particelle luminifere, che variano di grandezza a seconda del colore della luce. La percezione del colore è dovuta al nervo ottico. Le particelle luminose agiscono a distanza sulle particelle dei corpi, mettendole in vibrazione; queste vibrazioni si trasmettono all’etere.

Il metodo. L’ideale della scienza che il metodo difeso da Newton tende a rappresentare ed a realizzare è quello di una scienza del tutto descrittiva dei fatti della natura e delle sue leggi: cioè di una scienza che eviti qualsiasi ipotesi metafisica o comunque qualsiasi ipotesi che trascenda le possibilità di verifica fornite dai fatti stessi. Questo è ciò che Newton intese dire con la sua affermazione celebre hypotheses non fingo, cioè: mi rifiuto di immaginare ipotesi. Le ipotesi cui egli faceva riferimento sono quelle che ammettono qualità occulte o forze non visibili comunque fattori o elementi che non siano evidenti all’osservazione scientifica e non possono essere sottoposti al calcolo matematico.

La prima regola enunciata da Newton nei Princìpi (http://www.archive.org/stream/100878576#page/n7/mode/2up)  dice: «Bisogna ammettere solo quelle cause necessarie per spiegare i fenomeni, giacché la natura non fa niente invano e farebbe cosa inutile se si servisse di un numero maggiore di cause per fare ciò che si può fare con un numero minore di cause». Questa regola esclude che si possano ammettere forze che non hanno effetti riconoscibili. Per esempio ammettere, oltre la gravità, altre forze che agiscano nei movimenti celesti, è inutile perché la gravità basta a spiegare tali movimenti.

La seconda regola dice: «Effetti dello stesso genere devono sempre essere attribuiti, finché è possibile, alla stessa causa». Anche questa regola non pretende di esprimere una verità assoluta, cioè metafisica. Essa suggerisce che per esempio, poiché la pesantezza e la gravitazione sono lo stesso fenomeno, devono essere attribuite all’azione della stessa forza: quella di gravità.

La terza regola afferma: «Le qualità che non sono suscettibile di aumento e di diminuzione e che appartengono a tutti i corpi dei quali si può fare esperienza, devono essere considerate come appartenenti a tutti i corpi in generale». Si può intravedere in questa regola quella che autorizza l’induzione scientifica, vale a dire l’estensione di una legge che è stata verificata solamente per un numero ristretto di casi a tutti i casi possibili.

La quarta regola, infatti, sostiene: «Nella filosofia sperimentale, le proposizioni raggiunte mediante induzioni dai fenomeni devono essere considerate, nonostante le ipotesi contrarie, esattamene o approssimativamente vere fino al momento in cui altri fenomeni le confermino interamente o facciano vedere che sono soggette a eccezioni». «Un’ipotesi, infatti, non può indebolire i ragionamenti fondati su indicazioni suggerite dall’esperienza». Quest’ultima regola innanzitutto rivela lo spirito della metodologia scientifica newtoniana. Le verità sperimentali sono indubitabili fino a quando rispondono, con un’indiscutibile approssimazione, ai fatti.

Il positivismo

Il positivismo nasce nella prima metà dell’Ottocento in Francia come movimento filosofico e culturale, caratterizzato da un’esaltazione della scienza. Esso s’impone, a livello europeo e mondiale, verso la seconda parte del secolo.

Il termine «positivo», nella filosofia ottocentesca assume due significati fondamentali:
1) «positivo» è innanzitutto ciò che è reale, effettivo, quello che è fecondo e sperimentale, che, si contrappone a tutte quelle cose che invece si presentano come astratte e metafisiche;
2) «positivo» è anche ciò che si presenta come efficace, pratico, produttivo in opposizione a tutto quello che nella società è considerato futile ed improduttivo.

Il termine appare per la prima volta nell’opera Catechismo degli industriali (1822) di Saint Simon, che in seguito sarà messo appunto da August Comte, che lo utilizza per la sua dottrina, consacrandone l’uso nella terminologia filosofica europea.

Anche se alcuni pensatori si differenziano tra loro sia per formazione intellettuale, sia per temi specifici di cui si occuperanno, il Positivismo appare caratterizzato, fin dall’avvio, da una celebrazione della scienza, che si concreta in una serie di persuasioni di fondo:
1) La scienza è la sola forma di conoscenza possibile ed il suo metodo è l’unico valido: pertanto, il ricorso a cause ed a principi che non siano accostabili al metodo della scienza non dà origine a conoscenza;
2) non avendo oggetti suoi propri, o campi privilegiati di investigazione sottratti alle scienze, la filosofia tende a collimare con la totalità del positivo, infatti, la sua funzione consiste nel mettere insieme e nell’organizzare i risultati delle singole scienze, perché si possa conseguire una conoscenza unificata ed universale.
3) Il metodo della scienza, poiché è l’unico valido, va allargato a tutti gli ambiti, compresi quelli che concernono l’uomo e la società. Infatti, la sociologia sarà la materia preferita dei pensatori positivisti.
4) Il progresso della scienza costituisce la base per lo sviluppo dell’individuo, esso è lo strumento attraverso cui riorganizzare globalmente la vita all’interno di qualunque ambiente sociale, in grado di attraversare la «crisi» del mondo moderno.

Quest’ultimo punto è fondamentale per comprendere la genesi stessa del movimento. Infatti, a tal proposito, Pietro Rossi afferma: «ciò che caratterizza il positivismo ottocentesco è, in primo luogo, la consapevolezza di una profonda crisi storica che ha investito la società europea e che comporta una rottura irreparabile con il passato e le istituzioni tradizionali».

Parlando del Positivismo in generale, è tuttavia indispensabile discernere tra un «primo» ed un «secondo» stadio di esso.

Infatti, mentre all’avvio, nel corso dell’età della Restaurazione e durante la prima metà dell’Ottocento, il Positivismo, con Auguste Comte, si pone innanzitutto come proposta di superamento di una «crisi» socio-politica e culturale (quella post-illuministica e post-rivoluzionaria). Il take-off del sistema industriale, della scienza, della tecnologia, dei traffici commerciali e dell’estensione della cultura su larga scala, costituiscono le principali determinanti che contribuiscono nel creare un «clima» generale di fiducia entusiastica nelle forze dell’individuo e nelle potenzialità della scienza e della tecnica.

A testimonianza di quanto dichiarato qualche riga sopra, proponiamo i versi della poesia Inno a Satana di Giosuè Carducci che celebra le «grandezze» della vaporiera. (http://ilcarducci.interfree.it/carducci_inno_a_satana.html) . Il testo pur essendo modesto sul piano artistico, tuttavia, rende molto evidente l’euforia che si registra nella società del tempo per l’avvento di una nuova era: Un bello e orribile mostro si sferra corre gli Oceani come la terra… come di turbine alito spande: ei passa, o popoli, Satana il grande.

Quest’ottimismo, presente principalmente nelle classi dirigenti e capitalistiche, ma anche nel basso ceto, che possono condurre una vita sul piano qualitativo migliore rispetto al passato, si trasforma in un vero e proprio credo religioso per il pensiero scientifico e tecnico. Per questo, possiamo dichiarare che il Positivismo è l’esaltazione soprattutto dello scienziato, di cui è incarnazione massima quel Newton per quanto concerne la fisica, Darwin per quanto riguarda la biologia.

Se rivisto nel suo complesso, il Positivismo della seconda metà del secolo appare quindi come la filosofia della moderna società industriale e tecnico-scientifica e come l’espressione culturale delle speranze, degli ideali e degli entusiasmi ottimistici che hanno contrassegnato la storia della società moderna del tempo. Non per nulla esso si sviluppa principalmente in quelle nazioni (come l’Inghilterra, la Francia e la Germania) che appaiono all’avanguardia del progresso industriale e tecnico-scientifico, mentre impiega più tempo ad affermarsi nei paesi (come ad esempio l’Italia) che versano in condizione di maggiore arretratezza economica.

Dall’altro lato, il Positivismo della seconda metà dell’Ottocento appare come l’ideologia tipica della classe media dei paesi dell’Occidente.

Positivismo e Illuminismo Per comprendere in modo adeguato il Positivismo è di fondamentale rilevanza cogliere le correlazioni con l’Illuminismo. Infatti, il collegamento tra questi due movimenti culturali è molto più stretto di quanto si possa pensare. Il Positivismo si configura come una ripresa originale del programma illuministico all’interno della nuova situazione storica – sociale post-rivoluzionaria, caratterizzata dall’avvento del capitalismo industriale e dallo sviluppo delle scienze e della tecnica.

Proviamo ad esaminare le differenze nel confronto con l’Illuminismo, che ci consentono di tracciare meglio la specificità storica del movimento in esame. In primo luogo, occorre affermare che il Positivismo e l’Illuminismo presentano degli schemi generali di pensiero verificabilmente simili:
1) la speranza nella ragione e nel sapere, considerati come strumenti di sviluppo a servizio dell’individuo e della «pubblica felicità».
2) l’esaltazione della scienza a discapito della metafisica e di qualunque tipo di sapere non-verificabile;
3) la concezione tendenzialmente laica ed immanentistica della vita.

Nello stesso tempo, positivisti e illuministi differiscono fra loro per alcuni atteggiamenti di fondo:

1) Sebbene gli idoli polemici siano in parte identici a quelli contro cui si era battuto l’Illuminismo (per esempio la tradizione metafisica e religiosa o il parassitismo di una parte della nobiltà agraria, ritenuta ostacolo al progresso), il momento storico in cui vivono i positivisti della seconda metà del secolo è decisamente differente. Mentre gli illuministi hanno lottato contro forze culturali e sociali ancora dominanti, facendosi portatori oggettivi degli interessi culturali e sociali di una classe media in ascesa, i positivisti operano in una situazione intellettuale trasformata, che vede, da un lato, uno sviluppo sempre più accentuato del pensiero scientifico e della mentalità laica, e, dall’altro, l’ormai consolidato potere della classe media.

2) L’Illuminismo si configurava come un riformismo tendenzialmente gravido di rivoluzionarismo, invece il Positivismo si presenta come un movimento sostanzialmente anti-rivoluzionario, vale a dire con un atteggiamento politico che, pur lottando contro la vecchia tradizione politica e culturale, appare contrario alle nuove forze rivoluzionarie rappresentate dalla classe proletaria e dalle dottrine socialiste.

3) Le due correnti di pensiero si differenziano anche per un modo diverso di intendere il ruolo della filosofia verso la scienza. Infatti, mentre nell’Illuminismo l’appello al sapere sperimentale funge per la maggior parte da dissoluzione delle antiche credenze della metafisica e della religione, nel positivismo il richiamo alla scienza si concretizza talora in una riedificazione di certezze assolute, esplicitamente presentate come la «forma» moderna e «positiva» delle antiche religioni metafisiche. Inoltre, mentre l’Illuminismo, discendente della gnoseologia empiristico-lockiana e della metodologia di Newton, appare distante da una dogmatizzazione dei poteri della scienza, il Positivismo si alimenta invece, specialmente all’inizio, ma anche in seguito, di un’esplicita assolutizzazione della scienza, che rappresenta, l’analogo, con riferimento al sapere positivo, dell’assolutizzazione romantica del sentimento e dell’arte.

Il positivismo in Europa Come abbiamo visto, il Positivismo è un movimento sorto in Francia intorno alla metà del XIX secolo come progressiva reazione all’Idealismo, infatti, esso oppone alle astrattezze metafisiche la positività concreta della scienza, arrivata a risultati sorprendenti in virtù del metodo sperimentale.

Con il Positivismo si ha una rivalutazione dell’esperienza come fonte della conoscenza; rileva le leggi soltanto dai fatti positivi, ossia verificati e stimati nell’ambito del concreto e del controllabile, con l’esclusione di fini, di essenze e di origini. E poiché i fatti sono naturali, quindi soggetti a leggi analoghe, ogni indagine positiva stabilisce relazioni tra i fatti, tralasciando ogni ricerca intorno all’Assoluto.

Espressione della civiltà industriale, di cui condivideva lo speranzoso ottimismo nelle possibilità del progresso e della tecnica ai fini della felicità e del benessere, il positivismo si diffuse in tutto il mondo occidentale, differenziandosi secondo le tradizioni culturali dei vari Paesi.

Il concetto filosofico di positivismo era definito dallo stesso fondatore, A. Comte (1798-1857), che attribuiva al termine più di un significato. Positivo è certezza scientifica in contrapposizione alla mancanza di rigore della metafisica, è concretezza reale rispetto all’astrazione, è opposizione al negativo, cioè alla critica demolitrice. Basilare, nella concezione comtiana, è la cosiddetta «legge dei tre stadi» che segnano gli stadi (come quello teologico, metafisico, positivo) dello sviluppo dell’uomo, sia nel tentativo di darsi una spiegazione degli accadimenti, sia nell’organizzazione della vita associativa.

L’interesse di Comte per quest’ultimo problema determinava anzi le premesse di una nuova scienza: la Sociologia, sviluppatasi dopo di lui in forma autonoma. In Inghilterra, l’incontro del positivismo con la tradizione empiristica rappresentata da Hume, trova in John Stuat Mill (1806-1873) un geniale interprete, con notevoli conseguenze in campo logico e metodologico.

Considerato il fatto di coscienza come l’atto primitivo della conoscenza, Mill assegna all’associazionismo il compito di generalizzare i dati soggettivi in virtù di un principio analogico, di cui si avvale anche il pensiero logico nello stabilire una relazione da particolare a particolare, con esclusione sia del procedimento induttivo, che di quello deduttivo.

Questo rigoroso metodo di analisi dei fatti (che è uno dei principi direttivi fondamentali del Positivismo) permette a Mill anche una chiara indagine dei fatti sociali. Hebert Spencer (1820-1903) altro importante esponente del positivismo inglese, generalizza il principio di evoluzione a tutti gli aspetti della realtà, riconducendo ogni fenomeno naturale al passaggio dall’omogeneo all’eterogeneo, secondo un processo alternante di concentrazione di materia e dissipazione di moto, in un mondo retto da tre principi: indistruttibilità della materia, continuità del moto, persistenza della forza.

Questa sua convinzione, essenzialmente materialistica, è incrinata solo dall’ammissione di un Assoluto inconoscibile, che nessuna impostazione sperimentalista può razionalmente giustificare.

Nel nostro paese, il Positivismo, rappresentato dal suo più noto cultore, Roberto Ardigò (1828-1920) approfondisce la tesi evoluzionista, evitando le implicazioni metafisiche di Spencer.

In Germania, nato nel clima positivista, ma con l’intento di superarlo, sorge l’empiriocriticismo di E. Mach (1838-1916) e R. Avenarius (1834-1896).

L’importanza del Positivismo nella cultura moderna La rilevanza del positivismo nell’ambito della cultura ottocentesca è stata notevole. Infatti, per la sua capacità di porsi come interprete dei dinamismi della società industriale moderna e dello sviluppo tecnico scientifico, esso ha finito per divenire un’autentica «moda culturale» e per rappresentare la forma mentis di tutta un’epoca. Di conseguenza, come si è parlato di un’età o di una civiltà rinascimentale o illuministica, così si può discorrere, a buon diritto, di un’epoca o di una civiltà positivistica, il cui «spirito» si estende dalla letteratura alla politica, dall’arte alla storiografia, dalla pedagogia all’antropologia criminale. Senza riferimento all’atmosfera positivistica non si comprenderebbero, per esempio, decisivi fenomeni letterari come il realismo ed il verismo, i quali, rappresentano la concretizzazione artistica del richiamo positivista ai fatti, o si intenderebbe il mutato modo di praticare la critica storica e letteraria, o i nuovi indirizzi pedagogici e didattici, incentrati sul programma di una scuola «laica» e di uno studio «scientifico» dei problemi educativi.

Nonostante questa profonda incidenza culturale, il Positivismo, con il tempo, ha finito per sembrare, a molti filosofi, come un dogmatismo avente la pretesa di praticare la filosofia non certo più rigorosa di quella del passato. Tutto ciò spiega la massiccia «reazione antipositivistica», che ha caratterizzato la filosofia degli ultimi decenni dell’Ottocento e degli inizi del Novecento. Controffensiva cui ha contribuito l’espansione stessa delle scienze, che si sono sviluppate in direzioni contrastanti con il quadro gnoseologico ed epistemologico presupposto messo in evidenza dal Positivismo.

Ciò non deve tuttavia far dimenticare che il Positivismo ha influito in profondità sulla cultura moderna, attirando l’attenzione sull’importanza conoscitiva e pratico-sociale della scienza. Inoltre esso ha stimolato la nascita e l’affermazione delle cosiddette «scienze umane», in particolare della sociologia e della psicologia; ma ha proposto un nuovo concetto di filosofia, che resta tuttora come una delle alternative fondamentali di tale disciplina.

Infine, il Positivismo ha posto le basi per delle forme di neopositivismo metodologicamente più guardinghe, e in più, ha obbligato la filosofia a ripensare criticamente a se stessa e ai suoi compiti e a definire meglio i suoi rapporti con la scienza e le altre attività umane.

Il matematico in giallo di Carlo Toffalori

matematico-giallo.pngNon lasciatevi ingannare dalla copertina: ”Il matematico in giallo” di Carlo Toffalori,edito da Guanda, non è l’alter ego matematico della signora Fletcher. Infatti, come precisa il sottotitolo “Una lettura scientifica dei romanzi polizieschi”, si tratta di un godibile saggio in cui l’autore si propone di illustrare la relazione tra Matematica e letteratura gialla, che si rivelerà più profonda e interessante di quanto si possa pensare.

Toffalori, professore di Logica Matematica all’Università di Camerino, sceglie di farlo con gli strumenti che gli sono più consoni: quelli dello scienziato. E con la sua lente di ingrandimento esamina i più grandi detective della letteratura partendo da Auguste Dupin di Edgar Allan Poe,p assando per Sherlock Holmes e Hercule Poirot, Nero Wolfe e Ellery Queen.

Forse stupisce trovare tra i tanti investigatori logici e scientifici chi come Maigret è il meno matematico di tutti; proprio lui però secondo l’autore interpreta al meglio il modo di lavorare di un matematico, con il suo rimuginio lento e talora ossessivo su un problema.

Nella maggior parte dei romanzi la figura del matematico, sia esso investigatore o criminale, appare stereotipata e lontana dalla realtà: per esempio annovera sempre tra le sue passioni scacchi, bridge e enigmistica o rispecchia la tipica immagine del genio e del professore, non avvenente, distratto, impacciato e poco socievole, ma perfettamente a proprio agio nello studio della sua materia.

Tuttavia il quadro che ne emerge è piuttosto vario: si parla di crittografia e informatica teorica, dei Teoremi di Goedel e di scacchi; si affronta il tema del rapporto tra uomini e macchine (grazie ai romanzi di Asimov).

L’autore dimostra di essere un ottimo divulgatore presentando ai lettori anche argomenti più specialistici come l’Ultimo Teorema di Fermat e la Congettura di Goldbach con il taglio del romanzo giallo, con la suspence degna di storie del genere.

Quindi amanti di polizieschi e appassionati di matematica non fatevi sfuggire questa piacevole lettura.

Bella dentro

Jitze-Chambered_nautilius_shell.jpgE chi può dirlo? Miss Italia del ….? L’attrice che, negli ultimi tempi, è contesa da numerose trasmissioni televisive? La ragazza conosciuta la scorsa estate? O forse proprio quella che ti ha colpito … al punto che hai deciso di dividere la tua vita con lei? O quella che .. ? Ci sono anche forme di bellezza ben più astratte …

Cubo di Coppo n00450906109910

cubocoppo.pngIl cubo di Coppo è una variante del Sudoku inventata da Eugenio Coppo. Le regole sono abbastanza semplici e sono all’interno del file stampabile con il primo cubo che pubblichiamo. Una nuova sfida che sicuramente divertirà chi ama i rompicapo.

Soluzione del gioco n00450906109910

Con TWIZY FOR ALL Renault mette in palio un contratto di lavoro.

renaultze.jpg"Folgoràti di tutte le facoltà cercasi. L’auto elettrica vuole dare un’opportunità alle vostre idee”. Questo è il messaggio che Renault Italia lancia agli studenti e neo-laureati delle università italiane per invitarli a partecipare al concorso “Twizy for All”, che mette in palio un’assunzione a tempo determinato di 12 mesi all’interno della Direzione Marketing di una delle aziende italiane del Gruppo Renault ed una visita presso una visita presso il Losange, sede del centro di Ricerca e Sviluppo Renault in Francia.

Il concorso Twizy for All nasce dalla volontà di Renault di coinvolgere validi giovani nel proprio ambizioso programma Renault Zero Emissioni, il progetto volto allo sviluppo e alla diffusione dei veicoli elettrici come soluzione di mobilità del prossimo futuro, la più efficace e sostenibile per l’ambiente. In particolare, il programma Renault prevede l’introduzione sul mercato fra il 2011 e il 2012 di una gamma completa di 4 veicoli 100% elettrici, dotati di batterie agli ioni di litio di ultima generazione. In questo contesto, Twizy è il veicolo a maggior potenziale in Italia per rispondere alle esigenze individuali di mobilità urbana.

Da sempre attenta alla valorizzazione dei nuovi talenti, con il concorso Twizy for All, Renault Italia coinvolge le Università per lanciare una sfida avvincente indirizzata ai “Manager del futuro.

Il concorso è aperto agli studenti universitari iscritti all’ultimo anno di laurea specialistica ed ai laureati negli ultimi 12 mesi, offre l’opportunità di miscelare competenze e creatività per formulare il “Piano di lancio di Renault Twizy”, l’innovativa “urban car”, agile e compatta che si propone di reinventare le regole di mobilità individuale e cittadina.  

Il concorso richiede dunque di sviluppare la strategia di lancio del nuovo prodotto, coerentemente con il target di riferimento e con l’innovativo concetto di mobilità urbana, espresso da Renault Twizy.

Il concorso Twizy for All sarà attivo dal 31 gennaio al 4 aprile 2011, termine ultimo per l’invio dei lavori.

Lo studente o il team composto da massimo tre studenti, che saprà meglio analizzare lo scenario competitivo, sviluppare un piano di lancio basato su tutti gli assi di marketing e mettere a punto la strategia creativa e quella di comunicazione, vedrà premiato il proprio talento con un vero e proprio “inserimento” in azienda: come osservatore, con una visita presso la sede di Losange, centro di Ricerca e Sviluppo Renault in Francia, ma soprattutto come protagonista, con l’assunzione a tempo determinato di 12 mesi presso la Direzione Marketing di una delle aziende italiane del gruppo Renault.

Coloro che vorranno partecipare, potranno scaricare il brief e il relativo regolamento sul relativo sito .  Il concorso si svolgerà via web, mediante registrazione e caricamento del lavoro presentato sul sito dedicato. Sarà una giuria di esperti a valutare tutti i piani di lancio pervenuti e a decretare il miglior piano presentato.

Twizy for All rappresenta un’importante occasione per chi vuole intraprendere una carriera nel mondo del marketing e della comunicazione e per potersi confrontare con una tematica innovativa, come quella della mobilità elettrica. Per i vincitori, infatti, la possibilità di lavorare in un team di professionisti del settore, che oggi presenta una delle innovazioni più importanti del mercato automobilistico: il veicolo elettrico a zero emissioni.

“Con l’iniziativa Twizy for All – ha sottolineato Luciano Ciabatti, Direttore Marketing di Renault Italia – ci proponiamo di coinvolgere i giovani in una sfida che sta emozionando anche noi; lo sviluppo della mobilità del futuro, una mobilità innovativa ed eco-compatibile. Siamo convinti che Renault Twizy, con la sua originalità e la sua unicità, possa costituire un ponte naturale fra una nuova generazione di talenti e l’attenzione di Renault allo sviluppo di una mobilità all’avanguardia: quella 100% elettrica”.

Contatti stampa:
Gabriella Favuzza – Corporate Communication Manager
e-mail: [email protected]
Tel. +39 06 4156486 – Cell. +39 335 6239074 – Fax +39 06 41566486
renault.png

Contenuto sponsorizzato

Cartesio

Renè Descartes, noto come Cartesio, nacque il 31 Marzo 1596 a La Haye nella Touraine. Ricevette un’educazione rigorosa presso il collegio dei gesuiti a La Flèche, dove entrò nel 1604 e vi restò fino al 1612. In questo periodo compì degli studi che egli stesso criticò nella prima parte del suo Discorso , perché non gli diedero l’orientamento da lui ricercato.

Nel 1619, da quel che si narra, il nostro autore pare aver trovato la “via maestra”, come – afferma egli stesso – quasi per ispirazione divina. Infatti, il filosofo francese racconta che in una notte, fece tre sogni successivi; obbedì all’ingiunzione dei sogni e fece il voto di andare in pellegrinaggio al famoso santuario d’Italia, quello della Madonna di Loreto.

La prima intuizione del suo metodo la ottenne, pertanto, nel 1619. Metodo che sarà inserito nella sua prima opera dal titolo “Regole per dirigere l’ingegno”, composta appunto tra il 1619 e il 1630. Proprio in questo periodo, il nostro filosofo prende parte alla guerra dei trent’anni; ma gli usi del tempo concedevano molta libertà ai nobili, e pertanto, egli ebbe la possibilità di compiere una serie di viaggi e di dedicarsi agli studi di matematica e fisica, oltre che, all’elaborazione del suo metodo.

Nel 1628 si stabilì in Olanda, paese in cui era consentito avere una certa libertà filosofica e religiosa. In questo ambiente, Cartesio comincia a scrivere un trattato di metafisica senza tuttavia pensare a una pubblicazione immediata del suo lavoro; ma intanto riprese lo studio della fisica ed ebbe l’idea di scrivere un trattato sul Mondo, che doveva essere presentato con il titolo meno “ambizioso”: Trattato sulla luce.

La condanna che Galileo ricevette nel 1633, fece scoraggiare il nostro filosofo, il quale evitò di pubblicare il suo lavoro in cui propugnava la dottrina copernicana. In seguito pensò di pubblicare almeno alcuni risultati che aveva raggiunto; e in questo modo vennero alla luce i tre saggi: la Diottrica, le Meteore e la Geometria, ai quali premise un’introduzione dal titolo Discorso del metodo che pubblicò a Leyda nel 1637. In un secondo momento il trattato di metafisica fu ripreso per una redazione definitiva; e nel 1640 grazie all’aiuto di un amico, il padre Mersenne, lo scritto fu inviato a un gruppo di filosofi e teologi perché potessero fare le loro osservazioni.

Nel 1641 l’opera fu stampata con il titolo Meditazioni sulla filosofia prima intorno all’esistenza di Dio e all’immortalità dell’anima con l’aggiunta delle Obiezioni che le erano state rivolte e le Repliche di Cartesio.

Nel 1644 riprende la rielaborazione del suo trattato sul Mondo sotto la forma di compendio destinato alle scuole, dal titolo Principi di Filosofia. Nello stesso periodo, il pensatore francese intrattiene una corrispondenza con la principessa Elisabetta del Palatinato, la quale gli diede l’idea di creare la monografia psicologica dal titolo “Le passioni dell’anima” pubblicata nel 1649. Nello stesso anno egli accettò l’invito alla corte della regina Cristina di Svezia, questo, si rivelò fatale per il nostro filosofo, poiché nel rigido inverno del 1650 si ammalò di polmonite spegnendosi l’11 Febbraio.

Il metodo Cartesiano, il metodo di cui va alla ricerca Cartesio, è allo stesso tempo teoretico e pratico: deve condurre a saper discernere il vero dal falso, anche e soprattutto in virtù dell’utilità e dei vantaggi che possono scaturire per la vita dell’uomo. In altre parole, egli cerca un metodo che sia una guida per l’orientamento dell’individuo nel mondo. Esso deve condurre ad una filosofia “non puramente speculativa, ma anche pratica, per la quale l’individuo possa rendersi padrone e possessore della natura”.

Egli ricerca un metodo filosofico che metta a disposizione degli uomini congegni che gli facciano godere senza fatica dei frutti della terra e di altre comodità, e che miri alla conservazione della salute la quale è il principale bene per l’uomo.

Cartesio mostra una certa fiducia sulla possibilità e sui risultati pratici di una simile forma di sapere: la quale, egli pensa, potrebbe condurre gli uomini ad essere esenti “da un’infinità di malattie, tanto del corpo quanto dello spirito, e forse anche dall’indebolimento della vecchiaia” (Discorso sul metodo, VI,1).

Per metodo (dal greco méthodos, composto di metá, che indica il seguire qualcosa, e hodós, “via”, “strada”) Cartesio intende un procedimento ordinato di indagine che si concretizza in una serie di regole atte ad evitare l’errore e a raggiungere risultati validi.

Le regole su cui si fonda il metodo cartesiano sono classificate in:
1. Regola dell’evidenza. Essa prescrive di attenersi soltanto a quello che si presenta “chiaramente” e “distintamente” al nostro spirito, ossia con una forza tale da escludere il dubbio. L’evidenza è per Cartesio il principale contrassegno della verità: «tutte le cose le percepiamo con assoluta chiarezza e distinzione sono vere» (Meditazione metafisiche, III,1).
2. La regola dell’analisi. Questa prescrive di «dividere ciascuna delle difficoltà da esaminare nel maggior numero di parti possibili», affinché risulti più semplice la soluzione di un determinato problema (Discorso., II).
3. La regola della sintesi. Essa prescrive di passare gradualmente dalle conoscenze più semplici alle conoscenze più complesse.
4. La regola dell’enumerazione e della revisione. Questa prescrive di controllare l’analisi attraverso numerazioni «complete» e di controllare la sintesi mediante «revisioni generali», in modo da «non omettere nulla» (Discorso., II).

Secondo Cartesio, solo mediante una critica radicale di tutto il sapere già dato è possibile trovare il fondamento di un metodo, che deve essere la guida sicura della ricerca in tutte le scienze. Occorre, pertanto, dubitare di tutto e considerare almeno provvisoriamente come false le conoscenze comunemente accettate. Se, perseverando in tale atteggiamento di critica radicale, si arriverà a un principio sul quale il dubbio non è possibile, questo principio dovrà essere considerato saldissimo e tale da poter servire da fondamento a tutte le altre conoscenze.

Secondo l’autore, ogni forma di conoscenza deve essere messa in dubbio, pertanto si può e si deve dubitare delle conoscenze sensibili, sia perché i sensi qualche volta ci ingannano e quindi possono fuorviarci in qualsiasi momento, sia perché si hanno nei sogni conoscenze simili a quelle che si hanno durante la veglia, senza che si possa trovare un sicuro criterio di distinzione tra le une e le altre.

Ci sono conoscenze che sono vere sia nel sogno che nella veglia, come le conoscenze matematiche (infatti, uno più due fa sempre tre, sia nel sogno che nella veglia) ma neanche queste conoscenze si sottraggono al dubbio cartesiano perché anche la loro certezza può essere illusoria. Infatti, fino a quando non si sa nulla di certo intorno all’uomo e alla sua origine, si può sempre ipotizzare che egli sia stato creato da un genio o da una potenza maligna che si sia proposta di ingannarlo facendogli apparire chiaro ed evidente tutto ciò che invece è falso ed inconcepibile. Basta formulare quest’ipotesi, dal momento che non si sa nulla, perché anche le conoscenze più certe e condivise dalla comunità, si rivelino dubbie e capaci di nascondere la loro falsità. In questo modo, il dubbio si estende a ogni cosa e diventa del tutto generale (si perviene così allo stadio del dubbio iperbolico).

Ma proprio nel carattere radicale di questo dubbio rinveniamo il principio di una prima certezza. Si può ammettere di essere stati ingannati in tutti i modi possibili; ma per essere ingannati bisogna esistere, cioè essere qualcosa. La proposizione io esisto è pertanto la sola assolutamente vera poiché il dubbio stesso la conferma: dubita solo chi esiste. Ma io che esisto, non posso affermare di esistere come corpo, dal momento che non so niente circa l’esistenza dei corpi attorno ai quali i miei dubbi rimangono. Quindi io esisto come una cosa che dubita, vale a dire che pensa.

Le cose “oggetto” dei miei pensieri possono pure non essere reali, ma è certamente reale il mio pensare. L’affermazione io esisto equivale dunque a quest’altra: io sono un soggetto pensante, cioè spirito o ragione.

Nella fisica Cartesio studia il mondo della natura, intesa come campo dell’estensione, del movimento e della necessità meccanica. La fisica cartesiana procede in modo deduttivo, poiché parte da alcuni princìpi di base e costruisce, sulla loro scorta, l’intero sistema della natura. Essa è inoltre rigorosamente meccanicistica. Per meccanicismo cartesiano, infatti, s’intende l’attitudine a considerare il mondo alla stregua di una grande macchina, indagabile secondo le leggi della meccanica e spiegabile in termini di materia in movimento, ossia secondo criteri non più finalistici e qualitativi, ma bensì quantitativi e matematici: «Nella “filosofia meccanica” la realtà viene ricondotta ad una relazione di corpi o particelle materiali in movimento e tale relazione appare interpretabile mediante le leggi del moto individuate dalla statistica e dalla dinamica». ( P. Rossi).

La "Geometria" rappresenta la più rilevante delle tre appendici del "Discorso sul Metodo" e dà i natali alla geometria analitica, che si pone come punto d’incontro tra la geometria degli antichi e l’algebra dei moderni.

Cartesio ha cognizione dell’unità delle diverse scienze matematiche, che pur operando su oggetti diversi, considerano solo i diversi rapporti e proporzioni.

Il nostro filosofo, riordina in modo sistematico la simbologia algebrica e dà accoglienza all’immediata spiegazione geometrica dei procedimenti algebrici. Infatti, egli applica il suo metodo alla geometria degli antichi, quasi tutti "colpevoli" di avanzare episodicamente, senza elevarsi al grado di universalità che sarebbe stata necessaria ad un’impostazione sistematica della scienza.

L’algebra diventa capace di riprodurre entro di sé in termini formali la geometria, la quale a sua volta diviene uno strumento idoneo alla spiegazione dei procedimenti algebrici. Il numero e la forma diventano interpretabili l’uno nell’altro. Cartesio introduce l’utilizzo sistematico degli assi coordinati, che nel nostro tempo sono chiamati "assi cartesiani", i quali, consentono di dare una rappresentazione dei punti con coppie o terne di numeri e le relazioni geometriche tra i punti con relazioni matematiche. Al dire il vero, l’individuazione di ogni punto su di una superficie mediante una coppia ordinata di numeri (la latitudine e la longitudine) era già una pratica adoperata nella cartografia, alla quale risale anche l’individuazione di una linea attraverso una sola coordinata (la sola latitudine indica un parallelo e la sola longitudine un meridiano).

Universalizzando il principio, Cartesio sostiene che un’equazione a due incognite individua sempre una linea che è una retta, se l’equazione è di primo grado ($ax+by+c=0$); è una conica se l’equazione è di secondo grado (per esempio una circonferenza $X^2+Y^2+ax+by+c=0$, o una parabola $y = ax^2+ bx+c=0$, eccetera); ed è infine una curva più complessa se l’equazione è di grado superiore ($y=x^3$). Fra i risultati più rilevanti conseguiti da Cartesio, è meritevole di grande considerazione la determinazione generale della normale a una qualunque curva algebrica piana in un suo punto qualsiasi, e la conseguente determinazione della tangente. Il mondo s’identifica con l’estensione e perciò la fisica si riconduce integralmente alla geometria, né è di ostacolo a tale riduzione l’estensione del moto, giacché il tempo può assumere facilmente la fisionomia di una dimensione geometrica.

Negli scritti di fisica di Cartesio vi è un’assenza quasi totale della matematica, infatti, il suo obiettivo è di fornire un’interpretazione matematica della realtà fisica. La fisica cartesiana si fonda sostanzialmente su due principi:

1)L’inesistenza del vuoto;

2)la costanza della quantità di moto.

La negazione dell’esistenza del vuoto è una diretta deduzione dell’estensione come attributo della sostanza corporea, da questo, essendo l’estensione, un attributo e non una sostanza per esistere, deve necessariamente appoggiarsi a qualche corpo. Cartesio per tale ragione deduce l’esistenza di una materia prima entro la quale i corpi si sposterebbero come pietre nell’acqua.

Nella fisica cartesiana i fenomeni sono spiegati per mezzo del moto, quest’ultimo sarebbe caratterizzato dalla "quantità di moto", che è data dal prodotto della massa del corpo M in movimento e la sua velocità V, tale per cui Q=M∙V. Il filosofo francese assolutizza tale principio, mentre nel nostro tempo sappiamo che è valido quando, e solo quando, sia applicato ad un sistema di masse soggette solamente alle forze che esercitano l’una sull’altra, ovvero ad un sistema isolato. Il grande neo del nostro filosofo è stato quello di pensare che la quantità di moto si distribuisca attraverso forme differenti tra i corpi mediante gli urti, come l’unico motore della grande macchina del mondo.

Cartesio, infatti, bandiva qualsiasi tipo di forza, attrattiva o repulsiva; secondo lui l’unica cosa che si mantiene è la quantità di moto, invece in realtà si mantiene l’energia, che può trasformarsi nelle sue molteplici forme: cinetica, termica, ecc.

Questo aspetto della fisica cartesiana è criticato da Leibniz, il quale, ritiene che il principio d’inerzia sia conservazione della velocità iniziale, ma anche conservazione della direzione rettilinea del moto.

Prendendo il via dai principi sopra indicati, il pensatore francese formula la sua celebre "teoria dei vortici", in cui afferma che ciascun corpo è attratto verso la Terra da un vortice ed anche i pianeti, oltre che la Terra, ruotano in un vortice più grande intorno al Sole.

Il riduzionismo cartesiano non risparmiava neanche il mondo della vita. Infatti, le funzioni vitali non possiedono nulla di specifico che lo differenzi dai fenomeni di natura meccanica: un essere vivente è solo una macchina, un automa, funzionante anch’esso in virtù dell’inerzia e della conservazione della quantità di moto.

Gli studi di anatomia condotti in epoca rinascimentale, sembravano confermare l’interpretazione meccanicistica cartesiana della vita, dal momento che mettevano in risalto la funzione meccanica dello scheletro e della muscolatura. Il corpo, così, diverrebbe una macchina adoperata dalla res cogitans, come se fosse uno strumento. Considerato simbolo della modernità, Cartesio ha influenzato le filosofie più disparate.

Malgrado fosse ritenuto un pensatore “ambivalente”, egli ha fatto sì che della sua filosofia potessero essere messi in risalto gli aspetti tra di loro antitetici. Il nostro pensatore sarà ricordato come il “filosofo del meccanicismo” o forse come il pensatore che pone le basi dell’ateismo, ma una cosa è certa, egli fu la pietra miliare della filosofia moderna, della quale è considerato il fondatore.

Egli è innanzitutto il più importante protagonista della filosofia del Seicento. Cartesio ha un ruolo di certo non secondario anche all’interno dell’Illuminismo, movimento culturale e filosofico che accoglie il suo razionalismo, il dubbio metodico, il rifiuto del principio di autorità. Con l’idealismo tedesco Cartesio è celebrato come il pensatore della soggettività, attraverso cui si realizza il passaggio dalla metafisica dell’essere o dell’oggetto alla metafisica della mente, o dell’individuo e per cui si intuisce, grazie al cogito, l’identità essere = pensiero.

Nella cultura della società del Novecento la presenza di Cartesio continua ad essere notevole. In particolar modo, la cultura francese ha tratto dal pensiero cartesiano un’impostazione dualistica e coscienzialistica, cioè basata essenzialmente sulla contrapposizione tra l’«io» e le «cose». Un esempio tipico di quanto appena dichiarato, sarà l’esistenzialismo coscienzialistico del primo Sartre.

Due traduzioni di Euclide

euclide.pngDesideroso di approfondire alcune cose che avevo letto da Odifreddi circa la fortuna di Euclide nella storia, nonché di riprendere, con evidente piglio senile, certi temi che mi furono cari ai tempi della laurea (allora, oltre alla tesi, si compilavano due “tesine” supplementari, e una delle mie era sulle geometrie non euclidee), un paio di anni fa mi sono procurato le uniche due traduzioni italiane di Euclide che, a quanto ne so, siano state realizzate nel secondo dopoguerra: Attilio Frajese e Lamberto Maccioni (a cura di), Gli Elementi di Euclide, UTET, Torino 1970; Fabio Acerbi (a cura di), Euclide. Tutte le opere – Testo greco a fronte, Bompiani, Milano 2007.

Naturalmente, sia lo studioso sia chi come me, più modestamente, è semplice appassionato di queste cose, si procureranno entrambe le opere. Chi invece non ha un budget illimitato e/o non ha tempo né voglia di sciropparsi ben due traduzioni del testo di Euclide, si limiterà a una. Diciamo dunque qualcosa a suo uso e consumo circa vantaggi e svantaggi dei due libri.

Le due differenze che balzano agli occhi sono che la seconda (Eu2 d’ora in  poi) è un’opera omnia mentre la prima (Eu1 d’ora in poi) contiene solo gli Elementi, ossia il lavoro per il quale Euclide va famoso e ha il testo greco a fronte.

Non sono differenze da poco. Un altro notevole vantaggio di Eu2 è il suo avvalersi di contributi di studio e ricerca avvenuti negli anni successivi alla pubblicazione di Eu1: si tratta, cioè, di un’opera più aggiornata (il sapere avanza in fretta!). Eu2 è in effetti monumentale: oltre 2600 pagine tra opere euclidee, introduzioni, note e apparati. Assolutamente spettacolare il lavoro svolto da Acerbi, che è un fisico ma anche un polymath che spazia da gran signore nella matematica e nella lingua greca antiche. Egli si è preoccupato molto di contestualizzare l’opera euclidea, compiendo lunghi e tortuosi excursus nelle pubblicazioni matematiche verosimilmente precedenti gli Elementi: i quali, va chiarito, sono un compendio della conoscenza dell’epoca e non il contributo esclusivo del signor Euclide.

I vantaggi di Eu1 sono due. Il primo è che gli Elementi siedono da protagonisti in quest’opera. Se il lettore è interessato eminentemente agli Elementi e meno alla loro storia e al loro contesto, potrà giovarsi di Eu1. Vi troverà anche l’ulteriore vantaggio di una maggiore leggibilità.

L’erudito Acerbi, infatti, non ha fatto molti sforzi per farsi seguire dal proprio lettore, mentre Frajese e Maccioni hanno lavorato soprattutto con quello in mente. E si vede. Eu1 è scritta in modo chiaro e progressivo, ossia senza dare per scontato nulla che possa essere appreso solo più innanzi e che quindi appare a lungo oscuro (un difetto di Eu2). La stessa traduzione di Eu1 risulta più scorrevole, essendo stata pensata meno in funzione dell’aderenza al testo e più con lo scopo di agevolare il lettore nella comprensione della matematica euclidea.

Intuisco che Acerbi avrebbe da ridire su questa ultima affermazione ma, non avendo egli annotato per nulla la propria traduzione e non possedendo io gli strumenti per seguirla competentemente (i ricordi di greco antico sono al lumicino…), resto con la sensazione che leggendo gli Elementi in Eu1 si faccia prima e non si perda poi molto.

La traduzione di Eu1, d’altro canto, è ricca di note e tra queste si ritrovano molte delle analisi e dei dati che in Eu2 sono contenuti nelle introduzioni. Comunque, l’enormità dell’impresa compiuta da Acerbi, il valore che la sua opera avrà per la storia della matematica e per la cultura italiana, la ricchezza del contenuto e l’aggiornamento di cui Eu2 può fregiarsi ne fanno, secondo me, la scelta obbligata.

http://www.magrassi.net/

Cambiamenti radicali e incrementali [J. Juran]

juran.pngE’ importantissimo che i vertici delle organizzazioni siano orientati alla qualità. In assenza di manifestazioni di interesse sincere da parte del top management, ai livelli più bassi accadrà ben poco. Per incamminarsi in maniera rivoluzionaria sulla strada del miglioramento occorre che il miglioramento diventi un dovere, una parte del lavoro quotidiano, scritto nel mansionario di ognuno. Joseph Juran (1904-2008).

Sequenza universale del problem solving:

Definizione del Progetto e della Organizzazione
1) Elenco e Definizioni. Priorità dei problemi.
2) Definizione del Progetto e del Gruppo di lavoro.

Fase Diagnostica
3) Analisi dei Sintomi.
4) Formulazione di ipotesi circa le cause.
5) Verifica delle Ipotesi.
6) Identificazione delle Cause.

Fase Correttiva
7) Valutazione di Soluzioni Alternative.
8) Pianificazione delle Soluzioni e dei Controlli.
9) Determinazione delle resistenze ai Cambiamenti.
10) Attuazione delle Soluzioni e dei Controlli.

Miglioramento Continuo
11) Controllo delle Prestazioni.
12) Monitoraggio del Sistema di Controllo.

Quality Improvement Tools (Ediz. Juran Institute).

Laureato in ingegneria ed in legge, Juran nato in Romania e poi emigrato negli Stati Uniti è stato a lungo attivo nel settore della qualità ed è considerato, assieme ad Edward Deming, il maestro che insegnò dopo la seconda guerra mondiale ai giapponesi come migliorare la qualità.

Mentre Deming si concentrò sui processi di controllo statistico della qualità, Juran insistette molto sul management per la qualità e per questò appoggiò e promosse la formazione manageriale finalizzata alla qualità dei prodotti/servizi/processi.

Quando iniziò a lavorare negli anni 20 la filosofia dominante nelle organizzazioni era quella di Taylor, ma lui, influenzato dall’antropologa Margaret Mead (Cultural Patterns and Technical Change), riportò l’attenzione sugli aspetti umani ed in particolare sulla resistenza al cambiamento (Cultural Resistence) che si verifica nelle organizzazioni.

Negli USA Juran fu fondatore dell’istituto che porta il suo nome.

L’approccio gestionale di Juran alla soluzione dei problemi della qualità si suddivide in tre parti (trilogia di Juran):

1) La pianificazione che ha come obiettivo quello di contribuire a progettare e realizzare prodotti, servizi e processi che siano esenti da problemi di qualità.

2) Il controllo che rileva continuamente dati sui prodotti e sui processi (vedi Pareto, i suoi diagrammi e le sue analisi di cui Juran fece ampio uso) e li confronta con gli standard predefiniti. Qualora esistano degli scostamenti in negativo attiva delle azioni correttive per riportare il prodotto o il processo entro gli standard stessi (vedi Wiener ed il concetto di retroazione).

juran-grafico.png

3) Il miglioramento che deve essere mantenuto nel tempo (vedi grafico). Esso viene chiamato impulsivo se concentrato e continuo(quello auspicato da Juran) se distribuito in modo tale che l’organizzazione possa meglio accettarlo. Il miglioramento agisce sui processi e sui prodotti al fine di portare il livello medio di qualità su standard sempre più elevati, ma come minimo a un livello pari al miglior concorrente sul mercato.

Il 1° passo della sequenza del problem solving per il miglioramento della qualità implica la identificazione dei problemi e delle priorità tra di essi.

Il 2° passo prevede la definizione di un progetto per la soluzione dei problemi, di un gruppo di lavoro (da 5 a 10 persone), di un team leader e di un segretario. Le persone sono scelte sulla base delle loro attitudini a risolvere i problemi identificati e del loro interesse personale a trovare valide soluzioni.

La fase diagnostica viene troppo spesso scavalcata o contratta al massimo. Per eliminare velocemente il problema si tende a passare dall’analisi dei sintomi direttamente alla soluzione e questo non permette di capire chiaramente la natura e di conseguenza le cause del problema, con il rischio di intervenire poi su cause non reali.

Nel 3° passo è importante distinguere tra i sintomi del problema ed il problema stesso. Ad esempio, se una persona ha la febbre si deve riconoscere che questo è il sintomo di una malattia che potrebbe essere tra le più svariate. Se le forze di vendita sono demotivate non si può proporre un generico rimedio alla demotivazione: è invece necessario capirne le cause e possibilmente rimuoverle. La eliminazione delle cause risolverà il problema e farà sparire il sintomo.

E’ estremamente importante riconoscere la differenza tra cause reali (punto 6) e ipotesi (punti 4 e 5). Tale differenza è data dalla presenza di dati che dimostrano la fondatezza di quanto ipotizzato; le ipotesi infatti rappresentano delle opinioni individuali che possono essere più o meno fondate pertanto esse debbono essere verificate (passi 5 e 6) prima di affermare che si conoscono con certezza le cause del problema. La fase correttiva è la più classica e meglio conosciuta.

Critico il punto 9 tradizionalmente poco considerato. Esso si riferisce alla necessità da parte del gruppo di lavoro di identificare possibili resistenze ai cambiamenti che dovranno essere effettuati. Queste resistenze sono spesso di tipo culturale ed emergono sempre quando si toccano certi equilibri raggiunti all’interno della organizzazione. Nella fase di miglioramento continuo vengono identificate delle azioni che servono a confermare la validità della soluzione scelta e implementata; questo avviene tramite sistemi di monitoraggio che devono essere concepiti e instaurati in parallelo alle soluzioni correttive (Cfr. Arturo Onnias, Il linguaggio della Qualità Totale, Tpok, Castellamonte (To) 1991).

I passi per introdurre la qualità nei processi/prodotti:
– Identificare il cliente, interno od esterno.
– Determinare le necessità del cliente.
– Convertire le necessità del cliente in specifiche di fabbricazione.
– Sviluppare e progettare il prodotto od il servizio per soddisfare le necessità del cliente.
– Ottimizzare il prodotto e/o le caratteristiche del servizio.
– Sviluppare le capacità necessarie per produrre il prodotto od il servizio.
-Provare i processi con esperimenti pilota e prove sul campo.
– Migliorare e/o ottimizzare tutti i processi/prodotti.

Galileo

Galileo Galilei nacque a Pisa il 15 febbraio 1564, da genitori della media borghesia, che si spostarono a Firenze nel 1574, dove Galileo portò a termine i primi studi di letteratura e di logica. Nel 1581, per volere del padre, s’iscrisse alla facoltà di medicina dell’Università di Pisa. Ma per quel tipo di studi non ebbe alcun interesse e fece ritorno a Firenze senza aver conseguito titoli accademici.

Qui approfondì la matematica, sotto la guida di Ostilio Ricci, allievo del celebre Tartaglia e intraprese a compiere osservazioni fisiche. Nel 1583 scoprì l’isocronismo delle oscillazioni del pendolo. Negli anni seguenti giunse a elaborare alcuni teoremi di geometria e di meccanica, che più tardi mise alla luce. Dallo studio di Archimede scoprì la bilancetta per stabilire il peso specifico dei corpi (1586). Intanto nel 1588 diede pure un saggio della propria cultura letteraria delle due Lezioni tenute all’Accademia fiorentina, circa la figura, la grandezza, dell’inferno Dante e nelle Considerazioni sul Tasso, di poco posteriori.

La sua cultura matematica gli procurò stima e simpatia, e nel 1589 ottenne la cattedra di matematica dell’università di Pisa. Rimase in tale città per tre anni, durante i quali scoprì tra l’altro la legge di caduta dei gravi. Nel 1592 passò a insegnare matematica presso dell’università di Padova dove trascorse i diciotto anni più fecondi della sua vita. Con la realizzazione del cannocchiale (1609) si aprì la serie delle grandi scoperte astronomiche, di cui diede l’entusiastico annuncio nel Sidereus nuncius del 1610.

Keplero riconobbe immediatamente l’esattezza e l’importanza delle scoperte di Galileo, che accrebbero enormemente la fama dello scienziato pisano e gli procurarono il posto, da lui ambito, di matematico a Pisa.

Tuttavia, le scoperte astronomiche e le sue idee copernicane lo misero gradualmente in contrasto con gli aristotelici e con le gerarchie ecclesiastiche. Infatti, nel febbraio del 1616, fu ammonito dal cardinale Bellarmino di professare la nuova astronomia. Pochi giorni dopo, il 3 marzo, l’opera di Copernico fu messa all’indice. Nonostante la sconfitta, Galileo proseguì i suoi studi e nel 1623, polemizzando con il padre gesuita Orazio Grassi, pubblicò il Saggiatore dedicato a problemi concernenti le comete, e nello stesso tempo a rilevanti considerazioni di tipo metodologico. Frattanto proseguì a lavorare al Dialogo sopra i due massimi sistemi del mondo , il Tolemaico e il Copernicano, incoraggiato anche dall’ascesa al pontificato del cardinale Barberini Urbano VIII), che gli aveva sempre mostrato benevolenza. ll Dialogo fu stampato nel febbraio del 1632. Ma già nel settembre Galilei era citato dal Papa a comparire dinanzi al S. Uffizio di Roma.

Per comprendere in maniera adeguata il metodo di Galileo è utile conoscere le scoperte scientifiche, fisiche e astronomiche, nelle quali esso si é incarnato e riguardo al quale diviene concretamente intelligibile. La demolizione della tradizionale osservazione del cosmo, alla quale Galileo ha dato un basilare contributo, é strettamente connessa ai suoi studi fisici di meccanica, e in particolare a quella parte che riguarda il moto dei corpi (la dinamica). Infatti, il problema del moto occupò la mente di Galileo per tutta la vita, dal De Motu (1590) ai Discorsi  le dimostrazioni matematiche intorno a due nuove scienze (1639), in cui giunse a risultati così apprezzabili da poter essere pensato il promotore della dinamica scientifica moderna.

Per la fisica aristotelica la quiete era lo stato naturale dei corpi sublunari essendo il moto qualche cosa di temporaneo, che viene meno non appena cessa l’applicazione della forza che lo produce. E i moti erano divisi in due tipi: naturali e violenti. Naturale é il moto con cui un corpo si dirige verso il suo luogo naturale (che per i corpi pesanti é il basso e per quelli leggeri l’alto), violento è il moto che lo conduce fuori del suo luogo naturale. Per spiegare come i corpi muovendosi di moto violento (per esempio una freccia o i proiettili) potessero continuare a muoversi, per un certo tempo, in una direzione differente da quella naturale, si ricorreva all’azione motrice dell’aria. Invece, con l’intuizione teorica del principio d’inerzia, secondo cui un corpo tende a conservare indefinitamente il suo stato di quiete o di moto rettilineo uniforme sinché non intervengano forze esterne a modificare tale stato, Galileo superava il doppio pregiudizio per cui la quiete é qualcosa di “naturale” e il moto si mantiene solo fino a quando permane la forza che l’ha provocato.

Il principio d’inerzia, valido per la dinamica terrestre, si rivelava altresì utile in sede astronomica, perché spiegava come il movimento dei pianeti e della Terra potesse continuare indefinitamente. Tuttavia la delucidazione scientifica dei moti astrali richiedeva la doppia presenza di una forza centrifuga e di una forza centripeta, che saranno fissate solo più tardi, rispettivamente, da Huygens e da Newton. La fisica aristotelica pensava che la velocità di caduta dei corpi fosse direttamente proporzionale al peso dei corpi che cadono e che essa fosse accelerata dalla spinta che l’aria comunica al moto. Galileo, con un ragionamento teorico (di quelli che si chiamano “esperimenti mentali”) arrivò invece a risultati differenti e per certi versi, opposti.

Se due corpi dello stesso peso, argomenta lo scienziato, cadono insieme, e durante la caduta si uniscono, essi rappresenteranno un corpo unico, che avrà un peso doppio rispetto ad ogni singolo corpo, ma che si muoverà con la stessa velocità, in quanto nessuno dei due varia la propria velocità per il fatto di essere unito o staccato dall’altro. Ciò vuol dire che tutti i corpi, qualunque sia il loro peso, cadono con la stessa velocità.

E se l’esperienza immediata sembra confutare tale legge, tipico l’esempio della pietra e della piuma, che sembrano smentirla clamorosamente ciò é dovuto alla resistenza del mezzo, ossia, in tale caso, dell’aria. Nel vuoto la legge si realizza invece nella sua purezza.

Poiché Galileo non disponeva ancora della pompa ad aria, che sarà inventata da Torricelli e mediante la quale si possono studiare i corpi cadere nel vuoto, la tradizione vuole che egli abbia eseguito una serie di esperimenti reali, lasciando cadere, dall’alto della torre di Pisa, una sfera del peso di una libbra e una di cento libbre, appurando come la seconda giungesse a terra con brevissimo anticipo rispetto alla prima. In tale ambiente di studi Galileo giunge alla basilare scoperta del così chiamato secondo principio della dinamica che é un altro dei suoi apporti decisivi alla meccanica moderna, ossia al principio che le forze applicate ai corpi non provocano loro delle velocità, bensì delle accelerazioni, che sono proporzionali alle forze che le hanno prodotte. Ciò gli consente di definire il concetto di accelerazione come variazione di velocità, e il concetto di massa di un corpo, come relazione di proporzionalità fra le forze a esso applicate e le accelerazioni generante da queste forze.

I famosi esperimenti sulle leggi del moto uniformemente accelerato, le ricerche sulle relazioni tra spazio percorso e il tempo adoperato a percorrerlo rappresentano l’ulteriore coronamento di tali studi. Nonostante il genio di Galileo si sia distinto soprattutto nella meccanica, egli ha spaziato pure in altri campi della fisica, dalla termica all’idrostatica, dall’ottica all’acustica lasciando in tutte una sua personale impronta.

Ma le scoperte che dovevano renderlo più celebre ai suoi tempi e che lo hanno impegnato in una battaglia culturale di vasto respiro sono quelle astronomiche. La messa in crisi della fisica aristotelica e la formulazione di una nuova meccanica si accompagnano strettamente, in Galileo, alla demolizione del sistema tolemaico. Infatti, l’esistenza di un’unica scienza del moto e il rifiuto della diversità di natura tra moti rettilinei (considerati tipici del mondo sublunare) e moti circolari (considerati tipici del mondo sopralunare), entrambi dimostrabili alla luce dei due fondamentali principi della dinamica conduce al rifiuto della diversità di struttura tra cielo e terra, basata appunto sulla diversità dei relativi movimenti. Galileo aveva intuito la verità del copernicanesimo sin dall’avvio dei suoi studi. In seguito, grazie all’utilizzo del telescopio, che gli consentiva di scrutare i vasti spazi del cielo con più acuta vista, egli giunse a delle scoperte divulgate nel Sidereus Nuncius del 1610 le quali costituivano al tempo stesso la verifica empirica del copernicanesimo ed il colpo decisivo all’antica cosmologia, tutta basata sul dualismo tra cieli e terra. Le scoperte astronomiche di Galileo sono “il funerale della scienza aristotelica”. Infatti, tradizionalmente si pensava che la luna, alla stregua degli altri corpi celesti e a differenza della Terra, fosse ricoperta di una superficie liscia e levigata. Invece le osservazioni telescopiche di Galileo dimostrano come molte delle macchie scure di essa, visibili a occhio nudo, siano ombre proiettate dalle montagne lunari sotto effetto della luce del sole, e come la superficie della luna sia pertanto “rugosa” e ricoperta, allo stesso modo della terra, di prominenze, valli e anfratti.

Chiaramente, alla luce di tali scoperte, l’ipotesi pensata dal gesuita Gristoforo Clavio che per salvare la presunta “perfezione” dei cieli aveva supposto che la Luna fosse ricoperta di una materia cristallina trasparente e sferoidale, appariva a Galileo solo uno scorretto sotterfugio di menti ormai costrette alla difensiva. Aristotele riteneva che solo la Terra, essendo immobile, fosse centro di moti astrali, e che un corpo in moto nello spazio non potesse rappresentare un nucleo di movimento per altri corpi. Invece Galileo scopre i quattro satelliti di Giove, battezzati “pianeti medicei”, che compivano attorno ad esso, movimenti simili a quelli che la luna compie intorno alla terra. Ma se Giove ruota insieme ai suoi satelliti intorno al Sole, come ipotizza Copernico, nulla vieta di pensare, secondo Galileo, che anche il nostro pianeta, con il suo satellite, possa ruotare attorno al Sole. La cosmologia tolemaica riteneva che i corpi celesti, essendo perfetti, fossero incorruttibili e non soggetti al divenire. Tale pregiudizio era già stato messo in dubbio dalla tarda Scolastica e chiaramente negato, su base teorica, da Leonardo e Bruno. Ma è solamente con Galileo che riceve il suo colpo di grazia su base sperimentale. Infatti, grazie all’utilizzazione del telescopio, lo scienziato toscano scoprì le macchie oscure sulla superficie solare, che si plasmavano e scomparivano, dimostrando l’esistenza di un processo di trasformazione in atto e provando straordinariamente come pure i corpi celesti fossero soggetti a fenomeni di trasformazione e cambiamento. E poiché Galileo parlò subito, a ragione, di “funerali” della scienza aristotelica, i portavoce della cultura peripatetico-scolastica reagirono stizziti.

Vi fu chi si rifiutò di guardare al telescopio, ritenendolo uno strumento “diabolico” o “deformante” delle immagini. Ma Galileo fece osservare, che le macchie, nel loro apparire e scomparire, erano a intervalli, e si presentavano difformi tra di loro, per cui non potevano essere attribuite a passaggi regolari di astri.

La paternità storica del cannocchiale é ancora adesso aperta tra gli studiosi. La grandiosità di Galileo non consiste tanto nell’aver “costruito” il cannocchiale, ma nell’averlo adoperato in modo scientifico. Infatti, le lenti erano conosciute fin dal XIII secolo, o, forse, dal XII. Tuttavia esse, come l’“occhiale” olandese di cui parla Galileo, erano state considerate solamente come strumenti di divertimento o per piacevoli giochi di società da parte dei nobili di corte. Gli stessi marinai e militari ne avevano fatto un utilizzo ristretto, mentre la cultura “ufficiale” li guardava con distacco, per l’inveterato preconcetto contro gli “ordigni meccanici”, oppure li condannava apertamente, considerandoli fonti di illusioni ottiche. Molti teologi li ritenevano dei veri e propri “diabolici” sostituti degli occhi naturali creati da Dio. Da ciò scaturisce il rifiuto da parte di alcuni studiosi, di accostare i loro occhi al nuovo mezzo. Invece Galileo ebbe l’ingegnosità e il coraggio di rivolgere il cannocchiale verso il cielo, convertendolo in questo modo in telescopio, ossia in uno strumento fondamentale per l’osservazione astronomica, e facendo, grazie ad esso,le sensazionali scoperte diffuse dal Sidereus Nuncius.

Ma é proprio il modo di usare il cannocchiale come mezzo scientifico che gli sarà, fra l’altro, aspramente contestato e che costituirà una delle ragioni fondamentali della ricambiata incomprensione tra lo scienziato da un lato e i teologi e gli aristotelici dall’altro. Come ci si poteva fidare più di Galileo e dei suoi strumenti che della Bibbia? Come si poteva “seppellire” la scienza astronomica di Aristotele sulla base di un discutibile congegno “meccanico”?

Un altro esito realmente decisivo dell’opera di Galileo che fa di lui il padre della scienza moderna é l’individuazione del metodo della fisica, ossia del procedimento che ha aperto le porte ai maggiori progressi scientifici dell’umanità, da Newton ad Einstein e ai giorni nostri. Tuttavia, in Galileo, non vi é una teoria organica del metodo, simile per esempio a quella che Bacone svolgeva nel Novum Orgaiium dal momento che egli, tutto preso dalle sue ricerche concrete di fisica e di astronomia, applica il metodo, più che teorizzarlo filosoficamente. Ciò nonostante, nei suoi scritti si trovano sparse, qua e là, alcune preziose analisi metodologiche e vari tentativi di scandire o schematizzare il procedimento della scienza.

Ciò che si è detto sinora serve a far risaltare ancora di più i limiti della scienza vecchia rispetto a quella galileiana. Si afferma spesso che Aristotele e gli scienziati greci sbagliavano perché non si attenevano abbastanza ai fatti. Tale affermazione è vera solo in parte. Se da un lato gli antichi sbagliavano per eccesso di teoria e di deduttivismo perché pensavano di spiegare i fenomeni concreti prendendo il via da principi generali astratti, dall’altro lato erravano per troppa “aderenza” alla realtà, vale a dire per una passiva accettazione dei fenomeni come si presentano a prima vista, senza sottoporre l’esperienza ad una approfondita critica teorica. Per di più, la scienza antica di tipo aristotelico non faceva uso della matematica e lo stesso platonismo cui va riconosciuto il merito di aver tenuto viva l’idea di una costituzione matematica dell’universo si fondava su di una matematica magico – metafisica, consistente nel far coincidere simboli numeri e figure geometriche con determinati fenomeni, che su di una matematica scientifica, fondata sulla misurazione e sul calcolo dei dati. Ma il limite più grave della scienza vecchia risiedeva, come ben sappiamo, nella mancanza del controllo sperimentale.

Lo scontro tra la nuova scienza galileiana e la Chiesa di Roma prende il via all’indomani della diffusione delle Lettere copernicane, in cui Galileo dimostra di essere favorevole a un’interpretazione non letterale delle Sacre Scritture. Il 20 marzo 1615 il domenicano fiorentino Tommaso Caccini si reca a Roma per segnalare Galileo al S. Uffizio. Galileo filosofo e copernicano, e capo di una “setta” che ha acquisito una “publichissima fama”, che “in Firenze ha molti seguaci che si chiamano galileisti et questi sono quelli che vanno magnificando e lodando la sua dottrina et opinioni”: sono queste, nel 1616 (anno in cui ha avuto luogo il primo processo a Galileo e della condanna del De revolutionibus orbium coelestium di Niccolò Copernico), le tematiche poste al centro della polemica e su cui prese piede lo scontro che avrebbe portato, quindici anni dopo, alla condanna e all’abiura. Il Dialogo, che si stampa a Firenze nel 1632, era munito del permesso ecclesiastico.

Nonostante nel Proemio Galileo dichiarasse “di aver preso nel Discorso la parte Copernicana, procedendo in pura ipotesi matematica”, in realtà, non ci è voluto molto a comprendere che le cose non stavano così. Galileo non rispettò l’ammonimento ricevuto sedici anni prima dal cardinale Bellarmino di non propugnare, né divulgare o insegnare, la concezione copernicana del movimento della Terra.

Galileo tentò in tutti i modi di evitare il processo, fece anche ricorso alla diplomazia fiorentina, ma, ogni tentativo non sortì l’effetto sperato. Lo stato d’animo del nostro scienziato si deduce dalla lettera che nel 1633 scriveva a Elia Diodati: “Hora sono in procinto d’andare a Roma, chiamato dal Santo Officio, il quale ha già sospeso il mio Dialogo; e da buona parte intendo, i Padri Giesuiti haver fatto impressioni in teste principalissime che tal libro è esecrando e più pernicioso per Santa Chiesa che le scritture di Lutero e di Calvino; e per ciò tengo per fermo che sarà proibito”. Il 23 giugno 1633, Galileo fu pubblicamente costretto a pronunciare l’abiura al copernicanesimo.

L’arte della matematica

articoli21.jpgWorkshop internazionale 10-17 aprile 2011, presso ITIS "E.Mattei" di Urbino. Participants will gain knowledge and skills related to: – the theory of prime numbers and the many applications in mathematics, – history of mathematics of the ‘500 and ‘600 – interactions between mathematics and art / literature – specific skills These knowledge and skills can be discharged into the educational and cultural training of participants enriching both who come from specifical areas of mathematics and the ones who belong to sectors artistic / literary / philosophical.

LOCATION Urbino (I), Via Luca Pacioli 22. Istituto Tecnico Industriale Statale “E. Mattei”.

PROGRAMME
10.04.2010 – Arrival day • Participants welcome and accommodation. • Welcome dinner.
11.04.2010 • Prof. Flaviano Battelli Prime numbers and the Riemann conjecture • Tecnical-practical laboratory.
12.04.2010 • Prof. Flaviano Battelli The theory of numbers in teaching • Technical-practical laboratory.
13.04.2010 • Prof. Nicola Chiriano Mathematics and music: divine harmonies • Technical -practical laboratory.
14.04.2010 • Prof. Gian Italo Bischi Mathematics and the words: literature, word games, exercises in style • Technical -practical laboratory.
15.04.2010 • Prof. Michele Emmer Mathematics and painting: beyond the perspective, symmetries and asymmetries
16.04.2010 • Prof. Pieluigi Graziani Mathematicians, scientists and artists of the fifteenth and sixteenth century in the Duchy of Urbino • Technical -practical laboratory.
17.04.2010 – Departure day • Consignment course material. • Departure

INFORMAZIONI www.emattei-urbino.it , www.in-for-ma.com . Dr.ssa Caterina Cognigni +39. 392.5634236 – [email protected]. Dal vivo su Skype: ArtOfMah, Martedì 18.00– 19.00, giovedì 9.00–10.00 (ore italiane). Facebook: "The Art of Mathematics" – Grundtvig Workshop

Cubo di Coppo n00420905199910

cubocoppo.pngIl cubo di Coppo è una variante del Sudoku inventata da Eugenio Coppo. Le regole sono abbastanza semplici e sono all’interno del file stampabile con il primo cubo che pubblichiamo. Una nuova sfida che sicuramente divertirà chi ama i rompicapo.

Soluzione del gioco 00420905199910

Sistemi Real-Time

articoli120.jpgI sistemi real-time sono quei sistemi informatici atti a reagire ad eventi esterni entro precisi vincoli temporali. Essi, a differenza degli altri sistemi informatici, non devono limitarsi ad eseguire correttamente le loro funzioni, ma devono anche completarle entro chiari limiti temporali. Il termine real-time (tempo reale) può indurre facilmente a ritenere che tali sistemi siano più veloci degli altri, ma in realtà non è così; infatti, i vincoli temporali a cui essi sono sottoposti possono essere anche intervalli di tempo della durata di molti minuti.

Pitagora

Pitagora,filosofo e matematico greco (Samo, 585 – 565 a.C. Metaponto, 495 – 470).

Costretto a lasciare la sua patria, forse a causa della tirannia di Policrate, si recò nella Magna Grecia e a Crotone dove, verso il 530, fondò la sua scuola.

L’attività politica che la comunità pitagorica svolgeva a favore del regime aristocratico suscitò una violenta reazione popolare; la scuola fu incendiata e i pitagorici furono massacrati. Non è certo se anche Pitagora sia morto in quella circostanza o se, riuscito a fuggire, si sia rifugiato a Metaponto morendovi poco dopo.

Pitagora non è solo uno dei più grandi filosofi antichi, ma è pure il fondatore di una scuola che ha avuto una storia di più di dieci secoli: la scuola pitagorica. Tuttavia, è proprio tale circostanza che impedisce di sapere con certezza quali dottrine spettino propriamente a lui e quali ai suoi seguaci: il rigido principio di autorità, vigente nella scuola, espresso dalla formula “ipse dixit”, induceva a porre sotto il prestigioso nome del fondatore anche le dottrine posteriori. A ciò si aggiunga che Pitagora diventò ben presto un personaggio leggendario: figlio di Apollo o di Ermes, nelle sue precedenti incarnazioni (la sua anima sarebbe stata nel corpo di Euforbo al tempo della guerra di Troia), era capace di profezie e di miracoli, era stato il solo a udire le armonie delle sfere celesti, era sceso nell’Ade, eccetera.

Resta comunque il fatto che autori cronologicamente a lui vicini (Senofane, Pindaro, Erodoto) gli attribuiscono la dottrina della trasformazione delle anime (metempsicosi) e quella della respirazione cosmica, oltre ad una vastissima dottrina in tutti i campi.

La dottrina della "purificazione " delle anime mediante la scienza (soprattutto aritmetica e geometria) e la musica spiega l’attribuzione a Pitagora non solo numerose scoperte in questi campi, ma anche la dottrina fondamentale della scuola, quella per cui l’essenza delle cose sta nei numeri e nei rapporti matematici.

Il Teorema di Pitagora, lo troviamo nella quarantasettesima proposizione del primo libro di Euclide; essa dice che in un qualunque triangolo rettangolo il quadrato costruito sull’ipotenusa è equivalente alla somma dei quadrati costruiti sui cateti.

La leggenda vuole che Pitagora decretasse un’ecatombe per ringraziare gli dei della scoperta. In verità, il "fatto" geometrico era conosciuto prima di Pitagora; quanto alla sua dimostrazione razionale e non empirica, si ritiene che sia successiva a Pitagora. Non è quindi molto chiaro fino a che punto il filosofo di Samo fosse legato al teorema che porta il suo nome.

La scuola pitagorica è una delle scuole filosofiche più importanti della Grecia. Fondata da Pitagora ebbe più di dieci secoli di vita, con periodi di grande rigoglio e altri di eclisse. Tra i discepoli più vicini a Pitagora sono ricordati, Cercope, Petrone, Brotino e Ippaso e al suo insegnamento è collegato anche il matematico Alcmeone.

Pitagora aveva posto la sede della sua scuola a Crotone, ma abbiamo notizia di altri sodalizi pitagorici nella Magna Grecia (Archippo e Clinia a Reggio e poi Archita a Taranto). Alcuni pitagorici, poi, dopo la repressione violenta si trasferirono nella Grecia continentale: la scuola pitagorica rifiorì soprattutto a Tebe con Filolao e i suoi discepoli Simmia, Cebete (gli interlocutori di Socrate nel Fedone platonico) e Liside. Altri pitagorici di questo periodo sono Eurito, Ocello Lucano, Timeo di Locri, Ecfanto e Iceta.

Arriviamo così all’età di Platone (che con il pitagorismo ebbe rapporti assai importanti e fecondi), con la quale si fa generalmente terminare la storia del pitagorismo antico. Ma la tradizione della scuola non si spense: personalità come quelle di Diodoro di Aspendo, di Eraclide Lembo e di Ningidio Figulo ne assicurarono la continuità fino alla rigogliosa rinascita del I sec. a. C. (scuola neopitagorica).

La primitiva comunità pitagorica è presentata come un’associazione religiosa, politica e scientifica, alla quale si accedeva dopo prove severe, tra cui spiccava il silenzio imposto ai novizi. Gli aderenti erano tenuti al segreto e divulgare le dottrine della scuola poteva costare la vita, come si narra di Ippaso (al quale la tradizione attribuisce la scoperta del concetto di grandezze incommensurabili), reo di aver comunicato un segreto matematico.

Vigevano nella scuola la comunità dei beni, il celibato e una di serie di prescrizioni, che rappresentavamo un vero e proprio "catechismo " di vita pitagorica (astenersi dalle fave, dalla carne, dalle vesti di lana; non raccogliere quel che è caduto in terra, fare tutte le mattine il programma della giornata e tutte le sere un esame di coscienza, ecc.).

Accanto a tali prescrizioni vi era poi una serie di quesiti, le cui risposte erano chiamate, acusmata (per esempio; "che cosa c’è di più saggio?" "il numero"). La dottrina fondamentale della scuola consisteva nell’affermazione che la sostanza delle cose fosse nei numeri e nei rapporti matematici, onde l’importanza di alcuni numeri: l’1 è l’intelligenza, il 2 è l’opinione, il 4 o il 9 (quadrati del primo pari e del primo dispari) la giustizia, il 5 è il matrimonio (l’unione del primo pari e del primo dispari) e soprattutto importante è il 10, la " mistica decade " su cui i pitagorici giuravano, e in cui per la prima volta sono compresi il " parimpari " cioè l’unità, il primo pari, il primo dispari e il primo quadrato.

L’opposizione di pari e dispari sta alla base delle serie delle altre nove opposizioni fondamentali (illimitato – limite, molteplice – unità, maschio-femmina, ecc.).

Esempio di un altro sviluppo in tale direzione è la teoria delle medie matematiche, le più importanti delle quali sono: la media aritmetica $b = (a + c)/2$, cioè b è tale che $a-b=b-c$; la media geometrica $b = sqrt(a*c)$, cioè b è tale che $a: b = b: a$; la media armonica $b=(2a*c)/(a + c)$ l’inverso della media aritmetica degli inversi di a e c, cioè b è tale che $(a-b):(b-c)= a:c$.

Da questa serie di opposizioni nasce poi quell’armonia che è propria di tutto il cosmo, ma che particolarmente si rivela negli accordi musicali.

Anche l’anima era concepita come armonia che, attraverso una serie di purificazioni, tende alla contemplazione dell’armonia celeste. In conformità a tale concezione dell’armonia i pitagorici costruirono la loro particolare cosmologia: attorno al fuoco centrale ruotano i dieci corpi celesti, all’esterno la regione delle stelle fisse, in mezzo la regione dei cinque pianeti, del Sole e della Luna e, più in basso, la regione sublunare, regno del divenire e dell’imperfezione.

Per completare la serie decadica, i pitagorici introdussero l’"antiterra", posta tra la Terra e il fuoco centrale, con cui spiegavano le eclissi, poiché il Sole e la Luna riflettono come specchi il fuoco centrale.

Un posto importante, infine, spetta ai pitagorici nella storia della retorica antica come la medicina cura il corpo, così la musica e la retorica, curano le anime; e l’arte dei discorsi é essenzialmente " psicagogia", cioè trascinamento e guida dell’anima.

Non è possibile discernere l’originaria filosofia di Pitagora dagli apporti successivi dei pitagorici, nel corso dei secoli (già Aristotele, nel IV secolo, parla sempre e solo del pensiero dei pitagorici, facendo vedere così di non sapere nessuna cosa di preciso sul pensiero del fondatore della setta). Si è pensato altresì che la scuola abbia cominciato a occuparsi di filosofia solo parecchio tempo dopo la morte del suo maestro. Ai giorni nostri però si torna a pensare che la maggior parte delle teorie del pitagorismo discenda da Pitagora stesso. Infatti, Pitagora, insieme ai suoi seguaci, non si occupò solamente dello studio generale della matematica, ma altresì di altre discipline, come l’astronomia.

In quest’ambito, grazie ai suoi studi sui numeri, essi furono in grado di rendere comprensibile il moto dei corpi celesti e la struttura atomica dell’universo: sono stati i primi a introdurre la teoria sulla sfericità della Terra e degli astri in genere. Loro consideravano, infatti, la sfera come la più completa delle forme solide, poiché tutti i suoi punti hanno uguale distanza dal centro, ed era vista come una figura dell’armonia. L’ordine dell’universo era descritto come un’armonia di corpi contenuti da un’unica sfera che si muovono secondo un indicato schema numerico: poiché i pitagorici rappresentavano i corpi celesti reciprocamente separati da intervalli che corrispondevano alle lunghezze armoniche delle corde, essi consideravano che il movimento delle sfere producesse un suono, l’ "armonia delle sfere".

Ebbero pure fantasiose illuminazioni che li fanno anticipatori di Copernico. Il pitagorico Filolao abbandonò per primo l’idea che la Terra fosse il centro fisso del mondo, sostenuta invece da Pitagora, pensando che essa, come gli altri corpi, si muoveva attorno ad un fuoco centrale denominato Hestia, "focolare o altare dell’universo", che sistema e plasma la materia vicina, dando origine al mondo.

Egli ritenne inoltre che intorno al fuoco centrale si muovano, da occidente a oriente, dieci corpi celesti e che il cosmo fosse suddiviso in tre domini concentrici:
• L’Olimpo, dove si trovano le stelle fisse;
• Il Mondo, dove vi è Saturno, Giove, Mercurio, Marte, Venere, il Sole (grande lente che rastrella i raggi del fuoco centrale e li riflette) e la Luna;
• Il Cielo (che per i pitagorici è l’elemento soggetto a concepimento e a corruzione), nel quale risiedono la Terra e l’Antiterra, un decimo corpo che i pitagorici hanno introdotto per acquisire il numero perfetto 10; tale corpo è però impercettibile, dato che è sempre in opposizione alla Terra.

Un altro pitagorico, Ecfanto di Siracusa, è stato il primo ad ammettere la roteazione della Terra attorno al proprio asse, posto nella parte del fuoco centrale e dell’Antiterra.

Con Aristarco di Samo, la teoria pitagorica del movimento della Terra si convertì in una vera e propria teoria eliocentrica, poiché, in cambio del fuoco centrale, egli pose il Sole, precorrendo Copernico. La sua dottrina, nonostante tutto, fu sommersa dalla teoria geocentrica di tipo aristotelico – tolemaico.

Tra le pratiche per la depurazione del corpo e dell’anima i pitagorici prediligevano la musica che li portò a scoprire il rapporto numerico alla base dell’altezza dei suoni che, secondo la leggenda, Pitagora trovò riempiendo con dell’acqua un’anfora che percossa diffondeva una nota, in seguito togliendo una parte ben definita dell’acqua, si otteneva un’altra nota maggiore di un’ottava.

È probabile che proprio da tali esperienze musicali nascesse nei pitagorici l’attenzione per l’aritmetica, vista come una dottrina dei numeri interi che essi ritenevano non un’entità irreale, ma concreta; i numeri erano pensati come grandezze spaziali che hanno una stessa estensione e forma, ed erano rappresentati sul piano geometrico e nello spazio (il numero uno era il punto, il due la linea, il tre lo spazio, il quattro il solido).

Pitagora espresse per di più la rilevante dottrina della tetraktys. L’etimologia del termine indicherebbe "numero triangolare". Infatti, per i Pitagorici la tetraktys consisteva in una disposizione geometrica che esprimeva un numero, o un numero espresso da una posizione geometrica. Essa era rappresentata come un triangolo alla cui base erano quattro punti che diminuivano sino alla punta; l’ammontare di tutti i punti era dieci, il numero perfetto risultante dalla somma dei primi quattro numeri (1+2+3+4=10), che abbinati tra loro definivano le quattro specie di enti geometrici: il punto, la linea, la superficie, il solido. La tetraktys aveva un carattere religioso e i pitagorici prestavano giuramento su di essa. Era per di più l’esempio teorico della loro analisi dell’universo, vale a dire un mondo non governato dal caos delle forze tetre, ma da numeri, armonia, rapporti numerici.

Tale matematica pitagorica che fu chiamata un’"aritmogeometria" sostenne la concezione del numero visto come archè, vale a dire principio originario di qualunque cosa. Sino a quel momento, i filosofi naturalisti avevano fatto collimare la sostanza conferendogli delle qualità. Queste però, derivando dalla sensibilità, erano variabili e mettevano in discussione la peculiarità principale della sostanza: la sua invariabilità. I pitagorici ritenevano di superare tale difficoltà ponendo in evidenza che se è vero che i principi originari mutano sul piano qualitativo, essi, però serbano la quantità che è calcolabile e di conseguenza formulabili in numeri, vero ultimo fondamento del mondo reale.

Diceva Filolao: «Tutte le cose che si conoscono hanno numero; senza questo, nulla sarebbe possibile pensare, né conoscere». Pitagora cercò di scoprire i legami tra i suoni e l’ordine celato della natura. Pensò che intendendo la misura del suono avrebbe rivelato l’ordine autentico degli oscuri fenomeni invisibili. Il nostro pensatore era distante dalle antiche forme di superstizione, e per questo tentò di interpretare in modo razionale la sapienza arcaica. I primitivi pensavano i fenomeni sonori come il confine fra l’impercettibile mondo degli spiriti e il percettibile mondo della natura. Le differenze fra i singoli eventi auditivi erano considerate manifestazioni di forze tenebrose, segnali di un ordine oscuro.

Il pensatore crotonese per primo illuminò l’umanità sul significato immenso che la musica possiede, liberando il suono dalle credenze popolari magiche e dal puro sensoriale.

La grandezza dei seguaci di Pitagora fu di trasformare il pensiero mitico in luminosa razionalità, nel convertire le idee inestensibili in estensibili. Il suono, anima del tempo, si trasformò con Pitagora in galassia spaziale, i suoi fedeli iniziarono a misurarlo e a penetrarlo nei suoi più oscuri recessi, rivelando i fenomeni invisibili delle oscillazioni sonore e li classificarono dentro geometrie ordinate.

Il monocordo (kanon) servì all’avvio della ricerca pitagorica per contrassegnare con un numero le differenti tipologie intervallari, le differenze fra le altezze sonore e le proporzioni armoniche, fra le sonorità generatrici.

Crotone fu la patria delle prime esperienze musicali in senso alto. I rapporti armonici tra le vibrazioni diventarono una scienza. I rapporti aurei della musica, che determinarono l’impalcatura delle scale musicale per oltre duemila anni, furono diretta propagazione della mente del maestro crotonese. Magica divinazione pitagorica, le relazioni di consonanza perfetta prodotte dal pensiero del nostro pensatore sorsero nella serie degli ipertoni molti secoli dopo, quando gli strumenti d’analisi fisica delle sonorità acustiche, rivelarono archeologie profonde e microscopiche. Pitagora cercò il perenne nel fenomeno poco pronunciato.

Il suono è l’elemento più sottile della materia, rendere stimabile ed estensibile la sua risonanza poteva dar ragione della dichiarazione che il numero è il principio fondamentale delle cose. Immaginare la vibrazione nello spazio fu l’invenzione basilare del pensiero pitagorico. Il suono come fenomeno unicamente temporale si sottraeva al controllo razionale. Elaborare uno spazio della musica fu il primo passo verso le forme della musica occidentale.

Per ottenere la misurabilità del suono Pitagora ideò uno strumento molto semplice: il Kanon, in tale maniera chiamato dai greci poiché riproduceva la regola o la ragione intima della materia visibile. Il Kanon o monocordo era costituito da una piccola cassetta rettangolare sormontata da una corda e da un sottostante ponticello mobile che doveva servire a suddividere in porzioni misurabili le parti ondeggianti della corda. Il primo suono che Pitagora ricavò dal monocordo fu ottenuto dividendo la corda in due parti uguali. Pizzicando una delle due parti acquisite dal frazionamento della corda, il pensatore crotonese riuscì ad ottenere un suono simile a quello della corda intera con la differenza di una risonanza più acuta e pungente. Chiamò tale relazione armonia poiché all’interno del rapporto sonoro vi era in uguale misura motivi di concordanza e di contrasto. La ricerca proseguì verso intervalli sempre più piccoli fino alle differenze inudibili. Il monocordo divenne corrispondente al logos, ragione, senso recondito dell’esistente.

Nella concezione pitagorica la musica costituì l’armonia invisibile del mondo e i rapporti fra i suoni e l’evoluzione delle sfere celesti, l’energia dell’anima universale e l’ordine interiore di qualunque singolo soggetto, favilla sulla terra dell’anima universale. L’ascolto degli spazi era nella pratica quotidiana dei pitagorici, una mappa utile a raggiungere la pienezza della salute psichica e fisica.

L’ordine e la misura fra i suoni ricalcano l’ordine cosmico (musica mundana), l’ordine dei sentimenti degli uomini (musica humana), l’ordine della sublime creazione artistica (musica istrumentalis).