sublimina.it

  • Full Screen
  • Wide Screen
  • Narrow Screen
  • Increase font size
  • Default font size
  • Decrease font size

omino_logo_sublomina


La Conoscenza è come una linea, dove sono i confini non ci è dato di saperlo.

Sublimina.it è un viaggio personale nel mondo del pensiero umano. Per raggiungere ogni meta c'è una via ed ogni via ha un ingresso. Questa è la mia porta personale, l'ho appena aperta. Ognuno ha la sua porta, qualche volta si ha bisogno, però, di intravedere cosa c'è al di là della porta altrui per mirare l'altrove che sta dietro la propria.

 Ispirato da: Franz Kafka, Il processo (1925)


Se tutta la popolazione mondiale usasse lo smartphone come lo si usa in media?

E-mail Stampa PDF

Le dittature tradizionali, nate nel secolo scorso, sono pressoché indifese di fronte a processi rivoluzionari "istantanei", che agiscono e reagiscono fulmineamente, alimentati da tecnologie e comportamenti (internet, facebook, twitter, tv satellitare ecc.) che nessun potere sa come controllare.

Khemais Chammari, su Sette, 2011


Perché le macchine continueranno la nostra invasione.

Se tutta la popolazione mondiale usasse lo smartphone come lo si usa oggi mediamente?

Immagine da http://www.ihelplounge.comA discapito del titolo apocalittico di questo articolo, vorrei porre seriamente l’attenzione adesso su un tema molto dibattuto: la diffusione di Intenet, dei social network e delle tecnologie annesse e del legame che esse hanno con la futura micro-automazione di tutti i processi che soggiacciono al mantenimento della nostra vita.

“Tutti vogliono viaggiare in prima… […] Tutti quanti con il drink in mano…” fa una bella canzone di Luciano Ligabue. Gironzolando per le città dei cosiddetti paesi ad economia avanzata (ma ora in maniera accelerata anche nei paesi in via di sviluppo) non si può negare che “Tutti voglio viaggiare in prima…Tutti con laptop o smartphone in mano…”. Siccome su Sublimina.it si possono tranquillamente azzardare ipotesi, porre domande e gettare basi per discussioni future mi sono domandato come dovesse essere il mondo se “tutti”:

  1. Avessero un lavoro in ufficio davanti ad un computer;
  2. Passassero la maggior parte del loro tempo, dopo il lavoro, su social network o in generale su Internet;

Si badi bene che quando si asserisce “tutti” intendo proprio tutte le persone che possiate immaginare sul pianeta terra.

Tu che lavoro fai?

Ehm io lavoro nel social media marketing. Io sono un designer. Io sono un ingegnere informatico. Io sono un programmatore. Io faccio siti web. Io gestisco account social di grossi brand. Io gestisco un grosso blog di cucina. Io sono fotografo. Io sono giornalista su una testata online. Io gestisco la contabilità per un’azienda.

Sono lontani i tempi della bolla speculativa d’inizio millennio, ed il Web 2.0 oltre ad essere realtà sembra aver raggiunto di già il suo grado di maturità per trasformarsi in qualcosa di ancora più pervasivo.

Come può reggersi un’economia (reale) se tutti sono perennemente e letteralmente d’avanti ad un computer?

Queste riflessioni possono nascere non solo se entrate in un comune Starbucks, dove l’unico rumore che si sente è il silenzio dei fragorosi ingranaggi dei cervelli che consumano caffè di fronte ad un laptop o un tablet. Basta che vi guardate intorno. E qualsiasi aspirazione lavorativa, in qualche modo ha a che fare con la maggior parte del tempo di fronte ad un PC.

Una cooperativa per il sociale? Servirebbe un pc ed un account social. Vogliamo rinvigorire la Foresta Amazzonica? Senza computer non possiamo farlo! Ora esagero, ma la mia impressione sembra che qualsiasi cosa derivi dal computer anche fatti che solo qualche anno fa erano distanti anni luce.

Azzardo a dire che questo trend di crescita nella micro diffusione di tecnologie atte a tenere connesse le persone tra loro e fisicamente a mantenerle incollate ad uno schermo touch, può rimanere tale se e solo se cresce la micro automazione di tutti i processi tecnologici e quindi industriali che sorreggono l’economia reale.

Per micro automazione intendo l’automazione di tutti quei processi che non fanno parte solo dell’industria della produzione di massa, ma anche lavori usuranti che vengono svolti da esseri umani. Parlo di camerieri, conducenti di mezzi pubblici, sportellisti etc.

E’ inevitabile che in un futuro prossimo tutti questi lavori siano svolti da robot. Negli anni Ottanta dello scorso secolo l’automazione mediante robot nel contesto industriale ha fatto da padrone e ha innescato un discusso processo di crescita della disoccupazione. La robotizzazione nella produzione di automobili è oggi normale realtà.

Uno scenario che ricorda “Matrix” il film, dove la maggior parte delle persone vive connessa in un mondo digitale.

Ritengo sia una questione di equilibrio e retroazione. Per adesso i “paesi con lo smartphone tra le mani”, continuano ad importare manodopera straniera a basso costo (di cui un’alta quota deriva da immigrazione clandestina controllata), ma la mia provocazione è: quando anche questa fetta di popolazione vorrà avere lo smartphone e passare i suoi momenti (lavoro o tempo libero) incollata ad un computer?

Ultimo aggiornamento Martedì 15 Aprile 2014 21:17

Complessità e Conoscenza, due parole...

E-mail Stampa PDF

La bellezza della logica e` che da` certezza, la bellezza della complessita` e` che non ne ha.

[non so]

In questo breve articolo si ritorna sui concetti di "Complessità" e "Conoscenza" analizzandone brevemente il legami reciproci alla luce di quanto sappiamo dell'Universo fisico.

Solitamente quando si parla di complessità, per chi li conosce, affiorano nella mente le immagini frattali. Questi ultimi sono un classico,complessità dell'universo nonché illuminante esempio di complessità poiché ricalcano quella del mondo reale. Ad esempio la linea di costa di una regione, che se vista a differenti ingrandimenti, sembra possedere una forma che si ripete simile ma sempre un po’ differente da se stessa. La matematica moderna e le scienze in generale sono al corrente dell’esistenza di questo elemento imprescindibile dell’Universo che abitiamo. Dal secolo scorso, sono molti i tentativi di domare la complessità fisica della natura, e nell’esercitare tale sforzo intellettuale, si è giunti sulle orme di qualcosa difficile da definire, qualcosa che, al contrario di quanto si pensi comunemente, ha una straordinaria forza creatrice: il caos. Il formalismo matematico e la pratica sperimentale tramite algoritmi al calcolatore sono giunti a padroneggiare parte dei fenomeni caotici e a indagare come questi generino la complessità. Ad oggi, sembra che qualsiasi cosa appartenga al dominio della natura, dagli ecosistemi, agli organismi biologici abbia a che fare con il caos e con la complessità. Tuttavia, una vera e propria definizione di complessità, ancora è di la da venire, le proposte altresì sono tante. Tale definizione sarebbe un buon punto di partenza per poter improntare un qualche ragionamento e aggiunge l’IO, quella singolarità terrena, al gioco intellettuale. Tale singolarità tenta di formulare una serie di ipotesi e leggi che generalmente vanno a far parte di quel bagaglio noto come “Conoscenza”. Sicché ci si ritrova a ragionare sulla Complessità obbligati a considerare la Conoscenza.

La maggior parte degli studiosi e dei pensatori in genere ritiene che per poter parlare di complessità serva la conoscenza di qualche definizione, sono d’accordo. In verità è chiaro che non esiste una sola definizione di complessità, non esiste una Ur-definizione che ne permetta la conoscenza, per l’appunto. Sottolineo, da subito, che sono al corrente del fatto che il legame tra Complessità e Conoscenza non si identifica solamente con quello celato nelle righe precedenti. Tuttavia si può essere pacifici sul fatto che una definizione è un buon punto di partenza per improntare un ragionamento quantomeno per essere sicuri di esercitarlo sugli stessi termini. Sicuro è che comprendere la complessità dell’Universo sia arduo, e questo sembra scontato, lapalissiano per dirlo in maniera dotta. Forse non è scontato cercare di spiegare perché la complessità dell’Universo è (almeno sembra) inconoscibile, datane una definizione. Non so se può essere ritenuta una semplificazione ma per quanto riguarda l’Universo vorrei analizzare, brevemente, l’Universo fisico o quantomeno quella parte materiale indagata dai fisici. Di nuovo, semplificando (questa volta per brevità), l’attività dei fisici, e non solo, è quella di scoprire qual è la struttura dell’Universo fisico. Per struttura intendo, se la si vuole vedere matematicamente, la relazione, tra gli enti che costituiscono l’Universo stesso. Per enti non intendo qualcosa di filosofico quanto effimero, bensì le quantità misurabili in gioco come energia, massa, atomi, informazione etc. nella descrizione del funzionamento della Macchina-Universo, o del Computer-Universo se vi piace, attraverso le leggi fisiche. Bene, tutti prendono per buono che le leggi fisiche sono “vere”, anche io del resto. Esse sono sottoposte alla macchina della verità del metodo sperimentale, e fino a prova contraria sono vere. Se però immaginiamo che l’Universo materiale sia in evoluzione continua (ahimé sono le leggi fisiche che lo indicano (e qui intravedo problemi di autoreferenzialità)), e se non forziamo quanto sto per dire con la non esistenza di un tempo assoluto tirando in ballo Albert Einstein, gli esperimenti condotti dai fisici, da un grave che cade fino alla ricerca dell’Higgs, sono effettuati all’interno della storia dell’universo, all’interno della sua stessa, forse irripetibile evoluzione. Con ciò voglio dire che possono esistere due modi di descrivere l’Universo:

1) Un primo è puramente descrittivo, ovvero “raccontando” come sono andate le cose, e gli esperimenti passati e futuri prendono parte al suo divenire ;

2) Un secondo è (ed è quello che la cosmologia per lo più cerca di fare) attraverso le leggi fisiche, delle black-box cui dato un input restituiscono un risultato.

Quest’ultimo metodo funziona, ma ho paura che nasconda qualche tranello. Ho l’impressione che la descrizione tramite le leggi fisiche sia la codifica di un qualcosa tramite un altro qualcosa direttamente manipolabile da colui che indaga l’Universo, colui che aspira a “conoscere”. Ma questa codifica sembra non essere 1:1, in altre parole le leggi fisiche, attraverso la matematica, appaiono come una compressione di ciò che accade nell’Universo la fuori (o qui dentro?), che non tiene presente la sua intrinseca evoluzione che, in linea di principio si badi bene, potrebbe essere colta attraverso il primo metodo (quello puramente descrittivo). In altre parole le leggi fisiche possono essere inquadrate intuitivamente come ricette, (data una ricetta, più o meno il dolce viene simile se il pasticciere è bravo) o detto meglio come algoritmi. (Se non vi suonano gli algoritmi si pensi all’utilizzo dei calcolatori, imprescindibile ormai sia negli esperimenti sul mondo microscopico che sull’universo in generale). Se le leggi fisiche possono essere identificate con gli algoritmi è possibile generare un ponte con la Complessità e quindi con la Conoscenza. Questo ponte è stato costruito sulla base della Teoria dell’Informazione di Claude Shannon. Quest’ultimo ha posto le basi matematiche della teoria della comunicazione, ma ha dato un primo vero modo di quantificare l’Informazione di un sistema. Sulla scia dei suoi studi Kolmogorov da un canto e Gregory Chaitin dall’altro hanno inventato quella che oggi è nota come Teoria Algoritmica dell’Informazione (AIT). Essa tenta di definire la complessità attraverso la nozione di “programma” o algoritmo se si vuole (non è proprio la stessa cosa ma per brevità non è malvagio assumerlo). La complessità di un numero, di una stringa di bit o di una proposizione formalizzata, è pari alla quantità di Informazione del programma (minimale) utilizzato per generarla. Ad esempio, l’algoritmo per generare pi greca è corto (poca informazione) rispetto all’irrazionalità del suo sviluppo decimale: pi greca non è un numero Reale complesso, anche se ha uno sviluppo infinito. Al contrario un numero che sia veramente casuale non ha un algoritmo per generarlo (le funzioni “random” dei linguaggi di programmazione sono implementate con algoritmi deterministici e generano numeri pseudo-casuai), il “suo algoritmo è esso stesso”, la sua complessità è massima (massima quantità di informazione). Questa è una grossa semplificazione della AIT, essa di fatto ha da dire molto sulla stessa matematica e sembra accordarsi su quanto Godel e Turing hanno mostrato coi teoremi di incompletezza…

Tornando all’Universo fisico, e terminando, se si prende per buona questa misura della complessità (quella fornita dall’AIT) che porta con se un abbozzo di definizione, le leggi fisiche sono algoritmi che comprimono l’Informazione dell’Universo, mentre potrebbe darsi che il vero metodo per domarne la complessità sia il n° 1 (quello della descrizione). E’ certo che questo non è realizzabile in quanto la quantità di informazione che serve coincide con quella stessa dell’Universo inteso come programma minimale. In questi termini, sia in un modo sia che nell’altro sembra impossibile domarla, e per quanto concerne la Conoscenza, essa deve accontentarsi di comprimere i dati sensibili in leggi, facendo attenzione che siano sperimentabili, altrimenti si rischia l’etichetta di “mere elucubrazioni”, come questa che è appena terminata, forse.


P.S. Gregory Chaitin sostiene che la compressione è comprensione.

P.S._2 Ma all'ora la storia dell'universo è un unica macro-definizione?


Letture consigliate:

Barrow, J. D,;Teorie del tutto. La ricerca della spiegazione ultima, Adelphi, Milano, 1992

Chaitin, G.; Alla ricerca di Omega, Adelphi, Milano, 2007

Bartugia, C. S., Vaio, F.; Complessità e Modelli, 2010, Bollati Boringhieri

Seife, C.; La scoperta dell'universo. I misteri del cosmo alla luce della teoria dell'informazione, Bollati Boringhieri, 2011

Ultimo aggiornamento Lunedì 12 Agosto 2013 16:08

I paradossi e l'autoreferenzialità

E-mail Stampa PDF

Non deve sorprenedere che il nostro linguaggio sia incapace di descrivere i processi che hanno luogo all'interno degli atomi, perché è stato inventato per descrivere le esperienze della vita d'ogni giorno le quali consistono soltanto di processi che coinvolgono un numero estremamente grande di atomi.

Werner Heisemberg, I principi fisici della teoria dei quanti

paradosso triangolo di penrose Secondo il filosofo Mark Sainsbury (1943)  un paradosso è "una conclusione apparentemente inaccettabile, che deriva da premesse apparentemente accettabili, per mezzo di un ragionamento apparentemente accettabile" (paradoxes, p1). Sono comunque molte le definizioni di paradosso e molti i filosofi e pensatori in genere che si sono cimentati nello stabilire un possibile modello a cui ricondurli. In ogni caso etimologicamente il termine paradosso deriva dal greco paradoxa e significa contro (para) l'opinione comune o la credenza (doxa).

Anche se alcuni logici puristi non accettano tutto ciò che la consuetudine indica come paradosso, ne esistono moltissimi e possono essere ricondotti ad alcune categorie. Ad esempio il paradosso del Mentitore conosciuto anche come paradosso di Epimenide è un paradosso di tipo semantico, mentre quelli di Cantor e Russell sono di tipo insiemistico. Entrambe comunque producono una contraddizione in termini da cui non è possibile uscire, a meno che non si ricorra al pensiero laterale, metodologia che dovrebbe risolvere questo tipo di antinomie "uscendo dal sistema, e rientrandoci in un secondo momento". Nella nostra discussione non si farà uso di questi metodi intuitivi per altro non sempre accettati da coloro che si occupano di queste problematiche.

Ad esempio un classico paradosso, molto semplice da comprendere è proprio Il paradosso del Mentitore fatto risalire al filosofo Epimenide di Creta. Questo ci fa riflettere su fatto che tali problemi del pensiero affliggevano di già i nostri antichi antenati. Originariamente pare fosse formulato come:

 

Tutti i cretesi mentono sempre.

 

e tale frase è pronunciata proprio da un cretese, ad esempio Epimenide...

 

Affermare: "Sto mentendo" significa in parte produrre una asserzione falsa. Ciò avviene se vi è un uso autoreferenziale della frase ovvero se si riferisce a se stessa. In altre parole è sottintesa una componente indicale nella frase in questione.

Un chiaro esempio noto come "Il mentitore standard" è il seguente [1]:

 

(1)       (1) è falso.

 

L'interpretazione consiste nel numerare la proposizione e utilizzare tale etichetta per indicarla come oggetto del predicato. Ora si può ragionare per casi e notare che un enunciato del genere è problematico:

 

a)      Immaginiamo che sia vero: se cosi è tutto sommato le cose stanno come dice, allora è falso;

b)      immaginiamo ora che sia falso: è proprio ciò che dice di essere, allora è vero.

 

La problematicità sorge se si accetta il principio aristotelico di bivalenza e cioè che un enunciato o è vero o è falso. (1) è vero e falso assieme.

Una modifica, nota come "Il mentitore rinforzato" recita: " Questa asserzione non è vera" o seguendo lo schema precedente:

 

(2)       (2) non è vero.

 

Questa modifica sembra mettere a riposo qualsiasi soluzione ingenua del paradosso del mentitore. Di fatto uno dei maggiori logici del nostro tempo, Saul Kripke (1940), ha tentato di risolvere il mentitore standard (la (1)) rinunciando al principio di bivalenza e ammettendo che alcuni enunciati possano non essere  veri e né falsi. (1) è vero se falso, e falso se vero, ma la contraddizione è risolta ammettendo che questi due casi non si verificano. Il mentitore rinforzato ((2)) è problematico pur seguendo la ricetta di Kripke, rinunciando cioè al principio di bivalenza.

Nel mentitore standard col principio di bivalenza gli enunciati sono suddivisi in due gruppi, quelli veri e quelli falsi e questi rappresentano i casi per improntare il ragionamento. Non accettando il principio di bivalenza si aggiunge un terzo caso: enunciati né veri né falsi. Utilizziamo quindi i tre casi per studiare il comportamento del mentitore rinforzato:

 

a)      se (2) è vero tutto sommato se le cose sono come dice non è vero;

b)      se (2) è falso allora ci dice in fondo che è vero;

c)      se (2) non è vero né falso allora dice una cosa non vera, ma questo è proprio ciò che dice di essere, tutto sommato (2) è vero.

 

(2) sembra essere vera e non vera, quindi contraddizione.

In definitiva questa versione del paradosso nota anche come "mentitore della vendetta" vendica chiunque tenti di allontanare l'elemento paradossale in questa famiglia di enunciati.

 

Ciò che accomuna questa tipologia di paradossi, che con l'aiuto del Logico Kurt Godel (1906 - 1978) hanno generato insormontabili problemi anche nel cuore della matematica, è l'autoreferenzialità. Essa è ben riconoscibile nei paradossi di tipo insiemistico ed la sua "scoperta" è ricondotta a Bertrand Russell (1872 - 1970).

Una formulazione complementare al paradosso del Mentitore, quindi, è il cosiddetto paradosso di Russell , nel qual viene messa a nudo l'autoreferenzialità utilizzando il linguaggio della teoria degli insiemi. Di fatto l'autoreferenzialità compare in quegli insiemi che hanno essi stessi come sottoinsieme: l'insieme delle cose astratte è una cosa astratta mentre l'insieme delle forchette non è esso stesso una forchetta, allo stesso modo l'insieme degli insiemi è esso stesso un insieme. Il paradosso è formulato in modo apparentemente criptico nella seguente maniera:

L'insieme degli insiemi che non sono elementi di se stesso (chiamato R) è elemento di se stesso?

Un altro modo per aggirare la contraddizione derivante dall'autoreferenzialità in riferimento anche al paradosso del mentitore è quella più accettata dai logici che si basa sulla definizione di "verità" per i linguaggi formalizzati ad opera del logico Alfred Tarsky (1902 - 1983). Anche se Tarsky aveva pensato questi metodi per il linguaggi strettamente formalizzati, ritenendo i linguaggi naturali contraddittori, si è ritenuto necessario applicarli anche a quest'ultimi. In tal maniera si è pensata una gerarchia di livelli: al livello più basso non ci sono enunciati che contengono il predicato "vero", o termini correlati. Al livello 1 "vero" si può applicare ad enunciati di livello 0, ma non ad enunciati dello stesso livello 1. Ad ogni livello successivo vi è un solo predicato di verità, che si può solo applicare ad enunciati di livello più basso. Questa apparente complicazione permette di separare i vari livelli non permettendo l'autoreferenzialità (nel seguito si dirà di più in merito a ciò).

In ogni caso anche questo metodo può presentare dei problemi, uno è il fatto che non è ammissibile un enunciato del tipo: "ogni asserzione è vera o falsa", poiché si sta impropriamente definendo ciò che può essere detto attraverso una infinità di enunciati differenti, uno per ogni livello. Vi sono anche altre problematiche intorno questa soluzione, e modi per aggirarle, si rimanda alla vasta letteratura in materia.

Torniamo a Russell e domandiamoci se : l'insieme degli insiemi che non sono elementi di se stesso (chiamato R) è elemento di se stesso?

Come per il mentitore, se si analizza questa asserzione si giunge ad una contraddizione. Un tentativo per superare questo problema, simile alla soluzione di Tarsky, portò Bertrand Russell (1872 - 1970) alla formulazione della "Teoria dei Tipi", proprio perche tale paradosso essendo inerente alla teoria degli insiemi minacciava i fondamenti della matematica e del pensiero razionale.

Lo stesso Russell, che non apparteneva a quella categoria che riteneva che tali paradossi fossero giochi di parole, nei propri studi sulla teoria degli insiemi e sui problemi che nella cosiddetta "formulazione ingenua" sembravano irrisolvibili, aveva l'impressione che il concetto di insieme seppur primitivo era altamente "ideale". In altre parole non riusciva ad avere una corrispondenza con la realtà fisica. Egli iniziò a pensare che in realtà gli insiemi non sono entità nette, bensì sfumate e che l'appartenenza di un elemento ad un insieme possa non essere espressa con un "sì" o un "no", uno "0" o un "1" aristotelici, bensì con una specifica funzione che ne stabilisca il grado di appartenenza. In alte parole l'elemento "a " appartiene all'insieme A con un grado di verità del 30% e non appartiene all'insieme A con un grado di verità del 70%.

Molti Logici si sono cimentati nel pensare una teoria degli insiemi dove i confini tra quest'ultimi non sono definiti, bensì sfumati. Colui che ha portato alla ribalta una tale concezione con un vigore tale che il suo pensiero è ora applicato anche in ambito tecnologico è Lotfi Zadeth. Egli insieme ad altri battezzò un nuovo tipo di logica: la Logica Fuzzy. Questa logica ha la caratteristica di non accettare il principio di bivalenza ammettendo che un enunciato possa essere vero con un certo grado.

In un tale quadro, l'annoso problema filosofico del bicchiere mezzo pieno o mezzo vuoto è banalemente risolto ammettendo che il bicchiere è pieno con un grado di verità del 50% e allo stesso modo è vuoto con un grado di verità del 50%. In sintesi tra "vero" e "falso" che sono gli estremi aristotelici su cui si basa la logica classica esiste in realtà una gradazione continua. Questo fatto apre una serie sterminata di possibilità logiche, non ammissibili con due soli valori di verità.

Bart Kosko, allievo di Lotfi Zadeth, in un suo saggio "Il Fuzzy Pensiero" [2] esprime con vigore la validità della Logica Fuzzy, e propone una interpretazione del paradosso del mentitore all'interno di questa logica. La posizione fuzzy sta nel pensare i paradossi di autoriferimento come mezze verità o in altre parole come contraddizioni fuzzy. Immaginando un segmento ai cui estremi vi è "vero" = "1" o "falso" = "0" e tutta una serie di valori continui all'interno, i paradossi autoreferenziali hanno come grado di verità il punto medio di tale segmento. La polivalenza semplicemente contempla un tale caso poiché nel mondo fuzzy esistono anche mezze verità...

I paradossi autoreferenziali, hanno avuto, nella matematica del Novecento dello scorso secolo una grande importanza e si sono dimostrati non solo meri giochi di parole. Essi hanno aiutato la logica a comprendere il significato di "verità" in merito ai linguaggi naturali e formalizzati. Sullo sfondo del "problema dei fondamenti" suggerito dal Matematico David Hilbert (1842 - 1963) alla conferenza dal titolo "I Problemi della Matematica" presentata nel corso del Secondo Congresso Internazionale di Matematica tenutosi a Parigi nel 1900, i paradossi autoreferenziali hanno minato le basi della matematica stessa. Come accennato in precedenza il Logico Kurt Godel, trovò con un celebre articolo [3] una crepa all'interno della formalizzazione dell'aritmetica tramite la logica ad opera di Bertrand Russell e  Alfred North Whitehead (1861 - 1947). L'opera dei due logici a sostegno della solidità della matematica fin dalle sue fondamenta è nota come Principia Mathematica pubblicata nel 1913. Godel in maniera ineccepibile nonché strettamente formale non fa altro che notare l'insorgere di paradossi autoreferenziali, nei sistemi formali potenti come l'aritmetica. Egli dimostra che in un sistema sufficientemente potente vi possono essere degli enunciati la cui verità o falsità non è dimostrabile all'interno del sistema, ma serve un metasistema per poterlo fare. Tale metasistema è il sistema in questione più l'enunciatro incriminato preso nientedimeno che come assioma. Quanto detto è solo un assaggio della "sinfonia Godeliana" sul tema della matematica e dei sistemi formali, ma serve per focalizzare l'attenzione su un concetto su cui molti logici hanno lavorato, da cui dipende la validità della verità di un enunciato: la semantica. Di fatto Il Paradosso del mentitore, definito inizialmente come paradosso semantico ha permesso di comprendere il perché compaiono tali problemi specialmente nel linguaggio naturale. Tarski e altri hanno incolpato il linguaggio naturale e nello specifico il fatto che esso sia semanticamente chiuso. In maniera intuitiva significa che lingue naturali come l'italiano, l'inglese o il francese sono lingue sufficientemente potenti da poter parlare anche della propria semantica e cioè dei significaqti delle espressioni degli stessi linguaggi. A detta del filosofo americano Richard Kirkham (1955) "un linguaggio semanticamente chiuso è uno che contiene predicati semantici come "vero", "falso" e "soddisfa" che possono essere applicati ad enunciati dello stesso linguaggio"[4]. Qundi i paradossi autoreferenziali possono insorgere quando vi è una confusione tra linguaggio oggetto e metalinguaggio. Uno sforzo in tale direzione è la soluzione di Tarski al paradosso, precedentemente suggerita. La logica ha imparato bene la lezione e fa una netta distinzione tra il linguaggio oggetto e quello utilizzato per parlare, per la precisione di stabilirne verità o falsità, che è il metalinguaggio. In tal maniera si ingenera una gerarchia di linguaggi ogni uno capace di dire qualcosa di semantico su linguaggio sottostante ma non viceversa. In definitiva secondo Tarski la nozione di verità per un linguaggio non deve essere esprimibile o definibile entro quello stesso linguaggio (Tarski esprime questo con un celebre teorema). Utilizzando una immagine dello studioso scienziato cognitivista Douglas Hofstadter (1945), avvolte un sistema formale può essere sufficientemente potente che può ripiegarsi su se stesso e tentare di dire cose che lo mettono in seria difficoltà come se direzioniamo una cinepresa verso lo schermo a cui è connessa: si ingenera un loop infinito che manda l'intero sistema in tilt [5]. Ora termino qui, ma vi assicuro che il ragionamento sui paradossi e sulle loro stravaganti conseguenze è appena iniziato.

 


[1] Berto F., Tutti pazzi per Godel!, La Terza, Roma 2008.

[2] Kosko B., Il fuzzy pensiero, Balai e Castroldi, Milano 2010, Tit. Or. "Fuzzy Thinging: The New Science of Fuzzy Logic" Hyperion, 1993.

[3] Gödel:K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, I. Monatshefte für Mathematik und Physik, 38 (1931), pp. 173-198. Translated in van Heijenoort: From Frege to Gödel. Harvard University Press, 1971

[4] Kirkham, Richard L. Theories of Truth: A Critical Introduction. Cambridge, MA: The MIT Press, 1992, cit. in Berto 2008.

[5] Hofstadter D., Anelli nell'Io, Mondadori, 2007

Ultimo aggiornamento Mercoledì 24 Agosto 2011 14:56

Come nasce il Caos: l'equazione logistica (con codice Matlab modificabile)

E-mail Stampa PDF

Caos è il nome che indica un peculiare pre-oggetto del mondo nella sua totalità e del signoreggiare cosmico.

Martin Heidegger

diagramma biforcazioni della mappa logistica

Alcuni scienziati e studiosi, sono oggi d'accordo sul fatto che vi sia una matrice sostanzialmente unica che possa spiegare i fenomeni della realtà prossima alla vita dell'uomo, e non solo, e individuano tale matrice con le scienze della complessità.  Attualmente si riscontrano riferimenti alla complessità in un vasto insieme di campi differenti come la Logica, la Matematica, la Fisica, la Scienza dell'Informazione, la Biologia, l'Economia, le Scienze Sociali, la Chimica, la Linguistica, la Filosofia, la Psicologia, e le Teorie dei sistemi. La Teoria del Caos è una importante espressione per studiare fenomeni afferenti alla Teoria della Complessità, ma non è la Teoria della Complessità. Diamo, adesso, una definizione di complessità per poi addentrarci nella Teoria del Caos attraverso lo studio di una semplice relazione matematica non lineare.

Possiamo definire l'approccio alla complessità come:

"lo studio interdisciplinare dei sistemi complessi adattativi e dei fenomeni emergenti ad essi associati. Un sistema può essere visto come complesso, parlando in modo un po' approssimativo, se si tratta di un sistema costituito da un gran numero di parti semplici che sono in grado reciprocamente di scambiarsi stimoli e di interagire sia reciprocamente sia con l'ambiente che contiene il sistema stesso. Quando un sistema complesso in conseguenza di queste interazioni arriva ad avere le proprietà di adattare autonomamente (cioè senza l'effetto di una forza esogena) la propria struttura interna, si dice adattivo" [1].

Spiegare cosa sia il caos, può risultare complicato, anche se esistono molte definizioni che ne permettono una soddisfacente comprensione. Fortunatamente al momento in cui scrivo (2011), tutti, o quasi, abbiamo la disponibilità di un calcolatore e la possibilità, con qualche sforzo, di simulare il caos, di sperimentarlo personalmente. Questo breve scritto intende introdurre una relazione matematica capace di penetrare lo schema che soggiace a ciò che gli studiosi identificano come "comparsa del caos". Prima però andiamo a vedere come un tale concetto sia nato e perché.

Cristoforo Sergio Bertugia e Francisco Vaio, in un illuminante saggio: Complessità e Modelli, riportano come pionieri nella scoperta e nello studio di fenomeni caotici, per quanto riguarda applicazioni pratiche, gli ingegneri olandesi Balthazar van der Pol e Jan van der Mark, studiando il comportamento elettrico di un circuito contenete una valvola termoionica, utilizzato per amplificazione di segnale, nel 1927. Essi nello specifico scoprirono, utilizzando un componente elettronico che possiede una relazione tensione-corrente non lineare, il fenomeno del "raddoppiamento di periodo", considerato oggi come uno dei possibili modi per stabilire se il sistema si comporta in modo caotico o no. Essi nelle misure elettriche compiute sul circuito scoprirono dei comportamenti non lineari, cioè sotto certe condizioni elettriche di alimentazione il circuito evolveva secondo dinamiche deterministiche instabili fortemente dipendenti dalle condizioni iniziali. Dovettero passare decenni, però, per vedere comparire il concetto di Caos nelle scienze. Ad onor del vero, eminenti matematici e fisici, come Poincaré a cavallo dell'inizio del secolo scorso, si erano accorti di un qualcosa di strano studiando il sistemi dinamici attraverso le metodologie matematiche note al tempo. Probabilmente, se le scoperte nel campo della fisica quantistica non sarebbero avvenute assorbendo gran parte degli sforzi dei matematici, la formalizzazione di una matematica del caos sarebbe avvenuta molto prima. Intorno ai primi decenni dello scorso secolo, problemi relativi alle equazioni della dinamica potevano sembrare legati alla vecchia concezione della fisica classica, che all'epoca, sembrava aver esaurito argomenti che potessero eccitare gli scienziati. Bisogna attendere la fine degli anni Sessanta del Novecento per avere un concetto matematico di caos veramente utile nelle scienze empiriche, e ciò è grazie al matematico americano Sephen Smale, con le mappe a ferro di cavallo, ovvero rappresentazioni di trasformazioni matematiche che permettono di osservare semplici dinamiche caotiche. L'interesse per il caos, in realtà, tornò qualche anno prima, dopo l'affievolirsi degli entusiasmi quantistici, grazie ad un illuminante scienziato, Edward Norton Lorenz, che ne saggiò la reale esistenza studiando dei "semplici" modelli metereologici. Questi modelli erano basati su equazioni differenziali del primo ordine in tre variabili di stato. Lorenz fin da ragazzo fu appassionato di metereologia, e fu tra i primi a pensare di utilizzare un calcolatore per fornire previsioni. Negli anni Cianquanta, i calcolatori non erano quelli di adesso, erano molto lenti ingombranti ed estremamente difficili da utilizzare, tanto che alcuni scienziati diffidavano dall'uso di queste "macchine infernali". In realtà Lorenz comprese che un calcolatore era ciò che serviva per mettere in pratica le ormai note e pedissequamente utilizzate leggi deterministiche di Newton. Queste leggi permettevano di descrivere l'essenza dell'universo come un meccanismo ad orologeria, governato da leggi della meccanica che dato dei valori iniziali permettevano di predirne, senza particolari problemi, lo stato futuro. In definitiva Lorenz utilizzò un rudimentale computer (un Royal McBee), per verificare i suoi modelli climatici, che all'epoca in output riusciva al massimo a scrivere lunghe serie di numeri su un nastro di carta come una telescrivente.  Egli era solito impostare le equazioni e lasciare la macchina a calcolare gli andamenti. Un giorno decise di ripetere la serie di calcoli già elaborata precedentemente, inserendo come dato iniziale un valore, nel centro della serie, prelevato dalla simulazione precedente. Egli si accorse prima con fastidio, ma poi con stupore, che l’andamento che calcolava la macchina, man mano che le iterazioni aumentavano , era sempre meno simile a quello precedente fino a diventare completamente differente. Egli in un primo momento pensò ad un errore dovuto alle soventi rotture delle fragili valvole del suo computer, ma poi si accorse che in realtà quest’ultimo funzionava regolarmente e la causa di questo strano andamento era da ricercarsi altrove.

Lorenz in realtà era in procinto di scoprire una delle caratteristiche principali di un sistema caotico.

Egli capì che il problema stava nelle approssimazione effettuata quando inserì il dato iniziale nella seconda simulazione. Il suo computer aveva celle di memoria che potevano contenere numeri macchina con precisione a 6 decimali, mentre per comodità Lorenz faceva stampare numeri con tre decimali. Il numero inserito era un decimale troncato, una sorta di brutale approssimazione che in una concezione Newtoniana, dove piccole approssimazioni non causano problemi, non avrebbe dato nessun fastidio. E Lorenz proveniva da tale concezione. Il suo modello invece si rivelò, nel predire i risultati futuri, molto sensibile a piccole variazioni nelle condizioni iniziali, e comprese che il suo modello climatico, se non utile per fare previsioni reali, era estremamente adatto per mostrare come previsioni a lungo termine, anche dopo la settimana non hanno alcun senso [2].

In definitiva Lorenz fu quello che coniò il termine “effetto farfalla”, inserito nel titolo di un suo intervento ad un convegno in America nel 1979: “Predictability: Does the flap of Butterfly Wings in Brazil set off a Tornado in Texas?”. Una delle caratteristiche che permettono, quindi, il riconoscimento del caos in un sistema è l’estrema sensibilità alle condizioni iniziali.

Lorenz lavorò a lungo sui sistemi climatici, ma una volta scoperto il caos, si dedicò al suo studio matematico tentando di inventare modelli semplici che ne conservassero le caratteristiche. In realtà egli comprese che i suoi strani andamenti nei grafici non erano mera casualità, ma avevano una ben precisa struttura geometrica. Inoltre si accorse che tali fenomeni si verificavano in molti ambiti della fisica, come ad esempio nella fluidodinamica, dove le equazioni pur presentando delle non linearità, venivano sfrondate per ottenere soluzioni analitiche semplici. Si accorse che la caratteristica principale dei sistemi caotici era proprio la non linearità, che forniva risultati con una periodicità alquanto strana, o addirittura senza alcuna periodicità. Da quegli anni fino ai giorni nostri, i metodi degli scienziati del caos hanno risolto molte questioni nei più disparati ambiti della scienza, dall’astronomia alla biologia.

Il modello che in questo articolo si vuole presentare, deriva proprio dalla biologia. Negli anni seguenti le scoperte di Lorenz vi fu una divisione tra fisici matematici e i nuovi biologi. I primi tentavano di tralasciare soluzioni caotiche per fornire risultati chiari e predicibili, gli ultimi, si resero conto che per spiegare i dati che avevano sotto gli occhi avevano bisogno di un tipo differente di matematica, proprio quella che alcuni fisici tendevano a scartare. Nacque, in seguito agli eventi su riportati, ed in generale grazie alla diffusione dei calcolatori la Biologia Computazionale, i cui metodi potevano spiegare molti dei fenomeni che si verificavano in ecosistemi popolati da individui in competizione (o in cooperazione).

Cosa succede se mettiamo mille pesci in uno stagno? Come interagiscono gli individui date particolari disponibilità di cibo?

La biologia delle popolazioni aveva bisogno di nuovi paradigmi, e le equazioni differenziali continue per natura erano o troppo complicate, quindi irrisolvibili, o troppo semplici quindi con risultati banali. A queste si sostituirono equazioni discrete, note talvolta come equazioni alle differenze, risolte in maniera ricorsiva. Esse possono essere usate per modellizzare sistemi che evolvono in stati in maniera discontinua. Un esempio semplice può essere quello di voler calcolare il numero di individui negli anni successivi, partendo da un dato anno, dove la dipendenza dell’anno attuale deriva solamente dal numero di individui dell’anno precedente. Se xn è il numero di individui al tempo n allora, il numero al tempo n+1 è dato da una relazione funzionale

«math xmlns=¨http://www.w3.org/1998/Math/MathML¨»«msub»«mi»x«/mi»«mrow»«mi»n«/mi»«mo»+«/mo»«mn»1«/mn»«/mrow»«/msub»«mo»=«/mo»«mi»f«/mi»«mo»(«/mo»«msub»«mi»x«/mi»«mi»n«/mi»«/msub»«mo»)«/mo»«/math»

La soluzione ricorsiva consiste nell’inserire il valore appena calcolato nella funzione e grafitarlo, poi inserendo il prossimo valore e così via. Questo non è altro che l’implementazione di un anello di retroazione dove l’uscita al passo attuale è l’ingresso al passo futuro.

La teoria dei sistemi dinamici conosce bene gli anelli di retroazione e sa che possono generare a seconda delle funzioni scelte risultati altamente instabili.

La più semplice delle relazioni è quella lineare dove lo stato futuro è calcolato partendo da una relazione di semplice proporzionalità con lo stato attuale. Un esempio è:

«math xmlns=¨http://www.w3.org/1998/Math/MathML¨»«msub»«mi»x«/mi»«mrow»«mi»n«/mi»«mo»+«/mo»«mn»1«/mn»«/mrow»«/msub»«mo»=«/mo»«mi»k«/mi»«msub»«mi»x«/mi»«mi»n«/mi»«/msub»«/math»

dove k è una costante di proporzionalità arbitraria. Nella dinamica delle popolazioni questo è il modello maltusiano lineare di crescita di una popolazione, con cibo infinito e senza alcun freno riproduttivo.

Secondo questo moldello, la popolazione è destinata alla crescita perpetua, ed è semplice comprendere che i modelli reali non si comportano in questa maniera. Vi sono fenomeni differenti che possono modificare la dinamica della popolazione, facendola anche decrescere, dopo un certo tempo. La causa potrebbe essere, la scarsità di cibo, le malattie, la diminuzione della fertilità e molto altro. La funzione che si vorrebbe è quella che fa crescere la popolazione fino ad un determinato modello per poi assestarsi, ammesse anche oscillazioni iniziali, ad un determinato valore di equilibrio.

Studiamo,  a questo punto, una ridefinizione non lineare del modello malthusiano introducendo una semplice non linearità.

 

«math xmlns=¨http://www.w3.org/1998/Math/MathML¨»«msub»«mi»x«/mi»«mrow»«mi»n«/mi»«mo»+«/mo»«mn»1«/mn»«/mrow»«/msub»«mo»=«/mo»«mi»r«/mi»«msub»«mi»x«/mi»«mi»n«/mi»«/msub»«mo»(«/mo»«mn»1«/mn»«mo»-«/mo»«msub»«mi»x«/mi»«mi»n«/mi»«/msub»«mo»)«/mo»«/math»

Questa funzione mostra una relazione quadratica se effettuiamo le moltiplicazioni, ma scritta in questa maniera permette una facile interpretazione. Il parametro r è un tasso opportuno di incremento, mentre il termine «math xmlns=¨http://www.w3.org/1998/Math/MathML¨»«mo»(«/mo»«mn»1«/mn»«mo»-«/mo»«msub»«mi»x«/mi»«mi»n«/mi»«/msub»«mo»)«/mo»«/math» limita la crescita, poiché all’aumentare di «math xmlns=¨http://www.w3.org/1998/Math/MathML¨»«msub»«mi»x«/mi»«mi»n«/mi»«/msub»«/math», «math xmlns=¨http://www.w3.org/1998/Math/MathML¨»«mo»(«/mo»«mn»1«/mn»«mo»-«/mo»«msub»«mi»x«/mi»«mi»n«/mi»«/msub»«mo»)«/mo»«/math» diminuisce. Nel prosieguo di questo articolo si tenterà di studiare questa relazione, nota anche col nome di Equazione Logistica.

Questa equazione fu studiata a lungo dal biologo Robert May, professore della Princeton University. Prima di lui, i biologi si fermavano a soluzioni semplici, scartando quelle che mostravano risultati apparentemente sballati, talvolta ritenendo di essere incappati in errori al calcolatore. Invece si comprese che al variare del parametro r, il comportamento dell’equazione è molto differente: per valori bassi l’andamento si assestava ad uno stato stazionario, mentre per valori più alti si ottenevano comportamenti strani, con oscillazioni periodiche, per valori estremamente alti esso era imprevedibile. Inizialmente sembravano degne di nota solo le soluzione fornite da valori bassi della costante r.

May intendeva utilizzare gli stessi metodi di Lorenz nel graficare gli andamenti, grafici che tentano di cogliere il comportamento del sistema come un tutto. Egli fece variare con precisione il parametro e si accorse di valori critici al di la dei quali il comportamento diventava prima oscillante e poi caotico.

Per il valori di r fino a  2,7 il comportamento era regolare ed il valore nullo in uscita forniva l’indicazione che la popolazione era destinata ad estinguersi, per valori compresi tra 2,7 e 3 la popolazione tendeva a crescere lievemente, mentre per il valore 3 il grafico si biforcava. Il sistema iniziava ad oscillare tra due valori stabili. In altri termini il numero di individui della popolazione oscillava tra due valori in anni alterni. Aumentando lievemente il parametro ogni biforcazione dava luogo ad un’alta biforcazione: un alternarsi di 4 valori ogni 4 epoche (anni). Continuando ad aumentare tale valore si riscontava un raddoppiare delle biforcazioni: 2, 4, 8, 16, 32…ma ad un certo punto (“punto di accumulazione”) sembrava comparire il caos, i punti oscillavano come il rumore in uno schermo di un televisore non sintonizzato, ma di colpo sembravano comparire nuovamente biforcazioni. May stava scoprendo che vi erano isole di regolarità in un mare di caos. L’Equazione Logistica permette di avvicinarsi e toccare con mano il concetto di caos, poiché l’aumentare del parametro ci conduce, partendo da un universo ordinato e regolare, ad un universo altamente caotico, facendoci saggiare cosa c’è nel mezzo, permettendoci di osservare la comparsa del caos.

In questa parte finale dell’articolo inserisco alcune semplici linee di codice, per il linguaggio di programmazione matematico-scientifica Matlab, che permettono di ottenere le stesse esperienze raccontate sopra. I parametri sono modificabili ed un semplice “run” mostra i grafici appena descritti. Il codice si divide in due parti:

-          una prima parte dove si mantiene il parametro r costante, e tramite un ciclo for si calcolano i valori della popolazioni per le varie epoche i, partendo da una data condizione iniziale X. Si sono graficate separatamente le iterazioni pari e le iterazioni dispari.

-          una seconda parte dove si tiene costante il valore di X e si fa variare il parametro r.

 

La prima parte di codice permette di avere esperienza dei valori alternanti X della popolazione, a seconda del valore di r scelto.

La seconda parte permette invece di printare il classico grafico, trovato da May dove compaiono le biforcazioni e riportato nella parte superiore del presente articolo.

 

Codice modificabile da inserire nell’editor di Matlab:

 

Ultimo aggiornamento Venerdì 30 Settembre 2011 10:27

Sull'implicazione logica (formale vs materiale)

E-mail Stampa PDF

Via via che la logica si perfeziona, diminuisce il numero delle cose che si possono dimostrare.

Bertrand Russell, in Alan Wood, Bertrand Russell, lo scettico appassionato, 1957

Oggi ci concentriamo sul concetto noto ai logici come "implicazione", questo viaggio sarà compiuto attraverso la potente navicella, frutto degli studi di B. Russell, datata 1903, intitolata “I principi della matematica”.

Bertrand Russel

Esistono due tipologie di implicazione, talvolta ambedue indicate con una freccia. I più accorti però sono attenti a questa importante distinzione e utilizzano simboli differenti per ogni una di esse.

La prima è l’implicazione materiale indicata solitamente con: “ ”, la seconda è l’implicazione logica indicata con: “⇒”.

Russel sostiene che l’implicazione materiale si ha quando i termini che la costituiscono, ad esempio p e q in “p q” sono proposizioni. Questo vale se i suddetti termini sono proposizioni o vere o false “una volta per tutte”, cioè non contengono al loro interno ciò che Peano ha chiamato variabili reali. Le variabili reali a differenza di quelle apparenti, sempre secondo il Peano, si hanno quando queste non sono vincolate e sono veramente libere di variare, mentre quelle apparenti anche se compaiono in un termine non sono vere variabili, non essendo libere di variare. Un esempio può essere una proposizione contenete una variabile vincolata da un connettivo esistenziale come per ogni o esiste.

Russell nella sua opera ci dona una feconda analogia per comprendere definitivamente questa semplice distinzione. Egli ci invita a pensare ad un integrale definito, che, seppur contenendo come integranda una funzione della variabile, il risultato non viene a dipendere da quest’ultima. Ecco che asserisce allora che “x è un uomo” non è un a proposizione in quanto quest’ultima deve essere definitivamente o vera o falsa. Presa così com’è la frase non è né vera né falsa, dipendendo questi valori di verità dalla variabile x, libera di assumere qualsivoglia valore. Si è soliti definire una frase che contiene variabili libere (almeno una) comeuna funzione proposizionale.

Ultimo aggiornamento Lunedì 15 Ottobre 2012 11:55

Pagina 1 di 2

  • «
  •  Inizio 
  •  Prec. 
  •  1 
  •  2 
  •  Succ. 
  •  Fine 
  • »

Hanno detto..

NewS - Le Scienze

You are here: Home