sublimina.it

  • Full Screen
  • Wide Screen
  • Narrow Screen
  • Increase font size
  • Default font size
  • Decrease font size






  research gate


omino_logo_sublomina


La Conoscenza è come una linea, dove sono i confini non ci è dato di saperlo.

Sublimina.it è un viaggio personale nel mondo del pensiero umano. Per raggiungere ogni meta c'è una via ed ogni via ha un ingresso. Questa è la mia porta personale, l'ho appena aperta. Ognuno ha la sua porta, qualche volta si ha bisogno, però, di intravedere cosa c'è al di là della porta altrui per mirare l'altrove che sta dietro la propria.  Ispirato da: Franz Kafka, Il processo (1925)


Metamatica

escher scale paradossali"Il peggiore e più deleterio inganno è l’errore logico taciuto." Gabriele Lolli, "Da Euclide a Gödel", pag.110.

Questa categoria si occupa di quegli argomenti "borderline" tra matematica tradizionale e filosofia della matematica e in generele della scienza

Il tempo, la mente e i numeri Reali

E-mail Stampa PDF

Il tentativo di comprendere la natura dello spazio-temp dipende dall'accettazione

o dal rifiuto dell'infinito. Dovremmo conoscerlo meglio di quanto conosciamo noi stessi.

John D.Barrow

orologio_ingranaggi

Innumerevoli possono essere le riflessioni sul tempo. Cercheremo di affrontarle tutte. La concezione del tempo dal punto di vista della scienza, a mio avviso, porta avanti un paradosso che ha a che fare con il suo utilizzo nella maggior parte delle leggi fisiche. Queste ultime sia derivate da risultati sperimentali che non, comunque sono una compressione algoritmica dei fenomeni che si presentano nella realtà fisica che l’universo sperimenta quotidianamente. Qui sorge il problema, poiché oltre a definire un algoritmo, un procedimento che a partire da dati iniziali  è capace di calcolare una previsione, la “formula” esprime in maniera compressa un fenomeno complesso della realtà. Nell’uso comune il tempo è un parametro fisso, anche se Einstein con i suoi lavori sulla relatività ristretta ha diluito questa idea rendendola una grandezza derivata, ad esempio della velocità o della massa (gravità). Qualsiasi formula nel campo dell’ingegneria, quindi in cose che “funzionano”, ha un andamento nel tempo: è funzione del tempo. Tali formule rispecchiano il fatto che se date certe condizioni iniziali il sistema si evolverà proprio secondo tali funzioni, in maniera deterministica. Il sapere scientifico moderno, conosce benissimo il monito delle filosofie orientali, che per loro natura non vedono assolutamente il mondo in maniera determinata, bensì tendono a classificalo come una successione caotica di eventi senza senso è per questo meramente

illusori. La scienza del caos accetta tale punto di vista, anzi ne fa il proprio punto di partenza. I cosmologi dal canto loro, utilizzando tutte le leggi a disposizione, cercano di integrarle, e di generalizzarle per descrivere il divenire dell’universo. Sicché nel loro intento vi è la volontà di comprimerlo algoritmicamente.  Il paradosso sta proprio nel fatto che lo stato dell’universo in ogni istante non è mai uguale a se stesso, mai. Ciò è sperimentabile ogni giorno da noi stessi, qualsiasi cosa è in continua evoluzione. Se siamo alla fermata dell’ autobus e osserviamo le automobili passare, non capiterà mai più che ripassino le stesse automobili nello stesso momento e nello stesso luogo. Ogni evento è a se stesso, qualunque esso sia. (Tale concezione nel campo psicologico verrebbe definita solipsichica). Il tempo è un eterno ritorno del diseguale oserei dire. Lo scorrere del tempo, inteso come misura del trascorrere dei secondi, minuti ore giorni e anni, classificati con l’utilizzo dell’usuale calendario è un esempio di ciò che si tenta di dire qui. Difatti se scriviamo una data nella forma ss/mm/h/gg/m/a abbiamo formato una stringa numerica che avanza inesorabilmente e non sarà mai più uguale a se stessa. Quindi se il concetto di scorrere del tempo è portato all’estremo nessuna formulazione che ha esso come parametro può essere vera in assoluto, e quindi rispecchiare la realtà perfettamente. La realtà sarebbe un in/finito susseguirsi di eventi elementari inconoscibili sia globalmente, cioè con una formulazione che comprime algoritmicamente, sia atomicamente. Quest’ultimo problema è suggerito dal tipo di sistema numerico che è utilizzato per definire i singoli istanti di tempo. Generalmente è usato il campo dei numeri Reali, cioè quei numeri che possono essere costituiti da una parte frazionaria infinita sia periodica che non. Tale struttura fa si che presi comunque due reali quanto si voglia vicini, esisterà sempre un numero contenuto tra questi ultimi. Si potrebbe dire che oltre ad una estensione che va dall’infinito negativo, all’infinito positivo, si ha una sorta di profondità sperimentabile, almeno concettualmente, ogni qual volta si scelgono due reali a piacere. Tale idea è isomorfa esattamente all’assioma geometrico che descrive la densità di punti presenti su una retta. Il concetto di “densità di numeri” è dimostrato dal processo di diagonalizzazione di Cantor. Tale procedimento è utile per sviscerare molti problemi anche non interamente matematici, difatti Roger Penrose lo utilizza per discutere il problema dell’arresto delle maccine di Turing1. La diagonalizzazione è una maniera geniale per decretare una volta per tutte che ad esempio tra zero e uno esistono infiniti numeri reali e tale insieme numerico non è numerabile, cioè non è possibile avere una corrispondenza biunivoca con i numeri naturali. Brevemente egli fa questa supposizione:

prendiamo l’intervallo di numeri reali tra 0 e 1 non compresi gli estremi e per assurdo assumiamo che sia possibile numerare i numeri di questo intervallo attraverso una successione di n numeri naturali:


n1 : 0,487395742…

n2 : 0,237327329…

…………….

nx : 0,575749869…


Possiamo (niente lo vieta)  creare allora un numero decimale della stessa forma (0,xxxx…) che sia composto dalla prima cifra dello sviluppo decimale di n1 , dalla seconda cifra decimale di n2, e così via seguendo la diagonale. Tale numero potrebbe essere compreso nell’elenco e potrebbe essere proprio l’ nx+1-esimo. Se però aggiungiamo una unità alla prima cifra, una alla seconda cifra dello sviluppo e così una alla n-sima cifra,  siamo sicuri che tale numero non esiste nell’elenco perché differirà dal primo di uno nella prima cifra, dal secondo di uno nella seconda, di uno nella terza e di uno nella n-esima cifra dello sviluppo. Prescindendo dalle accese discussioni che tale metodo ha suscitato nelle varie correnti del pensiero matematico (costruttivisti, platonisti, finitisti), esso è un esempio geniale di dimostrazione per assurdo di tipo costruttivo.  Quindi non è possibile contare i numeri reali, non è possibile in realtà rappresentarli né sulla carta né nelle memorie dei computer. Difatti questi ultimi possono solo simulare il loro comportamento, utilizzando comunque numeri razionali con sviluppo finito essendo le memorie di dimensione finita. Nemmeno i computer quindi possono fare conoscenza diretta dei Reali, essi utilizzano la cosiddetta rappresentazione floating-point che attraverso questa virgola fluttuante dà l’impressione che l’asse dei numeri rappresentabili sia uniforme. In realtà esso è disuniforme e contiene infiniti buchi tanto grandi quanto poca è la precisione e la quantità di memoria disponibile a rappresentare ogni numero.

Il tempo, se fatto corrispondere all’asse dei numeri reali porta con se inesorabilmente tali paradossi, come del resto fa ogni isomorfismo quando è applicato. In ultima analisi l’Universo è diverso a se stesso e anche se ogni istante è divisibile quanto si voglia serve una quantità di informazione infinita per descriverlo. Una quantità di informazione infinita non è comprimibile algoritmicamente. Questo è il paradosso che l’isomorfismo numerico genera, eppure, il nostro cervello una certa compressione delle informazioni non esita ad attuarla. Sia essa dovuta alla sua struttura con le centinaia di miliardi di miliardi di sinapsi collegate le une alle altre con una densità variabile rispetto alla posizione, generando isole di sincronicità che gli specialisti etichettano come specifiche aree celebrali. Dalla precedente analisi si evince che c’è uno strano triangolo tra la compressione algoritmica operata dal cervello, l’isomorfismo matematico utilizzato per descrivere la realtà e la realtà stessa. In un senso gerarchico potremmo dire che la realtà soggiacente ai nostri sensi è percepita direttamente da questi ultimi e mediante elaborazioni complesse, ma molto veloci, del cervello affiorano alla coscienza sotto forma di risposte semi automatiche, come la mano sul fuoco, oppure una luce abbagliante che ci costringe a chiudere gli occhi. Ad un gradino più alto c’è la comprensione di un qualsiasi fenomeno. Comprensione però intesa come capacità di tramandare gli effetti di questo fenomeno, ovvero di utilizzare una fitta simbologia e un bagaglio di analogie che permettono, se non di ricrearlo almeno di comunicarlo. Difatti sapere che la luce sia un onda elettromagnetica descritta matematicamente e classicamente tramite l’aiuto di un iperspazio complesso (attraverso l’utilizzo dei numeri complessi) non serve per farci serrare le palpebre se un faro ci acceca, difatti il cervello assolutamente non elabora equazioni eppure nella maggioranza dei casi risponde logicamente agli eventi dell’ambiente esterno.



[1] Penrose. R., La mente nuova dell'imperatore, La mente i computer e le leggi della fisica, R$izzoli, 2000 (The Emperor's New Mind, 1989)

Ultimo aggiornamento Venerdì 19 Ottobre 2012 19:03

Atto definitorio, un capriccio formale?

E-mail Stampa PDF

Inizia da http://www.sublimina.it/metamatica/111-logica-e-tempo-un-possibile-problema.html

 

Ora cercherò di contestualizzare un tale paradosso e mostrare che il considerare un piano, che abbiamo definito t=cost, potrebbe non essere solo un capriccio formale.

Vediamo nel concreto quale è stato il problema che mise in crisi tutta una schiera di pensatori come Frege (1848-1925), o B. Russell (1872-1970).

Considerando gli insiemi, che in prima approssimazione possiamo pensarli come una collezione (classe) di oggetti possiamo, almeno preliminarmente, nonché intuitivamente divisi in due categorie: gli insiemi che non sono elementi di se stessi e gli insiemi che lo sono. Ad esempio, l’insieme dei numeri interi non è un numero intero, oppure quello delle donne francesi non è una donna francese. Sicché l’insieme dei numeri interi oppure l’insieme delle donne francesi non sono elementi di se stessi. Mentre, ad esempio l’insieme dei pensieri astratti è esso stesso un pensiero astratto. Da questo si evince che per stabilire l’appartenenza ad una di queste categorie bisogna comprendere se l’insieme possiede la sua proprietà definitoria. Negli esempi precedenti intendo: la proprietà di essere un numero intero o di essere una donna francese, rispettivamente. Quindi possiamo domandarci se l’insieme degli insiemi che non sono elementi di se stesso –diciamolo R- sia un elemento di se stesso.

Non può appartenere ad R [un tale insieme] altrimenti non sarebbe insieme di se stesso. Ma poiché non appartiene a se stesso deve appartenere all’insieme degli insiemi che non appartengono a se stessi, cioè a R. Si conclude che R (allo stesso tempo) appartiene a se stesso e non appartiene a se stesso. Si giunge ad una contraddizione.

Per inciso si nota che anche l’insieme degli insiemi che sono elementi di se stesso ha qualche problema fondazionale, anche se di natura differente: se appartiene a se stesso dipende da se appartiene a se stesso. Iniziamo col notare che anche qui si presenta un problema di regressus ad infinitum dove per definire un insieme bisogna porsi, ad infinitum, la stessa domanda.

Da questa contraddizione diventa problematica la definizione di insieme, potrebbe inoltre, indurre a respingere il principio secondo cui ogni predicato determina un insieme: un insieme F consiste di quelle cose di cui “F” può essere predicato. Russell, che formulò al principio il paradosso in termini di predicati e non di insiemi, si cimentò per parecchi anni nella soluzione, al fine di rinforzare le fragili fondamenta dell’edificio della matematica. Così dovette pensare ad una complicata teoria dei tipi, per evitare tali imbarazzanti intoppi. Anche Ernest Zermelo, sembra che abbia incontrato questa contraddizione e fu costretto ad elaborare insieme ad altri pensatori una nuova teoria assiomatica basata sulla “gerarchia cumulativa” o meglio “concezione iterativa”  degli insiemi.

Se pensiamo ad un individuo che sia un qualcosa che non sia un insieme possiamo pensare ad uno stadio Zero costituito da tutti quegli insiemi che contengono solo individui, sottoinsiemi di questo insieme e l’insieme nullo. Per qualificarlo come elemento dello stadio Uno un elemento deve essere o un individuo o un insieme dello stadio Zero. Per lo stadio Due si ha che esso delinea tutti quegli elementi che sono individui o insiemi dello Stadio Uno1. Quindi sia che per lo stadio Uno che per lo stadio Due, vale che essi contengano il sottoinsieme “stadio n-1” e molti altri in più (gli individui n-1).

In definitiva, proseguendo con tale costruzione, si vede che non può esistere un insieme che appartenga a se stesso.

Questo appena descritto, è un esempio del fatto che molti paradossi nascono nel momento di approntare un atto definitorio. Per sviare alle contraddizioni in agguato, ci si è chiesto se nascono prima le proprietà definitorie di un insieme o l’insieme stesso (un po’ come quando ci si domanda se è nato prima l’uovo o prima la gallina).

Il domandarsi quando o dove a=a, dovrebbe estrinsecare questo tipo di problematiche legate all’atto definitorio. Come considerazione di base, sta di fatto che le missioni spaziali continueranno ad esserci, anche se la relazione di uguaglianza dovesse diventare in un particolare ambito alquanto problematica, ambito che di contro risulterebbe più generale di quello in cui il ragionamento razionale viene normalmente utilizzato, in quanto quest’ultimo vive in un universo logico piatto dove il nostro parametro base t rimane inesorabilmente costante.

Ma quale può essere la natura di un tale parametro? Esso potrebbe essere ad esempio un numero naturale oppure un numero reale. Nel primo caso si assisterebbe ad una serie di inferenze scalinate, dove irrimediabilmente a sarà differente da a. Se per contro dovessimo considerare t un parametro reale, potremmo chiedere aiuto a quei principi basilari dell’analisi differenziale per cui è possibile scegliere un ε piccolo a piacere che permette a t1 di avvicinarsi indefinitamente a t2.

Ma qui sorgono due considerazioni, se applichiamo la regola alla lettera per costruzione l’atto definitorio di un tale parametro ε incapperebbe nello stesso problema. Soprattutto se utilizziamo come etichetta parametrica i numeri naturali. Quindi una possibile soluzione dipende dalla possibilità di poter fare una escursione nell’universo con t=cost, per poter pensare un t2 vicino a t1 a meno di un ε piccolo a piacere. Per ora non si intende affrontale tale problema, bensì esplicitare la seconda considerazione, che per altro è legata a quest’ultimo intoppo.

Si potrebbe pensare di utilizzare sia i numeri reali che naturali insieme, i primi permetterebbero una tale escursione, mentre i secondi no. Ma, allo stesso modo, i primi la permetterebbero come caso limite   (quasi nel senso matematico del termine). La relazione di uguaglianza sopravvive solo in un universo logico piatto e immutabile, dove vige la regola dell’indefinita uguaglianza parametrica.

In definitiva un tale universo è un caso limite, locale, di un universo più generale, una Realtà generale dove una tale uguaglianza non è possibile. Un simile universo conterrà enti e processi-enti incodificabili in quanto non è possibile stabilire nessuna relazione tautologica tra di essi. In altre parole l’ Informazione contenuta in un tale universo è incomprimibile, è essa stessa auto evidente nella propria totalità.

Ultimo aggiornamento Mercoledì 11 Gennaio 2012 10:10

Logica e Tempo, un possibile problema

E-mail Stampa PDF

Sveglia alarm

Da qualche tempo, nella mia mente vengono in essere delle considerazioni sui fondamenti della logica da cui emergono delle contraddizioni. La logica come del resto la matematica, sono discipline su cui l’uomo si è cimentato da molti secoli. Già nelle fasi primordiali del pensiero filosofico si è utilizzato il ragionamento formalizzato per descrivere e/o prevedere i fenomeni appartenenti sia al mondo reale sia a quello metafisico. In Platone e in Aristotele ritroviamo i primi sforzi per formalizzare un ragionamento razionale, basato sull’analisi sintattica delle affermazioni di una teoria e con questa si è resa possibile una metodologia per stabilire l’affidabilità in termini di verità o falsità di un qualsivoglia ragionamento. Sicché la “teoria del ragionamento” è diventata una teoria a se stante basata su schemi semplici e rigidi. Gli sforzi si sono concentrati nella formalizzazione stessa del ragionamento basata su regole universali, comunemente accettate, note come regole di inferenza. Esse operano “prima” che l’inferenza assuma un qualche significato, sono libere dal contesto semantico: hanno una loro verità sintattica a prescindere dal carattere contenutistico delle proposizioni. Sono note le regole del condizionale materiale come schema deduttivo per un qualsivoglia ragionamento, del modus ponens o modus tollens i quali offrono la possibilità di selezionare asserzioni vere partendo da altre asserzioni vere appartenenti ad uno stesso piano sintattico, quindi non per forza le une più generali delle altre.

Tra le regole della logica proposizionale ritroviamo, ad esempio, la possibilità di stabilire quando una proposizione a è uguale a se stessa, semplicemente stabilendo una relazione (formalizzata dal simbolo di uguaglianza “=”) tra l’ elemento “a” e se stesso: in simboli è possibile stabilire che a = a. B. Russel con la sua pungente capacità di analisi è riuscito a scovare ambiti in cui si possono avere delle auto contraddizioni e cioè affermare nello stesso tempo che a è uguale ad a ed è diverso da a. La sua formulazione esatta è differente da quella qui presentata, ma in questo frangente interessa il senso dei risultati ottenuti. In definitiva nel secolo scorso si è assistito ad una proliferazione di paradossi e auto contraddizioni nei procedimenti formalizzati del ragionamento che sono culminati con i lavori di Goedel sull’incompletezza del sistema aritmetico.

L’intera matematica si basa sulla possibilità di poter stabilire una relazione di uguaglianza tra coppie di elementi, relazione accompagnata da una proprietà autoriflessiva che permette di stabilire una volta per tutte che 1=1, 2=2, etc. Tutto ciò sembra piuttosto intuitivo ed esente da contraddizioni, in quanto l’intero sviluppo tecnologico, ovvero la costruzione di cose che funzionano,  comprese le teorie fisiche, è basato su un tale tipo di relazione. Proprio le teorie fisiche ci hanno insegnato a considerare quantità che sono uguali ad altre quantità, così da poterle porre in relazioni reciproche, formalizzandole in un linguaggio utile alla fisica stessa: le equazioni.   Partendo da quest’ultime possiamo scovare qualche problemino nella logica, anche se con tale articolo non si intende attentare ai fondamenti di questa disciplina. Le equazioni della fisica classica e non, ci hanno abituato a considerare quantità che dipendono dal tempo. Ovvero il tempo risulta una variabile indipendente (anche se nella relatività di A. Einstein, ciò non risulta per forza vero), da cui dipendono varie quantità legate da rapporti funzionali. L’intero edificio della fisica moderna si basa su tali presupposti. Invero è ormai noto che quando si considera una legge fisica, ad esempio contemplata nella cosiddetta fisica classica essa non è altro che una espressione proveniente da una compressione algoritmica operata su fenomeni sottostanti più complessi . Di fatto le leggi che governano il moto sono molto semplici, ma scaturiscono da “situazioni sperimentali” altrettanto semplici, volutamente ricreate per metterle alla prova. Se intendiamo studiare la caduta di un grave reale, le equazioni messe a disposizione da Galileo e Newton non funzionano bene in quanto il modello è altamente più complicato, talvolta connesso ad equazioni irrisolvibili. Da considerazioni di questo tipo e dai risultati ad esempio provenienti dalla fisica fondamentale, ad esempio la teoria dei quanti, si potrebbe dedurre che in una realtà più reale, l’universo non è mai identico a se stesso.

Possiamo pensare di definire una quantità astratta “universo” identificandola con U e dire che localmente al “nostro” sistema di riferimento sia U = U(t). In altre parole nel nostro universo, presa una qualsiasi configurazione di enti basilari, particelle o stati fisici, non ne esistono altre uguali. Per avere un esempio visivo, seppur astratto, a carattere puramente metaforico si pensi alla retta geometrica sulla quale ogni suo punto è in corrispondenza biunivoca con un numero reale ed ogni numero qualsivoglia vicino sarà sempre differente, seppur per un infinitesimo da quello considerato.

In un universo fisico quindi, dato un sistema di riferimento locale si ha uno sviluppo di dinamiche irripetibili e sempre differenti da se stesse. In tale universo fisico è nata una “particolare dinamica”, l’essere umano, che con la propria capacità di ragionamento razionale e sintetico è riuscito a formalizzare quest’ultimo e con la capacità di astrazione acquisita ha affinato metodi per pensare quantità immutabili, al di fuori del tempo.

A parte, incongruenze inerenti alle stesse regole di formazione delle inferenze, il tutto sembra funzionare alquanto bene, e ad oggi possiamo affermare di possedere una solida e affermata teoria sfruttabile in tutti i campi della conoscenza. Ma se, sempre sfruttando la capacità astrazionale acquisita, volessimo pensare ad una Logica, le cui quantità in gioco siano quantità dipendenti dal tempo? In altre parole se dipanassimo l’intero edificio logico su un piano trasversale rispetto al divenire temporale, quindi con regole di inferenza valide anche per piani differenti da quello t= costante?

Possiamo immaginare che qualsiasi elemento formale che entra in gioco nel meccanismo proposizionale, siano esse proposizioni o proposizioni su proposizioni dipendano imprescindibilmente dal tempo. Sicché per una proposizione vale a = a(t), proprio come l’universo U sia un universo la cui configurazione dipenda dal tempo: U=U(t).

Che possiamo dire quando vogliamo asserire banalmente che a=a?

Su un piano trasversale, ovvero non su t=costante, una tale affermazione sarebbe legata quindi al divenire temporale, e l’istante in cui asseriamo “a”, avremmo a(t1). Se volessimo metterlo in relazione con se stesso, nell’atto di farlo avremo un a(t2) e potremmo quindi asserire che a(t1)=a(t2).

Banalmente quando è che vale tale relazione? Quando t1=t2. Ma per costruzione ciò non può essere poiché in generale dovrebbe valere che t1(tx)=t2(tx). Ma sempre per costruzione sappiamo questo impossibile. Secondo un tale schema si incorre in un regressus ad infinitum in cui non è più possibile stabilire una relazione di uguaglianza tra due elementi, anche se con uno sforzo astrazionale, si può ripiegare il piano delle regole logiche fino a renderlo parallelo a quello da noi identificato con t=cost.

Come muterebbe il nostro edificio inferenziale se non avessimo la possibilità di asserire che a=a? Si badi bene che utilizzando le premesse sopra indicate a=a è inutilizzabile in qualsiasi contesto, e non solo quando si ha a che fare con elementi o meglio insiemi di elementi che sono elementi di se stessi, incappando nel pericoloso mondo delle asserzioni autoreferenziali. A questo punto della mia analisi su tali argomentazioni, non sono a conoscenza della portata distruttiva di una tale idea, ma intravedo una impossibilità basilare per la formulazione di una qualsiasi teoria che abbia carattere tautologico.

Continua in http://www.sublimina.it/metamatica/112-atto-definitorio-un-capriccio-formale.html

Ultimo aggiornamento Sabato 10 Settembre 2016 00:36

I paradossi e l'autoreferenzialità

E-mail Stampa PDF

Non deve sorprenedere che il nostro linguaggio sia incapace di descrivere i processi che hanno luogo all'interno degli atomi, perché è stato inventato per descrivere le esperienze della vita d'ogni giorno le quali consistono soltanto di processi che coinvolgono un numero estremamente grande di atomi.

Werner Heisemberg, I principi fisici della teoria dei quanti

paradosso triangolo di penrose Secondo il filosofo Mark Sainsbury (1943)  un paradosso è "una conclusione apparentemente inaccettabile, che deriva da premesse apparentemente accettabili, per mezzo di un ragionamento apparentemente accettabile" (paradoxes, p1). Sono comunque molte le definizioni di paradosso e molti i filosofi e pensatori in genere che si sono cimentati nello stabilire un possibile modello a cui ricondurli. In ogni caso etimologicamente il termine paradosso deriva dal greco paradoxa e significa contro (para) l'opinione comune o la credenza (doxa).

Anche se alcuni logici puristi non accettano tutto ciò che la consuetudine indica come paradosso, ne esistono moltissimi e possono essere ricondotti ad alcune categorie. Ad esempio il paradosso del Mentitore conosciuto anche come paradosso di Epimenide è un paradosso di tipo semantico, mentre quelli di Cantor e Russell sono di tipo insiemistico. Entrambe comunque producono una contraddizione in termini da cui non è possibile uscire, a meno che non si ricorra al pensiero laterale, metodologia che dovrebbe risolvere questo tipo di antinomie "uscendo dal sistema, e rientrandoci in un secondo momento". Nella nostra discussione non si farà uso di questi metodi intuitivi per altro non sempre accettati da coloro che si occupano di queste problematiche.

Ad esempio un classico paradosso, molto semplice da comprendere è proprio Il paradosso del Mentitore fatto risalire al filosofo Epimenide di Creta. Questo ci fa riflettere su fatto che tali problemi del pensiero affliggevano di già i nostri antichi antenati. Originariamente pare fosse formulato come:

 

Tutti i cretesi mentono sempre.

 

e tale frase è pronunciata proprio da un cretese, ad esempio Epimenide...

 

Affermare: "Sto mentendo" significa in parte produrre una asserzione falsa. Ciò avviene se vi è un uso autoreferenziale della frase ovvero se si riferisce a se stessa. In altre parole è sottintesa una componente indicale nella frase in questione.

Un chiaro esempio noto come "Il mentitore standard" è il seguente [1]:

 

(1)       (1) è falso.

 

L'interpretazione consiste nel numerare la proposizione e utilizzare tale etichetta per indicarla come oggetto del predicato. Ora si può ragionare per casi e notare che un enunciato del genere è problematico:

 

a)      Immaginiamo che sia vero: se cosi è tutto sommato le cose stanno come dice, allora è falso;

b)      immaginiamo ora che sia falso: è proprio ciò che dice di essere, allora è vero.

 

La problematicità sorge se si accetta il principio aristotelico di bivalenza e cioè che un enunciato o è vero o è falso. (1) è vero e falso assieme.

Una modifica, nota come "Il mentitore rinforzato" recita: " Questa asserzione non è vera" o seguendo lo schema precedente:

 

(2)       (2) non è vero.

 

Questa modifica sembra mettere a riposo qualsiasi soluzione ingenua del paradosso del mentitore. Di fatto uno dei maggiori logici del nostro tempo, Saul Kripke (1940), ha tentato di risolvere il mentitore standard (la (1)) rinunciando al principio di bivalenza e ammettendo che alcuni enunciati possano non essere  veri e né falsi. (1) è vero se falso, e falso se vero, ma la contraddizione è risolta ammettendo che questi due casi non si verificano. Il mentitore rinforzato ((2)) è problematico pur seguendo la ricetta di Kripke, rinunciando cioè al principio di bivalenza.

Nel mentitore standard col principio di bivalenza gli enunciati sono suddivisi in due gruppi, quelli veri e quelli falsi e questi rappresentano i casi per improntare il ragionamento. Non accettando il principio di bivalenza si aggiunge un terzo caso: enunciati né veri né falsi. Utilizziamo quindi i tre casi per studiare il comportamento del mentitore rinforzato:

 

a)      se (2) è vero tutto sommato se le cose sono come dice non è vero;

b)      se (2) è falso allora ci dice in fondo che è vero;

c)      se (2) non è vero né falso allora dice una cosa non vera, ma questo è proprio ciò che dice di essere, tutto sommato (2) è vero.

 

(2) sembra essere vera e non vera, quindi contraddizione.

In definitiva questa versione del paradosso nota anche come "mentitore della vendetta" vendica chiunque tenti di allontanare l'elemento paradossale in questa famiglia di enunciati.

 

Ciò che accomuna questa tipologia di paradossi, che con l'aiuto del Logico Kurt Godel (1906 - 1978) hanno generato insormontabili problemi anche nel cuore della matematica, è l'autoreferenzialità. Essa è ben riconoscibile nei paradossi di tipo insiemistico ed la sua "scoperta" è ricondotta a Bertrand Russell (1872 - 1970).

Una formulazione complementare al paradosso del Mentitore, quindi, è il cosiddetto paradosso di Russell , nel qual viene messa a nudo l'autoreferenzialità utilizzando il linguaggio della teoria degli insiemi. Di fatto l'autoreferenzialità compare in quegli insiemi che hanno essi stessi come sottoinsieme: l'insieme delle cose astratte è una cosa astratta mentre l'insieme delle forchette non è esso stesso una forchetta, allo stesso modo l'insieme degli insiemi è esso stesso un insieme. Il paradosso è formulato in modo apparentemente criptico nella seguente maniera:

L'insieme degli insiemi che non sono elementi di se stesso (chiamato R) è elemento di se stesso?

Un altro modo per aggirare la contraddizione derivante dall'autoreferenzialità in riferimento anche al paradosso del mentitore è quella più accettata dai logici che si basa sulla definizione di "verità" per i linguaggi formalizzati ad opera del logico Alfred Tarsky (1902 - 1983). Anche se Tarsky aveva pensato questi metodi per il linguaggi strettamente formalizzati, ritenendo i linguaggi naturali contraddittori, si è ritenuto necessario applicarli anche a quest'ultimi. In tal maniera si è pensata una gerarchia di livelli: al livello più basso non ci sono enunciati che contengono il predicato "vero", o termini correlati. Al livello 1 "vero" si può applicare ad enunciati di livello 0, ma non ad enunciati dello stesso livello 1. Ad ogni livello successivo vi è un solo predicato di verità, che si può solo applicare ad enunciati di livello più basso. Questa apparente complicazione permette di separare i vari livelli non permettendo l'autoreferenzialità (nel seguito si dirà di più in merito a ciò).

In ogni caso anche questo metodo può presentare dei problemi, uno è il fatto che non è ammissibile un enunciato del tipo: "ogni asserzione è vera o falsa", poiché si sta impropriamente definendo ciò che può essere detto attraverso una infinità di enunciati differenti, uno per ogni livello. Vi sono anche altre problematiche intorno questa soluzione, e modi per aggirarle, si rimanda alla vasta letteratura in materia.

Torniamo a Russell e domandiamoci se : l'insieme degli insiemi che non sono elementi di se stesso (chiamato R) è elemento di se stesso?

Come per il mentitore, se si analizza questa asserzione si giunge ad una contraddizione. Un tentativo per superare questo problema, simile alla soluzione di Tarsky, portò Bertrand Russell (1872 - 1970) alla formulazione della "Teoria dei Tipi", proprio perche tale paradosso essendo inerente alla teoria degli insiemi minacciava i fondamenti della matematica e del pensiero razionale.

Lo stesso Russell, che non apparteneva a quella categoria che riteneva che tali paradossi fossero giochi di parole, nei propri studi sulla teoria degli insiemi e sui problemi che nella cosiddetta "formulazione ingenua" sembravano irrisolvibili, aveva l'impressione che il concetto di insieme seppur primitivo era altamente "ideale". In altre parole non riusciva ad avere una corrispondenza con la realtà fisica. Egli iniziò a pensare che in realtà gli insiemi non sono entità nette, bensì sfumate e che l'appartenenza di un elemento ad un insieme possa non essere espressa con un "sì" o un "no", uno "0" o un "1" aristotelici, bensì con una specifica funzione che ne stabilisca il grado di appartenenza. In alte parole l'elemento "a " appartiene all'insieme A con un grado di verità del 30% e non appartiene all'insieme A con un grado di verità del 70%.

Molti Logici si sono cimentati nel pensare una teoria degli insiemi dove i confini tra quest'ultimi non sono definiti, bensì sfumati. Colui che ha portato alla ribalta una tale concezione con un vigore tale che il suo pensiero è ora applicato anche in ambito tecnologico è Lotfi Zadeth. Egli insieme ad altri battezzò un nuovo tipo di logica: la Logica Fuzzy. Questa logica ha la caratteristica di non accettare il principio di bivalenza ammettendo che un enunciato possa essere vero con un certo grado.

In un tale quadro, l'annoso problema filosofico del bicchiere mezzo pieno o mezzo vuoto è banalemente risolto ammettendo che il bicchiere è pieno con un grado di verità del 50% e allo stesso modo è vuoto con un grado di verità del 50%. In sintesi tra "vero" e "falso" che sono gli estremi aristotelici su cui si basa la logica classica esiste in realtà una gradazione continua. Questo fatto apre una serie sterminata di possibilità logiche, non ammissibili con due soli valori di verità.

Bart Kosko, allievo di Lotfi Zadeth, in un suo saggio "Il Fuzzy Pensiero" [2] esprime con vigore la validità della Logica Fuzzy, e propone una interpretazione del paradosso del mentitore all'interno di questa logica. La posizione fuzzy sta nel pensare i paradossi di autoriferimento come mezze verità o in altre parole come contraddizioni fuzzy. Immaginando un segmento ai cui estremi vi è "vero" = "1" o "falso" = "0" e tutta una serie di valori continui all'interno, i paradossi autoreferenziali hanno come grado di verità il punto medio di tale segmento. La polivalenza semplicemente contempla un tale caso poiché nel mondo fuzzy esistono anche mezze verità...

I paradossi autoreferenziali, hanno avuto, nella matematica del Novecento dello scorso secolo una grande importanza e si sono dimostrati non solo meri giochi di parole. Essi hanno aiutato la logica a comprendere il significato di "verità" in merito ai linguaggi naturali e formalizzati. Sullo sfondo del "problema dei fondamenti" suggerito dal Matematico David Hilbert (1842 - 1963) alla conferenza dal titolo "I Problemi della Matematica" presentata nel corso del Secondo Congresso Internazionale di Matematica tenutosi a Parigi nel 1900, i paradossi autoreferenziali hanno minato le basi della matematica stessa. Come accennato in precedenza il Logico Kurt Godel, trovò con un celebre articolo [3] una crepa all'interno della formalizzazione dell'aritmetica tramite la logica ad opera di Bertrand Russell e  Alfred North Whitehead (1861 - 1947). L'opera dei due logici a sostegno della solidità della matematica fin dalle sue fondamenta è nota come Principia Mathematica pubblicata nel 1913. Godel in maniera ineccepibile nonché strettamente formale non fa altro che notare l'insorgere di paradossi autoreferenziali, nei sistemi formali potenti come l'aritmetica. Egli dimostra che in un sistema sufficientemente potente vi possono essere degli enunciati la cui verità o falsità non è dimostrabile all'interno del sistema, ma serve un metasistema per poterlo fare. Tale metasistema è il sistema in questione più l'enunciatro incriminato preso nientedimeno che come assioma. Quanto detto è solo un assaggio della "sinfonia Godeliana" sul tema della matematica e dei sistemi formali, ma serve per focalizzare l'attenzione su un concetto su cui molti logici hanno lavorato, da cui dipende la validità della verità di un enunciato: la semantica. Di fatto Il Paradosso del mentitore, definito inizialmente come paradosso semantico ha permesso di comprendere il perché compaiono tali problemi specialmente nel linguaggio naturale. Tarski e altri hanno incolpato il linguaggio naturale e nello specifico il fatto che esso sia semanticamente chiuso. In maniera intuitiva significa che lingue naturali come l'italiano, l'inglese o il francese sono lingue sufficientemente potenti da poter parlare anche della propria semantica e cioè dei significaqti delle espressioni degli stessi linguaggi. A detta del filosofo americano Richard Kirkham (1955) "un linguaggio semanticamente chiuso è uno che contiene predicati semantici come "vero", "falso" e "soddisfa" che possono essere applicati ad enunciati dello stesso linguaggio"[4]. Qundi i paradossi autoreferenziali possono insorgere quando vi è una confusione tra linguaggio oggetto e metalinguaggio. Uno sforzo in tale direzione è la soluzione di Tarski al paradosso, precedentemente suggerita. La logica ha imparato bene la lezione e fa una netta distinzione tra il linguaggio oggetto e quello utilizzato per parlare, per la precisione di stabilirne verità o falsità, che è il metalinguaggio. In tal maniera si ingenera una gerarchia di linguaggi ogni uno capace di dire qualcosa di semantico su linguaggio sottostante ma non viceversa. In definitiva secondo Tarski la nozione di verità per un linguaggio non deve essere esprimibile o definibile entro quello stesso linguaggio (Tarski esprime questo con un celebre teorema). Utilizzando una immagine dello studioso scienziato cognitivista Douglas Hofstadter (1945), avvolte un sistema formale può essere sufficientemente potente che può ripiegarsi su se stesso e tentare di dire cose che lo mettono in seria difficoltà come se direzioniamo una cinepresa verso lo schermo a cui è connessa: si ingenera un loop infinito che manda l'intero sistema in tilt [5]. Ora termino qui, ma vi assicuro che il ragionamento sui paradossi e sulle loro stravaganti conseguenze è appena iniziato.

 


[1] Berto F., Tutti pazzi per Godel!, La Terza, Roma 2008.

[2] Kosko B., Il fuzzy pensiero, Balai e Castroldi, Milano 2010, Tit. Or. "Fuzzy Thinging: The New Science of Fuzzy Logic" Hyperion, 1993.

[3] Gödel:K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, I. Monatshefte für Mathematik und Physik, 38 (1931), pp. 173-198. Translated in van Heijenoort: From Frege to Gödel. Harvard University Press, 1971

[4] Kirkham, Richard L. Theories of Truth: A Critical Introduction. Cambridge, MA: The MIT Press, 1992, cit. in Berto 2008.

[5] Hofstadter D., Anelli nell'Io, Mondadori, 2007

Ultimo aggiornamento Mercoledì 24 Agosto 2011 14:56

Aristotele e l' "uguale tra i diversi"

E-mail Stampa PDF

AristoteleUna lezione universitaria non standard, tenutasi durante una manifestazione qualche tempo fa, mi ha fornito un impulso a continuare lo studio della filosofia ed in particolare, ad approfondire, alcune sue tematiche fondamentali, nonché basilari, come il pensiero aristotelico. Ecco, sembra che la nascita del pensiero occidentale sia dovuta proprio a questa immensa tradizione le cui idee trafiggono la storia e giungono fino a noi ancora lucide e brillanti. In verità, qualcuno recrimina al sommo filosofo di aver rallentato lo sviluppo del pensiero in questa parte di mondo, con leggi del pensiero troppo stringenti (es. il principio di contraddizione) lasciandoci indietro rispetto alle filosofie orientali (vedi Fritjof Capra “Il Tao della Fisica” oppure Bart Kosko “Il fuzzy Pensiero”). Perché avvicinarsi a saggiare nozioni tanto astruse come quella di ente, essere, essenza, epistemologia, ermeneutica? Già il suono di queste oscure parole potrebbe incutere paura, purtroppo per l’uomo della strada accade ciò, rispondendo con distacco, menefreghismo. Invece

Ultimo aggiornamento Mercoledì 20 Luglio 2011 07:48

Pagina 1 di 2

  • «
  •  Inizio 
  •  Prec. 
  •  1 
  •  2 
  •  Succ. 
  •  Fine 
  • »

Hanno detto..

Rss

Ciao!

Metamatica Metamatica
You are here: Metamatica