sublimina.it

  • Full Screen
  • Wide Screen
  • Narrow Screen
  • Increase font size
  • Default font size
  • Decrease font size

omino_logo_sublomina


La Conoscenza è come una linea, dove sono i confini non ci è dato di saperlo.

Sublimina.it è un viaggio personale nel mondo del pensiero umano. Per raggiungere ogni meta c'è una via ed ogni via ha un ingresso. Questa è la mia porta personale, l'ho appena aperta. Ognuno ha la sua porta, qualche volta si ha bisogno, però, di intravedere cosa c'è al di là della porta altrui per mirare l'altrove che sta dietro la propria.

 Ispirato da: Franz Kafka, Il processo (1925)



Confronto tra il volume di una ipersfera e il volume di un ipercubo

E-mail Stampa PDF

Oggi, andremo ad analizzare un problema apparentemente banale: il confronto tra il volume di una ipersfera di raggio unitario e dell' ipercubo che la circoscrive di lato pari al diametro dell' ipersfera, al crescere della dimenzione dello spazio che li accoglie.

Come vedremo questo problema ritorna nei problemi di Pattern Recognition e Data Science.

In generale, poniamo come il raggio dell'ipersfera e come 2* il lato dell'ipercubo. Detta la variabile che descrive la dimensione dello spazio, con un pizzico di astrazione possiamo affermare che: un quadrato è un ipercubo di dimensione =2 e la circonferenza inscritta è una ipersfera di dimensione medesima.

Quadrato_circoscritto_circonferenza

Figura 1


Definiamo adesso   il luogo dei punti tale che la norma dell ennupla -dimensionale    è minore del raggio al quadrato. Definiamo invece come  il luogo dei punti che descrive l'ipercubo in  dimensioni.

Se calcoliamo i due volumi come funzione della dimensione vediamo un comportamento a tutta prima strano anche se effettivamente intuitivo: come mostra il grafico in basso (Figura 2) che confronta il volume di una ipersfera e il volume di un ipercubo, quest'ultimo diverge verso l'infinito positivo, mentre il primo (volume ipersfera) ha un massimo per =5 dimensioni (5.264) e poi diminuisce fino a tendere al valore 0.

Il volume dell'ipercubo può essere scritto come:


mentre il volume dell'ipersfera risulta pari a:

,

dove  è la funzione gamma definita come:

.

Hypersphere volume

Fugura 2

Per comprendere quato comportamento basta osservare la Figura 1. Il volume dell'ipercubo cresce esponenzialmente con il crescere della dimensione dello spazio. Se consideriamo l'area un "volume", la circonferenza inscritta nel quadrato ha una superficie minore in quanto la loro differenza consiste proprio nelle parti colorate in rosso. Aumentando il numero di dimensioni le parti in rosso aumentano fino ad occupare la maggior parte del volume, mentre il volume dell'ipersfera tende a concentrarsi verso il centro e a diventare nullo.

Tutto molto interessante fin qui. Che implicazioni può avere tutto questo?

Consideriamo le tecniche di Data Science dove i dati descritti da caratteristiche multiple (features) sono rapperesentati come oggetti che giacciono in uno spazio multidimensionale. Immaginiamo ora di generare attraverso un generatore pseudocasuale una serie di oggetti all'interno della nostra ipersfera. Aumentando le dimensioni la probabilità di generare un oggetto (punto descritto da tante coordinate quante sono le dimensioni) all'interno della ipersfera diventa nulla, mentre aumenta la probabiltà che il nostro oggetto cada nella zona "differenza" tra i due volumi (la parte rossa). Questo fenomeno è noto nella disciplina del Pattern Recognition e in generale del Machine Learning come "course of dimensionality" (corsa della dimensionalità).

Ultimo aggiornamento Lunedì 15 Febbraio 2016 15:10

Divagazioni sulla mente e sull'Universo

E-mail Stampa PDF

E poi c’è la questione ulteriore di quale sia la relazione tra pensiero e realtà.

Come una scrupolosa attenzione dimostra, il pensiero stesso è in un vero e proprio processo di movimento.

David Bohm



L'universo nella menteImmaginare l'Universo sconfinato  grazie alla propria mente è un fatto assai stupefacente. Alle volte mi chiedo quanti universi ci sono, tutti adorni, per essere mirati.

Non mi riferisco, però alla moderna teoria fisica del “multiverso” e le sue declinazioni, secondo la quale il "nostro" Universo è uno di tanti possibili universi (paralleli) posti di fianco uno all'altro, vibranti a frequenze differenti e per questo, quasi completamente separati e a tenuta stagna. Mi riferisco bensì all'Universo come proiezione del tutto che una mente con facoltà intellettive apprezzabili riesce a concepire. Tante menti quanti universi, e viceversa. Potrebbe essere un buon punto di vista, oltretutto accettabile in quanto l'Universo così come ognuno di noi lo conosce ha bisogno di un osservatore per conoscerlo (non mi inoltrerò nei meandri concettuali del “principio antropico”…). Tanti universi, tanti specchi, ognuno capace di riflettere secondo un particolare coefficiente di riflessione. Tanti universi ognuno distorto dallo specchio in maniera particolare, unica. Eppure normalmente, a parte la recente teoria del multiverso, come si diceva, l'Universo, è uno, fisso, immobile, almeno come un'idea totalizzante.

La congettura: tante menti quanti universi, a mio modesto parere può valere anche per i fisici e i cosmologi in qualità di accademici o studiosi in genere. Per quanto ci sia un’ idea di Universo che va per la maggiore, ognuno ne possiede uno personale, a cui vi tiene fede, la cui stessa idea è difficile abbandonare. A questo punto i misteri dell'Universo senza fine si mescolano con i misteri della mente senza fine generata dai nostri cervelli biologici in azione. Mente come cervello biologico in azione. La maggior parte degli esseri umani alfabetizzati ha un idea di Universo che ha a che fare con uno spazio spropositatamente grande che ospita stelle, pianeti, galassie e altri oggetti misteriosi oltre che noi stessi abitanti del pianeta terra. I più curiosi potrebbero aver approfondito con articoli di giornale, con documentari o con libri divulgativi la natura dell'Universo. Pochi, rispetto a tutto il resto, hanno proseguito gli studi universitari con discipline che in parte o del tutto tentano di spiegare la natura dell'Universo secondo il metodo scientifico. Poi, per l’appunto, ci sono i libri, le riviste specializzate, gli articoli divulgativi e i saggi che presentano alle nostre menti una serie di modelli dell'Universo. I testi più specialistici partono dalla soluzione delle equazioni tensoriali di Einstein, quindi dalla Relatività Generale, per calcolare possibili modelli di Universo dalla forma spazio-temporale appropriata, date, come note, le condizioni iniziali. Libri e articoli di tipologia divulgativa riprendono tali idee, distillandone le più semplici e introducendole con generose metafore per far breccia su ciò che ci è familiare. Il fine è comunicare un contenuto di conoscenza e massimizzarne la comprensione da parte delle nostre menti. Ora pongo nuovamente la domanda: un solo Universo? E' noto che noi come esseri biologici, dall'inizio del nostro tempo, sperimentiamo il mondo circostante attraverso i nostri sensi che ricevono e filtrano una miriade di informazioni (sensoriali) che sono processate in varie zone del nostro cervello, al fine, almeno secondo la corrente teoria dell’evoluzione, di preservare la nostra specie.

La comprensione dell'Universo che osserviamo passa per i sensi e le strutture nervose come strada obbligatoria? Immaginiamo una placida serata estiva. Siamo su una collina, lontano dal frastuono cittadino, col naso all'insù. Non ci sono nuvole e nemmeno la luna. Umidità quasi nulla. Ciò che scorgiamo è una meravigliosa volta costellata da un numero interminabile di astri e ammassi galattici più o meno densi e luminosi. Questo, più tutto il resto che ci circonda a distanze umane (l'albero lì proprio ad una decina di metri, la casa di fianco, la strada, i fili d'erba, le pietre, etc.), è l'Universo? Una parte, sicuramente. La nostra istruzione, sia essa scolastica che non, cablata nelle reti neurali del nostro cervello sottoforma di ciò che comunemente chiamiamo ricordi, ci dice che quello è l'Universo a noi visibile, ma sappiamo che esso è molto, molto più grande, forse infinito. Ecco, quello è l'Universo a noi visibile in quel momento, ed è proprio quello concepibile (sempre in quel momento). In realtà esiste anche un Universo visibile di natura differente, anche se semanticamente simile. E' l'Universo visibile di cui parlano gli ambienti accademici e gli studiosi, ovvero un'idea (valida) secondo la quale essendo, secondo la Teoria della Relatività, la velocità della luce finita ciò che osserviamo è tutto ciò che è ad una distanza tale per cui la luce ha avuto il "tempo" di giungere sino a noi. Un'altra maniera di vedere tale concetto fondamentale è che più lontano volgiamo lo sguardo, più siamo intenti ad osservare fenomeni astronomici passati. In ogni caso l'idea di Universo visibile è, in linea di principio, concepibile come una media di tutti i possibili universi visibili, ognuno per ogni osservatore. Limitandosi all'ambito accademico, ogni addetto ai lavori ha un'immagine mentale (e una rete neurale corrispondente) dell'Universo visibile come ha appreso sui libri di testo e durante le lezioni universitarie (cioè nelle comuni pratiche sociali di comunicazione della scienza). Quindi almeno in una cerchia ristretta di individui vi è un'idea abbastanza simile di Universo visibile.

E' noto che le più importanti scoperte sulla natura dell'Universo inteso come lo spazio astronomico che comprende, poi, anche il nostro pianeta e noi stessi, sono state possibili a seguito dell'invenzione del telescopio (e tanti altri strumenti), che ci ha premesso di osservare punti  debolmente luminosi dello spazio-tempo che, altrimenti, sarebbero rimasti ignoti. Ieri venivano utilizzati telescopi ottici, con raffinate lenti di vetro. Oggi si utilizzano strutture vaganti su orbite geostazionarie equipaggiate con sensori efficacissimi in grado di catturare tutto lo spettro della radiazione luminosa permettendoci non solo di raggiungere distanze da brivido, ma anche di ottenere istantanee dell'Universo visibile ad altissima risoluzione (un esempio è il telescopio Hubble, nome in onore del famoso astrofisico Edwin Hubble che per primo ha misurato la velocità di recessione delle galassie). In definitiva, oggi è possibile catturare un'infinità di dati provenienti dallo spazio, trasportati dalla radiazione elettromagnetica e non solo. Il telescopio (inteso in senso generalizzato come sensore efficacissimo per scrutare lo spazio-tempo e la materia che vi abita), o se vi piace il microscopio utile per scrutare il microcosmo, insieme a tanti altri strumenti di misura come il Large Hadron Collider (LHC) a Ginevra ideato per scovare esotiche particelle componenti la materia, non sono altro che estensioni dei nostri sensi. Con gli occhi, quella sera estiva che eravamo intenti a meravigliarci davanti alla possanza di una volta ricolma di stelle, potevamo captare una parte molto esigua dell'Universo visibile. Gli strumenti sofisticatissimi, invece, ci permettono di "osservare" una porzione più ampia di quest'Universo visibile, anche se la comunità degli studiosi è quasi in accordo che anche quella misurata dalla tecnologia astronomica sofisticata è solo una minuscola parte. Quindi, posta in questi termini la faccenda, è possibile concepire un continuum durante la nostra evoluzione dove, grazie alla simbiosi scienza-tecnologia e alla pratica comunicativa, è stato possibile ampliare la portata dei nostri sensi e di pari passo ampliare la nostra conoscenza (almeno quella parte che le menti sono in grado di comunicarsi e accordarsi). In ogni caso tali informazioni hanno un luogo finale ben preciso da raggiungere: le zone del nostro cervello dove vengono espletate le funzioni intellettive superiori e che ci differenziano dagli altri esseri viventi, ad esempio la neocorteccia. In realtà quando guardiamo il cielo stellato abbiamo sicuramente una istantanea "privata" della volta celeste-Universo. Quest' istantanea, se siamo abbastanza emozionati, la ricorderemo per tutta la vita, cioè sarà cablata nelle nostre strutture neurali come ricordo, e, nella speranza che sia riposta in quella che è nota dal punto di vista funzionale come memoria a lungo termine, sarà possibile rievocarne il contenuto a volontà. In più la stessa immagine possibilmente carica di sensazioni, quale svilimento di fronte all'immensità del cielo o meraviglia di fronte ad un tappeto di corpi celesti, andrà ad aggiungersi a quel database dove riponiamo le nostre idee di Universo assieme alle sensazioni provate, cosicché quando ci capita di essere contemplativi e di pensare alla vastità dell'Universo essa possa fornire le necessarie informazioni. Ogni cervello un Universo.

Certamente il cervello degli accademici sarà tarato verso modelli di Universo simili, ovvero possiederà un database simile da cui attingere le informazioni simili. Un punto essenziale è che, secondo il nostro ragionamento, non esiste un cervello esattamente identico ad un altro, e su questo la scienza concorda. Ciò che è simile è la struttura a grana grossa del nostro processore centrale biologico. Quindi possiamo immaginare una relazione unaria (uno-a-uno) tra cervello in azione (mente) e Universo concepibile. L'unicità della mente porta all'unicità dell'Universo. Un teorico della mente direbbe che il ragionamento che si è appena improntato è una istanza più o meno elaborata della risposta alla domanda posta dal filosofo della mente Thomas Nagel (1944) in un celebre articolo del 1974: che cosa si prova ad essere un pipistrello? Ovvero il ragionamento appena delineato si inserisce in un quadro solipsistico, in cui l'entità mente è unica e per di più vi è un livello profondo in cui, nell'interazione di due o più menti, vi sono enti non comunicabili. In un certo qual modo è proprio ciò che ritengo, ma l'incomunicabilità in questo caso deriva dall'unicità del simulacro-Universo che ognuno di noi possiede cablato nel proprio cervello, data l'unicità nella struttura fisiologica, a grana fine, del nostro cervello in azione. Come per altri concetti più semplici, e se volete più quotidiani, esistono “n” declinazioni quante ne sono le menti concepenti, ma esiste tuttavia un livello in cui tali concetti possono essere comunicati e compresi. Questi concetti, se ci facciamo caso, si riferiscono ad "oggetti" (in senso generalizzato) che hanno subito un processo di codifica e simbolizzazione. Un tale processo semiotico (comune alla pratica scientifica e non solo) permette alle menti di comunicare e capirsi, quindi consente ai cervelli di sincronizzare le proprie strutture neurali, così da memorizzarne i contenuti (simili). L'Universo visibile degli accademici è uno di questi simboli. Un oggetto opportunamente codificato che ha subito un processo di significazione vasto e preciso e che permette di mettere in accordo i cervelli in azione degli accademici e studiosi all'interno del dibatto scientifico.

A questo punto, pensando l'Universo al livello di simbolo che consente di sincronizzare cervelli, possiamo immaginare una relazione molti-a-uno secondo la quale “n” idee di Universo uniche e abbastanza simili quanti sono gli accademici, puntano verso un simbolo (l’Universo) che consente di dire: ecco è proprio quello di cui sto parlando e puoi essere certo che non sto parlando né di questo, né di quest'altro, né di quello, né di quell’altro ancora etc. etc. La concezione di Universo, a questo punto rilassando la nostra congettura, quindi sia esso a carattere solipsistico  (in prima persona) , sia condiviso (quindi descrivibile in terza persona)  non può non prescindere dal nostro cervello e ciò che ci sembra effettivamente così lontano e stupefacente, come le stelle più remote, i quasar, i buchi neri e i superammassi di galassie, non è poi così lontano; è da qualche parte cablato nelle strutture nervose del nostro corpo e questo è altrettanto stupefacente.

Chissà se quanto detto, almeno in parte, non vale anche per (il concetto di) Dio…

Ultimo aggiornamento Sabato 06 Agosto 2016 00:12

Computational Intelligence e Computational Thinking

E-mail Stampa PDF

Se risultasse che le logiche di base di una macchina progettata per la soluzione numerica di equazioni differenziali coincidono con quelle di una macchina destinata a preparare fatture di un grande magazzino, penserei che si tratta della più stupefacente delle coincidenze di tutta la mia vita

Howard Aiken


Sull'Intelligenza Atificiale, l'Intelligenza artificiale ed infine sul pensiero computazionale (Computational Thinking)

Una nuova versione riveduta e corretta è scaricabile da qui.

FormicheIl dibattito intorno alla possibilità delle macchine di pensare come un essere umano è ancora accesso. Negli ambienti accademicii ciò è noto come approccio forte all'Intelligenza Artificiale. Dopo una prima ondata di entusiasmo, a seguito dello storico seminario interdisciplinare nel New Hampshire (1956) dove Marvin Minsky, uno dei fondatori dell'IA osò ribadire che "lo scopo di questa disciplina è di far fare alle macchine delle cose che richiederebbero l'intelligenza se fossero fatte dagli uomini", ci fu qualche battuta d'arresto. Roger Penrose (1931), matematico, fisico e grande divulgatore scientifico britannico, ha partecipato a tale dibattito, cercando di trovare un'argomentazione convincente per poter mettere una pietra tombale alla possibilità delle macchine di imitare l'uomo nella prassi del pensiero. Egli in "La mente Nuova dell'Imperatore" [1] propone un'argomentazione di natura algoritmica secondo la quale alcune caratteristiche dell'intelligenza umana non possono essere intrappolate in schemi, per l'appunto di natura algoritmica. Tra questi la creatività, l'intuito, la coscienza o meglio l'autocoscienza. Egli propone, pur sapendo che la schematizzazione è carente, di distinguere nella formulazione di un giudizio due ambiti: uno in cui è richiesta la coscienza, l'altro in cui questa non è richiesta.

Coscienza richiesta

Coscienza non richiesta

Senso comune

Automatico

Giudizio di verità

Regole seguite senza pensarci

Comprensione

Programmato

Apprezzamento artistico

Algoritmico


Secondo Penrose, alcuni compiti svolti dalla mente non hanno natura algoritmica e quindi non potranno mai essere messi a punto da una Macchina di Turing Universale. Con gli anni gli studiosi nell'ambito dell'Intelligenza Artificiale, sempre tenendo presente l'obiettivo di creare una macchina pensante, hanno imparato, a mio parere, ad essere politically correct e a dichiarare che effettivamente stanno lavorando ad insegnare alle macchine a risolvere problemi specifici di natura cognitiva, che se risolti dagli esseri umani, richiedono un qualche grado di intelligenza. In altre parole l'intento è di creare una nuova intelligenza, che probabilmente avrà natura differente da quella umana. Quest'ultimo approccio è noto come Intelligenza Artificiale debole.

Di fatto, nella storia dell'IA, si possono incontrare numerose discipline anche provenienti da ambiti diversi, utilizzate per approcciare i problemi. Ad esempio la Logica, la Teoria della Probabilità, la Scienza dei Sistemi, ognuno con il proprio momento di gloria seguito da un inesorabile periodo di declino. Il dibattito quindi si è spento e riacceso a seconda della direzione del vento. L'AI è dunque un campo molto vasto, che abbraccia oltre alle discipline su menzionate anche la Computer Science, la Psicologia, la Filosofia, la Sociologia, la Biologia, etc. Oggi il dibattito è molto preponderante sia negli ambiti accademici che non accademici poiché qualcosa è andato modificandosi a livello metodologico e non solo.

L'IA nasce in un contesto multidisciplinare, ma il raggiungimento di tale status è stato un processo talvolta faticoso e, a mio parere, solo la nuova generazione di scienziati e studiosi ha la possibilità di approcciare in maniera veramente multidisciplinare le problematiche ad essa relative. Questo perché essi possono "sedersi comodamente sulle spalle dei giganti" e mirare dall'alto le varie sottodiscipline che compongono questo interessantissimo campo del sapere umano. La nuova generazione, avendo acquisito le metodologie dei pionieri che hanno lavorato ad un livello analitico, hanno potuto proporre una sintesi che non sia solamente la somma delle discipline, ma sia un vero nuovo campo di studi. Cioè un sapere con una propria ontologia che, prima di proporre le soluzioni dei problemi, dia la possibilità di modellarli. Da questa sintesi sono nate discipline come l'apprendimento automatico, la rappresentazione della conoscenza, il ragionamento automatico, la pianificazione, la medellazione ad agenti, l'elaborazione del linguaggio naturale, la computazione neurale ed evolutiva, la visione artificiale integrate con discipline preesistenti, come il ragionamento logico, la robotica, etc. In definitiva, oggi si ha la possibilità di manipolare un sapere multidisciplinare che ha un proprio status quo, capace di proseguire con le proprie gambe. Questo a livello metodologico. Vi è poi un altro fattore che definirei "fattore informativo" secondo il quale, ad oggi, grazie alle tecnologie ICT, le strutture di calcolo sono diventate alla portata di tutti, con costi bassissimi. Non parlo solo di computer e smartphone, anche se molto importanti, ma anche di sensoristica a basso costo che grazie a tecnologie di rete avanzate permettono l'acquisizione di una grossa mole di dati. Questo ha portato a definire il concetto di ubiquitus computing, o computazione pervasiva, dove gli stessi sensori nell'accezione generale del termine hanno discrete capacità di calcolo, quindi di elaborazione e trasporto delle informazioni. Oggi è realmente possibile parlare di intelligenza distribuita, di controllo distribuito ad agenti, dove ognuno non possiede una visione generale dell'ambiente e degli altri agenti, ma è capace di agire e coordinarsi con i vicini talvolta senza un obiettivo iniziale, ma scoprendola successivamente in collaborazione con i vicini stessi. La grossa mole di informazione oggi a disposizione con la rete, e qui computer,  smartphone e tablet la fanno da padrone, è una risorsa inestimabile che i pionieri dell'IA, che redigevano i loro famosi articoli tramite la macchina per scrivere meccanica, si sognavano. Oggi si è in presenza di una miriade di dati che aspetta di essere elaborata, la stessa rete Internet può essere vista come un gigantesco contenitore di dati. L'elaborazione consente al dato di diventare comprensione e quindi di mettere in moto processi decisionali e azioni specifiche. Coloro che devono compiere queste operazioni, siano essi macchine o esseri umani (o ibridi), devono poter operare con informazioni con un alto valore semantico.

Una sottobranca dell'AI, a sua volta scomponibile, è nota come Computational Intelligence. Essa è la branca ideale per affrontare in maniera algoritmica la "complessità", attraverso l'analisi e la sintesi dei cosiddetti "Sistemi Intelligenti". Il punto di svolta sta nel differente approccio, rispetto a quello classico, che tali algoritmi propongono, essendo modellati sulla cosiddetta intelligenza biologica. Essi, infatti, sono altresì definiti come algoritmi "nature inspired". Le macroaree che formano la Computational Intelligence sono:

  • Artificial Neural Network (Reti Neuronali Artificiali);
  • Evolutionary Computing;
  • Swarm Intelligence;
  • Fuzzy System;

Queste aree, assieme alla Logica, il Ragionamento Deduttivo, i Sistemi Esperti, il Ragionamento Case-Based e Simbolico, il Machine Learning, vanno a generare l'Intelligenza Artificiale moderna.

Una definizione più precisa per la Computational Intelligence è la seguente [2]:

Lo studio di meccanismi adattivi per avviare o facilitare comportamenti intelligenti in ambienti complessi e mutevoli (dinamici).

Descriviamo, adesso, per sommi capi, i principali meccanismi alla base della Computational Intelligence.

Reti Neurali Artificiali

Le reti neuronali artificiali sono particolari strutture di calcolo, definite secondo un paradigma algoritmico "connessionista", che espletano la loro funzione imitando le reti neuronali biologiche. L'elemento base è il Neurone Artificiale, avente un semplice modello matematico, che contempla:

  • un certo numero di ingressi, come i dendriti nel cervello biologico;
  • una cosiddetta funzione di rete, che "spara" a seconda dell'input ricevuto;
  • un output corrispondente all'assone nel cervello biologico.

L'insieme di tali Neuroni Artificiali, sono considerabili come una rete formata da connessioni la cui forza è definibile matematicamente in base a dei pesi.

Esistono molte possibili configurazioni e molte possibili applicazioni delle Reti Neurali Artificiali. Esse sono state utilizzate nelle diagnosi mediche automatizzate, nel riconoscimento del parlato, di video e immagini, nella composizione sonora, nelle previsioni meteorologiche e dei mercati finanziari, nella pianificazione di strategie, etc. E' interessante come esse, mediante particolari algoritmi di apprendimento, siano capaci di apprendere compiti specifici, di riconoscere oggetti, di classificare e predire risultati. La memorizzazione delle informazioni apprese avviene in maniera distribuita, quindi in maniera alquanto differente delle memorie classiche con locazioni precise, in tutti i pesi della rete.

Evolutionary Computing

La Computazione Evolutiva (Evolutionary Computing) ha come obiettivo quello di modellare l'evoluzione naturale, dove il concetto cardine è quello della sopravvivenza del più forte. Essa propone algoritmi capaci di organizzare le possibili soluzioni di un problema in popolazioni di cromosomi, che sono un sottoinsieme dello spazio delle possibili soluzioni. Quest'ultimo, iterativamente viene visitato tramite la formazione di nuovi individui, considerati come prole degli individui della generazione precedente, che meglio si adattano alla soluzione del problema stesso. In altre parole sopravvivono le soluzioni più forti, mentre soccombono quelle deboli. La sopravvivenza è dettata da operatori genetici, simili a quelli che operano sui cromosomi biologici e da una funzione nota come fittness che riflette gli obiettivi e i vincoli del problema da risolvere.

Tra le classi di algoritmi evolutivi si hanno gli Algoritmi Genetici, La Programmazione Genetica, dove gli individui non sono soluzioni ma programmi, e altri algoritmi basati sul concetto di evoluzione, competizione e cooperazione.

Swarm Intelligence

La Swarm Intelligence nasce dallo studio e dal modellamento dell'organizzazione di organismi sociali in colonie o sciami. Ad esempio si hanno algoritmi modellati sul comportamento delle formiche e del loro utilizzo dei ferormoni (Ant Colonies Algorithm), oppure algoritmi basati sul volo di gruppo degli uccelli. Essi sono molto fruttuosi nei cosiddetti problemi di ottimizzazione globale, ovvero in quella classe di problemi il cui obiettivo è avvicinarsi alla soluzione migliore. L'algoritmo nel caso dello sciame (Particle Swarm Optimization) genera un insieme di individui capaci di volare all'interno dello spazio multidimensionale delle soluzioni. Gli individui sono capaci di comunicare con un gruppo di vicini cosicché quanto si è prossimi ad una possibile soluzione essi comunicando si addensano presso quest'ultima. Di solito matematicamente tale problema è esprimibile come un problema di minimo e le particelle di soluzione "volano" fino ad addensarsi attorno al minimo cercato. Anche in questi algoritmi gioca un ruolo essenziale la fitness, che misura la performance delle varie particelle esploratrici. Algoritmi basati sul modellamento delle formiche, agiscono in maniera simile, "formicolando" nello spazio delle soluzioni e lasciando un ferormone nei pressi di un punto dello spazio multidimensionale definito come buono (vicino alla soluzione). Le formiche nei paraggi allora saranno portate a gironzolare nei paraggi alla scoperta di punti migliori.

Fuzzy System

La Logica Fuzzy, teoria con la quale sono implementati i Sistemi Fuzzy, è una particolare branca della logica, relativamente recente che si differenzia dalla cosiddetta Logica Classica poiché rifiuta come assioma costituente la legge aristotelica del terzo escluso (tertium non datur). In una concezione classica della logica e della teoria degli insiemi possiamo dire che un oggetto o appartiene all'insieme dato o non vi appartiene. Non si da una terza possibilità. Secondo la Logica Fuzzy (fuzzy è traducibile anche con "sfumato"), un oggetto appartiene ad un insieme (fuzzy ) in una certa misura. In altre parole è possibile stabilire una misura di appartenenza dell'oggetto all'insieme, che nei "casi estremi" coincide con il concetto di appartenenza classico o aristotelico. Stesso vale per il concetto di verità o falsità assegnabile ad una proposizione. Secondo la Logica Fuzzy una proposizione può essere vera in una certa misura. Sembra che i fatti riguardo al mondo siano effettivamente sfumanti e quindi tale logica appare come un metodo per descriverli. Inoltre il metodo con cui opera inferenza sembra catturare l'approssimazione con cui opera un comune essere umano. Di fatto tale logica consente di modellare in una macchina quello che oggi è noto come Ragionamento approssimato, in quanto riesce a catturare l'incertezza sui fatti del mondo. E' importante tenere presente che nella Logica Fuzzy il termine "incertezza" non ha la stessa accezione che in teoria della Probabilità. Non entrerò nei dettagli, ribadisco solo che l'incertezza probabilistica è riferita ad un evento che deve accadere e su cui si modella una legge di probabilità. L'incertezza fuzzy consiste nel modellare l'ambiguità di un qualcosa di dato al fine di catturarne la vaghezza o meglio la fuzziness. La Logica Fuzzy trova profique applicazioni nel modellamento del ragionamento, nel controllo e nel riconoscimento di pattern. La caratteristica migliore risiede nella possibilità di definire regole in maniera semplice che si applicano a sistemi complessi di cui può anche non essere nota a priori una descrizione matematica in forma chiusa.

Le tecniche appena descritte sono nate come discipline al quanto separate, ma oggi, come ribadito in precedenza, appartengono ad un comune bagaglio di conoscenze e metodi per i quali è stato possibile operare un' ulteriore sintesi e procedere per astrazioni superiori. Da queste astrazioni sono nati i cosiddetti ibridi, consistenti nell'uso simultaneo di queste tecniche. Ad esempio, vi sono sistemi che espletano un qualche compito utilizzando l'ibrido Fuzzy-Evolutionary Computing, secondo il quale un sistema inferenziale fuzzy è posto in evoluzione nei suoi parametri strutturali al fine di individuarne il set ottimo per lo specifico Problema. Similmente l'ibrido Neural Network-Evolutionary Computing. In questo caso l'algoritmo evolutivo guida l'ottimizzazione nell'apprendimento della rete Neuronale. In definitiva ogni tecnica può essere ibridata con ogni altra, fornendo un tool molto potente per approcciare la complessità dei problemi.

Paradigmi ibridi relativi alla Computational Intelligence


Il potere espressivo ed operativo della Computational Intelligence può essere ulteriormente migliorato ibridando quest'ultima con i cosiddetti Metodi Probabilistici. Tale super-ibrido è inserito in una branca della computazione nota come "Soft computing", nome suggerito dall'Ingegnere, scienziato e Professore di Teoria dei Sistemi (fuzzy) Lotfi Zadeh (1921), colui che, negli anni '60 dello scorso secolo, traspose la Logica Fuzzy dall'altare delle Scienze pure all'Ingegneria dei Sistemi.

La Computational Intelligence talvolta è utilizzata assieme ai metodi Probabilistici e assieme a tecniche di datamining, come il Clustering e la Classificazione. Questi ultimi fanno capo al cosiddetto "Granular Computing", disciplina che nel sintetizzare modelli e suggerire soluzioni ai problemi, pone molta importanza ai cosiddetti "granuli di informazione". A questo punto sono stati messi assieme, in linea di principio, tutti gli ingredienti per poter operare su problemi volti alla complessità. Si può notare come anche il concetto di informazione, e quindi la teoria che ne scaturisce (Teoria dell'Informazione), sia di estrema importanza per l'Intelligenza Artificiale moderna. Questo insieme di discipline, compreso lo studio dell'informazione e della sua elaborazione e della sua trasmissione, apparteneva ad un campo ben specifico noto come Cibernetica.

Norbert Wiener (1894 -1964), pioniere nell'Intelligenza Artificiale e nella Stessa Cibernetica in "Introduzione alla Cibernetica" (1950), ci illustra in maniera quasi profetica come l'uomo stia costruendo macchine sempre più brave a svolgere compiti un tempo appannaggio dell'intelligenza umana. Inoltre mostra come un giorno le macchine saranno più intelligenti attraverso il paradigma dell'imitazione dell'intelligenza biologica. Profeticamente, considerando l'informazione come un punto essenziale dello sviluppo delle macchine, ci ammonisce dicendo che [3]:

" la società può essere compresa soltanto attraverso lo studio dei messaggi, e dei mezzi di comunicazione relativi ad essi; e che nello sviluppo futuro di questi mezzi di comunicazione e di questi messaggi, i messaggi tra l'uomo e le macchine, fra le macchine e l'uomo, fra le macchine e le macchine sono destinati ad avere una parte sempre più importante".


Computational Thinking

L'Intelligenza Computazionale  e i suoi ibridi, come abbiamo visto, forniscono i veri e propri "attrezzi" per poter operare sui sistemi e sui problemi complessi. L'Intelligenza Artificiale e la Cibernetica nascono nella metà dello scorso secolo come manifesti su cui basare la fede nell'intelligenza delle macchine. I pionieri, come Alan Turing, John von Neumann, Norbert Wiener, Martin Minsky e molti altri, erano convinti che in un futuro, non troppo lontano, molto di quanto si prospettava sarebbe diventato realtà. Qualcuno obietta che niente è stato fatto e le macchine sono solo ammassi di chip senza un briciolo di intelligenza, di comprensione, di intuito, di creatività. Per dirla in una sola parola di umanità.

A mio parere la verità sta per lo mezzo. Da una certa prospettiva siamo ben lontani dall'aver creato una macchina pensante come un essere umano, da un'altra (più debole, ma altrettanto forte), bisogna essere onesti nel riconoscere che l'"intelligenza delle macchine" è diventata parte integrante dell'intelligenza umana. Al momento non saprei se le ripercussioni nel prossimo (a breve in realtà) futuro, come prevede Ray Kurzweil, siano quelle di avere una simbiosi tra intelligenza biologica ed intelligenza meccanizzata così perfetta da generare una "singolarità" nell'evoluzione dell'intelligenza umana stessa. Al contempo è palese che, di fatto, una'integrazione simbiotica tra le due intelligenze esiste. "Simbiotica" è il termine adatto in quanto, a questo stadio dell'evoluzione, si potrebbe inferire che se venisse a mancare l'intelligenza delle macchine, vi sarebbero delle grosse ripercussioni sull'ordine che la società ha raggiunto. Questo perché essa si è sviluppata anche partendo da questi presupposti. Immaginiamo di spegnere Google per un giorno. Sarebbero grossi grattacapi, molti si annoierebbero, altri non andrebbero a lavoro perché non avrebbero disponibile il loro strumento base, qualcuno, sebbene per poco tempo, sarebbe anche contento. Ma ingigantiamo l'esperimento mentale e immaginiamo, adesso, di spegnere l'intera rete Internet, e tutte le apparecchiature elettroniche quotidiane, telefoni, cellulari, smartphone computer, elettrodomestici programmabili. Immaginiamo che questo accada di colpo e per un tempo indefinito e ignoto. Cosa succederebbe? E' difficile rispondere con precisione, ma a grandi linee possiamo immaginare. Si ingenererebbe una "oscillazione" nell'ordine sociale di portata gigantesca a seguito dell'importante discontinuità dovuta allo spegnimento delle macchine. Non è detto che si arriverà all'estinzione, ma sicuro succederebbe qualcosa di alquanto singolare...

Assodato che le macchine, sia in forma meccanica che digitale, siano parte integrante della nostra quotidianità, possiamo affermare che esse, sebbene non ci controllino, sono necessarie al nostro attuale funzionamento in quanto sono ormai correlate ai nostri procedimenti cognitivi. E' utile considerare che in qualsiasi ambito della conoscenza, nella maggior parte dei casi, le nuove generazioni, partano dalle conquiste raggiunte con sforzi mostruosi dalla generazione precedente. Questo fenomeno deriva da una differenza appartenente alla sfera cognitiva e si sperimenta ogni qual volta un anziano, per cause di forza maggiore, debba operare con un computer. Mediamente ci si trova d'innanzi un individuo intelligente che non riesce a utilizzare il computer o, se vi riesce, sembra farlo in maniera "strana". Non è questione di intelligenza infatti, ma di sviluppo cognitivo, di cambiamento di paradigma nella struttura del pensiero. Come le macchine si sono evolute ed hanno automatizzato i compiti più disparati, svolgendoli con un certo grado di intelligenza e perlopiù correttamente, il nostro cervello, nelle funzioni cognitive, si è adeguato evolutivamente. In realtà tale "connessione cognitiva" si è rafforzata in un miglioramento graduale nell'interazione uomo-macchina non unilaterale. In altre parole si è avuta un'evoluzione semantica, sia per quanto riguarda la direzione macchina--> uomo, sia uomo-->macchina. Le applicazioni si sono adattate al sistema cognitivo che si è adattato a sua volta alle applicazioni, in un processo retroattivo autosostenentesi a carattere crescente. Programmare un computer degli anni '50 dello scorso secolo era appannaggio di pochi eletti, appartenete all'olimpo dei geni, oggi è alla portata di tutti, anche delle intelligenze normali. Questo perché si è avuto uno sviluppo semantico, attraverso astrazioni successive che hanno permesso di generare "interfacce" cognitivamente appetibili. Ciò ha portato ad avvicinarsi ai computer un numero sempre maggiore di persone e ad utilizzarli per le applicazioni più disparate, lontane un abisso, dal loro basico funzionamento. Howard Aiken (1900 - 1973), pioniere nella Computer Science e fondatore dell' Harvard Computation Laboratory, nel 1956 sostenne a tal proposito (citato in [4]):

"se risultasse che le logiche di base di una macchina progettata per la soluzione numerica di equazioni differenziali coincidono con quelle di una macchina destinata a preparare fatture di un grande magazzino, penserei che si tratta della più stupefacente delle coincidenze di tutta la mia vita."

Di fatto, non è semplice comprendere tale coincidenza ma compiti così prossimi all'apparato cognitivo umano sono svolti, basilarmente, con le stesse logiche utilizzate per svolgere una somma aritmetica.

In definitiva possiamo asserire che l'evoluzione tecnologica ha portato studiosi e scienziati a costruire sistemi capaci di elaborare l'informazione in maniera da conferirle alto contenuto semantico in riferimento alla "risposta semantica" umana. Allo stesso modo tale evoluzione semantica ha modificato parte della mappa cognitiva umana (mi riferisco alle popolazioni digitalizzate). Questo punto è molto importante e richiede ulteriori approfondimenti, che al momento non tenterò. E' d'obbligo però, a questo punto, citare Alfred Korzibsky (1879 - 1950), ingegnere, creatore della "Semantica Generale" esposta in "Science e Sanity" [5] nel 1933 e nelle edizioni rivedute successive, che descrivere le differenze tra comportamento umano ed animale come differenze nella "risposta semantica" (in precedenza il termine non è stato utilizzato a caso) tra questi ultimi. Nella sua opera Korzibsky getta le basi di gran parte del pensiero moderno e post-moderno, riconoscendo al linguaggio un ruolo semantico strettamente correlato alla struttura cognitiva umana. E riconosce e descrive in maniera ineccepibile come esso si sviluppi attraverso una struttura verticale astratta multidimensionale e gerarchica. Qualsiasi attività umana, specialmente quella linguistica, che rispecchia le modalità di pensiero, appartiene a tale struttura che parte, e questo vale per tutti, dal tessuto nervoso ed evolve attraverso astrazioni successive. Ciò che differenzia l'essere umano dal mondo animale è proprio questa capacità di astrazione multiordinale. Egli individua 1) nella "sanità mentale" la capacità di manipolare quest'astrazione, 2) nel "migliorare le condizioni di vita" la capacità di accedere a livelli astratti sempre più alti. Quanto esposto è una parte infinitesima del pensiero di questo scienziato, ma è utile per comprendere come da qualche tempo stia nascendo, negli ambienti accademici di Computer Science, e si stia sviluppando grazie alla rete, una nuova maniera di approcciare il pensiero: nel futuro si penserà in maniera computazionale.

Questa particolare tipologia di pensiero è diventata un campo di studi a sé, noto come "Computational Thiking".  Essa, sebbene sia posizionabile sotto l'egida dell'Intelligenza Artificiale, è un qualcosa a se, con metodi e tecniche ben strutturati che sono diventati realtà in discipline come l'Ingegneria, la Biologia, la Chimica, la Fisica, l'antropologia, la linguistica, l'economia, la criminologia, etc. Se si inserisce su Google la chiave "Computational" ci si trova dinnanzi una schiera di discipline che, appartenenti a campi differenti che spaziano addirittura dall'ambito scientifico a quello umanistico, condividono una metodologia comune che tenterò di descrivere nel seguito.

Il pensiero computazionale nasce da una serie di conquiste che l'Intelligenza Artificiale, e in particolare la Computer Science, ha effettuato nei più svariati campi del Sapere. Questa particolare modalità di pensiero è stata portata alla ribalta da molti studiosi tra i quali spicca una professoressa Jannette M. Wing, Presidente del Dipartimento di Computer Science alla Carnegie Mellon University. Ella in un suo articolo-manifesto [6] dal titolo esplicativo "Computational Thinking" sostiene che:

Computational thinking will be a fundamental skill used by everyone in the world by the middle of the 21st Century.

Inoltre spiega come il pensiero computazionale possa essere un'attitudine che può essere appresa al pari della lettura, della scrittura o dell'aritmetica. Esso consente altresì di ottenere risultati che gli esseri umani da soli non possono ottenere nel Problem Solving, nella progettazione dei sistemi e nella comprensione della potenza e dei limiti dell'intelligenza umana e delle macchine. Inoltre permette di fornire risposte soddifacenti a domande come: Cosa gli esseri umani possono fare meglio dei computer?  Cosa i computer possono fare meglio degli umani? Cosa è computabile?

Attraverso il Computational Thinking possono essere risolti i problemi in maniera efficiente, andando a capire prima quale sia la soluzione approssimata che fa il nostro caso e poi computandola, utilizzando processi randomici a vantaggio del calcolo. In altre parole permette di descrivere prima le difficoltà del problema e successivamente di chiedersi come può essere risolto nel migliore dei modi. Secondo l'autrice il Computational Thinking è:

  • pensare ricorsivamente;
  • riformulare problemi apparentemente difficili in problemi di cui si conosce il procedimento per giungere alla soluzione attraverso: la riduzione; l'inglobamento; la trasformazione; la simulazione;
  • scegliere una rappresentazione appropriata e modellando gli aspetti rilevanti in maniera trattabile;
  • interpretare i "dati" come "codice" e il "codice" come "dati";
  • usare astrazione e decomposizione per approcciare compiti grandi e complessi;
  • giudicare il designe dei sistemi anche per la semplicità e l'eleganza;
  • type checking, come generalizzazione dell'analisi dimensionale;
  • prevenzione, detezione e recovery partendo dal caso peggiore attraverso l'utilizzo della ridondanza, il contenimento dei danni e la correzione degli errori;
  • modularizzazione anticipata per utenti multipli e prefetching and caching anticipata per gli utilizzi futuri;
  • è evitare "race condition" e deadlock nel sincronizzare compiti ed eventi;
  • utilizzare agenti computazionali per approcciare problemi hard relativi all'Intelligenza Artificiale;
  • è approcciare la soluzione dei problemi, il progetto dei sistemi, la comprensione del comportamento umano attraverso i paradigmi della Computer Science.

Nello stesso articolo e in numerose conferenze Jannette M. Wing sostiene che:

"Thinking like a computer scientist means more than being able to program a computer. It requires thinking at multiple levels of abstraction".

Questa affermazione mostra come si possano immaginare delle modalità di pensiero simili a quelle di uno Scienziato dei Computer per programmare meglio i computer stessi. E come tale attitudine possa essere raggiunta con livelli successivi di astrazione, proprio come Korzibsky sosteneva agli inizi del Novecento.

Infatti il Pensiero Computazionale consente di "scalare" la complessità attraverso l'astrazione su livelli successivi definendone le relazioni e automatizzando tali astrazioni e relazioni. Tale lavoro può essere eseguito attraverso specifici modelli e notazioni tenendo presente che, allo strato inferiore, vi è una qualche macchina, sia essa un computer, umana o virtuale.

Considerando il pensiero computazionale come un mutamento di paradigma, è possibile notare come ad esempio, la statistica sia divenuta "computazionale" con le moderne tecniche di machine learning, oppure come ormai la biologia non possa prescindere dai modelli matematici e computazionali attraverso la cosiddetta bioinformatica. Altre sfide che si stanno consumando sono nella Teoria dei Giochi, proveniente dall'ambito economico, il nanocomputing, proveniente dall'ambito chimico, e la computazione quantistica, proveniente dall'ambito fisico.

A mio parere, operando una review della letteratura, vi è uno sforzo nella direzione, suggerita da Wing, di insegnare anche nelle scuole inferiori tale modalità di pensiero iniziando a cambiare il nome di corsi di informatica  da "Corso di programmazione [linguaggio x]" a "Modi per pensare come un Computer Scientist".

Questi sforzi, a mio avviso, vanno nella direzione indicata in precedenza, secondo la quale le nuove generazioni possono operare una sintesi, attraverso astrazioni successive, ed insegnare nuovi modi di pensare e nuove strutture cognitive attraverso le quali le generazioni successive creeranno cose, impensabili solo venti anni addietro.




Bibliografia

[1]

R. Penrose, La Mente Nuova dell'Imperatore, RCS Libri S.p.A., Ed. Milano, Italy, 1992 (1989).

[2]

Engelbrecht and P. Andries, Computational intelligence : an introduction, J. Wiley & Sons, Ed. Chichester, Hoboken, N.J., England, 2002.

[3]

N. Wiener, Introduzione alla cibernetica, Boringhieri, Ed. Torino, Italy, 1970.

[4]

M. Davis, Il Calcolatore Universale. Milano, Italy: Adelphi Edizioni S.p.A. , 2012(2000).

[5]

A. Korzibsky, Science and Sanity, IV ed. Brooklyn, New York, USA: Institute of General Semantics, 1933.

[6]

J. M. Wing, "Computational Thinking," CACM, vol. 49, no. 3, pp. 33-35, March 2006.


Ultimo aggiornamento Martedì 19 Gennaio 2016 10:33

Percepire la Complessità

E-mail Stampa PDF

La complessità è una parola-problema e non una parola-soluzione

E. Morin, Introduzione al pensiero complesso, 1990


Chinese Artist Lu Xinijiang Made Paintings Using Google Earth In City DNAOggi vorrei distillare alcuni personali pensieri tramite l’antica e ancor più moderna arte della scrittura. Ragionare intensamente su ciò che leggo è una mia squisita abitudine e  “Lo zen e l’arte della manutenzione della Motocicletta”[1] di R. M. Pirsig è un libro che mi ha dato modo di riflettere su molti aspetti della vita e della realtà circostante. A dire il vero, alcuni li avevo già portati alla mia attenzione prima di questa bella lettura, anche se Pirsig, come molti altri autori incontrati durante il mio personale viaggio, mi ha saputo regalare un punto di vista lucido e chiarificatore. Una delle domande dormienti e risvegliate dall'autore che mi attanagliano e che sono sopraggiunte semplicemente guardandomi intorno nella vita quotidiana, suona così: è possibile comprendere la complessità che ci circonda? Ciò mi ha spinto a scrivere questo saggio dal titolo “La comprensione della complessità”.

E’ noto che non esiste una definizione comune di “complessità”, pur tuttavia esso è oggi un argomento molto in voga tanto nel panorama scientifico quanto in quello umanistico. Dal versante umanistico, ad esempio, il filosofo contemporaneo Edgar Morin, in un suo saggio sulla cultura di massa, scriveva che “La complessità è una parola-problema e non una parola-soluzione”[2]. Se la complessità è una parola problema, e sono d’accordo, qualcuno deve pur risolvere questo problema e trasformare la complessità in una parola soluzione, o meglio un “discorso soluzione”, come vedremo. Come può essere “compresa” la complessità? Esistono piani di taglio per tale termine che portano ad infinite definizioni. La scienza dal canto suo tende a darne di precise ed ogni volta che ci prova ne emerge ancora più insoddisfatta e frustrata. Eppure coloro che appartengono al mondo scientifico appaiono più abituati a manipolare la complessità, almeno come concetto. In ogni caso possiamo affermare che viviamo nel cosiddetto “villaggio globale” (suona già antiquata questa affermazione) e il mondo occidentale technology addicted è diventato un Sistema altamente Complesso. Uno degli elementi necessari alla presenza della complessità e caratterizzante i Sistemi Complessi è la forte interrelazione degli elementi che compongono il sistema, noti come sottosistemi od oggetti. Nel mondo attuale qualsiasi sottosistema che possiamo proiettare nella nostra mente è fortemente interrelato con ogni altro. Con sottosistema intendo qui qualsiasi cosa sia parte dell’ “umano-sfera”. Se oggi qualcuno tentasse uno scherzetto e spegnesse Google, probabilmente più della metà dei lavoratori dichiarerebbe di non poter lavorare. Se spegnessimo la rete semaforica di Pechino in pochi minuti la città piomberebbe nel caos profondo. Questi sono esempi di sottosistemi legati alla tecno-sfera. La complessità non ha a che fare solamente sul piano della tecno-sfera. Possiamo pensare altri esempi legati al sostenimento dell’attuale status sociale: eliminiamo istantaneamente il welfare e il sistema pensionistico. Con ogni probabilità scoppierebbero sanguinose guerre civili. Credete, ad oggi il sistema pensionistico e le reti di computer, come quelle che sostengono il funzionamento di Google, non siano collegate? Vi sbagliate. La tecno-sfera, all’interno dell’evoluzione dell’uomo è andata via via diventando il sistema nervoso di un super-organismo. Un super-organismo complesso, dove noi esseri umani siamo solo una parte necessaria, ma non sufficiente al proprio autosostentamento. Come le cellule del nostro corpo servono i nostri organi e consentono di tenere in vita i nostri corpi biologici, noi esseri sociali, assieme ad una miriade di altri sottosistemi serviamo un super-organismo. Le cellule biologiche si rendono conto del loro compito? Non è facile rispondere a questo interrogativo e non sono il primo a porre questa domanda. Noi siamo in grado di comprendere il nostro compito o ruolo all’interno del super-organismo? Una risposta può essere azzardata fin da subito: le cellule non possono rendersi conto del loro compito in quanto la loro “funzione” esiste ad un livello gerarchicamente superiore. Vale lo stesso per noi esseri umani dotati di neocorteccia cerebrale e capaci di pensiero astratto superiore? Dove è annidato il nocciolo del problema della “comprensione della complessità”? Una volta compresa la complessità e avuta coscienza di questo super-organismo che coabitiamo, saremmo capaci di capire finalmente la nostra funzione e quindi, forse, di dare un senso alla nostra vita?


Ora vorrei concentrarmi su un aspetto discusso dallo stesso autore nel suo secondo capolavoro, “Lila, indagine sulla morale” [3], una continuazione del primo libro citato. Pirsig, ad un certo punto, nella storia che racconta, recandosi a New York con la sua barca a vela, inizia a percepire quella città che già conosceva dal suo interno come un “Gigante”. Quella città, a suo dire, gli metteva una strana sensazione, come un’ entità a se stante in cui gli uomini che vi vivono sono dei silenziosi e inconsapevoli servitori. Cos’è davvero questo “Gigante”? Prima di approfondire il tema vorrei proporre una breve e incompleta digressione sul suo pensiero. Pirsig propone in entrambi i volumi, a livelli di penetrazione diversi e sempre più specifici, una metafisica, la “metafisica della Qualità”, tentando di fornire un quadro comune che potesse spiegare o almeno rendere coerenti gli infiniti aspetti della realtà. Nel suo pensiero maturo illustrato in “Lila”, inserisce in questo quadro un elemento chiave mancante nel primo lavoro: l’evoluzione. Nel primo suo sforzo, di fatto, si limita a tentare, nel definire la sua metafisica, l’approccio dialettico, pur arrivando dopo estenuanti studi al pieno rifiuto della dialettica e di tutto l’aristotelismo intero. Egli parte da una suddivisione operata con un “sapiente coltello” capace di lavorare e scomporre minuziosamente e con estrema precisione la realtà e la conoscenza di essa. Tale suddivisione riveste l’intero spettro dell’essenza umana, dividendola inizialmente e grossolanamente in due temperamenti che differiscono per come una persona si approccia alle “cose”, anche quelle di tutti i giorni. Egli suddivide l’intelletto in due tipologie, una che espleta “intelligenza romantica”, l’altra “intelligenza classica”. La seconda è quella alla base del pensiero scientifico, razionale, impersonale, misurato, in terza persona, esatto. La prima è quella che dirompe dal mondo interno delle emozioni, è sentita, irrazionale, instabile, colorata. Un uomo che ragiona classicamente, secondo Pirsig, riesce sempre a vedere lo “schema” soggiacente ad una cosa, l’uomo romantico, al contrario, percepisce la cosa così com’è, in maniera diretta, nella piena sua apparenza estetica, nella sua forma esteriore. Nessuno dei due approcci, di cui l’autore ne ipotizza la nascita come differenziazione già nel pensiero greco antico, è sbagliato. Una loro sintesi, una oscillazione tra le due visioni della realtà, sono il modo migliore per comprenderla e per vivere bene. La Qualità, sebbene molto difficile da definire, si antepone a questa scissione che talvolta genera problemi legati a dicotomie, come ad esempio la divisione tra discipline scientifiche ed umanistiche o tra la stessa scienza e la fede. Nel secondo volume egli approfondisce lo studio della “Qualità” allargandone la portata a tutto lo scibile e, come dicevamo, inserendo l’ evoluzione come ingrediente essenziale, mancante totalmente nella sua prima versione. Innanzitutto L’autore considera una gerarchia di “mondi” i quali sono nati in tempi diversi e quindi hanno differenti sviluppi evolutivi. Al centro della sua metafisica c’è l’uomo percepente, anche se, allo stesso modo, la sua evoluzione fa parte dell’evoluzione dello stesso universo. In tale gerarchia evolutiva egli inquadra quattro livelli con una Qualità evolutiva crescente: livello biologico, livello sociale, livello culturale e livello intellettuale. Questo è quanto egli riesce ad intravedere nel descrivere l’uomo e la natura. Ciascun livello evolutivo possiede regole proprie e “tendenzialmente” sottostà  ai livelli superiori. Egli, inoltre, intravede in qualsiasi atto, a prescindere dal soggetto o oggetto che lo compie, un “atto morale” che sottostà alle leggi della Qualità, componente metafisica della sua filosofia che in entrambi i volumi fatica a definire, fino al punto di chiarire che la “Qualità” è qualcosa che per definizione non può essere definita. Così ad esempio si spiega perché è comunemente accettato prendere un semplice antibiotico. Il medico con la medicina distrugge milioni di cellule batteriche che lottano per la vita ed il tutto è comunemente accettato senza problemi. Probabilmente più della metà delle persone del pianeta moriranno senza aver mai pensato o realmente compreso questo punto. Il genocidio batterico è un atto morale dall’alto verso il basso quindi considerato positivo, giusto. Nella gerarchia gli atti esercitati dall’alto verso il basso non sono granché problematici. Allo stesso modo, mediamente si accettano le leggi, codici di comportamento standardizzato definite per governare e controllare nonché mantenere in sicurezza la società (è facile constatare che le leggi sono comunemente accettate dai più, al di la della loro piena condivisione da un gruppo). La società accetta che vi siano dei regolamenti atti non solo a definirla ma a controllarne lo sviluppo. Questo livello genera un insieme di forze che si scaricano verso il basso della gerarchia e che tali strati le subiscono. Al loro livello (ad esempio il livello biologico), la società non esiste e queste regole non sono direttamente espletabili a quel livello e ne tantomeno codificabili. Ecco che prende forma la legge universale della Qualità, come scala di valore, positivo o negativo, che governa non solo i livelli orizzontali ma anche la loro reciproca interrelazione verticale. A questo punto, un atto che parte da un livello inferiore verso quello superiore è percepito come immorale o nel quadro di Pirsig “ad alto contenuto di Qualità negativa”. Un esempio è la stessa reazione batterica al corpo, che da basso della gerarchia tende ad ammalarlo e degradarlo. Ecco che il repentino, e da tutti accettato moralmente, intervento del medico dall’alto della gerarchia arriva per porre fine alla malattia. Ma se vogliamo proporre un esempio più immediato pensiamo alla sfera sessuale (livello pressoché biologico se pensiamo il sesso come un atto riproduttivo con il fine evolutivo di conservazione della specie) e da tutte le sue problematicità legate ai pudori, gelosie, leggi che ne regolamentano gli atti etc. Quando i livelli inferiori cercano di dettare legge, di prendere il sopravvento, i livelli superiori tendono a giudicare questi ultimi come immorali e cercano di controllarne lo sviluppo e la stortura. Può capitare che i livelli inferiori, in maniera organizzata, riescano a prendere il sopravvento portando qualità negativa percepita come degenerazione. Questo è il caso dei fascismi o dei comunismi, espressioni del livello sociale che hanno tentato di controllare e mediare i livelli superiori, rispettivamente: il livello culturale e quello intellettuale. Pirsig conferisce agli intellettuali, la massima espressione evolutiva, il compito, attraverso la sapienza esperita mediante la Qualità, di guidare la società. Egli intravede negli intellettuali quella che ama definire la Qualità dinamica, che si contrappone alla Qualità statica. La qualità dinamica è la forza creatrice che sconfigge l’ignoto generando la stessa realtà. La qualità statica, non negativa di per se stessa, è quella che governa lo stato di cose. Tali concetti, in quanto appartenenti ad una metafisica, sono estensibili a qualunque aspetto del percepito, ma per esemplificare ciò che Pirsig vuole mostrarci, possiamo pensare a quando siamo in procinto di compiere un’ azione giudicata entusiasmante da noi stessi. Può essere l’acquisto di un oggetto, un vestito, un libro. Qualsiasi cosa la vogliate con tutto voi stessi. Immaginate di ottenerla, di utilizzarla. Dopo un po’ di tempo essa smetterà di trasmettervi le stesse sensazioni dei “primi giorni”. Ecco, al momento dell’acquisto la Qualità dinamica era in opera, generando un turbinio di sensazioni e piccoli o grandi sconvolgimenti. La stessa Qualità ha perso la sua dinamicità lasciando il passo alla staticità. L’oggetto, proseguendo l’esempio, sarà sempre utile, di per se stesso questo è positivo, è Qualità positiva ma di natura differente: non più dinamica per l’appunto. La stessa Qualità è in opera nella scienza quando muove un ulteriore passo verso la decodifica delle leggi dell’Universo. Gli addetti ai lavori, gli scienziati, sono continuamente sballottati a destra e sinistra tra qualità dinamica e qualità statica. A scuola si insegna per lo più qualità statica. Ma quella qualità divenuta statica è stata un momento nel passato opera della Qualità dinamica, ad esempio quando il Leopardi ha ultimato la stesura de “L’infinito”.

A questo punto, dopo questa breve digressione sulla “metafisica della Qualità”, ritorniamo a New York percepita da Pirsig come un Gigante. Anche la Grande Mela, come qualsiasi altra città, è qualcosa di evolutivamente superiore. Una nota. Credo che Pirsig non dia giudizi in tema di evoluzione, la sua metafisica è essa stessa una sorta di teoria del giudizio sulla scia di Immanuel Kant! E tantomeno io ho intenzione di fornire un giudizio di qualità (notare la lettera minuscola). Si può facilmente constatare che in discussioni su argomenti simili l’interlocutore tende a prendere posizione, a schierarsi e modificare i toni della discussione a seconda del giudizio percepito, su un tale argomento, anche quando si è molto attenti a misurare le parole e filtrarle da qualsiasi giudizio qualitativo affrettato. In altre parole, questo avviene anche quando si esprime una descrizione scientifica di un qualsiasi fenomeno. In realtà, non mi soffermerò a lungo su questo punto anche se ho intenzione di riprenderlo nel futuro, si sa benissimo che le parole possono essere fraintese, e diventare giudizi i quali nella mente dell’interlocutore distaccano il nocciolo del discorso dalla suo guscio logico avvolgendolo in una bandiera multicolore. Citando il pensiero di un grande pensatore come Alfred Korzybski (1879-1850), spesso le parole e l’intera struttura linguistica tendono ad allontanarsi dalla realtà delle cose e la perduta aderenza ingenera reazioni del sistema nervoso con conseguenti alterazioni fisiologiche (Korzybski la definiva “semantic response”[4]). Un esempio? Perché quando si discute di politica si finisce per litigare?

Ritornando sull’evoluzione e sulla struttura gerarchica, anche io, come Pirsig, al cospetto di una grande città tendo a percepire quasi a livello inconscio un “Gigante” che ha bisogno di energia per sopravvivere. Si può pensare a tutta l’infrastruttura che sorregge una moderna city: la rete idrica, la rete elettrica, le infrastrutture di telecomunicazioni, la rete fognaria. Si possono altresì pensare ulteriori infrastrutture meno fisiche ma altrettanto importanti, come il settore terziario, il welfare ad esempio, il sistema di riscossione dei tributi etc. e ormai vitali per il funzionamento del meta-organismo cittadino. Allo stesso modo delle cellule che formano un organismo vivente. Al loro livello biologico non vi è una “consapevolezza” sotto forma di regole o leggi operanti che dominano gli organi che costituiscono. La funzione di una cellula è differente dalla funzione di un organo, la cellula “serve” l’organo e può essere anche specializzata in alcune funzioni, ma una sola cellula non forma un organo e spesso è facilmente rimpiazzabile se difettosa. Allo stesso modo un organo “serve” un corpo biologico il quale lo “sfrutta” per espletare le sue funzioni che viste dal livello cellulare possono essere definite meta-funzioni. Questi ragionamenti, oggi, sono interni ad un’affascinante disciplina che prende spunto anche dalla scienza dei sistemi: la Scienza della Complessità. Nel quadro tracciato dalla Complessità ciò che risulta interessante sono le interrelazioni tra i sottosistemi che compongono un meta-sistema, e il fatto che alcune leggi vigono in un sottosistema ma non nel sistema sovrastante gerarchicamente, e che alcune leggi o proprietà possono “emergere” da comportamenti collettivi e non possono essere riscontrate nei singoli elementi componenti. Spesso, in forma misticheggiante, tali concetti sono espressi con un mantra dal gusto orientale che recita: “Il tutto è più della somma delle sue parti”. Il punto essenziale è il seguente. Alcuni possono avere la percezione che vi sia una entità superiore, non mi riferisco a nulla di mistico, in pratica una sorta di meta-organismo i cui “organi” sono altamente interrelati e sono condizione necessaria alla sopravvivenza del meta-organismo stesso. Ora, se si volesse andare al di la di questa percezione? Immaginate di avere voglia di qualcosa, ma non avete le parole, le espressioni, in definitiva le frasi adatte per esprimerlo. Rimane una sorta di sensazione, non chiara nemmeno a voi stessi, ma in fondo avreste lo stesso modo di ottenerla. Poi ad un tratto trovate le parole per spiegarlo e siete, ora, in grado di comunicarlo e magari di spingere qualcuno ad aiutarvi, sicuri che abbia compreso ciò che volete. Probabilmente avete usato un esempio, una metafora, parole prese a prestito da differenti contesti. Siete riusciti a spiegarvi. Spesso, al contrario, capita che l’oggetto del vostro desiderio sia chiaro nella vostra mente e guarda caso esiste una parola od un nome comunemente accettato per esprimerlo. La mia domanda a questo punto è: esistono ad oggi, parole, nomi o frasi comunemente accettate per esprimere la sensazione dell’esistenza di un “Gigante”? Si potrebbe rispondere affermativamente e liquidare la questione con un semplice: quello di cui tu parli è ciò che i sociologi studiano ovvero la “società”. Ma né Pirsig né me stesso, nella prosecuzione del suo ragionamento, abbiamo percezione della società. Tutti sanno cosa sia la società, anche se ognuno darebbe una definizione leggermente differente. Il “Gigante” di Pirsig è un organismo vero e proprio che fa parte di un preciso percorso evolutivo, dove parte delle “cellule” che lo compongono sono organizzate e le cellule stesse amano definire la loro organizzazione “società”. Il “Gigante” è molto di più di una “società” e le cellule anche se organizzate e detenenti specifiche funzioni possono essere quasi sempre rimpiazzate. Il problema alla base del passaggio da “semplice percezione” a consapevolezza concreta e immediata potrebbe essere risolto con l’invenzione di nuovi concetti, ma so che non basta. L’uso di questi deve essere talmente comune, chiaro e immediato che non dovrebbe esserci bisogno di ulteriori parole per spiegarlo. Se parlo del mio braccio, la stragrande maggioranza comprende immediatamente cosa intendo. Non c’è bisogno di lunghi giri di parole e astrazioni per definirlo. Il concetto di braccio è ben definito, chiaro, circostanziato e può essere utile come “mattoncino” per la costruzione di ragionamenti più elaborati. Ciò non vale con concetti astratti come felicità, vita, amore e così via. Quasi sempre il disaccordo sulle questioni inerenti questi concetti deriva da punti di partenza differenti. Proprio perché partire da una definizione soggettiva su queste cose è pressoché impossibile. Credo che alla base della percezione oggettiva di un super-organismo vi sia un problema di definizione. Korzybski, se fosse in vita oggi, direbbe che “le mappe afferenti ad un comune territorio sotto gli occhi di ogni uno sono troppo differenti per far sì che nasca una coscienza globale di una simile entità”. Probabilmente questa nascerà quando si formerà un concetto ben chiaro di quest’ultima nella mente delle persone, concetto molto simile nei punti fondamentali per ognuno. Finché il tentativo di questa unificazione è lasciato ad una disciplina che tende a descrivere il “Gigante” attraverso la spiegazione dei meccanismi che governano la società, la stessa sarà ostaggio di una forte ed inesorabile miopia. A mio avviso manca una struttura di concetti ed idee unificante che permetta di parlarne come se si stesse parlando del pranzo consumato il giorno prima.

In questi ragionamenti cito contemporaneamente due illuminanti pensatori, Pirsig e Korzybski, proprio perché i loro temi di indagine seppur differenti hanno dei punti di contatto molto forti, non tanto negli obiettivi ma nella metodologia di approccio. Korzybski nella sua opera principale “Science and Sanity” espone il suo pensiero sul legame tra sanità mentale e scienza. Precisamente egli mette in guardia da un utilizzo sconsiderato delle strutture linguistiche, sia per la singola persona che per l’intera società, in quanto numerose problematiche e veri e propri conflitti nascono da un uso sbagliato del linguaggio stesso e delle astrazioni nel ragionamento. Entrambe inoltre vedono nell’applicazione dei precetti aristotelici alcune storture note nel pensiero moderno. Entrambi attaccano le “scissioni aristoteliche” da prospettive differenti. Entrambi comunque giungono alla conclusione che la frattura tra mitos e logos, tra techné e arte, tra umanistico e scientifico, è stata causata dal pensiero aristotelico. Korzybski intravede errori logici che hanno infettato il discorso, Pirsig accusa Aristotele di aver messo in atto una struttura di pensiero che non permette di intravedere più la Qualità da cui tutto scaturisce. Korzybski non intende fornire una metafisica ma “semplicemente” dà forma ad un sistema interpretativo del comportamento umano da cui ricava delle regole che, se seguite, portano ad una vita migliore, ad una più elevata salute mentale. Il trucco è una sorta di educazione al pensiero astratto che lo studioso invita a perseguire prendendo a modello il processo scientifico, in particolare la struttura su cui si basa la matematica e la scienza in generale. Egli, e questo è uno degli interessanti punti di contatto metodologici con Pirsig, ritiene che esista una sorta di gerarchia di astrazioni di livello superiore, gerarchia che parte dalla risposta del sistema nervoso degli esseri viventi fino ad arrivare a strutture nervose (oggi diremmo regioni cerebrali) più sofisticate capaci di produrre anche il linguaggio. Il linguaggio per Korzybski ha un potere fortissimo capace di modificare la struttura nervosa dell’interlocutore generando ciò che lui definisce “semantic response”, già citata in precedenza. Pirsig dice, dal canto suo, che la Qualità è un’ entità percepibile e pre-intellettuale, arrivando a dire che non è definibile. Korzybski sostiene inoltre che nella gerarchia di astrazioni vi è un livello (chiamato “struttura profonda”) dove non esiste il linguaggio ma solo risposte nervose, un livello che è presente ed è esperito dal soggetto, anche se allo stesso non percepibile obiettivamente. Oggi, ma anche nel 1930 quando egli ha espresso queste idee, tale livello è comunemente chiamato il livello emotivo o il dominio delle emozioni le quali hanno un linguaggio proprio ed una loro livello intellettuale. Queste idee hanno spinto studiosi di psicologia, come lo psicologo e giornalista scientifico Daniel Goleman, a scrivere best sellers sul tema dell’Intelligenza emotiva e come utilizzarla nel lavoro e nella vita di tutti i giorni. Ho ripreso parte del pensiero korzybskiano poiché è utile nel nostro ragionamento in quanto probabilmente non esiste una struttura nervosa, meglio dire in termini moderni una correlazione neurale, che possa “comunicare” alle gerarchie superiori l’esistenza di un super-organismo. Intendo con questo che la percezione del “Gigante” è ad un livello emozionale, o nella struttura profonda korzybskiana. E in quanto tale non è esprimibile o definibile. Risulta essere un’ astrazione che genera sì una risposta (semantica) ma incomunicabile con immediatezza.



Bibliografia


[1]         R. M. Pirsig, Lo Zen e l’arte della manutenzione della motocicletta. Milano: Adelphi, 1981.

[2]         E., Guglielmi, Giuseppe, Morin, [L’esprit du temps.] L’industria culturale. Saggio sulla cultura di massa. (Traduzione di Giuseppe Guglielmi.). Bologna: Il Mulino, 1974, 1974.

[3]         R. M. Pirsig, Lila : indagine sulla morale. Milano: Adelphi, 1992.

[4]         A. Korzybski , Science and sanity; an introduction to non-Aristotelian systems and general semantics. Lakeville, Conn.: International Non-Aristotelian Library Pub. Co.; distributed by Institute of General Semantics, 1958.


Ultimo aggiornamento Domenica 30 Novembre 2014 18:42

Sull'implicazione logica (formale vs materiale)

E-mail Stampa PDF

Via via che la logica si perfeziona, diminuisce il numero delle cose che si possono dimostrare.

Bertrand Russell, in Alan Wood, Bertrand Russell, lo scettico appassionato, 1957

Oggi ci concentriamo sul concetto noto ai logici come "implicazione", questo viaggio sarà compiuto attraverso la potente navicella, frutto degli studi di B. Russell, datata 1903, intitolata “I principi della matematica”.

Bertrand Russel

Esistono due tipologie di implicazione, talvolta ambedue indicate con una freccia. I più accorti però sono attenti a questa importante distinzione e utilizzano simboli differenti per ogni una di esse.

La prima è l’implicazione materiale indicata solitamente con: “ ”, la seconda è l’implicazione logica indicata con: “⇒”.

Russel sostiene che l’implicazione materiale si ha quando i termini che la costituiscono, ad esempio p e q in “p q” sono proposizioni. Questo vale se i suddetti termini sono proposizioni o vere o false “una volta per tutte”, cioè non contengono al loro interno ciò che Peano ha chiamato variabili reali. Le variabili reali a differenza di quelle apparenti, sempre secondo il Peano, si hanno quando queste non sono vincolate e sono veramente libere di variare, mentre quelle apparenti anche se compaiono in un termine non sono vere variabili, non essendo libere di variare. Un esempio può essere una proposizione contenete una variabile vincolata da un connettivo esistenziale come per ogni o esiste.

Russell nella sua opera ci dona una feconda analogia per comprendere definitivamente questa semplice distinzione. Egli ci invita a pensare ad un integrale definito, che, seppur contenendo come integranda una funzione della variabile, il risultato non viene a dipendere da quest’ultima. Ecco che asserisce allora che “x è un uomo” non è un a proposizione in quanto quest’ultima deve essere definitivamente o vera o falsa. Presa così com’è la frase non è né vera né falsa, dipendendo questi valori di verità dalla variabile x, libera di assumere qualsivoglia valore. Si è soliti definire una frase che contiene variabili libere (almeno una) comeuna funzione proposizionale.

Ultimo aggiornamento Lunedì 15 Ottobre 2012 11:55

Hanno detto..

NewS - Le Scienze

You are here: Home