sublimina.it

  • Full Screen
  • Wide Screen
  • Narrow Screen
  • Increase font size
  • Default font size
  • Decrease font size






  research gate


omino_logo_sublomina


La Conoscenza è come una linea, dove sono i confini non ci è dato di saperlo.

Sublimina.it è un viaggio personale nel mondo del pensiero umano. Per raggiungere ogni meta c'è una via ed ogni via ha un ingresso. Questa è la mia porta personale, l'ho appena aperta. Ognuno ha la sua porta, qualche volta si ha bisogno, però, di intravedere cosa c'è al di là della porta altrui per mirare l'altrove che sta dietro la propria.  Ispirato da: Franz Kafka, Il processo (1925)


La dimensione in cui vivono gli elefanti

E-mail Stampa PDF

All'intelligenza classica interessano i principi che determinano la separazione e l'interrelazione dei mucchi. L'intelligenza romantica si rivolge alla manciata di sabbia ancora intatta. Sono entrambi modi validi di considerare il mondo, ma sono inconciliabili.

R. M. Pirsig (Lo zen e l'arte della manutenzione della motocicletta)


Un elefante le cui zampe sono tagliate orizzontalmente da un piano immaginario, Flatland, le dimensioni nascoste dalle teorie fisiche e il “Gigante” che è dietro le megalopoli abitate da milioni di minuscoli esseri umani, che, come in un formicaio, agiscono per mantenere in vita il complesso sistema che gli permette di mantenersi in vita.

elefante tridimensionale e sua proiezione bidimensionaleUn libro che sicuramente ci aiuta a capire il concetto di “dimensione”, non tanto intesa come estensione, ma come asse di riferimento che assieme ad altri due con le medesime caratteristiche formano la realtà tridimensionale che abitiamo, è Flatland, novella satirica e fantastica ad opera del teologo e insegnante inglese Edwin Abott, pubblicato nel lontano 1884. Flatland oltre ad essere una caricatura satirica della struttura classista della società vittoriana, è un maestoso capolavoro che intende mostrarci la relatività della nostra concezione della realtà tridimensionale, alla luce delle nuove geometrie non euclidee che nel tempo in cui è stato scritto il racconto prendevano forma e che andarono a fecondare, di lì a poco, le idee relativistiche sulla struttura dello spazio-tempo da parte di Albert Einstein. Flatland è un mondo bidimensionale abitato da individui che hanno varie forme geometriche, dai poligoni alle circonferenze. Ogni individuo-forma geometrica ha proprie caratteristiche specifiche e un potere di azione e movimento limitato che in realtà rispecchiano il costume e i modi di pensale socialmente radicati nell’era vittoriana in Inghilterra. Sebbene questa parte della storia sia di estremo interesse, in nei brevi spunti che seguiranno ci concentreremo sulla parte “geometrica” della faccenda. Di fatto Abbott è molto bravo ad usare un certo numero di espedienti per farci “entrare” in un mondo bidimensionale. Siamo abituati a percepire la realtà tridimensionale e questo è un fatto. Ora se prendiamo un foglio e vi disegniamo delle figure geometriche e proviamo a calare il nostro punto di vista sulla superficie del foglio, non “sopra” la superficie, ma nella superficie, scopriamo che alcune realtà del mondo tridimensionale non possono esistere. Ammettendo di disegnare le linee con colore uniforme e se poniamo il nostro occhio nel mondo bidimensionale del foglio di carta vedremmo, ad esempio, i triangoli come linee, come del resto anche le circonferenze e i quadrati. La loro vera natura possiamo conoscerla solo se siamo in grado di “elevarci” nella terza dimensione. Abbott utilizza una miriade di geniali espedienti interconnessi con la metafora relativa alla società vittoriana per provare a mostrare, anche nel mondo bidimensionale le forme nella loro reale essenza (triangoli, cerchi, etc.). A un certo punto della storia compare un individuo proveniente da un’altra dimensione, e cerca di presentarsi, al povero quadrato, protagonista del racconto. Ma come può presentarsi una sfera tridimensionale in un mondo bidimensionale? Quello che possiamo fare è dare sfogo all’astrazione ed immaginare, ad esempio, una mela e trapassarla mentalmente con un foglio di carta e domandarci: qual è la proiezione della sfera nel mondo bidimensionale del foglio immaginario? Bene, è una macchia a forma di circonferenza. Quindi il quadrato di Flatland, o qualsiasi altro osservatore bidimensionale può osservare una circonferenza, ovvero qualcosa che si comporta come una circonferenza, nel proprio mondo. Come poteva rivelarsi allora la sfera? Essa inizia a trapassare il mondo bidimensionale, proprio come noi faremmo muovendo dal basso verso l’alto il foglio immaginario che trapassa la mela e osservando come la proiezione (la circonferenza) aumenta e poi diminuisce la propria estensione. E’ il mutare della dimensione (intesa come estensione) che mostra la natura della sfera al povero quadrato bidimensionale. In realtà aggiungendo alle due dimensioni spaziali la dimensione temporale il quadrato può esplorare i misteri di un mondo che ha una dimensione in più al suo, una cosa per lui incredibile fino a quel momento essendo abituato a concepire il suo mondo, quello consueto, ovvero composto dalle normali due dimensioni. Come fa notare il fisico J. D. Barrow nel suo saggio “Teorie del tutto”, il concetto di dimensione, molto caro ai matematici, è entrato in maniera dirompente nel mondo della fisica, specialmente dopo la Teoria della Relatività Generale di Albert Einstein. Da punto di vista squisitamente matematico, vi sono due branche, in linea di principio interconnesse, l’Algebra (lineare) e la Topologia che giocano con il concetto di dimensione. La prima, algebrizzando la geometria, mostra come sia facilmente possibile estendere le proprietà relative agli spazi matematici tridimensionali a quelli che sono comunemente chiamati iperspazi caratterizzati da un numero di dimensioni superiore a tre, a limite infinito, e abitato da enti geometrici aventi altrettante dimensioni, come l’ipercubo o tesseratto che  Salvador Dalì ha rappresentato egregiamente (nello spazio tridimensionale della tela) con la sua celebre opera Corpus Hypercubus. La Topologia, in linea di principio, categorizza gli spazi (topologici) attraverso il concetto di connessione e di somiglianza. In altre parole una tazzina da caffè espresso con manico bucato risulta topologicamente equivalente ad una ciambella (forma toroidale), anche se la loro forma fattuale è molto differente. Il concetto di connessione collegato, permette di stabilire se si può procedere da un punto all’altro dello spazio oggetto di studio, a seconda della presenza di “buchi” e della loro natura.

Salvador Dalì - Corpus Hypercubus

Salvador Dalì - Corpus Hypercubus (1954)

Einstein aveva immaginato la possibilità di sfruttare le geometrie non-euclidee, nate da eminenti matematici come  Nikolai Ivanovich Lobachevsky, János Bolyai, Bernhard Riemann, Eugenio Beltrami, etc. nella seconda metà dell’Ottocento, che erano pronte e avevano fatto a meno del famoso quinto postulato di Euclide sulle rette parallele, per modificare il concetto di spazio e tempo separati e assoluti formulato da Newton e approdare ad un avvincente visione dello spazio-tempo come un’unica entità che a seconda delle condizioni fisiche (massa, accelerazione) assume una data forma. E lo stesso universo che abitiamo oggi è descritto in fisica come un modello spazio-temporale in cui abbiamo le tre usuali dimensioni a cui se ne aggiunge una quarta che è il tempo. Questa rivoluzionaria teoria portò ad un cambiamento di paradigma in cui spazio e tempo erano inseparabili e la loro natura era dal punto di vista geometrico addirittura simile (non identica come mostrano le equazioni di Hermann Minkowski relative allo spazio-tempo quadridimensionale).  La fisica moderna ha comunemente a che fare con le dimensioni. I tentativi, riusciti in parte, di riunificare le forze fisiche principali sono basati su teorie matematiche che prevedono un numero di dimensioni che può essere superiore a quattro. Ad esempio, la teoria di Kaluza-Klein, proposta agli inizi del Novecento è un tentativo di unificare il campo gravitazionale, descritto dalle equazioni della Relatività Generale, con il campo elettromagnetico, descritto dalle equazioni di Maxwell. Essa prevede la presenza di una quinta dimensione oltre alle usuali quattro della teoria einseniana. Nella formulazione di base la “quinta dimensione” è considerata compattificata,  ovvero come se fosse arrotolata su se stessa e come diceva lo stesso  fisico svedese Oskar Klein, esse sono invisibili ai nostri sensi poiché le altre quattro dimensioni sono sviluppate infinitamente, rispetto alla quinta che è infinitasima. Al di la dei problemi che ebbe questa teoria con i concetti di quantizzazione della carica, il concetto di spazio multidimensionali è ritornato in voga con la Teoria del Stringhe e la M-teoria che prevedono l’esistenza di altre dimensioni con iperspazi dalla particolare forma topologica, alcuni dei quali noti come  spazi di Calabi - Yau compatti. In definitiva una descrizione omnicomprensiva della realtà fisica sembra non poter prescindere dal considerare dimensioni aggiuntive, proprio come in Flatland, dove la dimensione temporale (che è estremamente importante nella Teoria della Relatività) poteva consentire alla sfera di mostrarsi all’osservatore bidimensionale, il quadrato, e di rivelare la propria natura di entità proveniente da un’altra dimensione.

A questo punto è interessante prendere spunto da queste semplici considerazioni e tentare di distillare alcune idee che possono giovare alla comprensione ed al modellamento della realtà che ci circonda dal punto di vista della Complessità. Alcune idee mi sono sopraggiunte quando, di tanto in tanto, mi affaccio al balcone della mia abitazione, al trentaduesimo piano, al centro di Toronto, dopo aver appreso la descrizione di R. Pirsing, in “Lila, idagine sulla morale”, che fa della città di New York, assimilandola ad un gigantesco organismo, il Gigante, che ha vita propria e che consuma materia ed energia e i cui abitanti umani sono solo una parte dell’intero sistema. Di fatto dall’alto di un palazzone come quello in cui abito, si ha una prospettiva più generale, le persone sono puntini e il traffico perde quasi la sua forma discreta e appare come un continuum che scorre, come sangue nei vasi, nelle varie direzioni tracciate dalle arterie stradali. Una visione globale che mostra l’interrelazione reciproca delle varie entità dinamiche che coabitano lo spazio cittadino. Interi grattacieli abitati da una miriade di minuscoli punticini che si muovono, parlano al telefono, sono connessi ad Internet, si recano ad appuntamenti, prendono la macchina, rimangono imbottigliati nel traffico, inviano un post sul social network, perdono il volo, decidono di andare a fare la spesa in un orario meno caotico. Camion che trasportano materiale edilizio, ruspe con motori a scoppio esosi di carburante che scavano buche che ospiteranno le fondamenta di altrettanti grattacieli. Fili elettrici che, come un sistema nervoso, corrono lungo le palizzate ai lati della strada, dove scorre energia e contenuti informativi e mediali come canali TV, telefonate e Internet. Antenne satellitari come funghi sui palazzi che sono puntate verso satelliti che rimbalzano il segnale trasmesso da stazioni poste a migliaia di chilometri di distanza. Fabbriche che producono merce per essere trasportata in negozi, supermercati e pronta per essere consumata. Rifiuti che sono suddivisi a seconda del materiale e vengono riciclati per rientrare in parte nel ciclo produttivo. Fiumi di universitari che si riversano nelle aule ad ascoltare lezioni basate su conoscenze tramandate da generazioni e pronti a prendere il posto della generazione precedente nei più svariati lavori necessari al funzionamento della città. Catene di cause-effetto che si diramano in tutte le direzioni ed in tutte le dimensioni per mantenere in vita servizi di prima necessità come ospedali, centri di ricovero, dipartimenti di polizia e centri finanziari e governativi. Miliardi e miliardi di bit al secondo che vengono scambiati in rete ad alimentare scambi commerciali e monetari tra attori economici, come sono i comuni cittadini. Centri di raccolta dati e informazioni che vengono elaborati per ottenere modelli previsionali sui più svariati ambiti, da utilizzare per il corretto funzionamento dell’organismo, per alimentarne le sue capacità cognitive rispetto ai vari elementi (sottosistemi) che formano il sistema città. La presente è una visione olistica, in cui si immaginano dei livelli, una gerarchia di livelli, sempre più generali dove le varie entità hanno una propria “condizione di vita”. Come noi trasformiamo il cibo per nutrire i vari organi del nostro corpo, le nostre cellule, così da mantenerci sani e avere l’energia necessaria per muoverci, le città hanno la loro richiesta di materie prime ed energia per mantenere il proprio status di vita. Inoltre nello sviluppo dei sistemi di alimentazione nelle città, siano essi informativi (Internet e reti di comunicazione in genere), siano essi sistemi di trasporto e dispacciamento dell’energia elettrica, in sistemi stanno diventando sempre più resilienti, meno centralizzati e con capacità di auto-cognizione e autocontrollo per quanto riguarda il proprio status. La decentralizzazione dei centri di alimentazione e controllo ne diminuisce di gran lunga la vulnerabilità ai black-out ad esempio, o ad attacchi terroristici. Le città, come le nazioni, come l’intero pianeta terra, sono un sistema complesso che ad opera degli esseri umani vede la coabitazione della tecno-sfera con la bio-sfera in uno scambio simbiotico in cui i dati sui mutamenti climatici repentini degli ultimi anni, fanno intravedere che la prima sta agendo a danno della seconda.

Ritorniamo adesso, per un attimo, a Flatland e alla sfera che si rivela al mondo bidimensionale trapassandolo e mostrando il mutamento di estensione della sua proiezione, cioè della circonferenza. Immaginiamo un essere vivente, un elefante, che cammina tranquillamente su un terreno pianeggiante. Immaginiamo di improntare la stessa operazione mentale e prendiamo un piano (come il foglio immaginario che trapassa la mela) e facciamo in modo che sia parallelo al terreno ponendolo all’altezza delle ginocchia dell’elefante. Immaginiamo, altresì, la proiezione delle quattro zampe e dell’eventuale parte terminale della proboscide. Dovrebbero apparirci come delle macchie o quasi-circonferenze che si muovono avanti e indietro secondo un certo schema. Se fossimo come il quadrato di Flatland, vedremmo, nel mondo bidimensionale del piano queste entità come separate. Proprio come noi individui siamo soliti percepirci come separati fisicamente gli uni dagli altri (non considerando i gemelli siamesi). Eppure, se poniamo un po’ di attenzione al nostro agire quotidiano, al di la della separazione fisica, possiamo percepire una sorta di interrelazione, dove le nostre azioni, i nostri spostamenti, le nostre emozioni e gli stati d’animo, sono condizionati da altri individui, o gruppi di individui separati fisicamente. L’elefante nelle consuete tre dimensioni è un’unica entità, ma come facciamo a percepirla come tale se fossimo abitanti di Flatland? Abbiamo asserito che ciò che vediamo sono delle circonferenze imperfette (le proiezioni delle zampe e della proboscide) che si muovono come macchie secondo uno schema dinamico. Ecco, quello che possiamo fare è percepire, a fronte dell’osservazione e dell’incameramento delle informazioni, uno schema soggiacente. L’elefante cambierà direzione, inizierà a correre se è in pericolo o muterà modo di camminare se cambia la tipologia di terreno. Una quasi-circonferenza scomparirebbe se l’elefante alzasse la gamba come gli insegnano nei circhi. In definitiva lo schema soggiacente, seppur esistente, può essere estremamente dinamico e solo un’attenta e prolungata osservazione potrebbe mostrare che quelle proiezioni nel nostro mondo bidimensionale sono elementi che appartengono ad un essere unico, di fatto sono semplicemente le zampe. Una prima osservazione è la “località” dello schema soggiacente. Di fatto le zampe tendono a non allontanarsi le une dalle altre oltre una certa soglia. Un po’ come gli abitanti di una città, di cui una parte che lavora fissa al centro della stessa, ad esempio un campione di commesse di un supermercato, tende a non spostarsi più in la del perimetro cittadino, almeno durante i giorni lavorativi. Quindi possiamo iniziare ad intuire che quelle quattro/cinque macchie vaganti hanno un moto correlato e localizzato spazialmente. L’attento osservatore allora inizia a operare una serie di ipotesi per cercare di definire quantitativamente e qualitativamente la natura di queste correlazioni. Egli intuisce uno schema di base, ma sa che deve raffinarlo. Dopo attente misurazioni nota una serie di movimenti “medi” che avvengono con una certa variabilità che è limitata: nota che le macchie si muovono con moto periodico e ci sono macchie che procedono in una direzione ed altre in quella opposta, in successione. L’osservazione prolungata inizia a dare i propri frutti e nella mente dell’osservatore lo schema dinamico diventa una realtà unica, anche se non è in grado far percepire quelle proiezioni come appartenenti ad un elefante. Tuttavia l’analisi ha dato buoni risultati, si fiuta la presenza di un sistema, siamo di fronte ad una entità i cui cinque elementi (zampe e proboscide) procedono in maniera fortemente correlata. Gli elementi sono legati in un qualche modo e hanno una relazione reciproca causale. L’osservatore bidimensionale, come potrebbe stabilire (ammesso che possa farlo) che quell’entità ha quattro zampe se di proiezioni/macchie ne vede quasi sempre cinque? In realtà quello che farà è osservare una differente relazione di correlazione tra le quattro entità e la quinta, ma sarebbe difficile per lui eliminare l’ipotesi della quinta zampa (questa ipotesi è pretestuosa in quanto per l’osservatore risulta difficile ipotizzarne l’esistenza dal principio). Inoltre il nostro osservatore potrebbe iniziare tutta una serie di ipotesi sulle “azioni a distanza” e immaginare un campo di natura fisica in cui si propagano istantaneamente informazioni da una macchia all’altra, come un filo invisibile che le lega. Per non essere sadici con il nostro osservatore curioso, permettiamogli adesso di poter innalzare ed abbassare il proprio mondo bidimensionale. In questo modo egli potrebbe operare una “radiografia” all’animale, proprio come fa la sfera di Flatland con il quadrato. L’osservatore, attraverso la magia del moto inizierebbe a collezionare una serie di ulteriori ipotesi e si convincerebbe di aver a che fare un un’entità che in qualche altra dimensione debba essere un’entità unica, abbiamo dettagliato quello che è lo schema di un sistema. L’entità ignota (noi esseri tridimensionali sappiamo benissimo essere un elefante) è un insieme di elementi correlati che agiscono di concerto mostrando una sorta di complicità che ne fa percepire l’unicità, intesa come un tutto unico. Purtroppo però, qualsiasi rappresentazione il nostro ormai osservatore scienziato abbia composto, non gli permetterà mai di vedere l’elefante, ne può percepirne l’esistenza, gli darà un nome e lo chiamerà per volere della sorte proprio elefante, ma non potrà cavalcarlo, a meno di non uscire dalla trappola bidimensionale e di non elevarsi nella terza dimensione. Nelle città avviene la stessa cosa. Il percepire il nostro agire e sentire come dipendente in una certa misura da ciò che ci circonda (non ne sto facendo qui una questione sul libero arbitrio) è il percepire correlazioni e relazioni causali tra entità che reagiscono reciprocamente e reagiscono su di noi e che limitano, in una certa misura, il nostro perimetro. Spesso mi capita di prendere l’aereo e quando sono qui a Toronto l’aeroporto principale è fuori città. Dal punto di osservazione privilegiato del sistema città che può essere il palazzo in cui vivo, un’automobile, ad esempio il taxi ci impiega mezz’ora per giungere all’aeroporto, mentre con i mezzi pubblici ci vuole più di un’ora e bisogna cambiare la metro con un autobus. Sebbene parta con un certo anticipo per raggiungere in orario l’aeroporto, so che qualsiasi cosa potrebbe accadere per farmi incorrere in un pericoloso ritardo, come quella volta in cui, imprigionato con pesanti valige nel taxi, rimasi imbottigliato nel traffico dell’autostrada che porta all’aeroporto. A parte i momenti di panico, pensai che solo un elicottero poteva prelevare l’automobile, o solo me con le valige, e portarmi all’aeroporto. Se fossi sceso e mi fossi messo a correre, sarei arrivato forse dopo sei o sette ore, il tempo che impiegavo per tornare in Italia! Quindi doveva avvenire un fatto straordinario, rispetto alla norma, cioè un elicottero a prelevarmi, nella mia fantasia. Il tassista, che era stranamente tranquillo, quella volta si accorse della mia irrequietezza e mi spiegò che saremmo arrivati in tempo poiché erano le sei passate del pomeriggio e il traffico a quell’ora si sarebbe diretto verso l’arteria est, dopo circa un chilometro. Quel giorno riuscii a prendere l’aereo senza troppi intoppi eppure il senso di impossibilità ad agire nel traffico mi lasciava un senso di sconforto. In definitiva un modus esterno, dovuto ad un comportamento medio che si ha alle sei del pomeriggio in quel punto dell’autostrada, mi permetteva di arrivare all’aeroporto in orario, altro che elicottero. Migliaia di persone che escono dagli uffici e si dirigono verso le proprie case, gli uffici si svuotano, negli ospedali e nei dipartimenti cambiano i turni, come negli altiforni dell’industria siderurgica o nei centri di controllo delle centrali elettriche. Marco, un ragazzino di periferia a casa sua è intento a scaricare gli ultimi episodi della sua serie preferita, mentre addetti al centro di smistamento di zona del traffico Internet, deviano il flusso dati verso un altro router di riserva, nell’attesa che quello che si è appena guastato venga riparato. Ho posto l’esempio della città per semplicità e perché si presenta davanti ai miei occhi spesso, ma ciò vale anche per l’intero pianeta, una serie di entità o sottosistemi facenti capo ad un sistema superiore (ecosistema) fortemente interconnessi ed interrelati e più l’evoluzione tecnologica e del nostro stile di vita procede, più tali entità saranno sempre più interrelate. Relazioni semplici come la produzione di gas dannosi e il buco dell’ozono si sono rivelate abbastanza facilmente. Vi sono una miriade di micro-relazioni che come catene causali modificano i vari elementi del nostro sistema-pianeta terra e devono ancora essere scoperte. Altre, grazie alla tecnologia stessa ne vengono create e spostamenti di beni-denaro, possono avvenire alla velocità della luce permettendo a banche ed istituti finanziari di guadagnare o perdere ingenti somme in brevi istanti. Azioni compiute in punto del pianeta si riflettono con sempre più vigore sull’intero globo, e non si tratta solo di cambiamenti climatici presunti, ma di mutamenti delle condizioni di vita che in alcuni paesi portano a carestia e morte. Tutto è connesso con tutto, invero ignoriamo la natura delle connessioni. Il “Gigante” esoso di energia, materie prime e forza lavoro è un’entità molto complessa la cui presenza è difficile da materializzare mentalmente, solo un’attenta e accurata, nonché lunga osservazione dei fenomeni in gioco possono permettere di percepirne l’unicità nell’agire, proprio come le formiche in un formicaio in cui la morte di una formica non è detto che sia un danno, specie se vi è scarsità di risorse alimentari. Dovremmo essere come l’osservatore bidimensionale alle prese con l’elefante.

Ultimo aggiornamento Lunedì 26 Settembre 2016 04:07

Maledetta tecnologia che tu sia benedetta!

E-mail Stampa PDF

Il Web è progettato per essere universale: per includere tutto e tutti.

Tim Berners Lee


Social media, Nuovi media, Algoritmi, Big Data, Era Digitale, Informazione, Internet, Intelligenza Artificiale, Conoscenza, Cibernetica, Vita.

La tecnologia è da amare o da odiare? O possiamo semplicemente essere neutrali ad essa? Partendo da un approccio situato in qualche punto interno al triangolo i cui vertici si riferiscono ai sostenitori del determinismo tecnologico, del determinismo sociale e della neutralità della tecnologia, si intende discutere la centralità di questa e dei suoi sottoprodotti alla luce dell’approccio complesso che scaturisce dalla disciplina della Teoria della Complesità.


technology simulacraTi abbiamo tanto amato o tecnologia, adesso perché ti ribelli al tuo creatore? Perché, ammasso di chip di silicio che non sei altro, hai trangugiato il pomo biologico della discordia?

Una frase che la rete con la sua frettolosa viralità ha attribuito ad Albert Einstein, anche se pare che non vi è citazione rintracciabile (non mi interessa in questo frangente poiché e bella ed espressiva di per sé e non per chi l’ha pronunciata), recita: “temo il giorno in cui la tecnologia andrà oltre la nostra umanità: il mondo sarà popolato allora da una generazione di idioti”. Può la tecnologia andare oltre la nostra umanità solo per generare idioti? A questo punto mi sovviene, prima ancora di qualsiasi concreto giudizio, l’immagine dell’esoscheletro Hybrid assistive limb, in via di sviluppo in collaborazione con un’università giapponese per potenziare le possibilità di persone affette da gravi disabilità motorie e allo stesso tempo mi si contrappone l’immagine tratta da un’esperienza di non molto tempo fa, sul woterfront di Toronto, mentre rincasavo, bicicletta alla mano, all’imbrunire. Ho notato nella penombra data dal sopraggiungere dell’oscurità una miriade di luci, alcune immobili altre in lenta oscillazione. Erano centinaia di smartphone nelle mani di persone che mi circondavano; mi sono fermato per cercare di capire se vi fosse qualcuno che stesse dialogando. Saranno state cinquanta persone, non sono riuscito a scovare la traccia di un dialogo, solo teste curve su uno schermo sfiorato di tanto in tanto dalle dita. Sarà stata anche l’incombenza dell’imbrunire che ha reso meno visibile la presenza dell’altro, ma scene come queste ormai sono la normalità, non solo in metropolitana. Esse lasciano percepire “lontananza” che non significa più lontananza geografica, bensì lontananza della mente nel presente spazio-temporale, pur stando i corpi anche a stretto contatto. Qualcosa sta cambiando profondamente nei nostri modi di interagire e relazionarci.

Di esempi di dicotomie sull’utilità/inutilità della tecnologia e di alcune scoperte scientifiche, se non tutte, ve ne sono una infinità. La scoperta dell’atomo con l’energia nucleare. L’invenzione del transistor e la possibilità di fare calcoli velocemente come veniva percepita nel secolo scorso, l’invenzione del transistor per poter usufruire di smatphone, tablet e computer per poter comunicare e lavorare meglio, come viene percepita oggi nell’era digitale. La televisione come elemento di alfabetizzazione e livellamento socioculturale, come veniva percepita il secolo scorso, la televisione come strumento oppiaceo di addomesticazione di massa come per lo più viene percepita oggi. La stessa tecnologia può essere intesa come un monstrum frattale in cui ad ogni ingrandimento si scovano dei pezzi che sono utili e che sono pericolosi al tempo stesso. L’esoscheletro meccatronico può permettere di deambulare a persone che oggi sono costrette sulla sedia rotelle, se non a letto, in un mondo che, seppur si sforza con l’abbattimento delle barriere architettoniche, è costruito in larga parte per in normo-abili. Allo stesso tempo, l’esoscheletro può potenziare la forza di un operaio, come faceva il muletto e limitare il deperimento causato dal lavoro pesante in una fabbrica. L’esoscheletro, però, può essere utilizzato dall’esercito per accrescere le abilità dei soldati in guerra. Proprio come l’energia nucleare, tanto dibattuta, ma comunque sempre meno pericolosa nel suo impiego civile nelle centrali elettriche, rispetto a quello militare, nelle testate non convenzionali dei missili da crociera. Medicine con principi attivi composti in laboratorio da molecole che salvano la vita e molecole che generano dipendenza e vengono poste sul mercato nero delle mafie e vendute come droghe. A parte le droghe “naturali”, la sintesi di una droga sintetica è data grazie alle stesse leggi ed agli stessi supporti tecnologici che consentono di sintetizzare un vaccino o una nuova molecola. La stessa tecnologia alla base di smartphone e tablet, la stessa rete Internet, sono oggi utilissime per portare a termine operazioni chirurgiche e salvare vite che un tempo sarebbero state date per spacciate. Di esempi ce ne sono moltissimi, anzi potrei azzardare a dire che qualsiasi invenzione ha un doppio risvolto e come si è soliti ribadire, la tecnologia in sé stessa è solo un mezzo, non è né bene né male, è l’utilizzo che le imprime una natura angelica o diabolica. E’ proprio così? La risposta è alquanto difficile eppure, prima ancora di conoscerla, con la tecnologia ci dobbiamo convivere. L’immagine di tante persone chine sullo smartphone su un treno odierno non è poi tanto distante come l’immagine di tante persone chine su un libro tascabile al tempo dell’esplosione di questo formato, che in Italia pare risalire al primo dopoguerra con la casa editrice BUR. Come sosteneva Umberto Eco, in una sua celebre “Bustina di minerva” che soleva pubblicare periodicamente su un noto giornale, la contestualizzazione storica è importante e non solo, prima di dare un giudizio sulla propria epoca, prima di giudicare se il numero dei suicidi minorili è il più grande di sempre e quindi stiamo andando verso la rovina, bisogna dilatare tempo e spazio, altrimenti si incorre nel vedere solo quello che inquadra la telecamera di turno del “media” di turno. Anche i libri e i giornali devono aver fatto venire in mente a qualcuno che avrebbero creato “distanze”, quantomeno nelle sale d’attesa o sui mezzi pubblici. Eppure soprattutto i libri sono considerati uno strumento di libertà, uno strumento che permette di elevarsi, il nutrimento primario dello spirito, ciò che consente di accarezzare la propria anima. Facebook, forse non a caso, sarebbe tradotto in Italiano come “Faccialibro”, e di fatto quando nacque era per lo più un libro (consultabile via web browser) composto da facce che sceglievamo come amiche, siano esse di veri amici o di amici virtuali conosciuti in rete. Oggi, nel 2016, il super tecnologico social network di Mark Zuckemberg è un po’ più di un libro elettronico con facce. Esso è un contenitore inclusivo che veicola molteplici classi di contenuto che si differenziano anche a seconda del tipo di codice usato per comunicare i contenuti stessi. Perché però alcuni intellettuali hanno l’impressione, anche chi ne è un assiduo utilizzatore, che i social, molto spesso, invece di essere un nutrimento primario, uno strumento di cultura e di elevazione della propria anima sono percepiti, bensì, come uno strumento di appiattimento e di slavamento culturale? Come funziona davvero Facebook? E twitter? Come funziona la rete internet moderna (semantica)? Propongono essi, esempi della cosiddetta connettività o nuovi modi del suicidio come è accaduto alla ragazza partenopea Tiziana Cantone a causa di un video intimo dal carattere pornografico divulgatosi viralmente in rete o dell’adolescente francese che qualche tempo fa si è suicidata in diretta web, annunciando il proprio triste destino, un attimo prima di portarlo a compimento? Questi nuovi modi del suicidio sono figli della tecnologia? Oppure la tecnologia ci svela semplicemente ciò che prima era nascosto nella non ubiquità dell’informazione? La visione positiva della tecnologia e della scienza come strumenti per migliorare le capacità umane dal livello cognitivo a quello prettamente fisico del Movimento Transumanista (talvolta indicato con H+) si contrappone alla visione, detta in generale, catastrofista dove la tecnologia è percepita come uno strumento disumanizzante e allo stesso tempo di predominio delle masse utile a perpetrare le strutture di potere ben consolidate nella storia. Esoscheletro come strumento per compiere il “miracolo” del camminare e restituire una vita più dignitosa ai disabili o strumento di sopraffazione degli eserciti sui popoli ostili o sul proprio stesso popolo? La questione risulta alquanto spinosa eppure da un verso deve essere presa. Proprio durante il mio dottorato, ahimé in materie scientifico tecnologiche con specializzazione in una sotto-disciplina afferente all’Intelligenza Artificiale, un video dal titolo “The animated guide to a Ph.D.” [1], capitatomi mentre surfavo il web mi ha molto colpito. Esso in una grafica semplice e con una musica accattivante diceva: immaginate un cerchio (tracciandolo) che contenga tutta la conoscenza umana. Poi continuava: “dal tempo che hai finito le suole elementari conoscevi un pochetto”, mostrando un punto al centro. Alla schermata successiva tale cerchio cresceva e la frase di accompagnamento recitava: “da quando hai finito le scuole superiori tu conosci un poco di più”. E ancora: “con la laurea triennale tu hai guadagnato una specializzazione”; questa volta il cerchio invece di crescere in maniera concentrica, spunta da un lato di quello sorto in precedenza come se fosse un bozzo. E ancora: “la laurea specialistica approfondisce questa specializzazione e leggendo articoli di ricerca scientifica ti porta sulla soglia della conoscenza umana”; questa volta il bozzo si dilata allungandosi fino a lambire, senza superarlo, il cerchio più esterno, quello relativo all’intera conoscenza. Poi una inquadratura nuova si focalizza nella zona del punto di contatto: “spingi verso questo confine per pochi anni… Fino al giorno che il confine ti apre una strada”, e la punta del bozzo deforma infinitesimamente il confine creando un’intaccatura. “E quell’ intaccatura che hai creato è chiamata Ph.D”. Infine il focus si sposta verso un ingrandimento ancora maggiore dell’intaccatura e proprio mentre se ne allontana velocemente di nuovo mostrando il cerchio della conoscenza per intero, il narratore testuale ammonisce: “sicuramente il mondo ti appare diverso, ma non dimenticare l’immagine nell’insieme”. Tra le tante immagini metaforiche e riflessioni che il video ci suggerisce una è alquanto chiara. Man mano che si procede nel percorso, perlomeno quello scolastico pre-tracciato, verso la conoscenza, aumenta la specializzazione in un dato ambito, specializzazione che ti permette di ambire a padroneggiare una porzione infinitesimale dell’intera conoscenza umana. In una società moderna, la specializzazione è un pregio e l’intero monstrum tecnologico necessita anche individui iper-specializzati. Cosa accade di converso? L’iper-specializzazione e la parcellizzazione del lavoro portano ad una miopia rispetto al resto della conoscenza generando quelli che poi vengono definiti problemi etici. E’ noto che nonostante esistano studiosi attenti all’etica delle tecnologie, si pensi alla bioetica e alla roboetica, essa spesso non arriva all’attenzione di coloro che sono intenti a creare e a vendere tecnologia o quantomeno vi giunge con una tale debolezza che sortisce come un totale disinteresse. Vi è anche una terza via, la comunicazione giunge e innalza il livello di consapevolezza, ma l’affare economico copre gli occhi degli addetti ai lavori con spesse fette di prosciutto stagionato. Quanto è complessa la tecnologia? La scienza manipola abbastanza agevolmente il concetto di complessità, anche se ad una soluzione non vi si è ancora arrivati con chiarezza, tanto che il filosofo Edgar Morin sosteneva che “la complessità è una parola-problema e non una parola-soluzione” [2]. Cosa c’entra la complessità? Dopo l’iper-specializzazione e la parcellizzazione del lavoro che non consentono di avere una visione di insieme tale da far nascere giudizi etici sulla portata del proprio operato, giunge la complessità della tecno-sfera, una realtà tecnologica tutt’altro che irreale che permea il nostro pianeta e ne costituisce, in un certo senso, una protesi artificiale, una specie di sistema cognitivo cibernetico che aggroviglia il pianeta. L’interconnessione dei dispositivi, grazie alla cosiddetta interoperabilità, fornita da interfacce su cui operano protocolli rigidi, ma intelligenti e dinamici, e standard comuni e grazie ai supporti fisici prodotti in continuo miglioramento ha aumentato la complessità della tecno-sfera, la quale nasce originariamente come una serie di elementi separati, un sistema composito o un complesso semplice. Poi essa si evolve, grazie all’ingegno umano, in un complesso complicato in cui il tutto risulta più della somma delle sue parti. Di fatto emergono applicazioni, nuovi usi dei dispositivi, della rete e della tecnologia in generale, che non erano stati davvero pensati al momento che si stava producendo quella particolare tecnologia: una sorta di serendipity tecnologica. Questi effetti nella Teoria della Complessità sono noti come “emergenza”. Quindi a questo punto abbiamo anche un ulteriore fardello: la tecno-sfera, nonostante sia composta da elementi deterministici costituenti, è un qualcosa che si avvicina molto ad un modello di Sistema Complesso, nel suo insieme e nell’interazione con noi esseri umani. Per i transumanisti non c’è da preoccuparsi, anzi Ray Kruzweil, scienziato e futurologo americano, ritiene in un suo famoso saggio [3] che la conoscenza e la tecnologia procedono con trend crescenti, grazie all’effetto rete, in maniera addirittura più che esponenziale. Egli stima che tra circa trenta anni si raggiungerà il punto di singolarità in cui le intelligenze umane e cibernetiche si fonderanno ingenerando una super-intelligenza mai comparsa sul nostro pianeta permettendoci di compiere azioni strabilianti e con tutta probabilità di ottenere, qui su questa terra tramite l’ingegneria genetica, la vita eterna.

Di tanto in tanto possono sorgere nella mente pensieri molto particolareggiati che spesso vengono scartati coscientemente poiché troppo particolareggiati. Ora ne provo a proporre uno, legato a quanto si sta affermando. Il pensiero nasce da quando il mio professore E. Mencuccini, insegnante di fisica ed elettromagnetismo all’università la Sapienza di Roma e giovane assistente di E. Fermi, scherzò sull’elettrone, dicendo che è talmente reale la sua esistenza (non lo era nel periodo storico in cui fu proposto) che oggi viene addirittura venduto! Con ingenti guadagni di compagnie statali e non. Di fatto l’elettrone viene venduto come le cozze al mercato del pesce; è un punto di vista particolare, ma effettivo e inoppugnabile. Da quando ad opera di Guglielmo Marconi è stato possibile pragmaticamente inviare un messaggio tramite la trasmissione di un onda elettromagnetica dai colli bolognesi fino in Inghilterra, facendo un viaggio transoceanico in una frazione di secondo il mondo è davvero un altro luogo. L’invio del segnale elettromagnetico ha permesso, tramite il mezzo fisico “onda elettromagnetica”, di inviare “informazione” quasi istantaneamente in due punti del globo separati da migliaia di chilometri di mare, terra e monti. In un certo senso da allora è stato possibile mettere in comunicazione quasi istantanea la maggior parte dei luoghi del pianeta. Posso immaginare di innescare una relazione causa-effetto tra due luoghi remoti, che un tempo era impensabile. Un attentato comandato a distanza dall’Asia tramite un computer ed un cellulare imbottito di C4  che esplode in Africa ne è un triste esempio. In realtà noi stessi siamo “pezzetti di ecosfera” che reagiscono comunicando a velocità luminale con altri “pezzetti di ecosfera” disseminati sul globo terreste (qualcuno è anche in orbita geostazionaria sulla stazione spaziale internazionale); in realtà siamo più di questo. E’ comprovabile che la pervasività e l’ubiquità (uno dei laboratori in cui ho lavorato a Toronto era chiamato laboratorio di Computazione Pervasiva e Ubiquitaria) della tecnologia moderna ci ha reso esseri che non possono farne a meno, poiché il nostro stesso divenire, la nostra stessa crescita in termini sia di numero che di volumi economici dipende da essa.

Uno degli elementi necessari alla presenza della complessità e caratterizzante i cosiddetti Sistemi Complessi, qual è la tecno-sfera, è la forte interrelazione degli elementi che compongono il sistema, noti come sottosistemi. Nel mondo attuale qualsiasi sottosistema che possiamo proiettare nella nostra mente è fortemente interrelato con ogni altro. Con sottosistema si intende qui qualsiasi cosa sia parte dell’ “umano-sfera”. Se oggi qualcuno tentasse uno scherzetto e spegnesse Google, probabilmente più della metà dei lavoratori dichiarerebbe di non poter lavorare. Se spegnessimo la rete semaforica di Pechino in pochi minuti la città piomberebbe nel caos profondo. I precedenti esperimenti mentali trattano di esempi di sottosistemi legati alla tecno-sfera. Da un lato la tecnologia è diventata un ecosistema di difficile comprensione data la sua crescente complessità, dall’altro il suo mantenimento è legato a doppio filo con i nostri livelli di “consumo” e di crescita e con la nostra capacità di gestire lo stesso ordinamento sociale. Dall’altro, tale mantenimento necessita di una crescente iper-specializazione che come effetto avverso può rivelarsi come una miopia nella catena di cause ed effetto che si ingenera mettendo sul mercato una nuova tecnologia o compiendo un’azione a distanza attraverso le possibilità che quest’ultima offre. Un esempio strettamente analogo all’attentato a distanza dove dall’Asia si inviava un comando che innescava una carica di C4 collegata ad un cellulare a migliaia a di chilometri di distanza, può essere una commessa errata ad opera di un istituto finanziario su una commodity come il grano per il pane in un paese con economia soffocata o una vendita poco avveduta di grosse moli di titoli di debito di uno stato già sofferente finanziariamente. Pian piano i tasselli stanno prendendo il loro posto. La tecnologia pervasiva e ubiquitaria assieme alla possibilità di avere reazioni causa-effetto costituite da lunghe catene istantanee, ci permettono di comunicare con quasi qualsiasi punto del globo, di fruire dell’immensa conoscenza codificata in vari modi sulla rete e di avere una nuova identità sulla stessa con cui possiamo esprimere, ognuno a suo modo, il nostro carattere social. Non c’è bisogno che mi dilungo su come funziona il web e i social network, anche se non dobbiamo dimenticare che questi ultimi sono la punta di un iceberg costituito da una complicatissima e complessa infrastruttura di computer e reti di telecomunicazione che pervade il globo terrestre e, con i satelliti,  l’atmosfera superiore. Un elemento però è di interesse nella discussione: la presenza delle intelligenze artificiali. Non un intero libro ma un’intera biblioteca potrebbe essere messa su sul campo dell’Intelligenza Artificiale e ci porterebbe lontano. Restando ancorati ai social come nuovi media, una componente essenziale sono proprio gli algoritmi automatici, quelli che ci suggeriscono le amicizie, i libri da acquistare, i giornali da leggere (questi utili noti come recommender systems). Algoritmi che studiano i nostri gusti, i nostri modi di vivere, le nostre preferenze sessuali, il nostro orientamento politico e religioso. Algoritmi che matchano utenti, che fanno incontrare persone, che consentono la nascita di coppie e famiglie, algoritmi che suggeriscono community virtuali, che regolano il flusso del traffico automobilistico tramite le informazioni real-time apprese per mezzo di sensori disseminati lungo le arterie stradali. Possiamo iniziare ad intravedere la rete come una sorta di complesso, di organismo se volete, con una parte statica, diciamo strutturale ed una parte dinamica, che ribolle di informazioni elaborate e proposte agli utenti, informazioni composte da una miriade di dati che noi stessi abbiamo volontariamente immesso in precedenza. La controparte dinamica è quella intelligente in cui algoritmi di apprendimento automatico lavorano instancabilmente per fornirci la migliore esperienza, anzi non la migliore, ma quella più immersiva. Da una prospettiva più catastrofista, la gratuità della rete, e il patto non scritto secondo il quale immettiamo dati non solo personali nel circuito, ha un prezzo. La moneta di scambio è il nostro tempo, il nostro focus di attenzione e anche un po’ la nostra privacy. Il Word Wide Web, ribadisco da non confondere con l’Internet, è un luogo molto differente da quello immaginato ai primordi da Tim Barners Lee, considerato uno dei fondatori del WWW, all’inizio degli anni Novanta del secolo scorso. A quel tempo il concetto di ipertesto era il massimo della spinta dinamica, rendeva le statiche pagine web un luogo dove poter fruire della conoscenza saltellando nell’ipertesto e quindi velocizzandone il processo di acquisizione. Oggi sulla rete ci sono i motori di ricerca (o il motore di ricerca) come Google con gli spider, che consentono di scovare e  collegare miliardi di pagine che di per sé sono tutt’altro che statiche. In rete ci sono i bot, elementi intelligenti alimentati da versioni di intelligenze artificiali in evoluzione che permettono anche di poter affrontare una conversazione di livello basico superando versioni semplificate del famoso test di Turing. Ci sono i social network ognuno con le sue prerogative di collegamento tra gli utenti, le cerchie di amicizie di Google+, gli amici e i conoscenti e le reti di Facebook, i follower e i following di Twitter con la sua struttura pressoché piramidale o di Instagram che, con medesima struttura, ha una preferenza per le foto e i video più che per i contenuti testuali. E poi c’è il deep web, quella porzione di contenuti, qualcuno giudica maggiore in massa rispetto al resto, non raggiungibili dai motori di ricerca usuali, ma raggiungibili solo tramite appositi client. In tale scantinato della rete è possibile acquistare armi o droghe, banconote false, documenti contraffatti e informazioni coperte. Come nota a margine è doveroso precisare che il pensiero in materia di impatto della tecnologia espresso in questo breve saggio si avvicina pericolosamente al cosiddetto “determinismo tecnologico”, corrente di pensiero sviluppatasi nella prima metà dello scorso secolo anche presso la scuola di Toronto ad opera di studiosi dei mass media come Harold Innis, Marshal Mc Luhan e Derrick De Kerckhove. Coincisamente, con determinismo tecnologico si è soliti indicare l’approccio secondo il quale si individua nella tecnologia la sola causa delle trasformazioni della nostra società e quindi anche della nostra evoluzione. Si è soliti, altresì, contrapporre tale concezione con il “determinismo sociale” in cui sono le forze sociali e politiche a condurre la storia dell’uomo e a determinare le basi per la nascita di nuove tecnologie. A parte la perfettibilità di queste brevi definizioni, nel dibattito socioculturale vi sono una miriade di autori il cui pensiero è ascrivibile a posizioni intermedie tra questi due poli. Di fatto il dibattito si è spostato tra coloro che si schierano a favore del determinismo forte in cui il destino dell’umanità è eterodiretto completamente dalla tecnologia e coloro che si schierano a favore di un determinismo debole in cui, anche se la tecnologia è una forza portante nell’evoluzione, l’essere umano ha ancora l’ultima parola in fatto di decisioni riguardanti il proprio destino. Gli strumentalisti sono convinti che gli “strumenti” tecnologici sono sotto il pieno controllo umano e la responsabilità sulle conseguenze della tecnologia nel nostro sviluppo e ascrivibile all’essere umano stesso. Vi è anche una terza strada, problematica anch’essa se considerata in assoluto, che vede la tecnologia come neutrale. Melvin Kranzberg, storico della tecnologia americano scrisse nella prima delle sue sei leggi sulla tecnologia che: “la tecnologia non è ne cattiva ne buona; ne tantomeno neutrale” . Secondo le tesi discusse in questo testo è difficile collocarsi in questi tre poli e non cadere in contraddizioni; forse la tesi di Kranzberg e condivisibile seppur bisogna riconoscere come problematica. Se non altro determinismo tecnologico e determinismo sociale sono etichette, care alla filosofia professionale, utili per avanzare contrapposizioni dialettiche. Bertrand  Russell che aveva intuito una serie di problematicità relative al pensiero astratto formalizzato sosteneva che la “logica tradizionale assume che si usino simboli precisi. Quindi non si applica a questa esistenza terrena, ma solo ad una immaginaria esistenza celeste”.

Al contrario, come ci mostra l’approccio della logica multivalore o logica fuzzy (che fa a meno del tertium non datum aristotelico) al ragionamento e al modellamento dei fatti del mondo, i concetti più sono definiti in maniera precisa più sono applicabili ad un numero esiguo di fatti, mentre concetti sfumati hanno un più ampio raggio di applicazione. In altre parole determinismo tecnologico o sociale etichettano una serie di idee che risiedono in un campo ristretto e soffocante. La concezione portata avanti qui è inquadrabile nell’evoluzione stessa dell’essere umano. Di fatto se si allarga il focus temporale e non ci si limita alle ultime migliaia di anni e se si accettano le attuali teorie sull’evoluzione un fatto è incontrovertibile: che in un certo punto della loro evoluzione gli esseri viventi, e più di tutti l’essere umano, hanno iniziato a far uso di tecnologia per migliorare le proprie condizioni di vita. Da quel periodo le pratiche umane si sono legate a doppio-filo con le pratiche tecnologiche con un meccanismo a retroazione positiva e tutt’oggi esse coevolvono secondo schemi sempre più complessi. L’approccio alla complessità può aggirare il problema dell’ago della bilancia che pende o verso l’uomo che dipende dalla tecnologia o la tecnologia che dipende dall’uomo. L’idea che sottende a quanto si è affermato in precedenza sulla pervasività della tecnologia e il rapporto con l’uomo si basa su un concetto di complessità che organizza la dialettica sul mondo anche in maniera verticale, cioè a dire, non si ferma alla società come un insieme di individui con interazioni orizzontali, ma ad una visione d’insieme della tecno-sfera in scambio simbiotico con l’umano-sfera. Allo stesso modo in cui Douglas Hofstadter mostra in un famoso dialogo [4] come l’approccio complesso dipenda dal livello semantico a cui si opera l’indagine conoscitiva e, sebbene il formichiere mangi le formiche del formicaio distruggendone un certo numero, lo stesso formichiere “dialoga” tranquillamente e senza conflitti con il formicaio inteso come unica entità complessa. Ciò avviene perché al livello dei costituenti del formicaio, cioè quello delle formiche, vi è un danno in termini di perdita di unità, ma al livello di insieme, ovvero di formicaio inteso come un complesso di entità fortemente interrelate che scambiano informazione, il formichiere offre un giusto servizio, mantenendo lo stesso formicaio in salute attraverso un meccanismo omeostatico di controllo che porta l’intero sistema formicaio-formichiere in equilibrio; equilibrio che si perpetua anche all’interno del formicaio in cui il rapporto tra natalità e mortalità delle formiche è mantenuto ad un livello tale per cui le risorse alimentari tendono a bastare e la specie a conservarsi. In definitiva Hofstadter mostra come il formicaio sia concepibile come un meta-organismo. Lo stesso ragionamento può essere perpetrato per le cellule costituenti gli organi del nostro corpo, come elementi di un meta-organismo, ma a loro volte le cellule stesse sono un meta-organismo costituito da elementi legati da relazioni complesse. Questa visione consente di vedere organizzazioni designate geo-politicamente come città o stati, come meta-organismi, allo stesso modo in cui R. Pirsig, nel suo libro “Lila, indagine sulla morale” percepiva New York, cioè come un mostro bisognoso di materia ed energia e lavoro, che per la propria sopravvivenza (al suo livello) sacrificava suoi componenti (esseri umani) ad esempio attraverso le migliaia di morti sul lavoro o in guerra. Il sistema nervoso per la maggior parte degli esseri viventi è parte integrante al funzionamento degli organismi in quanto tali. Esso permette a gli impulsi elettrochimici di raggiungere le zone più remote del nostro corpo. Sotto questo aspetto esso fa da collante che tiene assieme, insieme ad altri sistemi come quello endocrino ad esempio, gli organi del nostro corpo e che permette al nostro organismo di agire come una singola entità. Le reti di comunicazione che trasportano informazioni istantanee sotto forma di impulsi elettromagnetici da una parte all’altra del globo sono assimilabili ad una sorta di sistema nervoso che fa da collante a ciò che viene comunemente chiamata società. La società, secondo il punto di vista della complessità, e un elemento fondamentale e passibile di indagine, ma è una proiezione orizzontale di un fenomeno fisico che diviene su un numero di dimensioni più ampio, con un potere espressivo limitato. Le “forze sociali e politiche” della visione afferente al determinismo sociale sono funzione, oltre che della massa sociale, di accelerazioni che provengono da uno scambio simbiotico tra ecosistema tecnologico ed ecosistema biologico, nella fattispecie umano.


 





[1] The animated guide to a Ph.D.

[2] Morin, Edgar. "Introduzione al pensiero complesso. Gli strumenti per affrontare la sfida della complessità." Milano: Sperling & Kupfer (1993).

[3] Kurzweil, Ray. La singolarità è vicina. Maggioli Editore, 2008.

[4]  Hofstadter, Douglas R. "Godel, Escher, Bach." New Society (1980).



Ultimo aggiornamento Giovedì 22 Settembre 2016 19:32

Divagazioni sulla mente e sull'Universo

E-mail Stampa PDF

E poi c’è la questione ulteriore di quale sia la relazione tra pensiero e realtà.

Come una scrupolosa attenzione dimostra, il pensiero stesso è in un vero e proprio processo di movimento.

David Bohm



L'universo nella menteImmaginare l'Universo sconfinato  grazie alla propria mente è un fatto assai stupefacente. Alle volte mi chiedo quanti universi ci sono, tutti adorni, per essere mirati.

Non mi riferisco, però alla moderna teoria fisica del “multiverso” e le sue declinazioni, secondo la quale il "nostro" Universo è uno di tanti possibili universi (paralleli) posti di fianco uno all'altro, vibranti a frequenze differenti e per questo, quasi completamente separati e a tenuta stagna. Mi riferisco bensì all'Universo come proiezione del tutto che una mente con facoltà intellettive apprezzabili riesce a concepire. Tante menti quanti universi, e viceversa. Potrebbe essere un buon punto di vista, oltretutto accettabile in quanto l'Universo così come ognuno di noi lo conosce ha bisogno di un osservatore per conoscerlo (non mi inoltrerò nei meandri concettuali del “principio antropico”…). Tanti universi, tanti specchi, ognuno capace di riflettere secondo un particolare coefficiente di riflessione. Tanti universi ognuno distorto dallo specchio in maniera particolare, unica. Eppure normalmente, a parte la recente teoria del multiverso, come si diceva, l'Universo, è uno, fisso, immobile, almeno come un'idea totalizzante.

La congettura: tante menti quanti universi, a mio modesto parere può valere anche per i fisici e i cosmologi in qualità di accademici o studiosi in genere. Per quanto ci sia un’ idea di Universo che va per la maggiore, ognuno ne possiede uno personale, a cui vi tiene fede, la cui stessa idea è difficile abbandonare. A questo punto i misteri dell'Universo senza fine si mescolano con i misteri della mente senza fine generata dai nostri cervelli biologici in azione. Mente come cervello biologico in azione. La maggior parte degli esseri umani alfabetizzati ha un idea di Universo che ha a che fare con uno spazio spropositatamente grande che ospita stelle, pianeti, galassie e altri oggetti misteriosi oltre che noi stessi abitanti del pianeta terra. I più curiosi potrebbero aver approfondito con articoli di giornale, con documentari o con libri divulgativi la natura dell'Universo. Pochi, rispetto a tutto il resto, hanno proseguito gli studi universitari con discipline che in parte o del tutto tentano di spiegare la natura dell'Universo secondo il metodo scientifico. Poi, per l’appunto, ci sono i libri, le riviste specializzate, gli articoli divulgativi e i saggi che presentano alle nostre menti una serie di modelli dell'Universo. I testi più specialistici partono dalla soluzione delle equazioni tensoriali di Einstein, quindi dalla Relatività Generale, per calcolare possibili modelli di Universo dalla forma spazio-temporale appropriata, date, come note, le condizioni iniziali. Libri e articoli di tipologia divulgativa riprendono tali idee, distillandone le più semplici e introducendole con generose metafore per far breccia su ciò che ci è familiare. Il fine è comunicare un contenuto di conoscenza e massimizzarne la comprensione da parte delle nostre menti. Ora pongo nuovamente la domanda: un solo Universo? E' noto che noi come esseri biologici, dall'inizio del nostro tempo, sperimentiamo il mondo circostante attraverso i nostri sensi che ricevono e filtrano una miriade di informazioni (sensoriali) che sono processate in varie zone del nostro cervello, al fine, almeno secondo la corrente teoria dell’evoluzione, di preservare la nostra specie.

La comprensione dell'Universo che osserviamo passa per i sensi e le strutture nervose come strada obbligatoria? Immaginiamo una placida serata estiva. Siamo su una collina, lontano dal frastuono cittadino, col naso all'insù. Non ci sono nuvole e nemmeno la luna. Umidità quasi nulla. Ciò che scorgiamo è una meravigliosa volta costellata da un numero interminabile di astri e ammassi galattici più o meno densi e luminosi. Questo, più tutto il resto che ci circonda a distanze umane (l'albero lì proprio ad una decina di metri, la casa di fianco, la strada, i fili d'erba, le pietre, etc.), è l'Universo? Una parte, sicuramente. La nostra istruzione, sia essa scolastica che non, cablata nelle reti neurali del nostro cervello sottoforma di ciò che comunemente chiamiamo ricordi, ci dice che quello è l'Universo a noi visibile, ma sappiamo che esso è molto, molto più grande, forse infinito. Ecco, quello è l'Universo a noi visibile in quel momento, ed è proprio quello concepibile (sempre in quel momento). In realtà esiste anche un Universo visibile di natura differente, anche se semanticamente simile. E' l'Universo visibile di cui parlano gli ambienti accademici e gli studiosi, ovvero un'idea (valida) secondo la quale essendo, secondo la Teoria della Relatività, la velocità della luce finita ciò che osserviamo è tutto ciò che è ad una distanza tale per cui la luce ha avuto il "tempo" di giungere sino a noi. Un'altra maniera di vedere tale concetto fondamentale è che più lontano volgiamo lo sguardo, più siamo intenti ad osservare fenomeni astronomici passati. In ogni caso l'idea di Universo visibile è, in linea di principio, concepibile come una media di tutti i possibili universi visibili, ognuno per ogni osservatore. Limitandosi all'ambito accademico, ogni addetto ai lavori ha un'immagine mentale (e una rete neurale corrispondente) dell'Universo visibile come ha appreso sui libri di testo e durante le lezioni universitarie (cioè nelle comuni pratiche sociali di comunicazione della scienza). Quindi almeno in una cerchia ristretta di individui vi è un'idea abbastanza simile di Universo visibile.

E' noto che le più importanti scoperte sulla natura dell'Universo inteso come lo spazio astronomico che comprende, poi, anche il nostro pianeta e noi stessi, sono state possibili a seguito dell'invenzione del telescopio (e tanti altri strumenti), che ci ha premesso di osservare punti  debolmente luminosi dello spazio-tempo che, altrimenti, sarebbero rimasti ignoti. Ieri venivano utilizzati telescopi ottici, con raffinate lenti di vetro. Oggi si utilizzano strutture vaganti su orbite geostazionarie equipaggiate con sensori efficacissimi in grado di catturare tutto lo spettro della radiazione luminosa permettendoci non solo di raggiungere distanze da brivido, ma anche di ottenere istantanee dell'Universo visibile ad altissima risoluzione (un esempio è il telescopio Hubble, nome in onore del famoso astrofisico Edwin Hubble che per primo ha misurato la velocità di recessione delle galassie). In definitiva, oggi è possibile catturare un'infinità di dati provenienti dallo spazio, trasportati dalla radiazione elettromagnetica e non solo. Il telescopio (inteso in senso generalizzato come sensore efficacissimo per scrutare lo spazio-tempo e la materia che vi abita), o se vi piace il microscopio utile per scrutare il microcosmo, insieme a tanti altri strumenti di misura come il Large Hadron Collider (LHC) a Ginevra ideato per scovare esotiche particelle componenti la materia, non sono altro che estensioni dei nostri sensi. Con gli occhi, quella sera estiva che eravamo intenti a meravigliarci davanti alla possanza di una volta ricolma di stelle, potevamo captare una parte molto esigua dell'Universo visibile. Gli strumenti sofisticatissimi, invece, ci permettono di "osservare" una porzione più ampia di quest'Universo visibile, anche se la comunità degli studiosi è quasi in accordo che anche quella misurata dalla tecnologia astronomica sofisticata è solo una minuscola parte. Quindi, posta in questi termini la faccenda, è possibile concepire un continuum durante la nostra evoluzione dove, grazie alla simbiosi scienza-tecnologia e alla pratica comunicativa, è stato possibile ampliare la portata dei nostri sensi e di pari passo ampliare la nostra conoscenza (almeno quella parte che le menti sono in grado di comunicarsi e accordarsi). In ogni caso tali informazioni hanno un luogo finale ben preciso da raggiungere: le zone del nostro cervello dove vengono espletate le funzioni intellettive superiori e che ci differenziano dagli altri esseri viventi, ad esempio la neocorteccia. In realtà quando guardiamo il cielo stellato abbiamo sicuramente una istantanea "privata" della volta celeste-Universo. Quest' istantanea, se siamo abbastanza emozionati, la ricorderemo per tutta la vita, cioè sarà cablata nelle nostre strutture neurali come ricordo, e, nella speranza che sia riposta in quella che è nota dal punto di vista funzionale come memoria a lungo termine, sarà possibile rievocarne il contenuto a volontà. In più la stessa immagine possibilmente carica di sensazioni, quale svilimento di fronte all'immensità del cielo o meraviglia di fronte ad un tappeto di corpi celesti, andrà ad aggiungersi a quel database dove riponiamo le nostre idee di Universo assieme alle sensazioni provate, cosicché quando ci capita di essere contemplativi e di pensare alla vastità dell'Universo essa possa fornire le necessarie informazioni. Ogni cervello un Universo.

Certamente il cervello degli accademici sarà tarato verso modelli di Universo simili, ovvero possiederà un database simile da cui attingere le informazioni simili. Un punto essenziale è che, secondo il nostro ragionamento, non esiste un cervello esattamente identico ad un altro, e su questo la scienza concorda. Ciò che è simile è la struttura a grana grossa del nostro processore centrale biologico. Quindi possiamo immaginare una relazione unaria (uno-a-uno) tra cervello in azione (mente) e Universo concepibile. L'unicità della mente porta all'unicità dell'Universo. Un teorico della mente direbbe che il ragionamento che si è appena improntato è una istanza più o meno elaborata della risposta alla domanda posta dal filosofo della mente Thomas Nagel (1944) in un celebre articolo del 1974: che cosa si prova ad essere un pipistrello? Ovvero il ragionamento appena delineato si inserisce in un quadro solipsistico, in cui l'entità mente è unica e per di più vi è un livello profondo in cui, nell'interazione di due o più menti, vi sono enti non comunicabili. In un certo qual modo è proprio ciò che ritengo, ma l'incomunicabilità in questo caso deriva dall'unicità del simulacro-Universo che ognuno di noi possiede cablato nel proprio cervello, data l'unicità nella struttura fisiologica, a grana fine, del nostro cervello in azione. Come per altri concetti più semplici, e se volete più quotidiani, esistono “n” declinazioni quante ne sono le menti concepenti, ma esiste tuttavia un livello in cui tali concetti possono essere comunicati e compresi. Questi concetti, se ci facciamo caso, si riferiscono ad "oggetti" (in senso generalizzato) che hanno subito un processo di codifica e simbolizzazione. Un tale processo semiotico (comune alla pratica scientifica e non solo) permette alle menti di comunicare e capirsi, quindi consente ai cervelli di sincronizzare le proprie strutture neurali, così da memorizzarne i contenuti (simili). L'Universo visibile degli accademici è uno di questi simboli. Un oggetto opportunamente codificato che ha subito un processo di significazione vasto e preciso e che permette di mettere in accordo i cervelli in azione degli accademici e studiosi all'interno del dibatto scientifico. 

L'universo nella menteA questo punto, pensando l'Universo al livello di simbolo che consente di sincronizzare cervelli, possiamo immaginare una relazione molti-a-uno secondo la quale “n” idee di Universo uniche e abbastanza simili quanti sono gli accademici, puntano verso un simbolo (l’Universo) che consente di dire: ecco è proprio quello di cui sto parlando e puoi essere certo che non sto parlando né di questo, né di quest'altro, né di quello, né di quell’altro ancora etc. etc. La concezione di Universo, a questo punto rilassando la nostra congettura, quindi sia esso a carattere solipsistico  (in prima persona) , sia condiviso (quindi descrivibile in terza persona)  non può non prescindere dal nostro cervello e ciò che ci sembra effettivamente così lontano e stupefacente, come le stelle più remote, i quasar, i buchi neri e i superammassi di galassie, non è poi così lontano; è da qualche parte cablato nelle strutture nervose del nostro corpo e questo è altrettanto stupefacente.

Chissà se quanto detto, almeno in parte, non vale anche per (il concetto di) Dio…

Ultimo aggiornamento Giovedì 10 Novembre 2016 02:22

Confronto tra il volume di una ipersfera e il volume di un ipercubo

E-mail Stampa PDF

Oggi, andremo ad analizzare un problema apparentemente banale: il confronto tra il volume di una ipersfera di raggio unitario e dell' ipercubo che la circoscrive di lato pari al diametro dell' ipersfera, al crescere della dimenzione dello spazio che li accoglie.

Come vedremo questo problema ritorna nei problemi di Pattern Recognition e Data Science.

In generale, poniamo come il raggio dell'ipersfera e come 2* il lato dell'ipercubo. Detta la variabile che descrive la dimensione dello spazio, con un pizzico di astrazione possiamo affermare che: un quadrato è un ipercubo di dimensione =2 e la circonferenza inscritta è una ipersfera di dimensione medesima.

Quadrato_circoscritto_circonferenza

Figura 1


Definiamo adesso   il luogo dei punti tale che la norma dell ennupla -dimensionale    è minore del raggio al quadrato. Definiamo invece come  il luogo dei punti che descrive l'ipercubo in  dimensioni.

Se calcoliamo i due volumi come funzione della dimensione vediamo un comportamento a tutta prima strano anche se effettivamente intuitivo: come mostra il grafico in basso (Figura 2) che confronta il volume di una ipersfera e il volume di un ipercubo, quest'ultimo diverge verso l'infinito positivo, mentre il primo (volume ipersfera) ha un massimo per =5 dimensioni (5.264) e poi diminuisce fino a tendere al valore 0.

Il volume dell'ipercubo può essere scritto come:


mentre il volume dell'ipersfera risulta pari a:

,

dove  è la funzione gamma definita come:

.

Hypersphere volume

Fugura 2

Per comprendere quato comportamento basta osservare la Figura 1. Il volume dell'ipercubo cresce esponenzialmente con il crescere della dimensione dello spazio. Se consideriamo l'area un "volume", la circonferenza inscritta nel quadrato ha una superficie minore in quanto la loro differenza consiste proprio nelle parti colorate in rosso. Aumentando il numero di dimensioni le parti in rosso aumentano fino ad occupare la maggior parte del volume, mentre il volume dell'ipersfera tende a concentrarsi verso il centro e a diventare nullo.

Tutto molto interessante fin qui. Che implicazioni può avere tutto questo?

Consideriamo le tecniche di Data Science dove i dati descritti da caratteristiche multiple (features) sono rapperesentati come oggetti che giacciono in uno spazio multidimensionale. Immaginiamo ora di generare attraverso un generatore pseudocasuale una serie di oggetti all'interno della nostra ipersfera. Aumentando le dimensioni la probabilità di generare un oggetto (punto descritto da tante coordinate quante sono le dimensioni) all'interno della ipersfera diventa nulla, mentre aumenta la probabiltà che il nostro oggetto cada nella zona "differenza" tra i due volumi (la parte rossa). Questo fenomeno è noto nella disciplina del Pattern Recognition e in generale del Machine Learning come "course of dimensionality" (corsa della dimensionalità).

Ultimo aggiornamento Lunedì 15 Febbraio 2016 15:10

Computational Intelligence e Computational Thinking

E-mail Stampa PDF

Se risultasse che le logiche di base di una macchina progettata per la soluzione numerica di equazioni differenziali coincidono con quelle di una macchina destinata a preparare fatture di un grande magazzino, penserei che si tratta della più stupefacente delle coincidenze di tutta la mia vita

Howard Aiken


Sull'Intelligenza Atificiale, l'Intelligenza artificiale ed infine sul pensiero computazionale (Computational Thinking)

Una nuova versione riveduta e corretta è scaricabile da qui.

FormicheIl dibattito intorno alla possibilità delle macchine di pensare come un essere umano è ancora accesso. Negli ambienti accademicii ciò è noto come approccio forte all'Intelligenza Artificiale. Dopo una prima ondata di entusiasmo, a seguito dello storico seminario interdisciplinare nel New Hampshire (1956) dove Marvin Minsky, uno dei fondatori dell'IA osò ribadire che "lo scopo di questa disciplina è di far fare alle macchine delle cose che richiederebbero l'intelligenza se fossero fatte dagli uomini", ci fu qualche battuta d'arresto. Roger Penrose (1931), matematico, fisico e grande divulgatore scientifico britannico, ha partecipato a tale dibattito, cercando di trovare un'argomentazione convincente per poter mettere una pietra tombale alla possibilità delle macchine di imitare l'uomo nella prassi del pensiero. Egli in "La mente Nuova dell'Imperatore" [1] propone un'argomentazione di natura algoritmica secondo la quale alcune caratteristiche dell'intelligenza umana non possono essere intrappolate in schemi, per l'appunto di natura algoritmica. Tra questi la creatività, l'intuito, la coscienza o meglio l'autocoscienza. Egli propone, pur sapendo che la schematizzazione è carente, di distinguere nella formulazione di un giudizio due ambiti: uno in cui è richiesta la coscienza, l'altro in cui questa non è richiesta.

Coscienza richiesta

Coscienza non richiesta

Senso comune

Automatico

Giudizio di verità

Regole seguite senza pensarci

Comprensione

Programmato

Apprezzamento artistico

Algoritmico


Secondo Penrose, alcuni compiti svolti dalla mente non hanno natura algoritmica e quindi non potranno mai essere messi a punto da una Macchina di Turing Universale. Con gli anni gli studiosi nell'ambito dell'Intelligenza Artificiale, sempre tenendo presente l'obiettivo di creare una macchina pensante, hanno imparato, a mio parere, ad essere politically correct e a dichiarare che effettivamente stanno lavorando ad insegnare alle macchine a risolvere problemi specifici di natura cognitiva, che se risolti dagli esseri umani, richiedono un qualche grado di intelligenza. In altre parole l'intento è di creare una nuova intelligenza, che probabilmente avrà natura differente da quella umana. Quest'ultimo approccio è noto come Intelligenza Artificiale debole.

Di fatto, nella storia dell'IA, si possono incontrare numerose discipline anche provenienti da ambiti diversi, utilizzate per approcciare i problemi. Ad esempio la Logica, la Teoria della Probabilità, la Scienza dei Sistemi, ognuno con il proprio momento di gloria seguito da un inesorabile periodo di declino. Il dibattito quindi si è spento e riacceso a seconda della direzione del vento. L'AI è dunque un campo molto vasto, che abbraccia oltre alle discipline su menzionate anche la Computer Science, la Psicologia, la Filosofia, la Sociologia, la Biologia, etc. Oggi il dibattito è molto preponderante sia negli ambiti accademici che non accademici poiché qualcosa è andato modificandosi a livello metodologico e non solo.

L'IA nasce in un contesto multidisciplinare, ma il raggiungimento di tale status è stato un processo talvolta faticoso e, a mio parere, solo la nuova generazione di scienziati e studiosi ha la possibilità di approcciare in maniera veramente multidisciplinare le problematiche ad essa relative. Questo perché essi possono "sedersi comodamente sulle spalle dei giganti" e mirare dall'alto le varie sottodiscipline che compongono questo interessantissimo campo del sapere umano. La nuova generazione, avendo acquisito le metodologie dei pionieri che hanno lavorato ad un livello analitico, hanno potuto proporre una sintesi che non sia solamente la somma delle discipline, ma sia un vero nuovo campo di studi. Cioè un sapere con una propria ontologia che, prima di proporre le soluzioni dei problemi, dia la possibilità di modellarli. Da questa sintesi sono nate discipline come l'apprendimento automatico, la rappresentazione della conoscenza, il ragionamento automatico, la pianificazione, la medellazione ad agenti, l'elaborazione del linguaggio naturale, la computazione neurale ed evolutiva, la visione artificiale integrate con discipline preesistenti, come il ragionamento logico, la robotica, etc. In definitiva, oggi si ha la possibilità di manipolare un sapere multidisciplinare che ha un proprio status quo, capace di proseguire con le proprie gambe. Questo a livello metodologico. Vi è poi un altro fattore che definirei "fattore informativo" secondo il quale, ad oggi, grazie alle tecnologie ICT, le strutture di calcolo sono diventate alla portata di tutti, con costi bassissimi. Non parlo solo di computer e smartphone, anche se molto importanti, ma anche di sensoristica a basso costo che grazie a tecnologie di rete avanzate permettono l'acquisizione di una grossa mole di dati. Questo ha portato a definire il concetto di ubiquitus computing, o computazione pervasiva, dove gli stessi sensori nell'accezione generale del termine hanno discrete capacità di calcolo, quindi di elaborazione e trasporto delle informazioni. Oggi è realmente possibile parlare di intelligenza distribuita, di controllo distribuito ad agenti, dove ognuno non possiede una visione generale dell'ambiente e degli altri agenti, ma è capace di agire e coordinarsi con i vicini talvolta senza un obiettivo iniziale, ma scoprendola successivamente in collaborazione con i vicini stessi. La grossa mole di informazione oggi a disposizione con la rete, e qui computer,  smartphone e tablet la fanno da padrone, è una risorsa inestimabile che i pionieri dell'IA, che redigevano i loro famosi articoli tramite la macchina per scrivere meccanica, si sognavano. Oggi si è in presenza di una miriade di dati che aspetta di essere elaborata, la stessa rete Internet può essere vista come un gigantesco contenitore di dati. L'elaborazione consente al dato di diventare comprensione e quindi di mettere in moto processi decisionali e azioni specifiche. Coloro che devono compiere queste operazioni, siano essi macchine o esseri umani (o ibridi), devono poter operare con informazioni con un alto valore semantico.

Una sottobranca dell'AI, a sua volta scomponibile, è nota come Computational Intelligence. Essa è la branca ideale per affrontare in maniera algoritmica la "complessità", attraverso l'analisi e la sintesi dei cosiddetti "Sistemi Intelligenti". Il punto di svolta sta nel differente approccio, rispetto a quello classico, che tali algoritmi propongono, essendo modellati sulla cosiddetta intelligenza biologica. Essi, infatti, sono altresì definiti come algoritmi "nature inspired". Le macroaree che formano la Computational Intelligence sono:

  • Artificial Neural Network (Reti Neuronali Artificiali);
  • Evolutionary Computing;
  • Swarm Intelligence;
  • Fuzzy System;

Queste aree, assieme alla Logica, il Ragionamento Deduttivo, i Sistemi Esperti, il Ragionamento Case-Based e Simbolico, il Machine Learning, vanno a generare l'Intelligenza Artificiale moderna.

Una definizione più precisa per la Computational Intelligence è la seguente [2]:

Lo studio di meccanismi adattivi per avviare o facilitare comportamenti intelligenti in ambienti complessi e mutevoli (dinamici).

Descriviamo, adesso, per sommi capi, i principali meccanismi alla base della Computational Intelligence.

Reti Neurali Artificiali

Le reti neuronali artificiali sono particolari strutture di calcolo, definite secondo un paradigma algoritmico "connessionista", che espletano la loro funzione imitando le reti neuronali biologiche. L'elemento base è il Neurone Artificiale, avente un semplice modello matematico, che contempla:

  • un certo numero di ingressi, come i dendriti nel cervello biologico;
  • una cosiddetta funzione di rete, che "spara" a seconda dell'input ricevuto;
  • un output corrispondente all'assone nel cervello biologico.

L'insieme di tali Neuroni Artificiali, sono considerabili come una rete formata da connessioni la cui forza è definibile matematicamente in base a dei pesi.

Esistono molte possibili configurazioni e molte possibili applicazioni delle Reti Neurali Artificiali. Esse sono state utilizzate nelle diagnosi mediche automatizzate, nel riconoscimento del parlato, di video e immagini, nella composizione sonora, nelle previsioni meteorologiche e dei mercati finanziari, nella pianificazione di strategie, etc. E' interessante come esse, mediante particolari algoritmi di apprendimento, siano capaci di apprendere compiti specifici, di riconoscere oggetti, di classificare e predire risultati. La memorizzazione delle informazioni apprese avviene in maniera distribuita, quindi in maniera alquanto differente delle memorie classiche con locazioni precise, in tutti i pesi della rete.

Evolutionary Computing

La Computazione Evolutiva (Evolutionary Computing) ha come obiettivo quello di modellare l'evoluzione naturale, dove il concetto cardine è quello della sopravvivenza del più forte. Essa propone algoritmi capaci di organizzare le possibili soluzioni di un problema in popolazioni di cromosomi, che sono un sottoinsieme dello spazio delle possibili soluzioni. Quest'ultimo, iterativamente viene visitato tramite la formazione di nuovi individui, considerati come prole degli individui della generazione precedente, che meglio si adattano alla soluzione del problema stesso. In altre parole sopravvivono le soluzioni più forti, mentre soccombono quelle deboli. La sopravvivenza è dettata da operatori genetici, simili a quelli che operano sui cromosomi biologici e da una funzione nota come fittness che riflette gli obiettivi e i vincoli del problema da risolvere.

Tra le classi di algoritmi evolutivi si hanno gli Algoritmi Genetici, La Programmazione Genetica, dove gli individui non sono soluzioni ma programmi, e altri algoritmi basati sul concetto di evoluzione, competizione e cooperazione.

Swarm Intelligence

La Swarm Intelligence nasce dallo studio e dal modellamento dell'organizzazione di organismi sociali in colonie o sciami. Ad esempio si hanno algoritmi modellati sul comportamento delle formiche e del loro utilizzo dei ferormoni (Ant Colonies Algorithm), oppure algoritmi basati sul volo di gruppo degli uccelli. Essi sono molto fruttuosi nei cosiddetti problemi di ottimizzazione globale, ovvero in quella classe di problemi il cui obiettivo è avvicinarsi alla soluzione migliore. L'algoritmo nel caso dello sciame (Particle Swarm Optimization) genera un insieme di individui capaci di volare all'interno dello spazio multidimensionale delle soluzioni. Gli individui sono capaci di comunicare con un gruppo di vicini cosicché quanto si è prossimi ad una possibile soluzione essi comunicando si addensano presso quest'ultima. Di solito matematicamente tale problema è esprimibile come un problema di minimo e le particelle di soluzione "volano" fino ad addensarsi attorno al minimo cercato. Anche in questi algoritmi gioca un ruolo essenziale la fitness, che misura la performance delle varie particelle esploratrici. Algoritmi basati sul modellamento delle formiche, agiscono in maniera simile, "formicolando" nello spazio delle soluzioni e lasciando un ferormone nei pressi di un punto dello spazio multidimensionale definito come buono (vicino alla soluzione). Le formiche nei paraggi allora saranno portate a gironzolare nei paraggi alla scoperta di punti migliori.

Fuzzy System

La Logica Fuzzy, teoria con la quale sono implementati i Sistemi Fuzzy, è una particolare branca della logica, relativamente recente che si differenzia dalla cosiddetta Logica Classica poiché rifiuta come assioma costituente la legge aristotelica del terzo escluso (tertium non datur). In una concezione classica della logica e della teoria degli insiemi possiamo dire che un oggetto o appartiene all'insieme dato o non vi appartiene. Non si da una terza possibilità. Secondo la Logica Fuzzy (fuzzy è traducibile anche con "sfumato"), un oggetto appartiene ad un insieme (fuzzy ) in una certa misura. In altre parole è possibile stabilire una misura di appartenenza dell'oggetto all'insieme, che nei "casi estremi" coincide con il concetto di appartenenza classico o aristotelico. Stesso vale per il concetto di verità o falsità assegnabile ad una proposizione. Secondo la Logica Fuzzy una proposizione può essere vera in una certa misura. Sembra che i fatti riguardo al mondo siano effettivamente sfumanti e quindi tale logica appare come un metodo per descriverli. Inoltre il metodo con cui opera inferenza sembra catturare l'approssimazione con cui opera un comune essere umano. Di fatto tale logica consente di modellare in una macchina quello che oggi è noto come Ragionamento approssimato, in quanto riesce a catturare l'incertezza sui fatti del mondo. E' importante tenere presente che nella Logica Fuzzy il termine "incertezza" non ha la stessa accezione che in teoria della Probabilità. Non entrerò nei dettagli, ribadisco solo che l'incertezza probabilistica è riferita ad un evento che deve accadere e su cui si modella una legge di probabilità. L'incertezza fuzzy consiste nel modellare l'ambiguità di un qualcosa di dato al fine di catturarne la vaghezza o meglio la fuzziness. La Logica Fuzzy trova profique applicazioni nel modellamento del ragionamento, nel controllo e nel riconoscimento di pattern. La caratteristica migliore risiede nella possibilità di definire regole in maniera semplice che si applicano a sistemi complessi di cui può anche non essere nota a priori una descrizione matematica in forma chiusa.

Le tecniche appena descritte sono nate come discipline al quanto separate, ma oggi, come ribadito in precedenza, appartengono ad un comune bagaglio di conoscenze e metodi per i quali è stato possibile operare un' ulteriore sintesi e procedere per astrazioni superiori. Da queste astrazioni sono nati i cosiddetti ibridi, consistenti nell'uso simultaneo di queste tecniche. Ad esempio, vi sono sistemi che espletano un qualche compito utilizzando l'ibrido Fuzzy-Evolutionary Computing, secondo il quale un sistema inferenziale fuzzy è posto in evoluzione nei suoi parametri strutturali al fine di individuarne il set ottimo per lo specifico Problema. Similmente l'ibrido Neural Network-Evolutionary Computing. In questo caso l'algoritmo evolutivo guida l'ottimizzazione nell'apprendimento della rete Neuronale. In definitiva ogni tecnica può essere ibridata con ogni altra, fornendo un tool molto potente per approcciare la complessità dei problemi.

Paradigmi ibridi relativi alla Computational Intelligence


Il potere espressivo ed operativo della Computational Intelligence può essere ulteriormente migliorato ibridando quest'ultima con i cosiddetti Metodi Probabilistici. Tale super-ibrido è inserito in una branca della computazione nota come "Soft computing", nome suggerito dall'Ingegnere, scienziato e Professore di Teoria dei Sistemi (fuzzy) Lotfi Zadeh (1921), colui che, negli anni '60 dello scorso secolo, traspose la Logica Fuzzy dall'altare delle Scienze pure all'Ingegneria dei Sistemi.

La Computational Intelligence talvolta è utilizzata assieme ai metodi Probabilistici e assieme a tecniche di datamining, come il Clustering e la Classificazione. Questi ultimi fanno capo al cosiddetto "Granular Computing", disciplina che nel sintetizzare modelli e suggerire soluzioni ai problemi, pone molta importanza ai cosiddetti "granuli di informazione". A questo punto sono stati messi assieme, in linea di principio, tutti gli ingredienti per poter operare su problemi volti alla complessità. Si può notare come anche il concetto di informazione, e quindi la teoria che ne scaturisce (Teoria dell'Informazione), sia di estrema importanza per l'Intelligenza Artificiale moderna. Questo insieme di discipline, compreso lo studio dell'informazione e della sua elaborazione e della sua trasmissione, apparteneva ad un campo ben specifico noto come Cibernetica.

Norbert Wiener (1894 -1964), pioniere nell'Intelligenza Artificiale e nella Stessa Cibernetica in "Introduzione alla Cibernetica" (1950), ci illustra in maniera quasi profetica come l'uomo stia costruendo macchine sempre più brave a svolgere compiti un tempo appannaggio dell'intelligenza umana. Inoltre mostra come un giorno le macchine saranno più intelligenti attraverso il paradigma dell'imitazione dell'intelligenza biologica. Profeticamente, considerando l'informazione come un punto essenziale dello sviluppo delle macchine, ci ammonisce dicendo che [3]:

" la società può essere compresa soltanto attraverso lo studio dei messaggi, e dei mezzi di comunicazione relativi ad essi; e che nello sviluppo futuro di questi mezzi di comunicazione e di questi messaggi, i messaggi tra l'uomo e le macchine, fra le macchine e l'uomo, fra le macchine e le macchine sono destinati ad avere una parte sempre più importante".


Computational Thinking

L'Intelligenza Computazionale  e i suoi ibridi, come abbiamo visto, forniscono i veri e propri "attrezzi" per poter operare sui sistemi e sui problemi complessi. L'Intelligenza Artificiale e la Cibernetica nascono nella metà dello scorso secolo come manifesti su cui basare la fede nell'intelligenza delle macchine. I pionieri, come Alan Turing, John von Neumann, Norbert Wiener, Martin Minsky e molti altri, erano convinti che in un futuro, non troppo lontano, molto di quanto si prospettava sarebbe diventato realtà. Qualcuno obietta che niente è stato fatto e le macchine sono solo ammassi di chip senza un briciolo di intelligenza, di comprensione, di intuito, di creatività. Per dirla in una sola parola di umanità.

A mio parere la verità sta per lo mezzo. Da una certa prospettiva siamo ben lontani dall'aver creato una macchina pensante come un essere umano, da un'altra (più debole, ma altrettanto forte), bisogna essere onesti nel riconoscere che l'"intelligenza delle macchine" è diventata parte integrante dell'intelligenza umana. Al momento non saprei se le ripercussioni nel prossimo (a breve in realtà) futuro, come prevede Ray Kurzweil, siano quelle di avere una simbiosi tra intelligenza biologica ed intelligenza meccanizzata così perfetta da generare una "singolarità" nell'evoluzione dell'intelligenza umana stessa. Al contempo è palese che, di fatto, una'integrazione simbiotica tra le due intelligenze esiste. "Simbiotica" è il termine adatto in quanto, a questo stadio dell'evoluzione, si potrebbe inferire che se venisse a mancare l'intelligenza delle macchine, vi sarebbero delle grosse ripercussioni sull'ordine che la società ha raggiunto. Questo perché essa si è sviluppata anche partendo da questi presupposti. Immaginiamo di spegnere Google per un giorno. Sarebbero grossi grattacapi, molti si annoierebbero, altri non andrebbero a lavoro perché non avrebbero disponibile il loro strumento base, qualcuno, sebbene per poco tempo, sarebbe anche contento. Ma ingigantiamo l'esperimento mentale e immaginiamo, adesso, di spegnere l'intera rete Internet, e tutte le apparecchiature elettroniche quotidiane, telefoni, cellulari, smartphone computer, elettrodomestici programmabili. Immaginiamo che questo accada di colpo e per un tempo indefinito e ignoto. Cosa succederebbe? E' difficile rispondere con precisione, ma a grandi linee possiamo immaginare. Si ingenererebbe una "oscillazione" nell'ordine sociale di portata gigantesca a seguito dell'importante discontinuità dovuta allo spegnimento delle macchine. Non è detto che si arriverà all'estinzione, ma sicuro succederebbe qualcosa di alquanto singolare...

Assodato che le macchine, sia in forma meccanica che digitale, siano parte integrante della nostra quotidianità, possiamo affermare che esse, sebbene non ci controllino, sono necessarie al nostro attuale funzionamento in quanto sono ormai correlate ai nostri procedimenti cognitivi. E' utile considerare che in qualsiasi ambito della conoscenza, nella maggior parte dei casi, le nuove generazioni, partano dalle conquiste raggiunte con sforzi mostruosi dalla generazione precedente. Questo fenomeno deriva da una differenza appartenente alla sfera cognitiva e si sperimenta ogni qual volta un anziano, per cause di forza maggiore, debba operare con un computer. Mediamente ci si trova d'innanzi un individuo intelligente che non riesce a utilizzare il computer o, se vi riesce, sembra farlo in maniera "strana". Non è questione di intelligenza infatti, ma di sviluppo cognitivo, di cambiamento di paradigma nella struttura del pensiero. Come le macchine si sono evolute ed hanno automatizzato i compiti più disparati, svolgendoli con un certo grado di intelligenza e perlopiù correttamente, il nostro cervello, nelle funzioni cognitive, si è adeguato evolutivamente. In realtà tale "connessione cognitiva" si è rafforzata in un miglioramento graduale nell'interazione uomo-macchina non unilaterale. In altre parole si è avuta un'evoluzione semantica, sia per quanto riguarda la direzione macchina--> uomo, sia uomo-->macchina. Le applicazioni si sono adattate al sistema cognitivo che si è adattato a sua volta alle applicazioni, in un processo retroattivo autosostenentesi a carattere crescente. Programmare un computer degli anni '50 dello scorso secolo era appannaggio di pochi eletti, appartenete all'olimpo dei geni, oggi è alla portata di tutti, anche delle intelligenze normali. Questo perché si è avuto uno sviluppo semantico, attraverso astrazioni successive che hanno permesso di generare "interfacce" cognitivamente appetibili. Ciò ha portato ad avvicinarsi ai computer un numero sempre maggiore di persone e ad utilizzarli per le applicazioni più disparate, lontane un abisso, dal loro basico funzionamento. Howard Aiken (1900 - 1973), pioniere nella Computer Science e fondatore dell' Harvard Computation Laboratory, nel 1956 sostenne a tal proposito (citato in [4]):

"se risultasse che le logiche di base di una macchina progettata per la soluzione numerica di equazioni differenziali coincidono con quelle di una macchina destinata a preparare fatture di un grande magazzino, penserei che si tratta della più stupefacente delle coincidenze di tutta la mia vita."

Di fatto, non è semplice comprendere tale coincidenza ma compiti così prossimi all'apparato cognitivo umano sono svolti, basilarmente, con le stesse logiche utilizzate per svolgere una somma aritmetica.

In definitiva possiamo asserire che l'evoluzione tecnologica ha portato studiosi e scienziati a costruire sistemi capaci di elaborare l'informazione in maniera da conferirle alto contenuto semantico in riferimento alla "risposta semantica" umana. Allo stesso modo tale evoluzione semantica ha modificato parte della mappa cognitiva umana (mi riferisco alle popolazioni digitalizzate). Questo punto è molto importante e richiede ulteriori approfondimenti, che al momento non tenterò. E' d'obbligo però, a questo punto, citare Alfred Korzibsky (1879 - 1950), ingegnere, creatore della "Semantica Generale" esposta in "Science e Sanity" [5] nel 1933 e nelle edizioni rivedute successive, che descrivere le differenze tra comportamento umano ed animale come differenze nella "risposta semantica" (in precedenza il termine non è stato utilizzato a caso) tra questi ultimi. Nella sua opera Korzibsky getta le basi di gran parte del pensiero moderno e post-moderno, riconoscendo al linguaggio un ruolo semantico strettamente correlato alla struttura cognitiva umana. E riconosce e descrive in maniera ineccepibile come esso si sviluppi attraverso una struttura verticale astratta multidimensionale e gerarchica. Qualsiasi attività umana, specialmente quella linguistica, che rispecchia le modalità di pensiero, appartiene a tale struttura che parte, e questo vale per tutti, dal tessuto nervoso ed evolve attraverso astrazioni successive. Ciò che differenzia l'essere umano dal mondo animale è proprio questa capacità di astrazione multiordinale. Egli individua 1) nella "sanità mentale" la capacità di manipolare quest'astrazione, 2) nel "migliorare le condizioni di vita" la capacità di accedere a livelli astratti sempre più alti. Quanto esposto è una parte infinitesima del pensiero di questo scienziato, ma è utile per comprendere come da qualche tempo stia nascendo, negli ambienti accademici di Computer Science, e si stia sviluppando grazie alla rete, una nuova maniera di approcciare il pensiero: nel futuro si penserà in maniera computazionale.

Questa particolare tipologia di pensiero è diventata un campo di studi a sé, noto come "Computational Thiking".  Essa, sebbene sia posizionabile sotto l'egida dell'Intelligenza Artificiale, è un qualcosa a se, con metodi e tecniche ben strutturati che sono diventati realtà in discipline come l'Ingegneria, la Biologia, la Chimica, la Fisica, l'antropologia, la linguistica, l'economia, la criminologia, etc. Se si inserisce su Google la chiave "Computational" ci si trova dinnanzi una schiera di discipline che, appartenenti a campi differenti che spaziano addirittura dall'ambito scientifico a quello umanistico, condividono una metodologia comune che tenterò di descrivere nel seguito.

Il pensiero computazionale nasce da una serie di conquiste che l'Intelligenza Artificiale, e in particolare la Computer Science, ha effettuato nei più svariati campi del Sapere. Questa particolare modalità di pensiero è stata portata alla ribalta da molti studiosi tra i quali spicca una professoressa Jannette M. Wing, Presidente del Dipartimento di Computer Science alla Carnegie Mellon University. Ella in un suo articolo-manifesto [6] dal titolo esplicativo "Computational Thinking" sostiene che:

Computational thinking will be a fundamental skill used by everyone in the world by the middle of the 21st Century.

Inoltre spiega come il pensiero computazionale possa essere un'attitudine che può essere appresa al pari della lettura, della scrittura o dell'aritmetica. Esso consente altresì di ottenere risultati che gli esseri umani da soli non possono ottenere nel Problem Solving, nella progettazione dei sistemi e nella comprensione della potenza e dei limiti dell'intelligenza umana e delle macchine. Inoltre permette di fornire risposte soddifacenti a domande come: Cosa gli esseri umani possono fare meglio dei computer?  Cosa i computer possono fare meglio degli umani? Cosa è computabile?

Attraverso il Computational Thinking possono essere risolti i problemi in maniera efficiente, andando a capire prima quale sia la soluzione approssimata che fa il nostro caso e poi computandola, utilizzando processi randomici a vantaggio del calcolo. In altre parole permette di descrivere prima le difficoltà del problema e successivamente di chiedersi come può essere risolto nel migliore dei modi. Secondo l'autrice il Computational Thinking è:

  • pensare ricorsivamente;
  • riformulare problemi apparentemente difficili in problemi di cui si conosce il procedimento per giungere alla soluzione attraverso: la riduzione; l'inglobamento; la trasformazione; la simulazione;
  • scegliere una rappresentazione appropriata e modellando gli aspetti rilevanti in maniera trattabile;
  • interpretare i "dati" come "codice" e il "codice" come "dati";
  • usare astrazione e decomposizione per approcciare compiti grandi e complessi;
  • giudicare il designe dei sistemi anche per la semplicità e l'eleganza;
  • type checking, come generalizzazione dell'analisi dimensionale;
  • prevenzione, detezione e recovery partendo dal caso peggiore attraverso l'utilizzo della ridondanza, il contenimento dei danni e la correzione degli errori;
  • modularizzazione anticipata per utenti multipli e prefetching and caching anticipata per gli utilizzi futuri;
  • è evitare "race condition" e deadlock nel sincronizzare compiti ed eventi;
  • utilizzare agenti computazionali per approcciare problemi hard relativi all'Intelligenza Artificiale;
  • è approcciare la soluzione dei problemi, il progetto dei sistemi, la comprensione del comportamento umano attraverso i paradigmi della Computer Science.

Nello stesso articolo e in numerose conferenze Jannette M. Wing sostiene che:

"Thinking like a computer scientist means more than being able to program a computer. It requires thinking at multiple levels of abstraction".

Questa affermazione mostra come si possano immaginare delle modalità di pensiero simili a quelle di uno Scienziato dei Computer per programmare meglio i computer stessi. E come tale attitudine possa essere raggiunta con livelli successivi di astrazione, proprio come Korzibsky sosteneva agli inizi del Novecento.

Infatti il Pensiero Computazionale consente di "scalare" la complessità attraverso l'astrazione su livelli successivi definendone le relazioni e automatizzando tali astrazioni e relazioni. Tale lavoro può essere eseguito attraverso specifici modelli e notazioni tenendo presente che, allo strato inferiore, vi è una qualche macchina, sia essa un computer, umana o virtuale.

Considerando il pensiero computazionale come un mutamento di paradigma, è possibile notare come ad esempio, la statistica sia divenuta "computazionale" con le moderne tecniche di machine learning, oppure come ormai la biologia non possa prescindere dai modelli matematici e computazionali attraverso la cosiddetta bioinformatica. Altre sfide che si stanno consumando sono nella Teoria dei Giochi, proveniente dall'ambito economico, il nanocomputing, proveniente dall'ambito chimico, e la computazione quantistica, proveniente dall'ambito fisico.

A mio parere, operando una review della letteratura, vi è uno sforzo nella direzione, suggerita da Wing, di insegnare anche nelle scuole inferiori tale modalità di pensiero iniziando a cambiare il nome di corsi di informatica  da "Corso di programmazione [linguaggio x]" a "Modi per pensare come un Computer Scientist".

Questi sforzi, a mio avviso, vanno nella direzione indicata in precedenza, secondo la quale le nuove generazioni possono operare una sintesi, attraverso astrazioni successive, ed insegnare nuovi modi di pensare e nuove strutture cognitive attraverso le quali le generazioni successive creeranno cose, impensabili solo venti anni addietro.




Bibliografia

[1]

R. Penrose, La Mente Nuova dell'Imperatore, RCS Libri S.p.A., Ed. Milano, Italy, 1992 (1989).

[2]

Engelbrecht and P. Andries, Computational intelligence : an introduction, J. Wiley & Sons, Ed. Chichester, Hoboken, N.J., England, 2002.

[3]

N. Wiener, Introduzione alla cibernetica, Boringhieri, Ed. Torino, Italy, 1970.

[4]

M. Davis, Il Calcolatore Universale. Milano, Italy: Adelphi Edizioni S.p.A. , 2012(2000).

[5]

A. Korzibsky, Science and Sanity, IV ed. Brooklyn, New York, USA: Institute of General Semantics, 1933.

[6]

J. M. Wing, "Computational Thinking," CACM, vol. 49, no. 3, pp. 33-35, March 2006.


Ultimo aggiornamento Martedì 19 Gennaio 2016 10:33

Pagina 1 di 2

  • «
  •  Inizio 
  •  Prec. 
  •  1 
  •  2 
  •  Succ. 
  •  Fine 
  • »

Hanno detto..

NewS - Le Scienze

You are here: Home