sublimina.it

  • Full Screen
  • Wide Screen
  • Narrow Screen
  • Increase font size
  • Default font size
  • Decrease font size






  research gate


omino_logo_sublomina


La Conoscenza è come una linea, dove sono i confini non ci è dato di saperlo.

Sublimina.it è un viaggio personale nel mondo del pensiero umano. Per raggiungere ogni meta c'è una via ed ogni via ha un ingresso. Questa è la mia porta personale, l'ho appena aperta. Ognuno ha la sua porta, qualche volta si ha bisogno, però, di intravedere cosa c'è al di là della porta altrui per mirare l'altrove che sta dietro la propria.  Ispirato da: Franz Kafka, Il processo (1925)


L'Ingegnere Errante

La lontananza rimpicciolisce gli oggetti all’occhio, li ingrandisce al pensiero.
(Arthur Schopenhauer)

uomo sul pavimento tokio

Il titolo di questa sezione: "L'ingegnere Errante", deriva dalle esperienze dirette che un piccolo ingegnere ha avuto e tuttora continua ad avere durante il viaggio attraverso la Conoscenza Umana.

In questa

sezione si intende commentare vecchie e nuove teorie, vecchie e nuove scoperte, tutto ciò, in definitiva, che ruota attorno allo scibile umano.

L'ingegnere Errante tenta di distillare quelle idee che sembrano, almeno ai suoi occhi, aver determinato rivoluzioni e cambiamenti di paradigma nella comprensione della realtà.

Parole vaghe, parole liquide

E-mail Stampa PDF

C'è un concetto che corrompe e altera tutti gli altri. Non parlo del Male, il cui limitato impero è l'etica; parlo dell'Infinito.

Jorge Luis Borges


donna nature

A volte vedo la mia vita specchiata attraverso le altre persone, quasi mai riesco nell’impresa di sentirla emergere dalle secrete più profonde del mio animo. E quando accade, mi riempio di una illimitata felicità che va assopendosi non appena ritorno alla vecchia abitudine. Poi, spesso, mi accade di riflettere su una serie di parole udite e ribadite nelle conversazioni quotidiane, scritte sui giornali, post di blog e chi più ne ha più ne metta: libertà, giustizia, amore, premura, lealtà, bontà d’animo, ostinazione, temerarietà… E non solo nell’accezione del “bene” – parola che potrebbe essere aggiunta alla lista – bensì anche del “male”: cupidigia, ignavia, cattiveria, gelosia, malvagità… Del resto anche l’utilizzo del termine “anima”  genera in me non pochi problemi. Ecco, mi domando cosa in realtà riferiscono davvero tali parole note afferire al campo della Morale. Vero è che il linguaggio è appannaggio degli esseri umani e che, quindi, solo noi disquisiamo con scioltezza e disinvoltura della “libertà di una nazione”, della “cupidigia di certe persone” e del “bene comune” come obiettivo finale di una società in salute (o del male assoluto). D’un tratto, quando i miei pensieri si avvolgono in tali esempi, sento da qualche parte all’interno della mia mente una serie di “click” e partono immagini di devastazione, di guerre passate ed attuali, di rovinosi tradimenti, di ghepardi che studiano la propria preda nei minimi particolari prima di assalirla sicuri, ma forse incoscienti, della propria superiorità fisica. R. M. Pirsig arriva addirittura, e non a torto, a definire l’iniezione di un antibiotico come un genocidio di una popolazione di batteri che vivono in un corpo. Ancora, si hanno slavine, terremoti, tsunami, esplosioni per fughe di gas, stupri, violenze su donne e su uomini; bambini in paesi del Terzo Mondo che darebbero un braccio per avere solo un pezzo della comfort zone che gli occidentali spesso scambiano per noiosa routine quotidiana. Cosa se ne importa la Natura della libertà?

“O Natura, o Natura perché non rendi poi quello che prometti allor? Perché di tanto inganni i figli tuoi?”. Già G. Leopardi si era spinto molto nel rapporto tra Natura e Uomo, finendo per abbracciare quello che i critici hanno poi definito pessimismo cosmico essendo nel pensiero del poeta la Natura considerata matrigna. Evidentemente anche in Leopardi alcuni pensieri hanno fatto scricchiolare gli assi dei neuroni. E allora, cosa ha a che fare il sostrato biologico con le vicissitudini che ci raccontiamo e ci rimbalziamo di mente in mente nel normare trascorrere le nostre vite sociali? Nella fisica classica, dai sistemi più semplici ai sistemi più complicati vi è una sorta di discesa naturale che regola il comportamento del sistema stesso, discesa verso il minimo energetico. Un sasso che cade e si deposita sul terreno va verso il suo predestinato minimo. Gli scienziati direbbero che il sistema sta minimizzando l’energia. Sebbene i biologi hanno più difficoltà nel rintracciare tale semplice legge, anche nelle interazioni biologiche si discende verso il campo di minima energia. Detta con una certa approssimazione, sembra che tutti i sistemi seguano questa regola. E cosa è la cupidigia? Un minimo di energia? E la cattiveria? Ciò che appare lampante è uno scollamento tra due livelli ben distinti; il livello dell’interazione biologica ed il livello dell’interazione sociale degli esseri umani, specie che assieme a moltissime altre abita il pianeta terra. Se il raggiungimento del “bene comune” appare un’utopia, mentre il giaguaro che agguanta affamato la preda è una realtà della savana, da qualche parte nella struttura dei comuni ragionamenti qualcosa non torna. Nel passato e purtroppo anche nel presente si usava attingere all’ “ira di Dio”, come elemento scenico tristemente salvifico che faceva da collante tra un fenomeno catastrofico e una presunta direzione verso il “bene” del procedere storico dell’uomo.  Dio l’ho tenuto per un attimo da parte (non me ne voglia) e non l’ho inserito volutamente nell’incompleto elenco sovrastante poiché è l’entità più dibattuta della storia e meriterebbe, almeno in apparenza una discussione a parte (anche se qualcosa mi suggerisce che anche Dio rientra per qualche grado in taluni ragionamenti). “I terremoti accadono per tutto il male che l’uomo fa nel mondo”. “Ti sei comportato male ecco per che ti è accaduta questa disgrazia”. Beninteso simili relazioni di causa-effetto non sono presenti solo nella cultura cristiana, basti pensare al karma. Che vi sia una certa intelligenza (non per forza teleologica) nella natura è lampante! E’ altresì chiaro che percorrere la catena causa-effetto che porta da una cattiva azione ad una catastrofe non è semplice anche se talvolta non è impossibile. Una casa costruita con la sabbia senza tener conto di fattori sismici è una cattiva azione e presto o tardi sarà causa di una tragedia. A morire non saranno con tutta probabilità i progettisti e costruttori ma chi vi abitava! E che colpa ne hanno loro? Nessuna. Oppure dovevano informarsi? E se sono stati ingannati anche dai periti? Ecco che la catena si spezza e una tragedia è accaduta per una colpa, certo, ma non assegnabile a chi ci ha rimesso la vita. Discorsi della stessa struttura sembrano comparire quando si tratta l’argomento mutazioni climatiche e global warming… Tsunami e devastazioni avvengono per mano umana, per quella colpa che ha nel proprio DNA i geni del peccato originale. E che dire dell’eruzioni vulcaniche? E di un meteorite che colpisce la terra? Fred Hoyle, in “L’origine dell’’Universo e l’origine della Religione” tenta la sua ipotesi sull’origine di Dio e della sua peculiare personalità intravedendo in una pioggia di fuoco dovuta al passaggio di una cometa il riferirsi alla punizione divina da parte dell’uomo, diverse migliaia di anni fa. Del resto, nella Bibbia il peccato originale, cioè quell’azione compiuta da parte di Eva verso Adamo, appare come la condizione iniziale che determina gli esiti nefasti nella storia dell’uomo condannato al duro lavoro. La Bibbia è una narrazione. L’uomo, come del resto io stesso qui, offro una narrazione. “Giustizia”, “libertà”, “amore” sono una narrazione che passa non solo attraverso il filtro cognitivo dell’essere umano nel frangente attuale di tempo, ma è frutto di una sedimentazione avvenuta con costanza e dedizione di generazione in generazione, all’interno di un dato universo culturale. Lo scollamento di cui dicevo sopra, è nascosto nei meandri del filtro cognitivo e della narrazione della storia dell’uomo. Narrazione che trae linfa da una serie emergente di cause-effetto, che sono selezionate rispetto a tutto l’insieme di cause-effetto concepibili.

Se un uomo confida alla propria donna (o viceversa) di fare “sesso” e non l’ “amore”, quando sono nell’intimità, facili possono sopraggiungere problemi. Sesso e amore sono termini che si riferiscono ad universi differenti, sono i due lembi scollati. Non per questo una riappacificazione ecumenica non può esistere definendo il sesso come l’atto naturale (appunto) che si compie quando due persone si amano e stanno bene insieme. Ma solitamente, in una coppia dove vi è sentimento, se vi è sesso vi deve essere l’amore. Il sesso è come qualcosa di gerarchicamente più basso, rispetto ad Eros che domina dall’alto. Dal punto di vista biologico il sesso è un’importante funzione per la conservazione della specie, e l’amore?

Quale universo abita la libertà? Se chiudo un certo numero di molecole di un gas in un setto ermetico, creando un simulacro di un sistema termodinamicamente chiuso, come posso pretendere che le particelle siano libere di passare all’esterno? Ah, il concetto superiore di libertà non si applica ai gas nobili? Una macchina imbottigliata nel traffico di un’arteria autostradale non è come una particella di gas bloccata in uno stato? La macchina è guidata, diciamo una macchina classica e non a guida automatica, da un essere umano. Quante volte il concetto di libertà, quando viene invitato a scendere dal piedistallo metafisico, traballa? Lo stesso Dio, quando decide di camminare in mezzo agli uomini, trova non pochi problemi. E se è possibile che sia conscio delle imprecazioni venute dal basso della miseria umana, allora sicuramente starà lì, adesso, a non darsi pace. Il ponte è crollato a causa della piena eccezionale causata dal mal tempo eccezionale? C’è chi pensa che è colpa di Dio e lo bestemmia, chi pensa che sia, al contrario, la volontà di Dio a operare. E se muore un bambino in una disgrazia? E’ arrivato più vicino alla grazia di Dio. Forse questa non è la prima volta che viene posta la domanda in questi termini, ma chi lo ha detto che l’agire della Natura debba per forza seguire i dettami del bene? Un po’ come Fëdor Dostoevskij che, nella propria lotta al pensiero positivista, insisteva nel domandarsi se fosse giusto ritenere che l’uomo persegua il principio del “vantaggio”. Di fatto, per il grande russo un tale principio non può essere una legge generale, una legge di Natura, poiché l’uomo ha con sé il libero arbitrio, e può contravvenire alla regola per il gusto di farlo, oppure forsanche per  una pulsione di morte… Ma Freud era di là da venire. Appare più semplice ammettere che la Natura, matrigna o non, faccia il suo corso, correndo veloce nella propria esplorazione del campo di possibilità, mentre la narrazione umana non riesce a tenere il passo, vuoi per la finitezza dei suoi mezzi, vuoi per un ritardo temporale dovuto ad un tardivo sviluppo delle capacità cognitive superiori, capacità che hanno permesso l’utilizzo del pensiero astratto  e l’uso delle parole chiave già citate nella dialettica quotidiana. Tale svantaggio sommato ad una limitatezza delle nostre strutture cognitive potrebbe aver portato ad una compressione dell’informazione necessaria per gestire la complessità del divenire quotidiano e la comparsa, nel linguaggio, di parole designanti concetti astratti come quelle citate all’inizio. E’ un’ipotesi.

Un formichiere che mangiando le formiche di un formicaio regolandone il numero e quindi tenendolo in salute (esempio che piace molto a Hofstadter che in GED viene utilizzato per spiegare il concetto di sistema, di funzione e di emergenza, nonché l’organizzazione gerarchica di alcuni sistemi complessi) compie un’azione eticamente malvagia? Oppure sta compiendo una buona azione nel segno di ciò che è giusto? Per non incappare in un cortocircuito cerebrale, solo una visione gerarchia dei sistemi, o sfere sociali e biologiche può aiutare. E qui incappiamo nella sistematizzazione di Pirsig, ovvero che qualsiasi atto della natura è un atto morale, dal nostro punto di vista. Al di là del bene e del male. Sistemi organizzativamente superiori, ovvero sistemi di sistemi come il mio o il vostro corpo (fatto di cellule, anch’esse sistemi a loro volta) possono compiere delle azioni morali, ad esempio sui batteri, tramite il sistema immunitario per il nostro bene. Azioni del genere non vengono percepite come male e, di fatto, sono la garanzia per la nostra sopravvivenza. Il sistemi sociali, ovvero una numerosità di individui con le loro regole, leggi, codici e relazioni sono un sistema di sistemi. Tale sistema prevede, tanto per fare un esempio, la “Forza dell’ordine”, che, per l’appunto, può usare la forza per reprimere una situazione di squilibrio fino ad arrivare ad uccidere. Quindi, verso i ranghi inferiori le azioni sono percepite moralmente positive, mentre azioni che vanno nel verso contrario sono percepite come moralmente negative. Regola generale. L’abitudine al vegetarianismo o al veganismo, installatasi negli ultimi anni nelle società occidentali, non va contro questa regola generale, anche se in apparenza chi ha queste abitudini alimentari senza prescrizione medica, tende a non voler uccidere inutilmente gli animali. Quindi un sistema gerarchicamente superiore si rifiuta di fare del male ad un elemento del proprio sistema appartenente ai ranghi inferiori. Questo, bisogna ammetterlo con tutta franchezza, è possibile per l’abbondanza di cibo e nello specifico di proteine di qualità assimilabili con alimenti diversi dalle carni e, in ultima istanza, assimilabili tramite integratori medicinali. Ciò che è verificabile è che il vaganismo non porta all’estinzione (grazie all’abbondanza di cibo) della razza umana, sicché è ammissibile la contravvenzione alla regola generale di cui sopra, cioè che azioni dall’alto verso il basso sono considerate moralmente accettabili. Il contro-esempio è semplice, basta spostare l’asticella (e pare ci siano comunità che tentano di farlo) e considerare immorale anche l’assimilazione dei vegetali, di tutti i tipi (non parliamo di coloro che mangiano solo frutti caduti!). A questo punto ci potrebbe essere qualche problema di mal nutrizione vero e proprio e la legge di sopravvivenza spingerebbe a contravvenire alla regola imposta col cuore e con la ragione. Sembra che siamo giunti al nocciolo della vicenda! Niente di sconosciuto però, i protagonisti sono la selezione naturale e la spinta alla conservazione della specie. A. Korzibsky negli anni ’30 del secolo scorso sosteneva che “libertà”, “giustizia”, “amore” e simili, sono parole astratte prive di qualsiasi reale senso e se abusate possono portare all’insanità mentale ed al cattivo funzionamento della società.  Zygmunt Bauman, dal canto suo, descrive la società in cui viviamo attraverso la metafora della liquidità dovuta alla globalizzazione che ha portato sì ad una società iperconnessa, ma le cui connessioni hanno legami deboli, mutevoli, come il legami polari per le molecole di H2O. Ecco, “Amore”, “Giustizia” e “Libertà” (e tante altre paroline) sono parole liquide, che come l’acqua prendono la forma del contenitore. Per questo le sentiamo pronunciare da qualsiasi fazione politica, in qualsiasi discorso pronunciato con baldanza da un dittatore o da un fautore sfegatato della democrazia. Democrazia, aggiungete alla lista e dimenticate, Ahimè, la filosofia greca. Questo è il motivo per cui quando sento tali parole è come se il canale fosse disturbato, come se il filo che dall’amplificatore alle casse acustiche facesse falso contatto emettendo dei fastidiosi “click”, che, per altro, possono anche danneggiarle irrevocabilmente. “Amore”, “Giustizia” e “Libertà” non fanno parte delle regole della Natura, possono essere appannaggio solo del nostro universo sociale, ma purtroppo sono liquide, sono come uomini senza midollo, e si prostituiscono appena possono.


Ultimo aggiornamento Giovedì 26 Gennaio 2017 21:53

Da dove nasce l'Universo Digitale?

E-mail Stampa PDF

Quando voglio interagire con un computer, prima che sia pronto a dialogare mi tocca aspettare parecchi minuti dopo averlo acceso. È assurdo, queste macchine dovrebbero essere lì per noi, non l'inverso.


Tim Berners-Lee, L'architettura del nuovo Web, 1999


Da dove nasce questo “mondo digitale” che ci ha portato ad Internet, agli smartphone, tablet, laptop, social network, blog e new media e ha fatto la fortuna di personaggi come Bill Gates o Steve Jobs? Da dove viene la cosiddetta “rivoluzione digitale”? Dove si arriverà?


Mondo DigitaleUna delle domande che si possono porre, e i più addentrati ne percepiranno la portata (i meno non devono preoccuparsi, saranno accompagnati nella piena comprensione di quanto si andrà a dire) è:

Esiste davvero un “mondo digitale”?

Con queste due parole, si intendono molte cose, a seconda del contesto dove vengono utilizzate, e questo è ovvio. Il mondo di Internet è un mondo digitale. Le app degli smartphone fanno parte del mondo digitale assieme alle nuove tecnologie che permettono la comunicazione istantanea.

Esiste pur tuttavia un’accezione dei termini “mondo” e “digitale” assieme che è più primitiva e per certi versi più elementare. Intendo, quindi per “mondo digitale” tutto ciò che si distingue dal “mondo analogico”.

In altre parole mi riferisco ad una distinzione ben nota agli ingegneri informatici elettronici e perché no, ai matematici ed ai fisici. In qualsiasi corso di elettronica si fa questa distinzione: “Elettronica Digitale, “Elettronica Analogica”.

Esiste davvero dal punto di vista fisico un mondo la fuori definibile “mondo digitale”?

Questa domanda ci fa imbarcare in una discussione, che a tutta onestà, non può essere esaurita con questo articolo. In ogni caso si vogliono fornire degli spunti di riflessione.

Innanzitutto i termini “digitale” ed “analogico” possiedono controparti isomorfe che possono essere seguendo l’ordine: “discreto” e “continuo”. E già su questo tema si potrebbe aprire una grandissima nonché interessante discussione tirando in ballo oltre al paradosso di Zenone, una sterminata serie di filosofi e matematici, non ultimi Gottfried Wilhelm Leibniz e Isaac Newton con le loro versioni del calcolo integrale.

Per un bel pezzo, nella storia del pensiero umano il mondo circostante è stato visto come un continuum, immaginando corse, per l’appunto dove Achille non sarebbe mai riuscito a raggiungere la tartaruga. Il calcolo integrale stesso sembra far uso di tecniche matematiche in grado di “manipolare” quantità legate alla natura continua dello spazio e nella fisica classica si è rivelato un ottimo strumento per comprendere la meccanica celeste e il sistema solare.

Già in età antica alcuni filosofi greci, come Leucippo (V secolo a.C.), Democrito (V-IV secolo a.C.) ed Epicuro (IV-III secolo a.C.), e romani, quali Tito Lucrezio Caro (I secolo a.C.) avevano ipotizzato una realtà materiale circonstante formata da “indivisibili”, per l’appunto atomi.

Eppure, dopo lo sconvolgimento relativistico d’inizio secolo scorso, con l’avvento della fisica quantistica alcune proprietà fondamentali della materia hanno mostrato la loro natura discreta, in particolare con l’invenzione del “quanto di energia” ad opera del fisico tedesco Max Planck (1858-1947). Ma man mano che si riducono gli ingrandimenti della lente utilizzata dagli scienziati per indagare la struttura dell’universo materiale, ricompare come per magia il continuum delle forme, almeno per quanto concerne il loro apparire. La realtà materiale circostante tuttavia è discreta o è continua? Tutto sembra portare verso la natura discreta. Caos o zoo di particelle elementari, fotoni, elettroni, protoni, neutroni, atomi, molecole, macromolecole, proteine, DNA, cellule, organi, corpi, pianeti, sistemi solari, galassie, super ammassi di galassie, ammassi di super ammassi di galassie, l’Universo, il Multiverso.

Probabilmente la materia non è né continua né discreta in sé, ci appare in una modalità o in un’altra in maniera schizoide, a seconda di quali proprietà vogliamo estrapolare. Questo è ben noto quando si iniziò a discutere del “dualismo onda-particella”. La sensazione è la stessa che si ha quando si ha a che fare con le “oscillazioni cognitive” a seguito di illusioni ottiche, ad esempio, guardando un pavimento a cubi tridimensionali con un lato scuro.

Ai giorni nostri come stanno le cose?

L’iper-matematizzazione della realtà, conseguente all’avvento dei calcolatori, ha rafforzato il paradigma secondo il quale la realtà materiale che ci circonda è discreta. Per quanto concerne la Cosmologia si parla ormai di “Bit Bang” ovvero, in principio era il “Bit”, creatore di tutte le cose. Questa visione, come appena accennato, scaturisce dalla tendenza nel mondo scientifico a trovare teorie e leggi sempre più fondamentali e inglobative. Fondamentale nella scienza talvolta è sinonimo di astratto. Per questo motivo la Teoria dell’Informazione portata alla ribalta da Claude Shannon (1916-2001), nata in concomitanza con i mutamenti di paradigma d’inizio secolo scorso e maturata con l’avvento dei calcolatori sembra essere la teoria matematica per eccellenza che riesce al meglio a rispondere alla voglia di astrazione degli scienziati e dei fisici nel descrivere le leggi fondamentali del mondo fisico.

Seth Lloyd, professore di ingegneria meccanica al Massachusetts Institute of Technology (MIT) nel suo celebre saggio “Programming the Universe” partendo dalla teoria dell’informazione immagina l’Universo fisico come il più grande “computer quantistico ” esistente.

Charles Seife, divulgatore scientifico, in “La scoperta dell’Universo” illustra con semplicità l’importanza di una teoria matematica fondamentale che spieghi i fenomeni fisici e mostra come la teoria dell’informazione, tramite i legami stretti con teorie fisiche come la termodinamica e quindi con il concetto di energia-entropia, possa essere utile come substrato a tutte le teorie fisiche.

Dal punto di vista teoretico possono risultare estremamente utili i lavori del matematico Gregory Chaitin, come “Omega” o resoconti tradotti in italiano sul suo pensiero come “Teoria Algoritmica della Complessità”, che portano al consolidamento di quella che è stata definita “Filosofia Digitale”, oltre che informano il grande pubblico sulla nuova scienza della Teoria Algoritmica dell’Informazione.

Una discussione è presente in Sublimina.it è può essere reperita nell’articolo “Filosofia Digitale e Teoria Algoritmica dell'Informazione, Deduzione e Induzione” dove tratta dell'emergere della una nuova branca della filosofia a seguito delle recenti scoperte operate nel campo della Teoria Dell'Informazione (la Filosofia Digitale) ed è portata avanti da teorici come il suddetto G. Chaitin e A. Kolmogorov.

Due opere molto interessanti che discutono l’informazione anche nei suoi aspetti algoritmici legati al concetto di “Complessità” anche nella Scienza dei Sistemi, sono: di F. Vaio, S. Bartugia, “Complessità e Modelli” e, a cura di Roberto Barbanti, Luciano Boi e Mario Neve, “Paesaggi della Complessità”.

In ultimo, ma sicuramente non per importanza, il fisico e divulgatore J. D. Barrow in “Teorie del Tutto” si interroga sull’esistenza e sulla possibilità, da parte dell’essere umano, di scoprire una cosiddetta Teoria del Tutto (TOE, Theory Of Everything). Un breve articolo di commento su Sublimina.it inerente questo argomento è “Theory Of Everything” .

In definitiva, gli autori sopra citati, molti dei quali scienziati nell’arena, ci mostrano come di nuovo, quello che è cambiato è un paradigma scientifico, che è anche parte di una metafora: da un Universo post rivoluzione industriale costituito da una grossa pentola sul fuoco (termodinamica) si è passati con il fisico Albert Einstein (1879-1955) ad un Universo come una gigantesca e precisa macchina ad orologeria (Teoria della Relatività). L’avvento della fisica quantistica, mostra l’Universo fondamentale (in prima approssimazione) come un insieme di oscillatori armonici, la rivoluzione dei calcolatori, non in ultimo, ci presenta un Universo discreto e digitale costituito (in prima approssimazione) da bit. La commistione tra fisica fondamentale, quindi tra mondo quantistico e calcolatori indicano uno dei paradigmi più accreditati che è quello di un Universo come gigantesco computer quantistico.

Quindi ad oggi pare che in principio era il bit.

Dal punto di vista tecnologico come sono messe le cose? Un ingegnere elettronico o informatico può affermare che “in principio era l’Elettronica Digitale” costituita da porte logiche o flip-flop? E’ molto difficile addurre ragioni a questa affermazione.

Come nasce allora il mondo digitale che ha reso possibile le strabilianti tecnologie della comunicazione, ha consentito di fare passi giganteschi nelle più svariate discipline, come medicina, biologia o economia, solo per citarne solo alcune?

Ritorniamo per un attimo alla visione “schizoide” accennata in precedenza secondo la quale la realtà circostante a volte ci appare come discreta (particelle) a volta come continua (onde). Bisogna cercare adesso, di fare un estremo viaggio di fantasia, come se ruotassimo la manopola di ingrandimento di un microscopio (che man mano diventa un macroscopio, o meglio telescopio), e cercare di partire dalle particelle elementari, effettuare tutti i passaggi ed arrivare all’intero universo. A quale ingrandimento bisogna fermarsi per inquadrare il punto della discussione? Intendo, dove la scienza e la tecnologia hanno posizionato il loro bisturi per creare il nostro mondo digitale, l’elettronica di consumo, gli smartphone internet, i social network e i blog?

Dal punto di vista tecnologico, l’era dell’informazione è oggi possibile grazie all’invenzione di un preciso componente elettronico: il transistore (o transistor). Esso sostituì le valvole termoioniche utilizzate anche nei primi supercalcolatori oltre che nelle prime radio oggi definite “d’epoca”. L’effetto finale era lo stesso: ottenere un componente che potesse fungere da interruttore per il passaggio di corrente, ma il processo fisico per ottenere ciò è differente. Le valvole in linea di principio agiscono sul controllo del flusso di elettroni, all’interno di un “tubo a vuoto”, tra anodo e catodo, i transistori si basano su proprietà quantistiche che risiedono in strati di silicio “drogati” opportunamente. I transistori hanno permesso la costruzione di circuiti bistabili utili alla memorizzazione dei nostri bit e alla possibilità di operare calcoli con essi, tutto ciò in maniera sempre più miniaturizzata. Oggi la grandezza di un transistore all’interno di un processore (CPU) nei nostri smartphone è dell’ordine del nanometro ed è costituito da pochi atomi.

Ci si chiedeva quindi quale era l’ “ingrandimento” giusto per indagare il fenomeno che ha portato a tutto ciò che di elettronico ci circonda. Il transistore è l’elemento fondamentale a livello materiale. Un elemento meno tangibile ma molto importante è che è stata una vera e propria conquista per la scienza e la tecnologia è il controllo del “rumore”.

Ma che cosa è questo rumore?

Un esempio può chiarire le idee, ma le nuove generazioni digitali avranno grossi problemi a comprenderlo. Ricordate la neve sugli schermi dei vecchi televisori analogici quando non erano sintonizzati su nessuna emittente attiva? Bene quello è definito “rumore elettronico”. In pratica lo schermo di quei televisori mostrava il “brulichio” degli elettroni nei circuiti elettronici del televisore stesso. Lo stesso effetto, a livello sonoro è quando la radio a FM non è sintonizzata su nessuna frequenza attiva: il forte fruscio è “rumore elettronico” proveniente dallo stesso brulichio. Da dove proviene questo brulichio? La materia che comunemente definiamo inanimata, è tutt’altro che inanimata! Gli atomi sono elementi molto dinamici e il brulichio e dato dall’energia cinetica degli elettroni degli atomi. Tale fenomeno dipende da alcuni fattori, tra cui il più importante è la temperatura in cui il circuito elettronico è immerso. Tutto ciò è ormai descritto molto efficacemente in Fisica ed due approfondimenti, qui su Sublimina.it, sono: l’articolo “Il Rumore Bianco”, in cui è presente una discussione approfondita con le formule principali sul rumore nei “resistori” e quindi nei circuiti; “Studio di un Processo Aleatorio Bianco con la correlazione”, in cui vi è anche un po’ di codice di programmazione, in linguaggio Matlab, per fare qualche esperimento (simulato!).

In definitiva in qualsiasi elemento elettronico che possiede una resistenza (caratteristica dei conduttori, a differenza dei materiali isolanti, dal punto di vista elettrico) vi è una differenza di potenziale elettrico misurabile con un Voltmetro. Essa è piccolissima e oscilla intorno al valore nullo. Quindi se discretizzate il tempo e prendete una misura ogni secondo (o anche ogni microsecondo) potreste imbattervi in una serie di valori del tipo :[+0,01, -0,005, …. +0,03, +0,005, -0,009, …]. Questo è solo un esempio con numeri a caso; l’unità di misura è il Volt, forse però qui sarebbe più appropriato il microvolt. Dicevo che sono numeri a caso quelli inventati da me, ma sono numeri a caso anche quelli che vi restituisce il Voltmetro! La legge di probabilità deriva, riprendendo quanto si affermava in precedenza, da proprietà inerenti il materiale, alcune costanti fondamentali della natura e dalla temperatura circostante[1]. Più essa è bassa più il brulicare elettronico, cioè il rumore diventa meno importante, fino ad arrivare allo zero assoluto: 0 Kelvin (–273,15 °C). A questa temperatura teorica l’energia cinetica nelle particelle costituenti la materia raggiunge il suo valore minimo. Le proprietà resistive dei conduttori mutano anch’esse diventando per l’appunto super-conduttori. Allo zero assoluto il consumo di energia del vostro smartphone sarebbe dimezzato proprio perché, per la Legge di Joule, a temperature meno proibitive, metà energia della batteria su disperde in calore (aumento entropico), dissipato dai circuiti, nell’ambiente esterno.

L’altra conquista più grande, quindi, è il controllo del rumore termico. Questo è uno dei motivi per cui la logica dei calcolatori moderni è “binaria”. Ovvero gli stati possibili dei circuiti logici costituenti i computer sono solo due e i numeri con cui ha a che fare il processore centrale sono numeri binari. Nel passato sono stati proposti calcolatori anche con logiche decimali, ma il problema fu il contrasto del rumore. Perché? Immaginate che uno stato sia dato da due possibili valori di tensione in uscita ad un circuito. Se invece di soli due valori ne aveste dieci (uno dei primi supercalcolatori a valvole termoioniche, l’Eniac, aveva una logica base dieci), il brulichio di cui parlavamo in precedenza genererebbe errori in quanto alla differenza di tensione pre-impostata si sommerebbe il rumore che farebbe andare il circuito in uno stato casuale. Certamente con le tecniche moderne questo fenomeno relativo a quello che si chiama processo di quantizzazione, potrebbe essere controllato, ma risulta molto più economico ed efficiente avere solo due stati. Il rumore tutt’ora crea errori, i cosiddetti “errori hardware” nei calcolatori, ma in numero differente se la logica fosse superiore al binario. Inoltre questi vengono corretti a livello logico dai cosiddetti “codici ciclici di correzione” aggiungendo informazione ridondante al flusso di dati che viaggia nei circuiti, informazione che permette la rilevazione e spesso la correzione di questi errori. Quest’ultima è una delle conquiste della teoria dell’informazione e si può tranquillamente aggiungere come colonna portante dell’era digitale. Senza i codici a correzione non esisterebbero le applicazioni multimediali e probabilmente neanche internet, probabilmente il telegrafo resisterebbe ma con una efficienza veramente scarsa. Questa parte, prometto di approfondirla in un altro articolo.

Il rumore termico è come un fluido che tende a scappare da qualsiasi recipiente in cui viene versato, è un mostro difficile da ingabbiare, ma con astuzia può essere addomesticato, perlomeno tenuto sotto controllo. Tale controllo permette in definitiva a questo blog di sussistere.

Il digitale esiste quindi, tutti ne sperimentiamo l’esistenza, ma è importante tenere a mente che sussiste in quanto sussiste una strategia di controllo al brulichio degli elettroni che costituiscono una materia tutt’altro che inanimata!

In definitiva, la diatriba tra continuo e discreto rimarrà tale chissà per quanto tempo, proprio perché legata a quelli che sono gli archè di ogni filosofia, i cui influssi si “sentono” anche in solide e comprovabili teorie fisiche. I computer, però, li abbiamo inventati noi Esseri Umani e comprendere come sia possibile la tecnologia digitale è un tantino più semplice del cercare di capire quello che può sussistere nella mente di un possibile Essere Supremo Creatore.



[1] Se si considera che il rumore sia prodotto dall'agitazione termica degli elettroni in un resistore ideale con resistenza R a temperatura T allora: N0 = 2RKT e prende il nome di spettro di densità di potenza bilatero, dove K è la costante di Boltzman (1.38x10-23 [(Watt/Hz/°K)]).


Ultimo aggiornamento Lunedì 21 Aprile 2014 16:04

La dimensione in cui vivono gli elefanti

E-mail Stampa PDF

All'intelligenza classica interessano i principi che determinano la separazione e l'interrelazione dei mucchi. L'intelligenza romantica si rivolge alla manciata di sabbia ancora intatta. Sono entrambi modi validi di considerare il mondo, ma sono inconciliabili.

R. M. Pirsig (Lo zen e l'arte della manutenzione della motocicletta)


Un elefante le cui zampe sono tagliate orizzontalmente da un piano immaginario, Flatland, le dimensioni nascoste dalle teorie fisiche e il “Gigante” che è dietro le megalopoli abitate da milioni di minuscoli esseri umani, che, come in un formicaio, agiscono per mantenere in vita il complesso sistema che gli permette di mantenersi in vita.

elefante tridimensionale e sua proiezione bidimensionaleUn libro che sicuramente ci aiuta a capire il concetto di “dimensione”, non tanto intesa come estensione, ma come asse di riferimento che assieme ad altri due con le medesime caratteristiche formano la realtà tridimensionale che abitiamo, è Flatland, novella satirica e fantastica ad opera del teologo e insegnante inglese Edwin Abott, pubblicato nel lontano 1884. Flatland oltre ad essere una caricatura satirica della struttura classista della società vittoriana, è un maestoso capolavoro che intende mostrarci la relatività della nostra concezione della realtà tridimensionale, alla luce delle nuove geometrie non euclidee che nel tempo in cui è stato scritto il racconto prendevano forma e che andarono a fecondare, di lì a poco, le idee relativistiche sulla struttura dello spazio-tempo da parte di Albert Einstein. Flatland è un mondo bidimensionale abitato da individui che hanno varie forme geometriche, dai poligoni alle circonferenze. Ogni individuo-forma geometrica ha proprie caratteristiche specifiche e un potere di azione e movimento limitato che in realtà rispecchiano il costume e i modi di pensale socialmente radicati nell’era vittoriana in Inghilterra. Sebbene questa parte della storia sia di estremo interesse, in nei brevi spunti che seguiranno ci concentreremo sulla parte “geometrica” della faccenda. Di fatto Abbott è molto bravo ad usare un certo numero di espedienti per farci “entrare” in un mondo bidimensionale. Siamo abituati a percepire la realtà tridimensionale e questo è un fatto. Ora se prendiamo un foglio e vi disegniamo delle figure geometriche e proviamo a calare il nostro punto di vista sulla superficie del foglio, non “sopra” la superficie, ma nella superficie, scopriamo che alcune realtà del mondo tridimensionale non possono esistere. Ammettendo di disegnare le linee con colore uniforme e se poniamo il nostro occhio nel mondo bidimensionale del foglio di carta vedremmo, ad esempio, i triangoli come linee, come del resto anche le circonferenze e i quadrati. La loro vera natura possiamo conoscerla solo se siamo in grado di “elevarci” nella terza dimensione. Abbott utilizza una miriade di geniali espedienti interconnessi con la metafora relativa alla società vittoriana per provare a mostrare, anche nel mondo bidimensionale le forme nella loro reale essenza (triangoli, cerchi, etc.). A un certo punto della storia compare un individuo proveniente da un’altra dimensione, e cerca di presentarsi, al povero quadrato, protagonista del racconto. Ma come può presentarsi una sfera tridimensionale in un mondo bidimensionale? Quello che possiamo fare è dare sfogo all’astrazione ed immaginare, ad esempio, una mela e trapassarla mentalmente con un foglio di carta e domandarci: qual è la proiezione della sfera nel mondo bidimensionale del foglio immaginario? Bene, è una macchia a forma di circonferenza. Quindi il quadrato di Flatland, o qualsiasi altro osservatore bidimensionale può osservare una circonferenza, ovvero qualcosa che si comporta come una circonferenza, nel proprio mondo. Come poteva rivelarsi allora la sfera? Essa inizia a trapassare il mondo bidimensionale, proprio come noi faremmo muovendo dal basso verso l’alto il foglio immaginario che trapassa la mela e osservando come la proiezione (la circonferenza) aumenta e poi diminuisce la propria estensione. E’ il mutare della dimensione (intesa come estensione) che mostra la natura della sfera al povero quadrato bidimensionale. In realtà aggiungendo alle due dimensioni spaziali la dimensione temporale il quadrato può esplorare i misteri di un mondo che ha una dimensione in più al suo, una cosa per lui incredibile fino a quel momento essendo abituato a concepire il suo mondo, quello consueto, ovvero composto dalle normali due dimensioni. Come fa notare il fisico J. D. Barrow nel suo saggio “Teorie del tutto”, il concetto di dimensione, molto caro ai matematici, è entrato in maniera dirompente nel mondo della fisica, specialmente dopo la Teoria della Relatività Generale di Albert Einstein. Da punto di vista squisitamente matematico, vi sono due branche, in linea di principio interconnesse, l’Algebra (lineare) e la Topologia che giocano con il concetto di dimensione. La prima, algebrizzando la geometria, mostra come sia facilmente possibile estendere le proprietà relative agli spazi matematici tridimensionali a quelli che sono comunemente chiamati iperspazi caratterizzati da un numero di dimensioni superiore a tre, a limite infinito, e abitato da enti geometrici aventi altrettante dimensioni, come l’ipercubo o tesseratto che  Salvador Dalì ha rappresentato egregiamente (nello spazio tridimensionale della tela) con la sua celebre opera Corpus Hypercubus. La Topologia, in linea di principio, categorizza gli spazi (topologici) attraverso il concetto di connessione e di somiglianza. In altre parole una tazzina da caffè espresso con manico bucato risulta topologicamente equivalente ad una ciambella (forma toroidale), anche se la loro forma fattuale è molto differente. Il concetto di connessione collegato, permette di stabilire se si può procedere da un punto all’altro dello spazio oggetto di studio, a seconda della presenza di “buchi” e della loro natura.

Salvador Dalì - Corpus Hypercubus

Salvador Dalì - Corpus Hypercubus (1954)

Einstein aveva immaginato la possibilità di sfruttare le geometrie non-euclidee, nate da eminenti matematici come  Nikolai Ivanovich Lobachevsky, János Bolyai, Bernhard Riemann, Eugenio Beltrami, etc. nella seconda metà dell’Ottocento, che erano pronte e avevano fatto a meno del famoso quinto postulato di Euclide sulle rette parallele, per modificare il concetto di spazio e tempo separati e assoluti formulato da Newton e approdare ad un avvincente visione dello spazio-tempo come un’unica entità che a seconda delle condizioni fisiche (massa, accelerazione) assume una data forma. E lo stesso universo che abitiamo oggi è descritto in fisica come un modello spazio-temporale in cui abbiamo le tre usuali dimensioni a cui se ne aggiunge una quarta che è il tempo. Questa rivoluzionaria teoria portò ad un cambiamento di paradigma in cui spazio e tempo erano inseparabili e la loro natura era dal punto di vista geometrico addirittura simile (non identica come mostrano le equazioni di Hermann Minkowski relative allo spazio-tempo quadridimensionale).  La fisica moderna ha comunemente a che fare con le dimensioni. I tentativi, riusciti in parte, di riunificare le forze fisiche principali sono basati su teorie matematiche che prevedono un numero di dimensioni che può essere superiore a quattro. Ad esempio, la teoria di Kaluza-Klein, proposta agli inizi del Novecento è un tentativo di unificare il campo gravitazionale, descritto dalle equazioni della Relatività Generale, con il campo elettromagnetico, descritto dalle equazioni di Maxwell. Essa prevede la presenza di una quinta dimensione oltre alle usuali quattro della teoria einseniana. Nella formulazione di base la “quinta dimensione” è considerata compattificata,  ovvero come se fosse arrotolata su se stessa e come diceva lo stesso  fisico svedese Oskar Klein, esse sono invisibili ai nostri sensi poiché le altre quattro dimensioni sono sviluppate infinitamente, rispetto alla quinta che è infinitasima. Al di la dei problemi che ebbe questa teoria con i concetti di quantizzazione della carica, il concetto di spazio multidimensionali è ritornato in voga con la Teoria del Stringhe e la M-teoria che prevedono l’esistenza di altre dimensioni con iperspazi dalla particolare forma topologica, alcuni dei quali noti come  spazi di Calabi - Yau compatti. In definitiva una descrizione omnicomprensiva della realtà fisica sembra non poter prescindere dal considerare dimensioni aggiuntive, proprio come in Flatland, dove la dimensione temporale (che è estremamente importante nella Teoria della Relatività) poteva consentire alla sfera di mostrarsi all’osservatore bidimensionale, il quadrato, e di rivelare la propria natura di entità proveniente da un’altra dimensione.

A questo punto è interessante prendere spunto da queste semplici considerazioni e tentare di distillare alcune idee che possono giovare alla comprensione ed al modellamento della realtà che ci circonda dal punto di vista della Complessità. Alcune idee mi sono sopraggiunte quando, di tanto in tanto, mi affaccio al balcone della mia abitazione, al trentaduesimo piano, al centro di Toronto, dopo aver appreso la descrizione di R. Pirsing, in “Lila, idagine sulla morale”, che fa della città di New York, assimilandola ad un gigantesco organismo, il Gigante, che ha vita propria e che consuma materia ed energia e i cui abitanti umani sono solo una parte dell’intero sistema. Di fatto dall’alto di un palazzone come quello in cui abito, si ha una prospettiva più generale, le persone sono puntini e il traffico perde quasi la sua forma discreta e appare come un continuum che scorre, come sangue nei vasi, nelle varie direzioni tracciate dalle arterie stradali. Una visione globale che mostra l’interrelazione reciproca delle varie entità dinamiche che coabitano lo spazio cittadino. Interi grattacieli abitati da una miriade di minuscoli punticini che si muovono, parlano al telefono, sono connessi ad Internet, si recano ad appuntamenti, prendono la macchina, rimangono imbottigliati nel traffico, inviano un post sul social network, perdono il volo, decidono di andare a fare la spesa in un orario meno caotico. Camion che trasportano materiale edilizio, ruspe con motori a scoppio esosi di carburante che scavano buche che ospiteranno le fondamenta di altrettanti grattacieli. Fili elettrici che, come un sistema nervoso, corrono lungo le palizzate ai lati della strada, dove scorre energia e contenuti informativi e mediali come canali TV, telefonate e Internet. Antenne satellitari come funghi sui palazzi che sono puntate verso satelliti che rimbalzano il segnale trasmesso da stazioni poste a migliaia di chilometri di distanza. Fabbriche che producono merce per essere trasportata in negozi, supermercati e pronta per essere consumata. Rifiuti che sono suddivisi a seconda del materiale e vengono riciclati per rientrare in parte nel ciclo produttivo. Fiumi di universitari che si riversano nelle aule ad ascoltare lezioni basate su conoscenze tramandate da generazioni e pronti a prendere il posto della generazione precedente nei più svariati lavori necessari al funzionamento della città. Catene di cause-effetto che si diramano in tutte le direzioni ed in tutte le dimensioni per mantenere in vita servizi di prima necessità come ospedali, centri di ricovero, dipartimenti di polizia e centri finanziari e governativi. Miliardi e miliardi di bit al secondo che vengono scambiati in rete ad alimentare scambi commerciali e monetari tra attori economici, come sono i comuni cittadini. Centri di raccolta dati e informazioni che vengono elaborati per ottenere modelli previsionali sui più svariati ambiti, da utilizzare per il corretto funzionamento dell’organismo, per alimentarne le sue capacità cognitive rispetto ai vari elementi (sottosistemi) che formano il sistema città. La presente è una visione olistica, in cui si immaginano dei livelli, una gerarchia di livelli, sempre più generali dove le varie entità hanno una propria “condizione di vita”. Come noi trasformiamo il cibo per nutrire i vari organi del nostro corpo, le nostre cellule, così da mantenerci sani e avere l’energia necessaria per muoverci, le città hanno la loro richiesta di materie prime ed energia per mantenere il proprio status di vita. Inoltre nello sviluppo dei sistemi di alimentazione nelle città, siano essi informativi (Internet e reti di comunicazione in genere), siano essi sistemi di trasporto e dispacciamento dell’energia elettrica, in sistemi stanno diventando sempre più resilienti, meno centralizzati e con capacità di auto-cognizione e autocontrollo per quanto riguarda il proprio status. La decentralizzazione dei centri di alimentazione e controllo ne diminuisce di gran lunga la vulnerabilità ai black-out ad esempio, o ad attacchi terroristici. Le città, come le nazioni, come l’intero pianeta terra, sono un sistema complesso che ad opera degli esseri umani vede la coabitazione della tecno-sfera con la bio-sfera in uno scambio simbiotico in cui i dati sui mutamenti climatici repentini degli ultimi anni, fanno intravedere che la prima sta agendo a danno della seconda.

Ritorniamo adesso, per un attimo, a Flatland e alla sfera che si rivela al mondo bidimensionale trapassandolo e mostrando il mutamento di estensione della sua proiezione, cioè della circonferenza. Immaginiamo un essere vivente, un elefante, che cammina tranquillamente su un terreno pianeggiante. Immaginiamo di improntare la stessa operazione mentale e prendiamo un piano (come il foglio immaginario che trapassa la mela) e facciamo in modo che sia parallelo al terreno ponendolo all’altezza delle ginocchia dell’elefante. Immaginiamo, altresì, la proiezione delle quattro zampe e dell’eventuale parte terminale della proboscide. Dovrebbero apparirci come delle macchie o quasi-circonferenze che si muovono avanti e indietro secondo un certo schema. Se fossimo come il quadrato di Flatland, vedremmo, nel mondo bidimensionale del piano queste entità come separate. Proprio come noi individui siamo soliti percepirci come separati fisicamente gli uni dagli altri (non considerando i gemelli siamesi). Eppure, se poniamo un po’ di attenzione al nostro agire quotidiano, al di la della separazione fisica, possiamo percepire una sorta di interrelazione, dove le nostre azioni, i nostri spostamenti, le nostre emozioni e gli stati d’animo, sono condizionati da altri individui, o gruppi di individui separati fisicamente. L’elefante nelle consuete tre dimensioni è un’unica entità, ma come facciamo a percepirla come tale se fossimo abitanti di Flatland? Abbiamo asserito che ciò che vediamo sono delle circonferenze imperfette (le proiezioni delle zampe e della proboscide) che si muovono come macchie secondo uno schema dinamico. Ecco, quello che possiamo fare è percepire, a fronte dell’osservazione e dell’incameramento delle informazioni, uno schema soggiacente. L’elefante cambierà direzione, inizierà a correre se è in pericolo o muterà modo di camminare se cambia la tipologia di terreno. Una quasi-circonferenza scomparirebbe se l’elefante alzasse la gamba come gli insegnano nei circhi. In definitiva lo schema soggiacente, seppur esistente, può essere estremamente dinamico e solo un’attenta e prolungata osservazione potrebbe mostrare che quelle proiezioni nel nostro mondo bidimensionale sono elementi che appartengono ad un essere unico, di fatto sono semplicemente le zampe. Una prima osservazione è la “località” dello schema soggiacente. Di fatto le zampe tendono a non allontanarsi le une dalle altre oltre una certa soglia. Un po’ come gli abitanti di una città, di cui una parte che lavora fissa al centro della stessa, ad esempio un campione di commesse di un supermercato, tende a non spostarsi più in la del perimetro cittadino, almeno durante i giorni lavorativi. Quindi possiamo iniziare ad intuire che quelle quattro/cinque macchie vaganti hanno un moto correlato e localizzato spazialmente. L’attento osservatore allora inizia a operare una serie di ipotesi per cercare di definire quantitativamente e qualitativamente la natura di queste correlazioni. Egli intuisce uno schema di base, ma sa che deve raffinarlo. Dopo attente misurazioni nota una serie di movimenti “medi” che avvengono con una certa variabilità che è limitata: nota che le macchie si muovono con moto periodico e ci sono macchie che procedono in una direzione ed altre in quella opposta, in successione. L’osservazione prolungata inizia a dare i propri frutti e nella mente dell’osservatore lo schema dinamico diventa una realtà unica, anche se non è in grado far percepire quelle proiezioni come appartenenti ad un elefante. Tuttavia l’analisi ha dato buoni risultati, si fiuta la presenza di un sistema, siamo di fronte ad una entità i cui cinque elementi (zampe e proboscide) procedono in maniera fortemente correlata. Gli elementi sono legati in un qualche modo e hanno una relazione reciproca causale. L’osservatore bidimensionale, come potrebbe stabilire (ammesso che possa farlo) che quell’entità ha quattro zampe se di proiezioni/macchie ne vede quasi sempre cinque? In realtà quello che farà è osservare una differente relazione di correlazione tra le quattro entità e la quinta, ma sarebbe difficile per lui eliminare l’ipotesi della quinta zampa (questa ipotesi è pretestuosa in quanto per l’osservatore risulta difficile ipotizzarne l’esistenza dal principio). Inoltre il nostro osservatore potrebbe iniziare tutta una serie di ipotesi sulle “azioni a distanza” e immaginare un campo di natura fisica in cui si propagano istantaneamente informazioni da una macchia all’altra, come un filo invisibile che le lega. Per non essere sadici con il nostro osservatore curioso, permettiamogli adesso di poter innalzare ed abbassare il proprio mondo bidimensionale. In questo modo egli potrebbe operare una “radiografia” all’animale, proprio come fa la sfera di Flatland con il quadrato. L’osservatore, attraverso la magia del moto inizierebbe a collezionare una serie di ulteriori ipotesi e si convincerebbe di aver a che fare un un’entità che in qualche altra dimensione debba essere un’entità unica, abbiamo dettagliato quello che è lo schema di un sistema. L’entità ignota (noi esseri tridimensionali sappiamo benissimo essere un elefante) è un insieme di elementi correlati che agiscono di concerto mostrando una sorta di complicità che ne fa percepire l’unicità, intesa come un tutto unico. Purtroppo però, qualsiasi rappresentazione il nostro ormai osservatore scienziato abbia composto, non gli permetterà mai di vedere l’elefante, ne può percepirne l’esistenza, gli darà un nome e lo chiamerà per volere della sorte proprio elefante, ma non potrà cavalcarlo, a meno di non uscire dalla trappola bidimensionale e di non elevarsi nella terza dimensione. Nelle città avviene la stessa cosa. Il percepire il nostro agire e sentire come dipendente in una certa misura da ciò che ci circonda (non ne sto facendo qui una questione sul libero arbitrio) è il percepire correlazioni e relazioni causali tra entità che reagiscono reciprocamente e reagiscono su di noi e che limitano, in una certa misura, il nostro perimetro. Spesso mi capita di prendere l’aereo e quando sono qui a Toronto l’aeroporto principale è fuori città. Dal punto di osservazione privilegiato del sistema città che può essere il palazzo in cui vivo, un’automobile, ad esempio il taxi ci impiega mezz’ora per giungere all’aeroporto, mentre con i mezzi pubblici ci vuole più di un’ora e bisogna cambiare la metro con un autobus. Sebbene parta con un certo anticipo per raggiungere in orario l’aeroporto, so che qualsiasi cosa potrebbe accadere per farmi incorrere in un pericoloso ritardo, come quella volta in cui, imprigionato con pesanti valige nel taxi, rimasi imbottigliato nel traffico dell’autostrada che porta all’aeroporto. A parte i momenti di panico, pensai che solo un elicottero poteva prelevare l’automobile, o solo me con le valige, e portarmi all’aeroporto. Se fossi sceso e mi fossi messo a correre, sarei arrivato forse dopo sei o sette ore, il tempo che impiegavo per tornare in Italia! Quindi doveva avvenire un fatto straordinario, rispetto alla norma, cioè un elicottero a prelevarmi, nella mia fantasia. Il tassista, che era stranamente tranquillo, quella volta si accorse della mia irrequietezza e mi spiegò che saremmo arrivati in tempo poiché erano le sei passate del pomeriggio e il traffico a quell’ora si sarebbe diretto verso l’arteria est, dopo circa un chilometro. Quel giorno riuscii a prendere l’aereo senza troppi intoppi eppure il senso di impossibilità ad agire nel traffico mi lasciava un senso di sconforto. In definitiva un modus esterno, dovuto ad un comportamento medio che si ha alle sei del pomeriggio in quel punto dell’autostrada, mi permetteva di arrivare all’aeroporto in orario, altro che elicottero. Migliaia di persone che escono dagli uffici e si dirigono verso le proprie case, gli uffici si svuotano, negli ospedali e nei dipartimenti cambiano i turni, come negli altiforni dell’industria siderurgica o nei centri di controllo delle centrali elettriche. Marco, un ragazzino di periferia a casa sua è intento a scaricare gli ultimi episodi della sua serie preferita, mentre addetti al centro di smistamento di zona del traffico Internet, deviano il flusso dati verso un altro router di riserva, nell’attesa che quello che si è appena guastato venga riparato. Ho posto l’esempio della città per semplicità e perché si presenta davanti ai miei occhi spesso, ma ciò vale anche per l’intero pianeta, una serie di entità o sottosistemi facenti capo ad un sistema superiore (ecosistema) fortemente interconnessi ed interrelati e più l’evoluzione tecnologica e del nostro stile di vita procede, più tali entità saranno sempre più interrelate. Relazioni semplici come la produzione di gas dannosi e il buco dell’ozono si sono rivelate abbastanza facilmente. Vi sono una miriade di micro-relazioni che come catene causali modificano i vari elementi del nostro sistema-pianeta terra e devono ancora essere scoperte. Altre, grazie alla tecnologia stessa ne vengono create e spostamenti di beni-denaro, possono avvenire alla velocità della luce permettendo a banche ed istituti finanziari di guadagnare o perdere ingenti somme in brevi istanti. Azioni compiute in punto del pianeta si riflettono con sempre più vigore sull’intero globo, e non si tratta solo di cambiamenti climatici presunti, ma di mutamenti delle condizioni di vita che in alcuni paesi portano a carestia e morte. Tutto è connesso con tutto, invero ignoriamo la natura delle connessioni. Il “Gigante” esoso di energia, materie prime e forza lavoro è un’entità molto complessa la cui presenza è difficile da materializzare mentalmente, solo un’attenta e accurata, nonché lunga osservazione dei fenomeni in gioco possono permettere di percepirne l’unicità nell’agire, proprio come le formiche in un formicaio in cui la morte di una formica non è detto che sia un danno, specie se vi è scarsità di risorse alimentari. Dovremmo essere come l’osservatore bidimensionale alle prese con l’elefante.

Ultimo aggiornamento Lunedì 26 Settembre 2016 04:07

Maledetta tecnologia che tu sia benedetta!

E-mail Stampa PDF

Il Web è progettato per essere universale: per includere tutto e tutti.

Tim Berners Lee


Social media, Nuovi media, Algoritmi, Big Data, Era Digitale, Informazione, Internet, Intelligenza Artificiale, Conoscenza, Cibernetica, Vita.

La tecnologia è da amare o da odiare? O possiamo semplicemente essere neutrali ad essa? Partendo da un approccio situato in qualche punto interno al triangolo i cui vertici si riferiscono ai sostenitori del determinismo tecnologico, del determinismo sociale e della neutralità della tecnologia, si intende discutere la centralità di questa e dei suoi sottoprodotti alla luce dell’approccio complesso che scaturisce dalla disciplina della Teoria della Complesità.


technology simulacraTi abbiamo tanto amato o tecnologia, adesso perché ti ribelli al tuo creatore? Perché, ammasso di chip di silicio che non sei altro, hai trangugiato il pomo biologico della discordia?

Una frase che la rete con la sua frettolosa viralità ha attribuito ad Albert Einstein, anche se pare che non vi è citazione rintracciabile (non mi interessa in questo frangente poiché e bella ed espressiva di per sé e non per chi l’ha pronunciata), recita: “temo il giorno in cui la tecnologia andrà oltre la nostra umanità: il mondo sarà popolato allora da una generazione di idioti”. Può la tecnologia andare oltre la nostra umanità solo per generare idioti? A questo punto mi sovviene, prima ancora di qualsiasi concreto giudizio, l’immagine dell’esoscheletro Hybrid assistive limb, in via di sviluppo in collaborazione con un’università giapponese per potenziare le possibilità di persone affette da gravi disabilità motorie e allo stesso tempo mi si contrappone l’immagine tratta da un’esperienza di non molto tempo fa, sul woterfront di Toronto, mentre rincasavo, bicicletta alla mano, all’imbrunire. Ho notato nella penombra data dal sopraggiungere dell’oscurità una miriade di luci, alcune immobili altre in lenta oscillazione. Erano centinaia di smartphone nelle mani di persone che mi circondavano; mi sono fermato per cercare di capire se vi fosse qualcuno che stesse dialogando. Saranno state cinquanta persone, non sono riuscito a scovare la traccia di un dialogo, solo teste curve su uno schermo sfiorato di tanto in tanto dalle dita. Sarà stata anche l’incombenza dell’imbrunire che ha reso meno visibile la presenza dell’altro, ma scene come queste ormai sono la normalità, non solo in metropolitana. Esse lasciano percepire “lontananza” che non significa più lontananza geografica, bensì lontananza della mente nel presente spazio-temporale, pur stando i corpi anche a stretto contatto. Qualcosa sta cambiando profondamente nei nostri modi di interagire e relazionarci.

Di esempi di dicotomie sull’utilità/inutilità della tecnologia e di alcune scoperte scientifiche, se non tutte, ve ne sono una infinità. La scoperta dell’atomo con l’energia nucleare. L’invenzione del transistor e la possibilità di fare calcoli velocemente come veniva percepita nel secolo scorso, l’invenzione del transistor per poter usufruire di smatphone, tablet e computer per poter comunicare e lavorare meglio, come viene percepita oggi nell’era digitale. La televisione come elemento di alfabetizzazione e livellamento socioculturale, come veniva percepita il secolo scorso, la televisione come strumento oppiaceo di addomesticazione di massa come per lo più viene percepita oggi. La stessa tecnologia può essere intesa come un monstrum frattale in cui ad ogni ingrandimento si scovano dei pezzi che sono utili e che sono pericolosi al tempo stesso. L’esoscheletro meccatronico può permettere di deambulare a persone che oggi sono costrette sulla sedia rotelle, se non a letto, in un mondo che, seppur si sforza con l’abbattimento delle barriere architettoniche, è costruito in larga parte per in normo-abili. Allo stesso tempo, l’esoscheletro può potenziare la forza di un operaio, come faceva il muletto e limitare il deperimento causato dal lavoro pesante in una fabbrica. L’esoscheletro, però, può essere utilizzato dall’esercito per accrescere le abilità dei soldati in guerra. Proprio come l’energia nucleare, tanto dibattuta, ma comunque sempre meno pericolosa nel suo impiego civile nelle centrali elettriche, rispetto a quello militare, nelle testate non convenzionali dei missili da crociera. Medicine con principi attivi composti in laboratorio da molecole che salvano la vita e molecole che generano dipendenza e vengono poste sul mercato nero delle mafie e vendute come droghe. A parte le droghe “naturali”, la sintesi di una droga sintetica è data grazie alle stesse leggi ed agli stessi supporti tecnologici che consentono di sintetizzare un vaccino o una nuova molecola. La stessa tecnologia alla base di smartphone e tablet, la stessa rete Internet, sono oggi utilissime per portare a termine operazioni chirurgiche e salvare vite che un tempo sarebbero state date per spacciate. Di esempi ce ne sono moltissimi, anzi potrei azzardare a dire che qualsiasi invenzione ha un doppio risvolto e come si è soliti ribadire, la tecnologia in sé stessa è solo un mezzo, non è né bene né male, è l’utilizzo che le imprime una natura angelica o diabolica. E’ proprio così? La risposta è alquanto difficile eppure, prima ancora di conoscerla, con la tecnologia ci dobbiamo convivere. L’immagine di tante persone chine sullo smartphone su un treno odierno non è poi tanto distante come l’immagine di tante persone chine su un libro tascabile al tempo dell’esplosione di questo formato, che in Italia pare risalire al primo dopoguerra con la casa editrice BUR. Come sosteneva Umberto Eco, in una sua celebre “Bustina di minerva” che soleva pubblicare periodicamente su un noto giornale, la contestualizzazione storica è importante e non solo, prima di dare un giudizio sulla propria epoca, prima di giudicare se il numero dei suicidi minorili è il più grande di sempre e quindi stiamo andando verso la rovina, bisogna dilatare tempo e spazio, altrimenti si incorre nel vedere solo quello che inquadra la telecamera di turno del “media” di turno. Anche i libri e i giornali devono aver fatto venire in mente a qualcuno che avrebbero creato “distanze”, quantomeno nelle sale d’attesa o sui mezzi pubblici. Eppure soprattutto i libri sono considerati uno strumento di libertà, uno strumento che permette di elevarsi, il nutrimento primario dello spirito, ciò che consente di accarezzare la propria anima. Facebook, forse non a caso, sarebbe tradotto in Italiano come “Faccialibro”, e di fatto quando nacque era per lo più un libro (consultabile via web browser) composto da facce che sceglievamo come amiche, siano esse di veri amici o di amici virtuali conosciuti in rete. Oggi, nel 2016, il super tecnologico social network di Mark Zuckemberg è un po’ più di un libro elettronico con facce. Esso è un contenitore inclusivo che veicola molteplici classi di contenuto che si differenziano anche a seconda del tipo di codice usato per comunicare i contenuti stessi. Perché però alcuni intellettuali hanno l’impressione, anche chi ne è un assiduo utilizzatore, che i social, molto spesso, invece di essere un nutrimento primario, uno strumento di cultura e di elevazione della propria anima sono percepiti, bensì, come uno strumento di appiattimento e di slavamento culturale? Come funziona davvero Facebook? E twitter? Come funziona la rete internet moderna (semantica)? Propongono essi, esempi della cosiddetta connettività o nuovi modi del suicidio come è accaduto alla ragazza partenopea Tiziana Cantone a causa di un video intimo dal carattere pornografico divulgatosi viralmente in rete o dell’adolescente francese che qualche tempo fa si è suicidata in diretta web, annunciando il proprio triste destino, un attimo prima di portarlo a compimento? Questi nuovi modi del suicidio sono figli della tecnologia? Oppure la tecnologia ci svela semplicemente ciò che prima era nascosto nella non ubiquità dell’informazione? La visione positiva della tecnologia e della scienza come strumenti per migliorare le capacità umane dal livello cognitivo a quello prettamente fisico del Movimento Transumanista (talvolta indicato con H+) si contrappone alla visione, detta in generale, catastrofista dove la tecnologia è percepita come uno strumento disumanizzante e allo stesso tempo di predominio delle masse utile a perpetrare le strutture di potere ben consolidate nella storia. Esoscheletro come strumento per compiere il “miracolo” del camminare e restituire una vita più dignitosa ai disabili o strumento di sopraffazione degli eserciti sui popoli ostili o sul proprio stesso popolo? La questione risulta alquanto spinosa eppure da un verso deve essere presa. Proprio durante il mio dottorato, ahimé in materie scientifico tecnologiche con specializzazione in una sotto-disciplina afferente all’Intelligenza Artificiale, un video dal titolo “The animated guide to a Ph.D.” [1], capitatomi mentre surfavo il web mi ha molto colpito. Esso in una grafica semplice e con una musica accattivante diceva: immaginate un cerchio (tracciandolo) che contenga tutta la conoscenza umana. Poi continuava: “dal tempo che hai finito le suole elementari conoscevi un pochetto”, mostrando un punto al centro. Alla schermata successiva tale cerchio cresceva e la frase di accompagnamento recitava: “da quando hai finito le scuole superiori tu conosci un poco di più”. E ancora: “con la laurea triennale tu hai guadagnato una specializzazione”; questa volta il cerchio invece di crescere in maniera concentrica, spunta da un lato di quello sorto in precedenza come se fosse un bozzo. E ancora: “la laurea specialistica approfondisce questa specializzazione e leggendo articoli di ricerca scientifica ti porta sulla soglia della conoscenza umana”; questa volta il bozzo si dilata allungandosi fino a lambire, senza superarlo, il cerchio più esterno, quello relativo all’intera conoscenza. Poi una inquadratura nuova si focalizza nella zona del punto di contatto: “spingi verso questo confine per pochi anni… Fino al giorno che il confine ti apre una strada”, e la punta del bozzo deforma infinitesimamente il confine creando un’intaccatura. “E quell’ intaccatura che hai creato è chiamata Ph.D”. Infine il focus si sposta verso un ingrandimento ancora maggiore dell’intaccatura e proprio mentre se ne allontana velocemente di nuovo mostrando il cerchio della conoscenza per intero, il narratore testuale ammonisce: “sicuramente il mondo ti appare diverso, ma non dimenticare l’immagine nell’insieme”. Tra le tante immagini metaforiche e riflessioni che il video ci suggerisce una è alquanto chiara. Man mano che si procede nel percorso, perlomeno quello scolastico pre-tracciato, verso la conoscenza, aumenta la specializzazione in un dato ambito, specializzazione che ti permette di ambire a padroneggiare una porzione infinitesimale dell’intera conoscenza umana. In una società moderna, la specializzazione è un pregio e l’intero monstrum tecnologico necessita anche individui iper-specializzati. Cosa accade di converso? L’iper-specializzazione e la parcellizzazione del lavoro portano ad una miopia rispetto al resto della conoscenza generando quelli che poi vengono definiti problemi etici. E’ noto che nonostante esistano studiosi attenti all’etica delle tecnologie, si pensi alla bioetica e alla roboetica, essa spesso non arriva all’attenzione di coloro che sono intenti a creare e a vendere tecnologia o quantomeno vi giunge con una tale debolezza che sortisce come un totale disinteresse. Vi è anche una terza via, la comunicazione giunge e innalza il livello di consapevolezza, ma l’affare economico copre gli occhi degli addetti ai lavori con spesse fette di prosciutto stagionato. Quanto è complessa la tecnologia? La scienza manipola abbastanza agevolmente il concetto di complessità, anche se ad una soluzione non vi si è ancora arrivati con chiarezza, tanto che il filosofo Edgar Morin sosteneva che “la complessità è una parola-problema e non una parola-soluzione” [2]. Cosa c’entra la complessità? Dopo l’iper-specializzazione e la parcellizzazione del lavoro che non consentono di avere una visione di insieme tale da far nascere giudizi etici sulla portata del proprio operato, giunge la complessità della tecno-sfera, una realtà tecnologica tutt’altro che irreale che permea il nostro pianeta e ne costituisce, in un certo senso, una protesi artificiale, una specie di sistema cognitivo cibernetico che aggroviglia il pianeta. L’interconnessione dei dispositivi, grazie alla cosiddetta interoperabilità, fornita da interfacce su cui operano protocolli rigidi, ma intelligenti e dinamici, e standard comuni e grazie ai supporti fisici prodotti in continuo miglioramento ha aumentato la complessità della tecno-sfera, la quale nasce originariamente come una serie di elementi separati, un sistema composito o un complesso semplice. Poi essa si evolve, grazie all’ingegno umano, in un complesso complicato in cui il tutto risulta più della somma delle sue parti. Di fatto emergono applicazioni, nuovi usi dei dispositivi, della rete e della tecnologia in generale, che non erano stati davvero pensati al momento che si stava producendo quella particolare tecnologia: una sorta di serendipity tecnologica. Questi effetti nella Teoria della Complessità sono noti come “emergenza”. Quindi a questo punto abbiamo anche un ulteriore fardello: la tecno-sfera, nonostante sia composta da elementi deterministici costituenti, è un qualcosa che si avvicina molto ad un modello di Sistema Complesso, nel suo insieme e nell’interazione con noi esseri umani. Per i transumanisti non c’è da preoccuparsi, anzi Ray Kruzweil, scienziato e futurologo americano, ritiene in un suo famoso saggio [3] che la conoscenza e la tecnologia procedono con trend crescenti, grazie all’effetto rete, in maniera addirittura più che esponenziale. Egli stima che tra circa trenta anni si raggiungerà il punto di singolarità in cui le intelligenze umane e cibernetiche si fonderanno ingenerando una super-intelligenza mai comparsa sul nostro pianeta permettendoci di compiere azioni strabilianti e con tutta probabilità di ottenere, qui su questa terra tramite l’ingegneria genetica, la vita eterna.

Di tanto in tanto possono sorgere nella mente pensieri molto particolareggiati che spesso vengono scartati coscientemente poiché troppo particolareggiati. Ora ne provo a proporre uno, legato a quanto si sta affermando. Il pensiero nasce da quando il mio professore E. Mencuccini, insegnante di fisica ed elettromagnetismo all’università la Sapienza di Roma e giovane assistente di E. Fermi, scherzò sull’elettrone, dicendo che è talmente reale la sua esistenza (non lo era nel periodo storico in cui fu proposto) che oggi viene addirittura venduto! Con ingenti guadagni di compagnie statali e non. Di fatto l’elettrone viene venduto come le cozze al mercato del pesce; è un punto di vista particolare, ma effettivo e inoppugnabile. Da quando ad opera di Guglielmo Marconi è stato possibile pragmaticamente inviare un messaggio tramite la trasmissione di un onda elettromagnetica dai colli bolognesi fino in Inghilterra, facendo un viaggio transoceanico in una frazione di secondo il mondo è davvero un altro luogo. L’invio del segnale elettromagnetico ha permesso, tramite il mezzo fisico “onda elettromagnetica”, di inviare “informazione” quasi istantaneamente in due punti del globo separati da migliaia di chilometri di mare, terra e monti. In un certo senso da allora è stato possibile mettere in comunicazione quasi istantanea la maggior parte dei luoghi del pianeta. Posso immaginare di innescare una relazione causa-effetto tra due luoghi remoti, che un tempo era impensabile. Un attentato comandato a distanza dall’Asia tramite un computer ed un cellulare imbottito di C4  che esplode in Africa ne è un triste esempio. In realtà noi stessi siamo “pezzetti di ecosfera” che reagiscono comunicando a velocità luminale con altri “pezzetti di ecosfera” disseminati sul globo terreste (qualcuno è anche in orbita geostazionaria sulla stazione spaziale internazionale); in realtà siamo più di questo. E’ comprovabile che la pervasività e l’ubiquità (uno dei laboratori in cui ho lavorato a Toronto era chiamato laboratorio di Computazione Pervasiva e Ubiquitaria) della tecnologia moderna ci ha reso esseri che non possono farne a meno, poiché il nostro stesso divenire, la nostra stessa crescita in termini sia di numero che di volumi economici dipende da essa.

Uno degli elementi necessari alla presenza della complessità e caratterizzante i cosiddetti Sistemi Complessi, qual è la tecno-sfera, è la forte interrelazione degli elementi che compongono il sistema, noti come sottosistemi. Nel mondo attuale qualsiasi sottosistema che possiamo proiettare nella nostra mente è fortemente interrelato con ogni altro. Con sottosistema si intende qui qualsiasi cosa sia parte dell’ “umano-sfera”. Se oggi qualcuno tentasse uno scherzetto e spegnesse Google, probabilmente più della metà dei lavoratori dichiarerebbe di non poter lavorare. Se spegnessimo la rete semaforica di Pechino in pochi minuti la città piomberebbe nel caos profondo. I precedenti esperimenti mentali trattano di esempi di sottosistemi legati alla tecno-sfera. Da un lato la tecnologia è diventata un ecosistema di difficile comprensione data la sua crescente complessità, dall’altro il suo mantenimento è legato a doppio filo con i nostri livelli di “consumo” e di crescita e con la nostra capacità di gestire lo stesso ordinamento sociale. Dall’altro, tale mantenimento necessita di una crescente iper-specializazione che come effetto avverso può rivelarsi come una miopia nella catena di cause ed effetto che si ingenera mettendo sul mercato una nuova tecnologia o compiendo un’azione a distanza attraverso le possibilità che quest’ultima offre. Un esempio strettamente analogo all’attentato a distanza dove dall’Asia si inviava un comando che innescava una carica di C4 collegata ad un cellulare a migliaia a di chilometri di distanza, può essere una commessa errata ad opera di un istituto finanziario su una commodity come il grano per il pane in un paese con economia soffocata o una vendita poco avveduta di grosse moli di titoli di debito di uno stato già sofferente finanziariamente. Pian piano i tasselli stanno prendendo il loro posto. La tecnologia pervasiva e ubiquitaria assieme alla possibilità di avere reazioni causa-effetto costituite da lunghe catene istantanee, ci permettono di comunicare con quasi qualsiasi punto del globo, di fruire dell’immensa conoscenza codificata in vari modi sulla rete e di avere una nuova identità sulla stessa con cui possiamo esprimere, ognuno a suo modo, il nostro carattere social. Non c’è bisogno che mi dilungo su come funziona il web e i social network, anche se non dobbiamo dimenticare che questi ultimi sono la punta di un iceberg costituito da una complicatissima e complessa infrastruttura di computer e reti di telecomunicazione che pervade il globo terrestre e, con i satelliti,  l’atmosfera superiore. Un elemento però è di interesse nella discussione: la presenza delle intelligenze artificiali. Non un intero libro ma un’intera biblioteca potrebbe essere messa su sul campo dell’Intelligenza Artificiale e ci porterebbe lontano. Restando ancorati ai social come nuovi media, una componente essenziale sono proprio gli algoritmi automatici, quelli che ci suggeriscono le amicizie, i libri da acquistare, i giornali da leggere (questi utili noti come recommender systems). Algoritmi che studiano i nostri gusti, i nostri modi di vivere, le nostre preferenze sessuali, il nostro orientamento politico e religioso. Algoritmi che matchano utenti, che fanno incontrare persone, che consentono la nascita di coppie e famiglie, algoritmi che suggeriscono community virtuali, che regolano il flusso del traffico automobilistico tramite le informazioni real-time apprese per mezzo di sensori disseminati lungo le arterie stradali. Possiamo iniziare ad intravedere la rete come una sorta di complesso, di organismo se volete, con una parte statica, diciamo strutturale ed una parte dinamica, che ribolle di informazioni elaborate e proposte agli utenti, informazioni composte da una miriade di dati che noi stessi abbiamo volontariamente immesso in precedenza. La controparte dinamica è quella intelligente in cui algoritmi di apprendimento automatico lavorano instancabilmente per fornirci la migliore esperienza, anzi non la migliore, ma quella più immersiva. Da una prospettiva più catastrofista, la gratuità della rete, e il patto non scritto secondo il quale immettiamo dati non solo personali nel circuito, ha un prezzo. La moneta di scambio è il nostro tempo, il nostro focus di attenzione e anche un po’ la nostra privacy. Il Word Wide Web, ribadisco da non confondere con l’Internet, è un luogo molto differente da quello immaginato ai primordi da Tim Barners Lee, considerato uno dei fondatori del WWW, all’inizio degli anni Novanta del secolo scorso. A quel tempo il concetto di ipertesto era il massimo della spinta dinamica, rendeva le statiche pagine web un luogo dove poter fruire della conoscenza saltellando nell’ipertesto e quindi velocizzandone il processo di acquisizione. Oggi sulla rete ci sono i motori di ricerca (o il motore di ricerca) come Google con gli spider, che consentono di scovare e  collegare miliardi di pagine che di per sé sono tutt’altro che statiche. In rete ci sono i bot, elementi intelligenti alimentati da versioni di intelligenze artificiali in evoluzione che permettono anche di poter affrontare una conversazione di livello basico superando versioni semplificate del famoso test di Turing. Ci sono i social network ognuno con le sue prerogative di collegamento tra gli utenti, le cerchie di amicizie di Google+, gli amici e i conoscenti e le reti di Facebook, i follower e i following di Twitter con la sua struttura pressoché piramidale o di Instagram che, con medesima struttura, ha una preferenza per le foto e i video più che per i contenuti testuali. E poi c’è il deep web, quella porzione di contenuti, qualcuno giudica maggiore in massa rispetto al resto, non raggiungibili dai motori di ricerca usuali, ma raggiungibili solo tramite appositi client. In tale scantinato della rete è possibile acquistare armi o droghe, banconote false, documenti contraffatti e informazioni coperte. Come nota a margine è doveroso precisare che il pensiero in materia di impatto della tecnologia espresso in questo breve saggio si avvicina pericolosamente al cosiddetto “determinismo tecnologico”, corrente di pensiero sviluppatasi nella prima metà dello scorso secolo anche presso la scuola di Toronto ad opera di studiosi dei mass media come Harold Innis, Marshal Mc Luhan e Derrick De Kerckhove. Coincisamente, con determinismo tecnologico si è soliti indicare l’approccio secondo il quale si individua nella tecnologia la sola causa delle trasformazioni della nostra società e quindi anche della nostra evoluzione. Si è soliti, altresì, contrapporre tale concezione con il “determinismo sociale” in cui sono le forze sociali e politiche a condurre la storia dell’uomo e a determinare le basi per la nascita di nuove tecnologie. A parte la perfettibilità di queste brevi definizioni, nel dibattito socioculturale vi sono una miriade di autori il cui pensiero è ascrivibile a posizioni intermedie tra questi due poli. Di fatto il dibattito si è spostato tra coloro che si schierano a favore del determinismo forte in cui il destino dell’umanità è eterodiretto completamente dalla tecnologia e coloro che si schierano a favore di un determinismo debole in cui, anche se la tecnologia è una forza portante nell’evoluzione, l’essere umano ha ancora l’ultima parola in fatto di decisioni riguardanti il proprio destino. Gli strumentalisti sono convinti che gli “strumenti” tecnologici sono sotto il pieno controllo umano e la responsabilità sulle conseguenze della tecnologia nel nostro sviluppo e ascrivibile all’essere umano stesso. Vi è anche una terza strada, problematica anch’essa se considerata in assoluto, che vede la tecnologia come neutrale. Melvin Kranzberg, storico della tecnologia americano scrisse nella prima delle sue sei leggi sulla tecnologia che: “la tecnologia non è ne cattiva ne buona; ne tantomeno neutrale” . Secondo le tesi discusse in questo testo è difficile collocarsi in questi tre poli e non cadere in contraddizioni; forse la tesi di Kranzberg e condivisibile seppur bisogna riconoscere come problematica. Se non altro determinismo tecnologico e determinismo sociale sono etichette, care alla filosofia professionale, utili per avanzare contrapposizioni dialettiche. Bertrand  Russell che aveva intuito una serie di problematicità relative al pensiero astratto formalizzato sosteneva che la “logica tradizionale assume che si usino simboli precisi. Quindi non si applica a questa esistenza terrena, ma solo ad una immaginaria esistenza celeste”.

Al contrario, come ci mostra l’approccio della logica multivalore o logica fuzzy (che fa a meno del tertium non datum aristotelico) al ragionamento e al modellamento dei fatti del mondo, i concetti più sono definiti in maniera precisa più sono applicabili ad un numero esiguo di fatti, mentre concetti sfumati hanno un più ampio raggio di applicazione. In altre parole determinismo tecnologico o sociale etichettano una serie di idee che risiedono in un campo ristretto e soffocante. La concezione portata avanti qui è inquadrabile nell’evoluzione stessa dell’essere umano. Di fatto se si allarga il focus temporale e non ci si limita alle ultime migliaia di anni e se si accettano le attuali teorie sull’evoluzione un fatto è incontrovertibile: che in un certo punto della loro evoluzione gli esseri viventi, e più di tutti l’essere umano, hanno iniziato a far uso di tecnologia per migliorare le proprie condizioni di vita. Da quel periodo le pratiche umane si sono legate a doppio-filo con le pratiche tecnologiche con un meccanismo a retroazione positiva e tutt’oggi esse coevolvono secondo schemi sempre più complessi. L’approccio alla complessità può aggirare il problema dell’ago della bilancia che pende o verso l’uomo che dipende dalla tecnologia o la tecnologia che dipende dall’uomo. L’idea che sottende a quanto si è affermato in precedenza sulla pervasività della tecnologia e il rapporto con l’uomo si basa su un concetto di complessità che organizza la dialettica sul mondo anche in maniera verticale, cioè a dire, non si ferma alla società come un insieme di individui con interazioni orizzontali, ma ad una visione d’insieme della tecno-sfera in scambio simbiotico con l’umano-sfera. Allo stesso modo in cui Douglas Hofstadter mostra in un famoso dialogo [4] come l’approccio complesso dipenda dal livello semantico a cui si opera l’indagine conoscitiva e, sebbene il formichiere mangi le formiche del formicaio distruggendone un certo numero, lo stesso formichiere “dialoga” tranquillamente e senza conflitti con il formicaio inteso come unica entità complessa. Ciò avviene perché al livello dei costituenti del formicaio, cioè quello delle formiche, vi è un danno in termini di perdita di unità, ma al livello di insieme, ovvero di formicaio inteso come un complesso di entità fortemente interrelate che scambiano informazione, il formichiere offre un giusto servizio, mantenendo lo stesso formicaio in salute attraverso un meccanismo omeostatico di controllo che porta l’intero sistema formicaio-formichiere in equilibrio; equilibrio che si perpetua anche all’interno del formicaio in cui il rapporto tra natalità e mortalità delle formiche è mantenuto ad un livello tale per cui le risorse alimentari tendono a bastare e la specie a conservarsi. In definitiva Hofstadter mostra come il formicaio sia concepibile come un meta-organismo. Lo stesso ragionamento può essere perpetrato per le cellule costituenti gli organi del nostro corpo, come elementi di un meta-organismo, ma a loro volte le cellule stesse sono un meta-organismo costituito da elementi legati da relazioni complesse. Questa visione consente di vedere organizzazioni designate geo-politicamente come città o stati, come meta-organismi, allo stesso modo in cui R. Pirsig, nel suo libro “Lila, indagine sulla morale” percepiva New York, cioè come un mostro bisognoso di materia ed energia e lavoro, che per la propria sopravvivenza (al suo livello) sacrificava suoi componenti (esseri umani) ad esempio attraverso le migliaia di morti sul lavoro o in guerra. Il sistema nervoso per la maggior parte degli esseri viventi è parte integrante al funzionamento degli organismi in quanto tali. Esso permette a gli impulsi elettrochimici di raggiungere le zone più remote del nostro corpo. Sotto questo aspetto esso fa da collante che tiene assieme, insieme ad altri sistemi come quello endocrino ad esempio, gli organi del nostro corpo e che permette al nostro organismo di agire come una singola entità. Le reti di comunicazione che trasportano informazioni istantanee sotto forma di impulsi elettromagnetici da una parte all’altra del globo sono assimilabili ad una sorta di sistema nervoso che fa da collante a ciò che viene comunemente chiamata società. La società, secondo il punto di vista della complessità, e un elemento fondamentale e passibile di indagine, ma è una proiezione orizzontale di un fenomeno fisico che diviene su un numero di dimensioni più ampio, con un potere espressivo limitato. Le “forze sociali e politiche” della visione afferente al determinismo sociale sono funzione, oltre che della massa sociale, di accelerazioni che provengono da uno scambio simbiotico tra ecosistema tecnologico ed ecosistema biologico, nella fattispecie umano.


 





[1] The animated guide to a Ph.D.

[2] Morin, Edgar. "Introduzione al pensiero complesso. Gli strumenti per affrontare la sfida della complessità." Milano: Sperling & Kupfer (1993).

[3] Kurzweil, Ray. La singolarità è vicina. Maggioli Editore, 2008.

[4]  Hofstadter, Douglas R. "Godel, Escher, Bach." New Society (1980).



Ultimo aggiornamento Giovedì 22 Settembre 2016 19:32

Divagazioni sulla mente e sull'Universo

E-mail Stampa PDF

E poi c’è la questione ulteriore di quale sia la relazione tra pensiero e realtà.

Come una scrupolosa attenzione dimostra, il pensiero stesso è in un vero e proprio processo di movimento.

David Bohm



L'universo nella menteImmaginare l'Universo sconfinato  grazie alla propria mente è un fatto assai stupefacente. Alle volte mi chiedo quanti universi ci sono, tutti adorni, per essere mirati.

Non mi riferisco, però alla moderna teoria fisica del “multiverso” e le sue declinazioni, secondo la quale il "nostro" Universo è uno di tanti possibili universi (paralleli) posti di fianco uno all'altro, vibranti a frequenze differenti e per questo, quasi completamente separati e a tenuta stagna. Mi riferisco bensì all'Universo come proiezione del tutto che una mente con facoltà intellettive apprezzabili riesce a concepire. Tante menti quanti universi, e viceversa. Potrebbe essere un buon punto di vista, oltretutto accettabile in quanto l'Universo così come ognuno di noi lo conosce ha bisogno di un osservatore per conoscerlo (non mi inoltrerò nei meandri concettuali del “principio antropico”…). Tanti universi, tanti specchi, ognuno capace di riflettere secondo un particolare coefficiente di riflessione. Tanti universi ognuno distorto dallo specchio in maniera particolare, unica. Eppure normalmente, a parte la recente teoria del multiverso, come si diceva, l'Universo, è uno, fisso, immobile, almeno come un'idea totalizzante.

La congettura: tante menti quanti universi, a mio modesto parere può valere anche per i fisici e i cosmologi in qualità di accademici o studiosi in genere. Per quanto ci sia un’ idea di Universo che va per la maggiore, ognuno ne possiede uno personale, a cui vi tiene fede, la cui stessa idea è difficile abbandonare. A questo punto i misteri dell'Universo senza fine si mescolano con i misteri della mente senza fine generata dai nostri cervelli biologici in azione. Mente come cervello biologico in azione. La maggior parte degli esseri umani alfabetizzati ha un idea di Universo che ha a che fare con uno spazio spropositatamente grande che ospita stelle, pianeti, galassie e altri oggetti misteriosi oltre che noi stessi abitanti del pianeta terra. I più curiosi potrebbero aver approfondito con articoli di giornale, con documentari o con libri divulgativi la natura dell'Universo. Pochi, rispetto a tutto il resto, hanno proseguito gli studi universitari con discipline che in parte o del tutto tentano di spiegare la natura dell'Universo secondo il metodo scientifico. Poi, per l’appunto, ci sono i libri, le riviste specializzate, gli articoli divulgativi e i saggi che presentano alle nostre menti una serie di modelli dell'Universo. I testi più specialistici partono dalla soluzione delle equazioni tensoriali di Einstein, quindi dalla Relatività Generale, per calcolare possibili modelli di Universo dalla forma spazio-temporale appropriata, date, come note, le condizioni iniziali. Libri e articoli di tipologia divulgativa riprendono tali idee, distillandone le più semplici e introducendole con generose metafore per far breccia su ciò che ci è familiare. Il fine è comunicare un contenuto di conoscenza e massimizzarne la comprensione da parte delle nostre menti. Ora pongo nuovamente la domanda: un solo Universo? E' noto che noi come esseri biologici, dall'inizio del nostro tempo, sperimentiamo il mondo circostante attraverso i nostri sensi che ricevono e filtrano una miriade di informazioni (sensoriali) che sono processate in varie zone del nostro cervello, al fine, almeno secondo la corrente teoria dell’evoluzione, di preservare la nostra specie.

La comprensione dell'Universo che osserviamo passa per i sensi e le strutture nervose come strada obbligatoria? Immaginiamo una placida serata estiva. Siamo su una collina, lontano dal frastuono cittadino, col naso all'insù. Non ci sono nuvole e nemmeno la luna. Umidità quasi nulla. Ciò che scorgiamo è una meravigliosa volta costellata da un numero interminabile di astri e ammassi galattici più o meno densi e luminosi. Questo, più tutto il resto che ci circonda a distanze umane (l'albero lì proprio ad una decina di metri, la casa di fianco, la strada, i fili d'erba, le pietre, etc.), è l'Universo? Una parte, sicuramente. La nostra istruzione, sia essa scolastica che non, cablata nelle reti neurali del nostro cervello sottoforma di ciò che comunemente chiamiamo ricordi, ci dice che quello è l'Universo a noi visibile, ma sappiamo che esso è molto, molto più grande, forse infinito. Ecco, quello è l'Universo a noi visibile in quel momento, ed è proprio quello concepibile (sempre in quel momento). In realtà esiste anche un Universo visibile di natura differente, anche se semanticamente simile. E' l'Universo visibile di cui parlano gli ambienti accademici e gli studiosi, ovvero un'idea (valida) secondo la quale essendo, secondo la Teoria della Relatività, la velocità della luce finita ciò che osserviamo è tutto ciò che è ad una distanza tale per cui la luce ha avuto il "tempo" di giungere sino a noi. Un'altra maniera di vedere tale concetto fondamentale è che più lontano volgiamo lo sguardo, più siamo intenti ad osservare fenomeni astronomici passati. In ogni caso l'idea di Universo visibile è, in linea di principio, concepibile come una media di tutti i possibili universi visibili, ognuno per ogni osservatore. Limitandosi all'ambito accademico, ogni addetto ai lavori ha un'immagine mentale (e una rete neurale corrispondente) dell'Universo visibile come ha appreso sui libri di testo e durante le lezioni universitarie (cioè nelle comuni pratiche sociali di comunicazione della scienza). Quindi almeno in una cerchia ristretta di individui vi è un'idea abbastanza simile di Universo visibile.

E' noto che le più importanti scoperte sulla natura dell'Universo inteso come lo spazio astronomico che comprende, poi, anche il nostro pianeta e noi stessi, sono state possibili a seguito dell'invenzione del telescopio (e tanti altri strumenti), che ci ha premesso di osservare punti  debolmente luminosi dello spazio-tempo che, altrimenti, sarebbero rimasti ignoti. Ieri venivano utilizzati telescopi ottici, con raffinate lenti di vetro. Oggi si utilizzano strutture vaganti su orbite geostazionarie equipaggiate con sensori efficacissimi in grado di catturare tutto lo spettro della radiazione luminosa permettendoci non solo di raggiungere distanze da brivido, ma anche di ottenere istantanee dell'Universo visibile ad altissima risoluzione (un esempio è il telescopio Hubble, nome in onore del famoso astrofisico Edwin Hubble che per primo ha misurato la velocità di recessione delle galassie). In definitiva, oggi è possibile catturare un'infinità di dati provenienti dallo spazio, trasportati dalla radiazione elettromagnetica e non solo. Il telescopio (inteso in senso generalizzato come sensore efficacissimo per scrutare lo spazio-tempo e la materia che vi abita), o se vi piace il microscopio utile per scrutare il microcosmo, insieme a tanti altri strumenti di misura come il Large Hadron Collider (LHC) a Ginevra ideato per scovare esotiche particelle componenti la materia, non sono altro che estensioni dei nostri sensi. Con gli occhi, quella sera estiva che eravamo intenti a meravigliarci davanti alla possanza di una volta ricolma di stelle, potevamo captare una parte molto esigua dell'Universo visibile. Gli strumenti sofisticatissimi, invece, ci permettono di "osservare" una porzione più ampia di quest'Universo visibile, anche se la comunità degli studiosi è quasi in accordo che anche quella misurata dalla tecnologia astronomica sofisticata è solo una minuscola parte. Quindi, posta in questi termini la faccenda, è possibile concepire un continuum durante la nostra evoluzione dove, grazie alla simbiosi scienza-tecnologia e alla pratica comunicativa, è stato possibile ampliare la portata dei nostri sensi e di pari passo ampliare la nostra conoscenza (almeno quella parte che le menti sono in grado di comunicarsi e accordarsi). In ogni caso tali informazioni hanno un luogo finale ben preciso da raggiungere: le zone del nostro cervello dove vengono espletate le funzioni intellettive superiori e che ci differenziano dagli altri esseri viventi, ad esempio la neocorteccia. In realtà quando guardiamo il cielo stellato abbiamo sicuramente una istantanea "privata" della volta celeste-Universo. Quest' istantanea, se siamo abbastanza emozionati, la ricorderemo per tutta la vita, cioè sarà cablata nelle nostre strutture neurali come ricordo, e, nella speranza che sia riposta in quella che è nota dal punto di vista funzionale come memoria a lungo termine, sarà possibile rievocarne il contenuto a volontà. In più la stessa immagine possibilmente carica di sensazioni, quale svilimento di fronte all'immensità del cielo o meraviglia di fronte ad un tappeto di corpi celesti, andrà ad aggiungersi a quel database dove riponiamo le nostre idee di Universo assieme alle sensazioni provate, cosicché quando ci capita di essere contemplativi e di pensare alla vastità dell'Universo essa possa fornire le necessarie informazioni. Ogni cervello un Universo.

Certamente il cervello degli accademici sarà tarato verso modelli di Universo simili, ovvero possiederà un database simile da cui attingere le informazioni simili. Un punto essenziale è che, secondo il nostro ragionamento, non esiste un cervello esattamente identico ad un altro, e su questo la scienza concorda. Ciò che è simile è la struttura a grana grossa del nostro processore centrale biologico. Quindi possiamo immaginare una relazione unaria (uno-a-uno) tra cervello in azione (mente) e Universo concepibile. L'unicità della mente porta all'unicità dell'Universo. Un teorico della mente direbbe che il ragionamento che si è appena improntato è una istanza più o meno elaborata della risposta alla domanda posta dal filosofo della mente Thomas Nagel (1944) in un celebre articolo del 1974: che cosa si prova ad essere un pipistrello? Ovvero il ragionamento appena delineato si inserisce in un quadro solipsistico, in cui l'entità mente è unica e per di più vi è un livello profondo in cui, nell'interazione di due o più menti, vi sono enti non comunicabili. In un certo qual modo è proprio ciò che ritengo, ma l'incomunicabilità in questo caso deriva dall'unicità del simulacro-Universo che ognuno di noi possiede cablato nel proprio cervello, data l'unicità nella struttura fisiologica, a grana fine, del nostro cervello in azione. Come per altri concetti più semplici, e se volete più quotidiani, esistono “n” declinazioni quante ne sono le menti concepenti, ma esiste tuttavia un livello in cui tali concetti possono essere comunicati e compresi. Questi concetti, se ci facciamo caso, si riferiscono ad "oggetti" (in senso generalizzato) che hanno subito un processo di codifica e simbolizzazione. Un tale processo semiotico (comune alla pratica scientifica e non solo) permette alle menti di comunicare e capirsi, quindi consente ai cervelli di sincronizzare le proprie strutture neurali, così da memorizzarne i contenuti (simili). L'Universo visibile degli accademici è uno di questi simboli. Un oggetto opportunamente codificato che ha subito un processo di significazione vasto e preciso e che permette di mettere in accordo i cervelli in azione degli accademici e studiosi all'interno del dibatto scientifico. 

L'universo nella menteA questo punto, pensando l'Universo al livello di simbolo che consente di sincronizzare cervelli, possiamo immaginare una relazione molti-a-uno secondo la quale “n” idee di Universo uniche e abbastanza simili quanti sono gli accademici, puntano verso un simbolo (l’Universo) che consente di dire: ecco è proprio quello di cui sto parlando e puoi essere certo che non sto parlando né di questo, né di quest'altro, né di quello, né di quell’altro ancora etc. etc. La concezione di Universo, a questo punto rilassando la nostra congettura, quindi sia esso a carattere solipsistico  (in prima persona) , sia condiviso (quindi descrivibile in terza persona)  non può non prescindere dal nostro cervello e ciò che ci sembra effettivamente così lontano e stupefacente, come le stelle più remote, i quasar, i buchi neri e i superammassi di galassie, non è poi così lontano; è da qualche parte cablato nelle strutture nervose del nostro corpo e questo è altrettanto stupefacente.

Chissà se quanto detto, almeno in parte, non vale anche per (il concetto di) Dio…

Ultimo aggiornamento Giovedì 10 Novembre 2016 02:22

Percepire la Complessità

E-mail Stampa PDF

La complessità è una parola-problema e non una parola-soluzione

E. Morin, Introduzione al pensiero complesso, 1990


Chinese Artist Lu Xinijiang Made Paintings Using Google Earth In City DNAOggi vorrei distillare alcuni personali pensieri tramite l’antica e ancor più moderna arte della scrittura. Ragionare intensamente su ciò che leggo è una mia squisita abitudine e  “Lo zen e l’arte della manutenzione della Motocicletta”[1] di R. M. Pirsig è un libro che mi ha dato modo di riflettere su molti aspetti della vita e della realtà circostante. A dire il vero, alcuni li avevo già portati alla mia attenzione prima di questa bella lettura, anche se Pirsig, come molti altri autori incontrati durante il mio personale viaggio, mi ha saputo regalare un punto di vista lucido e chiarificatore. Una delle domande dormienti e risvegliate dall'autore che mi attanagliano e che sono sopraggiunte semplicemente guardandomi intorno nella vita quotidiana, suona così: è possibile comprendere la complessità che ci circonda? Ciò mi ha spinto a scrivere questo saggio dal titolo “La comprensione della complessità”.

E’ noto che non esiste una definizione comune di “complessità”, pur tuttavia esso è oggi un argomento molto in voga tanto nel panorama scientifico quanto in quello umanistico. Dal versante umanistico, ad esempio, il filosofo contemporaneo Edgar Morin, in un suo saggio sulla cultura di massa, scriveva che “La complessità è una parola-problema e non una parola-soluzione”[2]. Se la complessità è una parola problema, e sono d’accordo, qualcuno deve pur risolvere questo problema e trasformare la complessità in una parola soluzione, o meglio un “discorso soluzione”, come vedremo. Come può essere “compresa” la complessità? Esistono piani di taglio per tale termine che portano ad infinite definizioni. La scienza dal canto suo tende a darne di precise ed ogni volta che ci prova ne emerge ancora più insoddisfatta e frustrata. Eppure coloro che appartengono al mondo scientifico appaiono più abituati a manipolare la complessità, almeno come concetto. In ogni caso possiamo affermare che viviamo nel cosiddetto “villaggio globale” (suona già antiquata questa affermazione) e il mondo occidentale technology addicted è diventato un Sistema altamente Complesso. Uno degli elementi necessari alla presenza della complessità e caratterizzante i Sistemi Complessi è la forte interrelazione degli elementi che compongono il sistema, noti come sottosistemi od oggetti. Nel mondo attuale qualsiasi sottosistema che possiamo proiettare nella nostra mente è fortemente interrelato con ogni altro. Con sottosistema intendo qui qualsiasi cosa sia parte dell’ “umano-sfera”. Se oggi qualcuno tentasse uno scherzetto e spegnesse Google, probabilmente più della metà dei lavoratori dichiarerebbe di non poter lavorare. Se spegnessimo la rete semaforica di Pechino in pochi minuti la città piomberebbe nel caos profondo. Questi sono esempi di sottosistemi legati alla tecno-sfera. La complessità non ha a che fare solamente sul piano della tecno-sfera. Possiamo pensare altri esempi legati al sostenimento dell’attuale status sociale: eliminiamo istantaneamente il welfare e il sistema pensionistico. Con ogni probabilità scoppierebbero sanguinose guerre civili. Credete, ad oggi il sistema pensionistico e le reti di computer, come quelle che sostengono il funzionamento di Google, non siano collegate? Vi sbagliate. La tecno-sfera, all’interno dell’evoluzione dell’uomo è andata via via diventando il sistema nervoso di un super-organismo. Un super-organismo complesso, dove noi esseri umani siamo solo una parte necessaria, ma non sufficiente al proprio autosostentamento. Come le cellule del nostro corpo servono i nostri organi e consentono di tenere in vita i nostri corpi biologici, noi esseri sociali, assieme ad una miriade di altri sottosistemi serviamo un super-organismo. Le cellule biologiche si rendono conto del loro compito? Non è facile rispondere a questo interrogativo e non sono il primo a porre questa domanda. Noi siamo in grado di comprendere il nostro compito o ruolo all’interno del super-organismo? Una risposta può essere azzardata fin da subito: le cellule non possono rendersi conto del loro compito in quanto la loro “funzione” esiste ad un livello gerarchicamente superiore. Vale lo stesso per noi esseri umani dotati di neocorteccia cerebrale e capaci di pensiero astratto superiore? Dove è annidato il nocciolo del problema della “comprensione della complessità”? Una volta compresa la complessità e avuta coscienza di questo super-organismo che coabitiamo, saremmo capaci di capire finalmente la nostra funzione e quindi, forse, di dare un senso alla nostra vita?


Ora vorrei concentrarmi su un aspetto discusso dallo stesso autore nel suo secondo capolavoro, “Lila, indagine sulla morale” [3], una continuazione del primo libro citato. Pirsig, ad un certo punto, nella storia che racconta, recandosi a New York con la sua barca a vela, inizia a percepire quella città che già conosceva dal suo interno come un “Gigante”. Quella città, a suo dire, gli metteva una strana sensazione, come un’ entità a se stante in cui gli uomini che vi vivono sono dei silenziosi e inconsapevoli servitori. Cos’è davvero questo “Gigante”? Prima di approfondire il tema vorrei proporre una breve e incompleta digressione sul suo pensiero. Pirsig propone in entrambi i volumi, a livelli di penetrazione diversi e sempre più specifici, una metafisica, la “metafisica della Qualità”, tentando di fornire un quadro comune che potesse spiegare o almeno rendere coerenti gli infiniti aspetti della realtà. Nel suo pensiero maturo illustrato in “Lila”, inserisce in questo quadro un elemento chiave mancante nel primo lavoro: l’evoluzione. Nel primo suo sforzo, di fatto, si limita a tentare, nel definire la sua metafisica, l’approccio dialettico, pur arrivando dopo estenuanti studi al pieno rifiuto della dialettica e di tutto l’aristotelismo intero. Egli parte da una suddivisione operata con un “sapiente coltello” capace di lavorare e scomporre minuziosamente e con estrema precisione la realtà e la conoscenza di essa. Tale suddivisione riveste l’intero spettro dell’essenza umana, dividendola inizialmente e grossolanamente in due temperamenti che differiscono per come una persona si approccia alle “cose”, anche quelle di tutti i giorni. Egli suddivide l’intelletto in due tipologie, una che espleta “intelligenza romantica”, l’altra “intelligenza classica”. La seconda è quella alla base del pensiero scientifico, razionale, impersonale, misurato, in terza persona, esatto. La prima è quella che dirompe dal mondo interno delle emozioni, è sentita, irrazionale, instabile, colorata. Un uomo che ragiona classicamente, secondo Pirsig, riesce sempre a vedere lo “schema” soggiacente ad una cosa, l’uomo romantico, al contrario, percepisce la cosa così com’è, in maniera diretta, nella piena sua apparenza estetica, nella sua forma esteriore. Nessuno dei due approcci, di cui l’autore ne ipotizza la nascita come differenziazione già nel pensiero greco antico, è sbagliato. Una loro sintesi, una oscillazione tra le due visioni della realtà, sono il modo migliore per comprenderla e per vivere bene. La Qualità, sebbene molto difficile da definire, si antepone a questa scissione che talvolta genera problemi legati a dicotomie, come ad esempio la divisione tra discipline scientifiche ed umanistiche o tra la stessa scienza e la fede. Nel secondo volume egli approfondisce lo studio della “Qualità” allargandone la portata a tutto lo scibile e, come dicevamo, inserendo l’ evoluzione come ingrediente essenziale, mancante totalmente nella sua prima versione. Innanzitutto L’autore considera una gerarchia di “mondi” i quali sono nati in tempi diversi e quindi hanno differenti sviluppi evolutivi. Al centro della sua metafisica c’è l’uomo percepente, anche se, allo stesso modo, la sua evoluzione fa parte dell’evoluzione dello stesso universo. In tale gerarchia evolutiva egli inquadra quattro livelli con una Qualità evolutiva crescente: livello biologico, livello sociale, livello culturale e livello intellettuale. Questo è quanto egli riesce ad intravedere nel descrivere l’uomo e la natura. Ciascun livello evolutivo possiede regole proprie e “tendenzialmente” sottostà  ai livelli superiori. Egli, inoltre, intravede in qualsiasi atto, a prescindere dal soggetto o oggetto che lo compie, un “atto morale” che sottostà alle leggi della Qualità, componente metafisica della sua filosofia che in entrambi i volumi fatica a definire, fino al punto di chiarire che la “Qualità” è qualcosa che per definizione non può essere definita. Così ad esempio si spiega perché è comunemente accettato prendere un semplice antibiotico. Il medico con la medicina distrugge milioni di cellule batteriche che lottano per la vita ed il tutto è comunemente accettato senza problemi. Probabilmente più della metà delle persone del pianeta moriranno senza aver mai pensato o realmente compreso questo punto. Il genocidio batterico è un atto morale dall’alto verso il basso quindi considerato positivo, giusto. Nella gerarchia gli atti esercitati dall’alto verso il basso non sono granché problematici. Allo stesso modo, mediamente si accettano le leggi, codici di comportamento standardizzato definite per governare e controllare nonché mantenere in sicurezza la società (è facile constatare che le leggi sono comunemente accettate dai più, al di la della loro piena condivisione da un gruppo). La società accetta che vi siano dei regolamenti atti non solo a definirla ma a controllarne lo sviluppo. Questo livello genera un insieme di forze che si scaricano verso il basso della gerarchia e che tali strati le subiscono. Al loro livello (ad esempio il livello biologico), la società non esiste e queste regole non sono direttamente espletabili a quel livello e ne tantomeno codificabili. Ecco che prende forma la legge universale della Qualità, come scala di valore, positivo o negativo, che governa non solo i livelli orizzontali ma anche la loro reciproca interrelazione verticale. A questo punto, un atto che parte da un livello inferiore verso quello superiore è percepito come immorale o nel quadro di Pirsig “ad alto contenuto di Qualità negativa”. Un esempio è la stessa reazione batterica al corpo, che da basso della gerarchia tende ad ammalarlo e degradarlo. Ecco che il repentino, e da tutti accettato moralmente, intervento del medico dall’alto della gerarchia arriva per porre fine alla malattia. Ma se vogliamo proporre un esempio più immediato pensiamo alla sfera sessuale (livello pressoché biologico se pensiamo il sesso come un atto riproduttivo con il fine evolutivo di conservazione della specie) e da tutte le sue problematicità legate ai pudori, gelosie, leggi che ne regolamentano gli atti etc. Quando i livelli inferiori cercano di dettare legge, di prendere il sopravvento, i livelli superiori tendono a giudicare questi ultimi come immorali e cercano di controllarne lo sviluppo e la stortura. Può capitare che i livelli inferiori, in maniera organizzata, riescano a prendere il sopravvento portando qualità negativa percepita come degenerazione. Questo è il caso dei fascismi o dei comunismi, espressioni del livello sociale che hanno tentato di controllare e mediare i livelli superiori, rispettivamente: il livello culturale e quello intellettuale. Pirsig conferisce agli intellettuali, la massima espressione evolutiva, il compito, attraverso la sapienza esperita mediante la Qualità, di guidare la società. Egli intravede negli intellettuali quella che ama definire la Qualità dinamica, che si contrappone alla Qualità statica. La qualità dinamica è la forza creatrice che sconfigge l’ignoto generando la stessa realtà. La qualità statica, non negativa di per se stessa, è quella che governa lo stato di cose. Tali concetti, in quanto appartenenti ad una metafisica, sono estensibili a qualunque aspetto del percepito, ma per esemplificare ciò che Pirsig vuole mostrarci, possiamo pensare a quando siamo in procinto di compiere un’ azione giudicata entusiasmante da noi stessi. Può essere l’acquisto di un oggetto, un vestito, un libro. Qualsiasi cosa la vogliate con tutto voi stessi. Immaginate di ottenerla, di utilizzarla. Dopo un po’ di tempo essa smetterà di trasmettervi le stesse sensazioni dei “primi giorni”. Ecco, al momento dell’acquisto la Qualità dinamica era in opera, generando un turbinio di sensazioni e piccoli o grandi sconvolgimenti. La stessa Qualità ha perso la sua dinamicità lasciando il passo alla staticità. L’oggetto, proseguendo l’esempio, sarà sempre utile, di per se stesso questo è positivo, è Qualità positiva ma di natura differente: non più dinamica per l’appunto. La stessa Qualità è in opera nella scienza quando muove un ulteriore passo verso la decodifica delle leggi dell’Universo. Gli addetti ai lavori, gli scienziati, sono continuamente sballottati a destra e sinistra tra qualità dinamica e qualità statica. A scuola si insegna per lo più qualità statica. Ma quella qualità divenuta statica è stata un momento nel passato opera della Qualità dinamica, ad esempio quando il Leopardi ha ultimato la stesura de “L’infinito”.

A questo punto, dopo questa breve digressione sulla “metafisica della Qualità”, ritorniamo a New York percepita da Pirsig come un Gigante. Anche la Grande Mela, come qualsiasi altra città, è qualcosa di evolutivamente superiore. Una nota. Credo che Pirsig non dia giudizi in tema di evoluzione, la sua metafisica è essa stessa una sorta di teoria del giudizio sulla scia di Immanuel Kant! E tantomeno io ho intenzione di fornire un giudizio di qualità (notare la lettera minuscola). Si può facilmente constatare che in discussioni su argomenti simili l’interlocutore tende a prendere posizione, a schierarsi e modificare i toni della discussione a seconda del giudizio percepito, su un tale argomento, anche quando si è molto attenti a misurare le parole e filtrarle da qualsiasi giudizio qualitativo affrettato. In altre parole, questo avviene anche quando si esprime una descrizione scientifica di un qualsiasi fenomeno. In realtà, non mi soffermerò a lungo su questo punto anche se ho intenzione di riprenderlo nel futuro, si sa benissimo che le parole possono essere fraintese, e diventare giudizi i quali nella mente dell’interlocutore distaccano il nocciolo del discorso dalla suo guscio logico avvolgendolo in una bandiera multicolore. Citando il pensiero di un grande pensatore come Alfred Korzybski (1879-1850), spesso le parole e l’intera struttura linguistica tendono ad allontanarsi dalla realtà delle cose e la perduta aderenza ingenera reazioni del sistema nervoso con conseguenti alterazioni fisiologiche (Korzybski la definiva “semantic response”[4]). Un esempio? Perché quando si discute di politica si finisce per litigare?

Ritornando sull’evoluzione e sulla struttura gerarchica, anche io, come Pirsig, al cospetto di una grande città tendo a percepire quasi a livello inconscio un “Gigante” che ha bisogno di energia per sopravvivere. Si può pensare a tutta l’infrastruttura che sorregge una moderna city: la rete idrica, la rete elettrica, le infrastrutture di telecomunicazioni, la rete fognaria. Si possono altresì pensare ulteriori infrastrutture meno fisiche ma altrettanto importanti, come il settore terziario, il welfare ad esempio, il sistema di riscossione dei tributi etc. e ormai vitali per il funzionamento del meta-organismo cittadino. Allo stesso modo delle cellule che formano un organismo vivente. Al loro livello biologico non vi è una “consapevolezza” sotto forma di regole o leggi operanti che dominano gli organi che costituiscono. La funzione di una cellula è differente dalla funzione di un organo, la cellula “serve” l’organo e può essere anche specializzata in alcune funzioni, ma una sola cellula non forma un organo e spesso è facilmente rimpiazzabile se difettosa. Allo stesso modo un organo “serve” un corpo biologico il quale lo “sfrutta” per espletare le sue funzioni che viste dal livello cellulare possono essere definite meta-funzioni. Questi ragionamenti, oggi, sono interni ad un’affascinante disciplina che prende spunto anche dalla scienza dei sistemi: la Scienza della Complessità. Nel quadro tracciato dalla Complessità ciò che risulta interessante sono le interrelazioni tra i sottosistemi che compongono un meta-sistema, e il fatto che alcune leggi vigono in un sottosistema ma non nel sistema sovrastante gerarchicamente, e che alcune leggi o proprietà possono “emergere” da comportamenti collettivi e non possono essere riscontrate nei singoli elementi componenti. Spesso, in forma misticheggiante, tali concetti sono espressi con un mantra dal gusto orientale che recita: “Il tutto è più della somma delle sue parti”. Il punto essenziale è il seguente. Alcuni possono avere la percezione che vi sia una entità superiore, non mi riferisco a nulla di mistico, in pratica una sorta di meta-organismo i cui “organi” sono altamente interrelati e sono condizione necessaria alla sopravvivenza del meta-organismo stesso. Ora, se si volesse andare al di la di questa percezione? Immaginate di avere voglia di qualcosa, ma non avete le parole, le espressioni, in definitiva le frasi adatte per esprimerlo. Rimane una sorta di sensazione, non chiara nemmeno a voi stessi, ma in fondo avreste lo stesso modo di ottenerla. Poi ad un tratto trovate le parole per spiegarlo e siete, ora, in grado di comunicarlo e magari di spingere qualcuno ad aiutarvi, sicuri che abbia compreso ciò che volete. Probabilmente avete usato un esempio, una metafora, parole prese a prestito da differenti contesti. Siete riusciti a spiegarvi. Spesso, al contrario, capita che l’oggetto del vostro desiderio sia chiaro nella vostra mente e guarda caso esiste una parola od un nome comunemente accettato per esprimerlo. La mia domanda a questo punto è: esistono ad oggi, parole, nomi o frasi comunemente accettate per esprimere la sensazione dell’esistenza di un “Gigante”? Si potrebbe rispondere affermativamente e liquidare la questione con un semplice: quello di cui tu parli è ciò che i sociologi studiano ovvero la “società”. Ma né Pirsig né me stesso, nella prosecuzione del suo ragionamento, abbiamo percezione della società. Tutti sanno cosa sia la società, anche se ognuno darebbe una definizione leggermente differente. Il “Gigante” di Pirsig è un organismo vero e proprio che fa parte di un preciso percorso evolutivo, dove parte delle “cellule” che lo compongono sono organizzate e le cellule stesse amano definire la loro organizzazione “società”. Il “Gigante” è molto di più di una “società” e le cellule anche se organizzate e detenenti specifiche funzioni possono essere quasi sempre rimpiazzate. Il problema alla base del passaggio da “semplice percezione” a consapevolezza concreta e immediata potrebbe essere risolto con l’invenzione di nuovi concetti, ma so che non basta. L’uso di questi deve essere talmente comune, chiaro e immediato che non dovrebbe esserci bisogno di ulteriori parole per spiegarlo. Se parlo del mio braccio, la stragrande maggioranza comprende immediatamente cosa intendo. Non c’è bisogno di lunghi giri di parole e astrazioni per definirlo. Il concetto di braccio è ben definito, chiaro, circostanziato e può essere utile come “mattoncino” per la costruzione di ragionamenti più elaborati. Ciò non vale con concetti astratti come felicità, vita, amore e così via. Quasi sempre il disaccordo sulle questioni inerenti questi concetti deriva da punti di partenza differenti. Proprio perché partire da una definizione soggettiva su queste cose è pressoché impossibile. Credo che alla base della percezione oggettiva di un super-organismo vi sia un problema di definizione. Korzybski, se fosse in vita oggi, direbbe che “le mappe afferenti ad un comune territorio sotto gli occhi di ogni uno sono troppo differenti per far sì che nasca una coscienza globale di una simile entità”. Probabilmente questa nascerà quando si formerà un concetto ben chiaro di quest’ultima nella mente delle persone, concetto molto simile nei punti fondamentali per ognuno. Finché il tentativo di questa unificazione è lasciato ad una disciplina che tende a descrivere il “Gigante” attraverso la spiegazione dei meccanismi che governano la società, la stessa sarà ostaggio di una forte ed inesorabile miopia. A mio avviso manca una struttura di concetti ed idee unificante che permetta di parlarne come se si stesse parlando del pranzo consumato il giorno prima.

In questi ragionamenti cito contemporaneamente due illuminanti pensatori, Pirsig e Korzybski, proprio perché i loro temi di indagine seppur differenti hanno dei punti di contatto molto forti, non tanto negli obiettivi ma nella metodologia di approccio. Korzybski nella sua opera principale “Science and Sanity” espone il suo pensiero sul legame tra sanità mentale e scienza. Precisamente egli mette in guardia da un utilizzo sconsiderato delle strutture linguistiche, sia per la singola persona che per l’intera società, in quanto numerose problematiche e veri e propri conflitti nascono da un uso sbagliato del linguaggio stesso e delle astrazioni nel ragionamento. Entrambe inoltre vedono nell’applicazione dei precetti aristotelici alcune storture note nel pensiero moderno. Entrambi attaccano le “scissioni aristoteliche” da prospettive differenti. Entrambi comunque giungono alla conclusione che la frattura tra mitos e logos, tra techné e arte, tra umanistico e scientifico, è stata causata dal pensiero aristotelico. Korzybski intravede errori logici che hanno infettato il discorso, Pirsig accusa Aristotele di aver messo in atto una struttura di pensiero che non permette di intravedere più la Qualità da cui tutto scaturisce. Korzybski non intende fornire una metafisica ma “semplicemente” dà forma ad un sistema interpretativo del comportamento umano da cui ricava delle regole che, se seguite, portano ad una vita migliore, ad una più elevata salute mentale. Il trucco è una sorta di educazione al pensiero astratto che lo studioso invita a perseguire prendendo a modello il processo scientifico, in particolare la struttura su cui si basa la matematica e la scienza in generale. Egli, e questo è uno degli interessanti punti di contatto metodologici con Pirsig, ritiene che esista una sorta di gerarchia di astrazioni di livello superiore, gerarchia che parte dalla risposta del sistema nervoso degli esseri viventi fino ad arrivare a strutture nervose (oggi diremmo regioni cerebrali) più sofisticate capaci di produrre anche il linguaggio. Il linguaggio per Korzybski ha un potere fortissimo capace di modificare la struttura nervosa dell’interlocutore generando ciò che lui definisce “semantic response”, già citata in precedenza. Pirsig dice, dal canto suo, che la Qualità è un’ entità percepibile e pre-intellettuale, arrivando a dire che non è definibile. Korzybski sostiene inoltre che nella gerarchia di astrazioni vi è un livello (chiamato “struttura profonda”) dove non esiste il linguaggio ma solo risposte nervose, un livello che è presente ed è esperito dal soggetto, anche se allo stesso non percepibile obiettivamente. Oggi, ma anche nel 1930 quando egli ha espresso queste idee, tale livello è comunemente chiamato il livello emotivo o il dominio delle emozioni le quali hanno un linguaggio proprio ed una loro livello intellettuale. Queste idee hanno spinto studiosi di psicologia, come lo psicologo e giornalista scientifico Daniel Goleman, a scrivere best sellers sul tema dell’Intelligenza emotiva e come utilizzarla nel lavoro e nella vita di tutti i giorni. Ho ripreso parte del pensiero korzybskiano poiché è utile nel nostro ragionamento in quanto probabilmente non esiste una struttura nervosa, meglio dire in termini moderni una correlazione neurale, che possa “comunicare” alle gerarchie superiori l’esistenza di un super-organismo. Intendo con questo che la percezione del “Gigante” è ad un livello emozionale, o nella struttura profonda korzybskiana. E in quanto tale non è esprimibile o definibile. Risulta essere un’ astrazione che genera sì una risposta (semantica) ma incomunicabile con immediatezza.



Bibliografia


[1]         R. M. Pirsig, Lo Zen e l’arte della manutenzione della motocicletta. Milano: Adelphi, 1981.

[2]         E., Guglielmi, Giuseppe, Morin, [L’esprit du temps.] L’industria culturale. Saggio sulla cultura di massa. (Traduzione di Giuseppe Guglielmi.). Bologna: Il Mulino, 1974, 1974.

[3]         R. M. Pirsig, Lila : indagine sulla morale. Milano: Adelphi, 1992.

[4]         A. Korzybski , Science and sanity; an introduction to non-Aristotelian systems and general semantics. Lakeville, Conn.: International Non-Aristotelian Library Pub. Co.; distributed by Institute of General Semantics, 1958.


Ultimo aggiornamento Domenica 30 Novembre 2014 18:42

Teory of Everything

E-mail Stampa PDF

Cosa ci spinge, dunque, ad elaborare teoria dopo teoria? Perché, addirittura, formuliamo teorie? La risposta alla seconda domanda è semplice: perché amiamo «comprendere», ossia ridurre i fenomeni per mezzo del procedimento logico a qualcosa di già noto o (manifestamente) evidente. Prima di tutto sono necessarie nuove teorie quando si affrontano fatti nuovi che non possono essere «spiegati» da teorie esistenti. Ma questa motivazione è, per così dire, banale, imposta dall'esterno. C'è un'altra motivazione più sottile e di non minore importanza. Si tratta dello sforzo verso l'unificazione e la semplificazione delle premesse della teoria nel suo insieme.

Albert Einstein, Scientific American, 1950


Esiste una Teoria del Tutto ovvero una teoria di qualche tipo in grado di speiegare ogni cosa? E se la risposta è un "sì", cosa dovrebbe dirci e come potremmo capire che è la teoria definitiva?


Pubblicato su "Illogicallegria" nel 2006


Teoria del tuttoSicuramente sarà capitato di imbattervi in qualche titolo del tipo: Siamo vicini alla scoperta di una “Teoria del tutto”!
Ma cosa è veramente questa Teoria del tutto? Bisogna prestare molta attenzione, poiché poterebbe sembrare che una tale teoria, attraverso una misteriosa formula, possa aiutarvi a prevedere il vostro destino, e perché no a indicare il risultato della finale dei mondiali di Germania 2006. Questa teoria conosciuta anche con il nome di “teoria ultima” trova dimora comunque in un ambito ristretto della scienza, anzi in un campo ben definito di quest’ ultima che pulula di cervelloni: la fisica teorica. Ma allora, cosa ce ne facciamo noi comuni mortali? Questa è la domanda che ci aiuta a comprendere veramente dove va a parare una simile teoria scientifica: sicuramente illuminerà gli scienziati su come e forse perché è nato l’universo poiché sarà capace di trovare una correlazione ad eventi oggi considerati indipendenti e permetterà loro di risalire le primissime fasi di vita dell’universo che abitiamo. Forse a noi non addetti ai lavori ci risparmierà qualche sega mentale sull’ origine ed il perché della nostra esistenza. Un esempio pratico del lavoro che tale teoria dovrà svolgere è quello di unificare il mondo dell’ ultrapiccolo con il mondo dell’ultragrande. Per ultrapiccolo si intende tutto ciò che concerne il l’ interno degli atomi. Tutti, chi più chi meno, possiamo provare ad immaginare l’atomo come un nocciolo centrale (nucleo) e tanti piccolissimi pianetini (gli elettroni) che vi orbitano intorno: una semplice analogia può aiutarci a fissare le idee. Se rapportiamo le proporzioni dell’atomo a quelle a del mondo a cui siamo abituati, abbiamo che il nucleo è grande come un pallone da calcio e gli elettroni sono assimilabili a granelli di sabbia posizionati ad una trentina di chilometri dal nucleo, come se il pallone stesse a Gaeta e il granellino di sabbia a Terracina! Fidatevi, quello che succede a queste dimensioni non può essere spiegato con la nostra logica macroscopica, a quei livelli le microparticelle si comportano come ubriachi, avvolti da un aura di illogica allegria: particelle che appaiono, scompaiono, si sdoppiano, tornano indietro nel tempo (di pochissimo ndr), un brulichio indefinito che lascia ancora oggi gli scienziati sbalorditi. E l’ultragrande? Questo è un mondo governato da leggi più blande, anche se molto precise, racchiuse tutte sotto il cappello della Teoria della Relatività, formulata dal genio dei geni: Albert Einstein agli inizi del secolo scorso. Tale teoria attraverso “semplici” equazioni è capace di predire l’ evoluzione dei pianeti, delle stelle, dell’Universo intero e, sotto opportune approssimazioni, è capace di dirci se un giorno questo ultimo si bloccherà(come quando si impalla il vostro computer) in un eterno freddo siderale, proseguirà indefinitamente, oppure imploderà in un immenso buco nero. Una Teoria del Tutto degna di nota, deve essere capace di mettere d’accordo il macrocosmo con il microcosmo, perché allo stato odierno delle cose, questi due mondi, proprio non vogliono saperne di dialogare. Il primo, semplice e lineare, il secondo, caotico e casuale: a dirla in poche parole la relatività generale con la fisica quantistica se potessero, si ammazzerebbero a vicenda. Dio in tutto ciò che ruolo ha? Beh, possiamo porci su due punti di vista opposti: seguendo l’evoluzione del pensiero nella storia dell’ umanità Egli è stato relegato, con il trascorrere del tempo, sempre più, ai confini di ogni teoria, oggi si può pensare che è l’unico ente, che riesca a chiudere la catena dei perché, che si forma ispezionando a ritroso le cause prime che hanno generato il nostro universo; oppure semplicemente, una “teoria ultima” è l’ espressione più limpida del pensiero di questo essere superiore che da sempre è aleggiato nelle menti degli uomini di ogni epoca. Comunque sia, tale teoria non andrebbe d’accordo con l’ Essere Supremo poiché sicuramente ingenererebbe paradossi, come ad esempio il fatto che se Dio lascia il libero arbitrio, quest’ ultimo andrebbe in contrasto sicuramente con la capacità predittiva della stessa teoria. Oggi, anche se si stanno compiendo passi da gigante nella comprensione della trama dell’Universo, forse tali prerequsiti sono ancora lontani dall’essere rispettati: una sfida troppo audace? In passato è successo spesso che le scoperte rivoluzionarie siano avvenute proprio quando si pensava che non ci fosse nulla da scoprire. Basti pensare che a fine ‘800 in Prussia stavano chiudendo gli uffici brevetti proprio perché si pensava che le teorie da brevettare erano terminate, rimaneva solo da rettificare quelle vigenti, poi, la sorte, ha voluto che proprio Einstein, dopo una decina di anni depositava nell’Ufficio Brevetti di Berna la teoria della Relatività…



Ultimo aggiornamento Domenica 20 Aprile 2014 16:05

Confronto tra il volume di una ipersfera e il volume di un ipercubo

E-mail Stampa PDF

Oggi, andremo ad analizzare un problema apparentemente banale: il confronto tra il volume di una ipersfera di raggio unitario e dell' ipercubo che la circoscrive di lato pari al diametro dell' ipersfera, al crescere della dimenzione dello spazio che li accoglie.

Come vedremo questo problema ritorna nei problemi di Pattern Recognition e Data Science.

In generale, poniamo come il raggio dell'ipersfera e come 2* il lato dell'ipercubo. Detta la variabile che descrive la dimensione dello spazio, con un pizzico di astrazione possiamo affermare che: un quadrato è un ipercubo di dimensione =2 e la circonferenza inscritta è una ipersfera di dimensione medesima.

Quadrato_circoscritto_circonferenza

Figura 1


Definiamo adesso   il luogo dei punti tale che la norma dell ennupla -dimensionale    è minore del raggio al quadrato. Definiamo invece come  il luogo dei punti che descrive l'ipercubo in  dimensioni.

Se calcoliamo i due volumi come funzione della dimensione vediamo un comportamento a tutta prima strano anche se effettivamente intuitivo: come mostra il grafico in basso (Figura 2) che confronta il volume di una ipersfera e il volume di un ipercubo, quest'ultimo diverge verso l'infinito positivo, mentre il primo (volume ipersfera) ha un massimo per =5 dimensioni (5.264) e poi diminuisce fino a tendere al valore 0.

Il volume dell'ipercubo può essere scritto come:


mentre il volume dell'ipersfera risulta pari a:

,

dove  è la funzione gamma definita come:

.

Hypersphere volume

Fugura 2

Per comprendere quato comportamento basta osservare la Figura 1. Il volume dell'ipercubo cresce esponenzialmente con il crescere della dimensione dello spazio. Se consideriamo l'area un "volume", la circonferenza inscritta nel quadrato ha una superficie minore in quanto la loro differenza consiste proprio nelle parti colorate in rosso. Aumentando il numero di dimensioni le parti in rosso aumentano fino ad occupare la maggior parte del volume, mentre il volume dell'ipersfera tende a concentrarsi verso il centro e a diventare nullo.

Tutto molto interessante fin qui. Che implicazioni può avere tutto questo?

Consideriamo le tecniche di Data Science dove i dati descritti da caratteristiche multiple (features) sono rapperesentati come oggetti che giacciono in uno spazio multidimensionale. Immaginiamo ora di generare attraverso un generatore pseudocasuale una serie di oggetti all'interno della nostra ipersfera. Aumentando le dimensioni la probabilità di generare un oggetto (punto descritto da tante coordinate quante sono le dimensioni) all'interno della ipersfera diventa nulla, mentre aumenta la probabiltà che il nostro oggetto cada nella zona "differenza" tra i due volumi (la parte rossa). Questo fenomeno è noto nella disciplina del Pattern Recognition e in generale del Machine Learning come "course of dimensionality" (corsa della dimensionalità).

Ultimo aggiornamento Lunedì 15 Febbraio 2016 15:10

Se tutta la popolazione mondiale usasse lo smartphone come lo si usa in media?

E-mail Stampa PDF

Le dittature tradizionali, nate nel secolo scorso, sono pressoché indifese di fronte a processi rivoluzionari "istantanei", che agiscono e reagiscono fulmineamente, alimentati da tecnologie e comportamenti (internet, facebook, twitter, tv satellitare ecc.) che nessun potere sa come controllare.

Khemais Chammari, su Sette, 2011


Perché le macchine continueranno la nostra invasione.

Se tutta la popolazione mondiale usasse lo smartphone come lo si usa oggi mediamente?

Immagine da http://www.ihelplounge.comA discapito del titolo apocalittico di questo articolo, vorrei porre seriamente l’attenzione adesso su un tema molto dibattuto: la diffusione di Intenet, dei social network e delle tecnologie annesse e del legame che esse hanno con la futura micro-automazione di tutti i processi che soggiacciono al mantenimento della nostra vita.

“Tutti vogliono viaggiare in prima… […] Tutti quanti con il drink in mano…” fa una bella canzone di Luciano Ligabue. Gironzolando per le città dei cosiddetti paesi ad economia avanzata (ma ora in maniera accelerata anche nei paesi in via di sviluppo) non si può negare che “Tutti voglio viaggiare in prima…Tutti con laptop o smartphone in mano…”. Siccome su Sublimina.it si possono tranquillamente azzardare ipotesi, porre domande e gettare basi per discussioni future mi sono domandato come dovesse essere il mondo se “tutti”:

  1. Avessero un lavoro in ufficio davanti ad un computer;
  2. Passassero la maggior parte del loro tempo, dopo il lavoro, su social network o in generale su Internet;

Si badi bene che quando si asserisce “tutti” intendo proprio tutte le persone che possiate immaginare sul pianeta terra.

Tu che lavoro fai?

Ehm io lavoro nel social media marketing. Io sono un designer. Io sono un ingegnere informatico. Io sono un programmatore. Io faccio siti web. Io gestisco account social di grossi brand. Io gestisco un grosso blog di cucina. Io sono fotografo. Io sono giornalista su una testata online. Io gestisco la contabilità per un’azienda.

Sono lontani i tempi della bolla speculativa d’inizio millennio, ed il Web 2.0 oltre ad essere realtà sembra aver raggiunto di già il suo grado di maturità per trasformarsi in qualcosa di ancora più pervasivo.

Come può reggersi un’economia (reale) se tutti sono perennemente e letteralmente d’avanti ad un computer?

Queste riflessioni possono nascere non solo se entrate in un comune Starbucks, dove l’unico rumore che si sente è il silenzio dei fragorosi ingranaggi dei cervelli che consumano caffè di fronte ad un laptop o un tablet. Basta che vi guardate intorno. E qualsiasi aspirazione lavorativa, in qualche modo ha a che fare con la maggior parte del tempo di fronte ad un PC.

Una cooperativa per il sociale? Servirebbe un pc ed un account social. Vogliamo rinvigorire la Foresta Amazzonica? Senza computer non possiamo farlo! Ora esagero, ma la mia impressione sembra che qualsiasi cosa derivi dal computer anche fatti che solo qualche anno fa erano distanti anni luce.

Azzardo a dire che questo trend di crescita nella micro diffusione di tecnologie atte a tenere connesse le persone tra loro e fisicamente a mantenerle incollate ad uno schermo touch, può rimanere tale se e solo se cresce la micro automazione di tutti i processi tecnologici e quindi industriali che sorreggono l’economia reale.

Per micro automazione intendo l’automazione di tutti quei processi che non fanno parte solo dell’industria della produzione di massa, ma anche lavori usuranti che vengono svolti da esseri umani. Parlo di camerieri, conducenti di mezzi pubblici, sportellisti etc.

E’ inevitabile che in un futuro prossimo tutti questi lavori siano svolti da robot. Negli anni Ottanta dello scorso secolo l’automazione mediante robot nel contesto industriale ha fatto da padrone e ha innescato un discusso processo di crescita della disoccupazione. La robotizzazione nella produzione di automobili è oggi normale realtà.

Uno scenario che ricorda “Matrix” il film, dove la maggior parte delle persone vive connessa in un mondo digitale.

Ritengo sia una questione di equilibrio e retroazione. Per adesso i “paesi con lo smartphone tra le mani”, continuano ad importare manodopera straniera a basso costo (di cui un’alta quota deriva da immigrazione clandestina controllata), ma la mia provocazione è: quando anche questa fetta di popolazione vorrà avere lo smartphone e passare i suoi momenti (lavoro o tempo libero) incollata ad un computer?

Ultimo aggiornamento Martedì 15 Aprile 2014 21:17

Computational Intelligence e Computational Thinking

E-mail Stampa PDF

Se risultasse che le logiche di base di una macchina progettata per la soluzione numerica di equazioni differenziali coincidono con quelle di una macchina destinata a preparare fatture di un grande magazzino, penserei che si tratta della più stupefacente delle coincidenze di tutta la mia vita

Howard Aiken


Sull'Intelligenza Atificiale, l'Intelligenza artificiale ed infine sul pensiero computazionale (Computational Thinking)

Una nuova versione riveduta, corretta e amoliata è scaricabile in PDF da qui.

CortanaIl dibattito intorno alla possibilità delle macchine di pensare come un essere umano è ancora accesso. Negli ambienti accademicii ciò è noto come approccio forte all'Intelligenza Artificiale. Dopo una prima ondata di entusiasmo, a seguito dello storico seminario interdisciplinare nel New Hampshire (1956) dove Marvin Minsky, uno dei fondatori dell'IA osò ribadire che "lo scopo di questa disciplina è di far fare alle macchine delle cose che richiederebbero l'intelligenza se fossero fatte dagli uomini", ci fu qualche battuta d'arresto. Roger Penrose (1931), matematico, fisico e grande divulgatore scientifico britannico, ha partecipato a tale dibattito, cercando di trovare un'argomentazione convincente per poter mettere una pietra tombale alla possibilità delle macchine di imitare l'uomo nella prassi del pensiero. Egli in "La mente Nuova dell'Imperatore" [1] propone un'argomentazione di natura algoritmica secondo la quale alcune caratteristiche dell'intelligenza umana non possono essere intrappolate in schemi, per l'appunto di natura algoritmica. Tra questi la creatività, l'intuito, la coscienza o meglio l'autocoscienza. Egli propone, pur sapendo che la schematizzazione è carente, di distinguere nella formulazione di un giudizio due ambiti: uno in cui è richiesta la coscienza, l'altro in cui questa non è richiesta.

Coscienza richiesta

Coscienza non richiesta

Senso comune

Automatico

Giudizio di verità

Regole seguite senza pensarci

Comprensione

Programmato

Apprezzamento artistico

Algoritmico


Secondo Penrose, alcuni compiti svolti dalla mente non hanno natura algoritmica e quindi non potranno mai essere messi a punto da una Macchina di Turing Universale. Con gli anni gli studiosi nell'ambito dell'Intelligenza Artificiale, sempre tenendo presente l'obiettivo di creare una macchina pensante, hanno imparato, a mio parere, ad essere politically correct e a dichiarare che effettivamente stanno lavorando ad insegnare alle macchine a risolvere problemi specifici di natura cognitiva, che se risolti dagli esseri umani, richiedono un qualche grado di intelligenza. In altre parole l'intento è di creare una nuova intelligenza, che probabilmente avrà natura differente da quella umana. Quest'ultimo approccio è noto come Intelligenza Artificiale debole.

Di fatto, nella storia dell'IA, si possono incontrare numerose discipline anche provenienti da ambiti diversi, utilizzate per approcciare i problemi. Ad esempio la Logica, la Teoria della Probabilità, la Scienza dei Sistemi, ognuno con il proprio momento di gloria seguito da un inesorabile periodo di declino. Il dibattito quindi si è spento e riacceso a seconda della direzione del vento. L'AI è dunque un campo molto vasto, che abbraccia oltre alle discipline su menzionate anche la Computer Science, la Psicologia, la Filosofia, la Sociologia, la Biologia, etc. Oggi il dibattito è molto preponderante sia negli ambiti accademici che non accademici poiché qualcosa è andato modificandosi a livello metodologico e non solo.

L'IA nasce in un contesto multidisciplinare, ma il raggiungimento di tale status è stato un processo talvolta faticoso e, a mio parere, solo la nuova generazione di scienziati e studiosi ha la possibilità di approcciare in maniera veramente multidisciplinare le problematiche ad essa relative. Questo perché essi possono "sedersi comodamente sulle spalle dei giganti" e mirare dall'alto le varie sottodiscipline che compongono questo interessantissimo campo del sapere umano. La nuova generazione, avendo acquisito le metodologie dei pionieri che hanno lavorato ad un livello analitico, hanno potuto proporre una sintesi che non sia solamente la somma delle discipline, ma sia un vero nuovo campo di studi. Cioè un sapere con una propria ontologia che, prima di proporre le soluzioni dei problemi, dia la possibilità di modellarli. Da questa sintesi sono nate discipline come l'apprendimento automatico, la rappresentazione della conoscenza, il ragionamento automatico, la pianificazione, la medellazione ad agenti, l'elaborazione del linguaggio naturale, la computazione neurale ed evolutiva, la visione artificiale integrate con discipline preesistenti, come il ragionamento logico, la robotica, etc. In definitiva, oggi si ha la possibilità di manipolare un sapere multidisciplinare che ha un proprio status quo, capace di proseguire con le proprie gambe. Questo a livello metodologico. Vi è poi un altro fattore che definirei "fattore informativo" secondo il quale, ad oggi, grazie alle tecnologie ICT, le strutture di calcolo sono diventate alla portata di tutti, con costi bassissimi. Non parlo solo di computer e smartphone, anche se molto importanti, ma anche di sensoristica a basso costo che grazie a tecnologie di rete avanzate permettono l'acquisizione di una grossa mole di dati. Questo ha portato a definire il concetto di ubiquitus computing, o computazione pervasiva, dove gli stessi sensori nell'accezione generale del termine hanno discrete capacità di calcolo, quindi di elaborazione e trasporto delle informazioni. Oggi è realmente possibile parlare di intelligenza distribuita, di controllo distribuito ad agenti, dove ognuno non possiede una visione generale dell'ambiente e degli altri agenti, ma è capace di agire e coordinarsi con i vicini talvolta senza un obiettivo iniziale, ma scoprendola successivamente in collaborazione con i vicini stessi. La grossa mole di informazione oggi a disposizione con la rete, e qui computer,  smartphone e tablet la fanno da padrone, è una risorsa inestimabile che i pionieri dell'IA, che redigevano i loro famosi articoli tramite la macchina per scrivere meccanica, si sognavano. Oggi si è in presenza di una miriade di dati che aspetta di essere elaborata, la stessa rete Internet può essere vista come un gigantesco contenitore di dati. L'elaborazione consente al dato di diventare comprensione e quindi di mettere in moto processi decisionali e azioni specifiche. Coloro che devono compiere queste operazioni, siano essi macchine o esseri umani (o ibridi), devono poter operare con informazioni con un alto valore semantico.

Una sottobranca dell'AI, a sua volta scomponibile, è nota come Computational Intelligence. Essa è la branca ideale per affrontare in maniera algoritmica la "complessità", attraverso l'analisi e la sintesi dei cosiddetti "Sistemi Intelligenti". Il punto di svolta sta nel differente approccio, rispetto a quello classico, che tali algoritmi propongono, essendo modellati sulla cosiddetta intelligenza biologica. Essi, infatti, sono altresì definiti come algoritmi "nature inspired". Le macroaree che formano la Computational Intelligence sono:

  • Artificial Neural Network (Reti Neuronali Artificiali);
  • Evolutionary Computing;
  • Swarm Intelligence;
  • Fuzzy System;

Queste aree, assieme alla Logica, il Ragionamento Deduttivo, i Sistemi Esperti, il Ragionamento Case-Based e Simbolico, il Machine Learning, vanno a generare l'Intelligenza Artificiale moderna.

Una definizione più precisa per la Computational Intelligence è la seguente [2]:

Lo studio di meccanismi adattivi per avviare o facilitare comportamenti intelligenti in ambienti complessi e mutevoli (dinamici).

Descriviamo, adesso, per sommi capi, i principali meccanismi alla base della Computational Intelligence.

Reti Neurali Artificiali

Le reti neuronali artificiali sono particolari strutture di calcolo, definite secondo un paradigma algoritmico "connessionista", che espletano la loro funzione imitando le reti neuronali biologiche. L'elemento base è il Neurone Artificiale, avente un semplice modello matematico, che contempla:

  • un certo numero di ingressi, come i dendriti nel cervello biologico;
  • una cosiddetta funzione di rete, che "spara" a seconda dell'input ricevuto;
  • un output corrispondente all'assone nel cervello biologico.

L'insieme di tali Neuroni Artificiali, sono considerabili come una rete formata da connessioni la cui forza è definibile matematicamente in base a dei pesi.

Esistono molte possibili configurazioni e molte possibili applicazioni delle Reti Neurali Artificiali. Esse sono state utilizzate nelle diagnosi mediche automatizzate, nel riconoscimento del parlato, di video e immagini, nella composizione sonora, nelle previsioni meteorologiche e dei mercati finanziari, nella pianificazione di strategie, etc. E' interessante come esse, mediante particolari algoritmi di apprendimento, siano capaci di apprendere compiti specifici, di riconoscere oggetti, di classificare e predire risultati. La memorizzazione delle informazioni apprese avviene in maniera distribuita, quindi in maniera alquanto differente delle memorie classiche con locazioni precise, in tutti i pesi della rete.

Evolutionary Computing

La Computazione Evolutiva (Evolutionary Computing) ha come obiettivo quello di modellare l'evoluzione naturale, dove il concetto cardine è quello della sopravvivenza del più forte. Essa propone algoritmi capaci di organizzare le possibili soluzioni di un problema in popolazioni di cromosomi, che sono un sottoinsieme dello spazio delle possibili soluzioni. Quest'ultimo, iterativamente viene visitato tramite la formazione di nuovi individui, considerati come prole degli individui della generazione precedente, che meglio si adattano alla soluzione del problema stesso. In altre parole sopravvivono le soluzioni più forti, mentre soccombono quelle deboli. La sopravvivenza è dettata da operatori genetici, simili a quelli che operano sui cromosomi biologici e da una funzione nota come fittness che riflette gli obiettivi e i vincoli del problema da risolvere.

Tra le classi di algoritmi evolutivi si hanno gli Algoritmi Genetici, La Programmazione Genetica, dove gli individui non sono soluzioni ma programmi, e altri algoritmi basati sul concetto di evoluzione, competizione e cooperazione.

Swarm Intelligence

La Swarm Intelligence nasce dallo studio e dal modellamento dell'organizzazione di organismi sociali in colonie o sciami. Ad esempio si hanno algoritmi modellati sul comportamento delle formiche e del loro utilizzo dei ferormoni (Ant Colonies Algorithm), oppure algoritmi basati sul volo di gruppo degli uccelli. Essi sono molto fruttuosi nei cosiddetti problemi di ottimizzazione globale, ovvero in quella classe di problemi il cui obiettivo è avvicinarsi alla soluzione migliore. L'algoritmo nel caso dello sciame (Particle Swarm Optimization) genera un insieme di individui capaci di volare all'interno dello spazio multidimensionale delle soluzioni. Gli individui sono capaci di comunicare con un gruppo di vicini cosicché quanto si è prossimi ad una possibile soluzione essi comunicando si addensano presso quest'ultima. Di solito matematicamente tale problema è esprimibile come un problema di minimo e le particelle di soluzione "volano" fino ad addensarsi attorno al minimo cercato. Anche in questi algoritmi gioca un ruolo essenziale la fitness, che misura la performance delle varie particelle esploratrici. Algoritmi basati sul modellamento delle formiche, agiscono in maniera simile, "formicolando" nello spazio delle soluzioni e lasciando un ferormone nei pressi di un punto dello spazio multidimensionale definito come buono (vicino alla soluzione). Le formiche nei paraggi allora saranno portate a gironzolare nei paraggi alla scoperta di punti migliori.

Fuzzy System

La Logica Fuzzy, teoria con la quale sono implementati i Sistemi Fuzzy, è una particolare branca della logica, relativamente recente che si differenzia dalla cosiddetta Logica Classica poiché rifiuta come assioma costituente la legge aristotelica del terzo escluso (tertium non datur). In una concezione classica della logica e della teoria degli insiemi possiamo dire che un oggetto o appartiene all'insieme dato o non vi appartiene. Non si da una terza possibilità. Secondo la Logica Fuzzy (fuzzy è traducibile anche con "sfumato"), un oggetto appartiene ad un insieme (fuzzy ) in una certa misura. In altre parole è possibile stabilire una misura di appartenenza dell'oggetto all'insieme, che nei "casi estremi" coincide con il concetto di appartenenza classico o aristotelico. Stesso vale per il concetto di verità o falsità assegnabile ad una proposizione. Secondo la Logica Fuzzy una proposizione può essere vera in una certa misura. Sembra che i fatti riguardo al mondo siano effettivamente sfumanti e quindi tale logica appare come un metodo per descriverli. Inoltre il metodo con cui opera inferenza sembra catturare l'approssimazione con cui opera un comune essere umano. Di fatto tale logica consente di modellare in una macchina quello che oggi è noto come Ragionamento approssimato, in quanto riesce a catturare l'incertezza sui fatti del mondo. E' importante tenere presente che nella Logica Fuzzy il termine "incertezza" non ha la stessa accezione che in teoria della Probabilità. Non entrerò nei dettagli, ribadisco solo che l'incertezza probabilistica è riferita ad un evento che deve accadere e su cui si modella una legge di probabilità. L'incertezza fuzzy consiste nel modellare l'ambiguità di un qualcosa di dato al fine di catturarne la vaghezza o meglio la fuzziness. La Logica Fuzzy trova profique applicazioni nel modellamento del ragionamento, nel controllo e nel riconoscimento di pattern. La caratteristica migliore risiede nella possibilità di definire regole in maniera semplice che si applicano a sistemi complessi di cui può anche non essere nota a priori una descrizione matematica in forma chiusa.

Le tecniche appena descritte sono nate come discipline al quanto separate, ma oggi, come ribadito in precedenza, appartengono ad un comune bagaglio di conoscenze e metodi per i quali è stato possibile operare un' ulteriore sintesi e procedere per astrazioni superiori. Da queste astrazioni sono nati i cosiddetti ibridi, consistenti nell'uso simultaneo di queste tecniche. Ad esempio, vi sono sistemi che espletano un qualche compito utilizzando l'ibrido Fuzzy-Evolutionary Computing, secondo il quale un sistema inferenziale fuzzy è posto in evoluzione nei suoi parametri strutturali al fine di individuarne il set ottimo per lo specifico Problema. Similmente l'ibrido Neural Network-Evolutionary Computing. In questo caso l'algoritmo evolutivo guida l'ottimizzazione nell'apprendimento della rete Neuronale. In definitiva ogni tecnica può essere ibridata con ogni altra, fornendo un tool molto potente per approcciare la complessità dei problemi.

Paradigmi ibridi relativi alla Computational Intelligence


Il potere espressivo ed operativo della Computational Intelligence può essere ulteriormente migliorato ibridando quest'ultima con i cosiddetti Metodi Probabilistici. Tale super-ibrido è inserito in una branca della computazione nota come "Soft computing", nome suggerito dall'Ingegnere, scienziato e Professore di Teoria dei Sistemi (fuzzy) Lotfi Zadeh (1921), colui che, negli anni '60 dello scorso secolo, traspose la Logica Fuzzy dall'altare delle Scienze pure all'Ingegneria dei Sistemi.

La Computational Intelligence talvolta è utilizzata assieme ai metodi Probabilistici e assieme a tecniche di datamining, come il Clustering e la Classificazione. Questi ultimi fanno capo al cosiddetto "Granular Computing", disciplina che nel sintetizzare modelli e suggerire soluzioni ai problemi, pone molta importanza ai cosiddetti "granuli di informazione". A questo punto sono stati messi assieme, in linea di principio, tutti gli ingredienti per poter operare su problemi volti alla complessità. Si può notare come anche il concetto di informazione, e quindi la teoria che ne scaturisce (Teoria dell'Informazione), sia di estrema importanza per l'Intelligenza Artificiale moderna. Questo insieme di discipline, compreso lo studio dell'informazione e della sua elaborazione e della sua trasmissione, apparteneva ad un campo ben specifico noto come Cibernetica.

Norbert Wiener (1894 -1964), pioniere nell'Intelligenza Artificiale e nella Stessa Cibernetica in "Introduzione alla Cibernetica" (1950), ci illustra in maniera quasi profetica come l'uomo stia costruendo macchine sempre più brave a svolgere compiti un tempo appannaggio dell'intelligenza umana. Inoltre mostra come un giorno le macchine saranno più intelligenti attraverso il paradigma dell'imitazione dell'intelligenza biologica. Profeticamente, considerando l'informazione come un punto essenziale dello sviluppo delle macchine, ci ammonisce dicendo che [3]:

" la società può essere compresa soltanto attraverso lo studio dei messaggi, e dei mezzi di comunicazione relativi ad essi; e che nello sviluppo futuro di questi mezzi di comunicazione e di questi messaggi, i messaggi tra l'uomo e le macchine, fra le macchine e l'uomo, fra le macchine e le macchine sono destinati ad avere una parte sempre più importante".


Computational Thinking

L'Intelligenza Computazionale  e i suoi ibridi, come abbiamo visto, forniscono i veri e propri "attrezzi" per poter operare sui sistemi e sui problemi complessi. L'Intelligenza Artificiale e la Cibernetica nascono nella metà dello scorso secolo come manifesti su cui basare la fede nell'intelligenza delle macchine. I pionieri, come Alan Turing, John von Neumann, Norbert Wiener, Martin Minsky e molti altri, erano convinti che in un futuro, non troppo lontano, molto di quanto si prospettava sarebbe diventato realtà. Qualcuno obietta che niente è stato fatto e le macchine sono solo ammassi di chip senza un briciolo di intelligenza, di comprensione, di intuito, di creatività. Per dirla in una sola parola di umanità.

A mio parere la verità sta per lo mezzo. Da una certa prospettiva siamo ben lontani dall'aver creato una macchina pensante come un essere umano, da un'altra (più debole, ma altrettanto forte), bisogna essere onesti nel riconoscere che l'"intelligenza delle macchine" è diventata parte integrante dell'intelligenza umana. Al momento non saprei se le ripercussioni nel prossimo (a breve in realtà) futuro, come prevede Ray Kurzweil, siano quelle di avere una simbiosi tra intelligenza biologica ed intelligenza meccanizzata così perfetta da generare una "singolarità" nell'evoluzione dell'intelligenza umana stessa. Al contempo è palese che, di fatto, una'integrazione simbiotica tra le due intelligenze esiste. "Simbiotica" è il termine adatto in quanto, a questo stadio dell'evoluzione, si potrebbe inferire che se venisse a mancare l'intelligenza delle macchine, vi sarebbero delle grosse ripercussioni sull'ordine che la società ha raggiunto. Questo perché essa si è sviluppata anche partendo da questi presupposti. Immaginiamo di spegnere Google per un giorno. Sarebbero grossi grattacapi, molti si annoierebbero, altri non andrebbero a lavoro perché non avrebbero disponibile il loro strumento base, qualcuno, sebbene per poco tempo, sarebbe anche contento. Ma ingigantiamo l'esperimento mentale e immaginiamo, adesso, di spegnere l'intera rete Internet, e tutte le apparecchiature elettroniche quotidiane, telefoni, cellulari, smartphone computer, elettrodomestici programmabili. Immaginiamo che questo accada di colpo e per un tempo indefinito e ignoto. Cosa succederebbe? E' difficile rispondere con precisione, ma a grandi linee possiamo immaginare. Si ingenererebbe una "oscillazione" nell'ordine sociale di portata gigantesca a seguito dell'importante discontinuità dovuta allo spegnimento delle macchine. Non è detto che si arriverà all'estinzione, ma sicuro succederebbe qualcosa di alquanto singolare...

Assodato che le macchine, sia in forma meccanica che digitale, siano parte integrante della nostra quotidianità, possiamo affermare che esse, sebbene non ci controllino, sono necessarie al nostro attuale funzionamento in quanto sono ormai correlate ai nostri procedimenti cognitivi. E' utile considerare che in qualsiasi ambito della conoscenza, nella maggior parte dei casi, le nuove generazioni, partano dalle conquiste raggiunte con sforzi mostruosi dalla generazione precedente. Questo fenomeno deriva da una differenza appartenente alla sfera cognitiva e si sperimenta ogni qual volta un anziano, per cause di forza maggiore, debba operare con un computer. Mediamente ci si trova d'innanzi un individuo intelligente che non riesce a utilizzare il computer o, se vi riesce, sembra farlo in maniera "strana". Non è questione di intelligenza infatti, ma di sviluppo cognitivo, di cambiamento di paradigma nella struttura del pensiero. Come le macchine si sono evolute ed hanno automatizzato i compiti più disparati, svolgendoli con un certo grado di intelligenza e perlopiù correttamente, il nostro cervello, nelle funzioni cognitive, si è adeguato evolutivamente. In realtà tale "connessione cognitiva" si è rafforzata in un miglioramento graduale nell'interazione uomo-macchina non unilaterale. In altre parole si è avuta un'evoluzione semantica, sia per quanto riguarda la direzione macchina--> uomo, sia uomo-->macchina. Le applicazioni si sono adattate al sistema cognitivo che si è adattato a sua volta alle applicazioni, in un processo retroattivo autosostenentesi a carattere crescente. Programmare un computer degli anni '50 dello scorso secolo era appannaggio di pochi eletti, appartenete all'olimpo dei geni, oggi è alla portata di tutti, anche delle intelligenze normali. Questo perché si è avuto uno sviluppo semantico, attraverso astrazioni successive che hanno permesso di generare "interfacce" cognitivamente appetibili. Ciò ha portato ad avvicinarsi ai computer un numero sempre maggiore di persone e ad utilizzarli per le applicazioni più disparate, lontane un abisso, dal loro basico funzionamento. Howard Aiken (1900 - 1973), pioniere nella Computer Science e fondatore dell' Harvard Computation Laboratory, nel 1956 sostenne a tal proposito (citato in [4]):

"se risultasse che le logiche di base di una macchina progettata per la soluzione numerica di equazioni differenziali coincidono con quelle di una macchina destinata a preparare fatture di un grande magazzino, penserei che si tratta della più stupefacente delle coincidenze di tutta la mia vita."

Di fatto, non è semplice comprendere tale coincidenza ma compiti così prossimi all'apparato cognitivo umano sono svolti, basilarmente, con le stesse logiche utilizzate per svolgere una somma aritmetica.

In definitiva possiamo asserire che l'evoluzione tecnologica ha portato studiosi e scienziati a costruire sistemi capaci di elaborare l'informazione in maniera da conferirle alto contenuto semantico in riferimento alla "risposta semantica" umana. Allo stesso modo tale evoluzione semantica ha modificato parte della mappa cognitiva umana (mi riferisco alle popolazioni digitalizzate). Questo punto è molto importante e richiede ulteriori approfondimenti, che al momento non tenterò. E' d'obbligo però, a questo punto, citare Alfred Korzibsky (1879 - 1950), ingegnere, creatore della "Semantica Generale" esposta in "Science e Sanity" [5] nel 1933 e nelle edizioni rivedute successive, che descrivere le differenze tra comportamento umano ed animale come differenze nella "risposta semantica" (in precedenza il termine non è stato utilizzato a caso) tra questi ultimi. Nella sua opera Korzibsky getta le basi di gran parte del pensiero moderno e post-moderno, riconoscendo al linguaggio un ruolo semantico strettamente correlato alla struttura cognitiva umana. E riconosce e descrive in maniera ineccepibile come esso si sviluppi attraverso una struttura verticale astratta multidimensionale e gerarchica. Qualsiasi attività umana, specialmente quella linguistica, che rispecchia le modalità di pensiero, appartiene a tale struttura che parte, e questo vale per tutti, dal tessuto nervoso ed evolve attraverso astrazioni successive. Ciò che differenzia l'essere umano dal mondo animale è proprio questa capacità di astrazione multiordinale. Egli individua 1) nella "sanità mentale" la capacità di manipolare quest'astrazione, 2) nel "migliorare le condizioni di vita" la capacità di accedere a livelli astratti sempre più alti. Quanto esposto è una parte infinitesima del pensiero di questo scienziato, ma è utile per comprendere come da qualche tempo stia nascendo, negli ambienti accademici di Computer Science, e si stia sviluppando grazie alla rete, una nuova maniera di approcciare il pensiero: nel futuro si penserà in maniera computazionale.

Questa particolare tipologia di pensiero è diventata un campo di studi a sé, noto come "Computational Thiking".  Essa, sebbene sia posizionabile sotto l'egida dell'Intelligenza Artificiale, è un qualcosa a se, con metodi e tecniche ben strutturati che sono diventati realtà in discipline come l'Ingegneria, la Biologia, la Chimica, la Fisica, l'antropologia, la linguistica, l'economia, la criminologia, etc. Se si inserisce su Google la chiave "Computational" ci si trova dinnanzi una schiera di discipline che, appartenenti a campi differenti che spaziano addirittura dall'ambito scientifico a quello umanistico, condividono una metodologia comune che tenterò di descrivere nel seguito.

Il pensiero computazionale nasce da una serie di conquiste che l'Intelligenza Artificiale, e in particolare la Computer Science, ha effettuato nei più svariati campi del Sapere. Questa particolare modalità di pensiero è stata portata alla ribalta da molti studiosi tra i quali spicca una professoressa Jannette M. Wing, Presidente del Dipartimento di Computer Science alla Carnegie Mellon University. Ella in un suo articolo-manifesto [6] dal titolo esplicativo "Computational Thinking" sostiene che:

Computational thinking will be a fundamental skill used by everyone in the world by the middle of the 21st Century.

Inoltre spiega come il pensiero computazionale possa essere un'attitudine che può essere appresa al pari della lettura, della scrittura o dell'aritmetica. Esso consente altresì di ottenere risultati che gli esseri umani da soli non possono ottenere nel Problem Solving, nella progettazione dei sistemi e nella comprensione della potenza e dei limiti dell'intelligenza umana e delle macchine. Inoltre permette di fornire risposte soddifacenti a domande come: Cosa gli esseri umani possono fare meglio dei computer?  Cosa i computer possono fare meglio degli umani? Cosa è computabile?

Attraverso il Computational Thinking possono essere risolti i problemi in maniera efficiente, andando a capire prima quale sia la soluzione approssimata che fa il nostro caso e poi computandola, utilizzando processi randomici a vantaggio del calcolo. In altre parole permette di descrivere prima le difficoltà del problema e successivamente di chiedersi come può essere risolto nel migliore dei modi. Secondo l'autrice il Computational Thinking è:

  • pensare ricorsivamente;
  • riformulare problemi apparentemente difficili in problemi di cui si conosce il procedimento per giungere alla soluzione attraverso: la riduzione; l'inglobamento; la trasformazione; la simulazione;
  • scegliere una rappresentazione appropriata e modellando gli aspetti rilevanti in maniera trattabile;
  • interpretare i "dati" come "codice" e il "codice" come "dati";
  • usare astrazione e decomposizione per approcciare compiti grandi e complessi;
  • giudicare il designe dei sistemi anche per la semplicità e l'eleganza;
  • type checking, come generalizzazione dell'analisi dimensionale;
  • prevenzione, detezione e recovery partendo dal caso peggiore attraverso l'utilizzo della ridondanza, il contenimento dei danni e la correzione degli errori;
  • modularizzazione anticipata per utenti multipli e prefetching and caching anticipata per gli utilizzi futuri;
  • è evitare "race condition" e deadlock nel sincronizzare compiti ed eventi;
  • utilizzare agenti computazionali per approcciare problemi hard relativi all'Intelligenza Artificiale;
  • è approcciare la soluzione dei problemi, il progetto dei sistemi, la comprensione del comportamento umano attraverso i paradigmi della Computer Science.

Nello stesso articolo e in numerose conferenze Jannette M. Wing sostiene che:

"Thinking like a computer scientist means more than being able to program a computer. It requires thinking at multiple levels of abstraction".

Questa affermazione mostra come si possano immaginare delle modalità di pensiero simili a quelle di uno Scienziato dei Computer per programmare meglio i computer stessi. E come tale attitudine possa essere raggiunta con livelli successivi di astrazione, proprio come Korzibsky sosteneva agli inizi del Novecento.

Infatti il Pensiero Computazionale consente di "scalare" la complessità attraverso l'astrazione su livelli successivi definendone le relazioni e automatizzando tali astrazioni e relazioni. Tale lavoro può essere eseguito attraverso specifici modelli e notazioni tenendo presente che, allo strato inferiore, vi è una qualche macchina, sia essa un computer, umana o virtuale.

Considerando il pensiero computazionale come un mutamento di paradigma, è possibile notare come ad esempio, la statistica sia divenuta "computazionale" con le moderne tecniche di machine learning, oppure come ormai la biologia non possa prescindere dai modelli matematici e computazionali attraverso la cosiddetta bioinformatica. Altre sfide che si stanno consumando sono nella Teoria dei Giochi, proveniente dall'ambito economico, il nanocomputing, proveniente dall'ambito chimico, e la computazione quantistica, proveniente dall'ambito fisico.

A mio parere, operando una review della letteratura, vi è uno sforzo nella direzione, suggerita da Wing, di insegnare anche nelle scuole inferiori tale modalità di pensiero iniziando a cambiare il nome di corsi di informatica  da "Corso di programmazione [linguaggio x]" a "Modi per pensare come un Computer Scientist".

Questi sforzi, a mio avviso, vanno nella direzione indicata in precedenza, secondo la quale le nuove generazioni possono operare una sintesi, attraverso astrazioni successive, ed insegnare nuovi modi di pensare e nuove strutture cognitive attraverso le quali le generazioni successive creeranno cose, impensabili solo venti anni addietro.




Bibliografia

[1]

R. Penrose, La Mente Nuova dell'Imperatore, RCS Libri S.p.A., Ed. Milano, Italy, 1992 (1989).

[2]

Engelbrecht and P. Andries, Computational intelligence : an introduction, J. Wiley & Sons, Ed. Chichester, Hoboken, N.J., England, 2002.

[3]

N. Wiener, Introduzione alla cibernetica, Boringhieri, Ed. Torino, Italy, 1970.

[4]

M. Davis, Il Calcolatore Universale. Milano, Italy: Adelphi Edizioni S.p.A. , 2012(2000).

[5]

A. Korzibsky, Science and Sanity, IV ed. Brooklyn, New York, USA: Institute of General Semantics, 1933.

[6]

J. M. Wing, "Computational Thinking," CACM, vol. 49, no. 3, pp. 33-35, March 2006.


Ultimo aggiornamento Mercoledì 01 Febbraio 2017 13:45

I sistemi Complessi come Sistemi di Sistemi, un appunto

E-mail Stampa PDF

Il carattere complessivo del mondo è il caos per tutta l'eternità, non nel senso di un difetto di necessità,ma di un difetto di ordine,

di articolazione, forma, bellezza, sapienza e di tutto quanto sia espressione delle nostre estetiche nature umane.

Friedrich Nietzsche, La Gaia Scienza, 1882

Sui Sistemi Complessi, metodi e approcci alla descrizione e l'analisi. Sui Sistemi di Sistemi, come modello generalizzato dell'ecosistema tecnologico integrato all'ecosistema biologico: Aspetti strutturali e Teorici.

Una versione approfondita e corretta è disponibile qui in formato PDF.

Introduzione

Il mondo che oggi ci circonda si è prefisso talvolta sfide di portata globale. Per intraprendere tali sfide c'è bisogno di una visione generale di come si conformano gli elementi in gioco. La prassi corretta nella formulazione di un problema da risolvere, come ad esempio la sostenibilità ambientale, l'organizzazione di una società, la distribuzione delle risorse, e molti altri esempi, è quella di formulare il problema direttamente nei termini degli obbiettivi da raggiungere. Questo non basta. Il problema per essere risolto deve essere anche ben formato. Ciò implica che se non sussiste tale condizione necessaria, quindi esso è mal posto, potrebbe non avere soluzione o quest'ultima essere addirittura sbagliata. Problemi semplici, di norma, hanno soluzioni semplici, problemi complessi, soluzioni complesse. L'importante è che la fase di formulazione in termini di obbiettivo si basi su un sostrato che possa avere una capacità descrittiva completa degli elementi in gioco. Non solo, tale sostrato deve poter fornire le regole operazionali per agire verso la soluzione. La teoria dei Sistemi Complessi, oggi, si sta facendo largo con forza, come campo interdisciplinare, crossborder, capace di offrire un tool per analizzare sistemi eterogenei e non strettamente fisici. La stessa globalizzazione ha prodotto un mondo fortemente interrelato dove i confini tra fisico e virtuale non sono più chiari. La forte interconnessione, e la comunicazione informativa realtime, rende il mondo estremamente dinamico e soggetto a comportamenti non lineari. Ecco che una formalizzazione teorica del concetto di sistema, attingendo da ciò che è stato già proposto proficuamente in maniere "generalizzata" come la Teoria Generale dei Sistemi di L. Bertalanffy è d'obbligo. Un grande lavoro è già stato fatto, ma non basta, poiché le Scienze della Complessità si diramano in una serie di sottodiscipline con capacità di descrizione e di analisi che tendono a specializzarsi. Inoltre i sistemi generalizzati non operano distinzione tra fisico e virtuale, tra biologico e non biologico. Quindi una teoria dei Sistemi Complessi visti come un insieme di agenti con capacità autonoma di analisi e decisione deve essere una priorità. Una visione integrata, con buoni propositi formali è la teoria dei Sistemi di Sistemi (System of System), che sono una sottobranca specifica della teoria dei Sistemi Complessi. Essi possono essere interpretati come un sistema la cui genesi parte dai Sistemi Semplici, approda ai Sistemi Integrati poi ai Sistemi Compositi e termina con un livello semanticamente superiore noto, appunto, come Sistema di Sistemi. La caratteristica comune a questi livelli è la presenza di una interconnessione topologica tra le strutture informative. Ciò che conferisce valore semantico alla genesi appena descritta è l'integrazione dei processi all'interno dei sottosistemi, che generano comportamenti emergenti che permettono di considerarli come agenti con capacità decisionali autonome. Se tali agenti partecipano ad un game globale, dove non vi sono agenti "raccomandati" che hanno una visione globale sugli altri agenti, se dispongono solo di informazioni locali, e quindi, se agiscono in maniera decentralizzata allora formano un sistema multiagente (Multi-Agent System) definibile come Sistema di Sistemi. Il seguente articolo partendo da una caratterizzazione storica, attraverso la guida autorevole di studiosi nel campo della complessità si propone una descrizione degli elementi che entrano in gioco nell'identificazione di un Sistema Complesso, descrivendone anche le caratteristiche operazionali. In un primo momento sarà fornita una breve contestualizza storica del concetto di sistema, poi saranno affrontate alcune definizioni che gli studiosi nel campo dei sistemi offrono. Dopo una descrizione delle principali caratteristiche dei sistemi con natira complessa, tra queste l'emergenza e l'autorganizzazione, si descriverà la speciale sottocategoria nota come Sistema di Sistemi. E' interessante la descrizione, che qui ho riportato, offerta in [1] [2], attraverso i diagrammi UML.

Breve Evoluzione storica del concetto di Sistema

Il concetto di sistema si può fa risalire alla cultura greca con il termine σνστηα reso successivamente in latino con systēma con il quale si vuole intendere "interezza" ed "unione". Un utilizzo specifico si può ritrovare nei pensatori appartenenti alla scuola pitagorica. Essi si approcciavano con la parola "sistema" a ciò che era loro sconosciuto, ma che comunque appariva come un insieme di elementi, nell'intento di offrire una possibile comprensione e spiegazione. Con tale termine gli antichi greci erano usuali riferirsi, ai fenomeni naturali o al corpo umano. Quest'ultimo, inserito in un paradigma olistico è stato oggetto dell'approccio di Ippocrate (460 a. C. - 360 a. C.) alla medicina [1]. La parola greca σνστηα deriva dal verbo συνηίστημι, che significa: stabilire, combinare, unire connettere comporre, costruire qualcosa di solido. Inoltre può significare anche mantenere ordine, partizionare, relazionare, comporre e anche esistere. E' interessante che tale termine sia utilizzato abbondantemente nella letteratura della Grecia Antica in scritti riguardanti  la geometria, i numeri, la filosofia, la musica e la medicina. Da questi emerge che σνστηα è usato per indicare un "un intero costituito dalla somma delle sue parti" [2]. Già Aristotele, nella Metaphysica, aveva questa visione olistica nei riguardi dell'Universo a lui noto.  Il concetto di sistema è stato nel passato, e ancor oggi dibattuto, in filosofia, ma come vedremo esso è diventato un asse portante nelle scienze e nell'ingegneria, quindi anche della tecnologia. Nel titolo di numerosi scritti filosofici G. W. Friedrich Hegel (1770 - 1831), filosofo idealista tedesco, utilizza il termine "sistema" le cui caratteristiche sono quelle di essere un intero integrato in cui:

  • l'intero è più della somma delle sue parti;
  • l'intero definisce la natura delle parti;
  • le parti non possono essere comprese studiando l'intero
  • le parti sono interconnesse dinamicamente e interdipendenti.

Il Biologo Ludwig von Bertalanffy creatore della cosiddetta Teoria Generale dei Sistemi (General System Theory), con semplicità ma senza perdere di generalità definisce un sistema come [3][1]:

"un complesso di elementi interagenti. Interazione significa che gli elementi, p, sono connessi da relazioni R, in modo tale che il comportamento di un elemento p in R è differente da quello che sarebbe il suo comportamento rispetto ad un altra relazione R'. Se i comportamenti in R e R' non sono differenti, allora non esiste interazione, e gli elementi si comportano indipendentemente rispetto alle relazioni R e R'".

In buona sostanza possiamo asserire che un sistema è una entità che può avere natura fisica o astratta ed è delimitato da un confine (boundary) (fisico o virtuale) che funge da interfaccia tra gli elementi interni e gli elementi esterni al sistema stesso ed alle reciproche interrelazioni.

In sintesi possiamo sostenere che ciò che caratterizza un sistema è l'elemento strutturale, cui il contenuto succede come importanza. Di fatto il peso è spostato nella descrizione delle interrelazioni statiche o dinamiche che formano il complesso di elementi noto come sistema.

Seguendo il percorso tracciato da Bertalanffy, nella Teoria generale dei sistemi diciamo che per gli elementi che costituiscono il sistema possono essere fatte tre tipologie di distinzioni: 1) a secondo della loro specie, 2) a seconda del loro numero, 3) a seconda delle relazioni tra gli elementi. Nei casi 1 e 2 il complesso di elementi può essere inteso come la somma degli elementi presi isolatamente. Nel caso 3 è opportuno conoscere le relazioni tra gli elementi. Le caratteristiche del primo tipo sono dette sommabili, mentre le altre sono costitutive. Le caratteristiche costitutive non sono spiegabili analizzando le parti separatamente (ecco che ritorna il tutto maggiore delle sue parti). Tali caratteristiche risultano nuove o, utilizzando il termine adatto: emergenti.

E' interessare, partendo da ora seguire l'approccio di Nicos Karcanias e Ali G. Hessami che in [4] [5] i quali propongono un nuovo approccio metodologico e operativo allo studio dei sistemi ed in particolare a quello dei Sistemi Complessi. Essi, consci di una non ancora unificata visione e definizione di tali sistemi, offrono una nuovo modo di analizzare la complessità tramite la struttura in classi del linguaggio UML.

Per quanto concerne la Classe Sistema (System), come è usuale nella metodologia UML degli attributi e delle operazioni.

Class: System

Attributes

  • An aggregate of simple inter connected/related constituent elements
  • Constituents often have different specialized roles
  • Constituents have varying degree of influence/criticality in the operation and

sustainability of the whole

  • Can be physical, virtual, abstract or hybrid of these
  • Has a boundary, physical & virtual
  • Lies within an environment which may include other constituents or systems
  • Has interfaces at the boundary for exchange with the environment

Operations

  • possesses internal interaction between constituent elements
  • possesses external interaction with the environment through interfaces at the boundary
  • Manifests one or more emergent behavior(s) not inherent in the constituents
  • Operation and emergence cease when critical constituents are lost
  • Emergence weakens when critical constituents or their interrelatedness are at fault
  • Manifests a range of weak to strong systemic behavior
  • Has normal, degraded and failed states of operation


L'Emergenza

Fin qui abbiamo trattato del concetto di sistema, riferendoci in un primo momento alla definizione di Bertalanffy, poi a quella di Karcanias e Hessami, facendo utilizzo della metodologia delle Classi UML. Notiamo che nell'accezione moderna il sistema ha tra gli attributi: la possibilità di essere virtuale o astratto o un ibrido, il confine con l'ambiente esterno può essere fisico o virtuale e la presenza di una interfaccia con l'esterno che consente un flusso di materia, energia o informazione. Si sottolinea sin da subito che ad un certo livello di astrazione non ha importanza la natura o il contenuto del flusso, sia esso di materia energia o informazione, questo perché si intende lavorare ad un livello semantico superiore, ma anche perché strutturalmente tra i tre vi è un certo legame. Tra le operazioni abbiamo che il sistema, dato un forte legame relazionale tra i sottosistemi costituenti può mostrare un comportamento emergente, ovvero un comportamento no presente nei suoi sottosistemi.

Per comprendere cosa sia l'emergenza facciamo una distinzione tra proprietà intrinseche, ovvero relativo ad oggetti fisici o virtuali interni, e proprietà estrinseche ovvero che non fanno parte della essenza delle cose avendo origine al di fuori dell'oggetto sotto analisi. Quindi la proprietà di emergenza di un sistema e estrinseca nella misura in cui essa non è intrinseca per ciascuno dei costituenti. Possiamo operare una opportuna distinzione tra emergenza debole ed emergenza forte. La prima si riferisce ad una integrazione tra le proprietà intrinseche di un sistema, mentre la seconda, non è solo una integrazione ma una proprietà olistica del sistema stesso. Sicuramente l'emergenza di tipo forte "emerge" dal numero crescente di interrelazioni tra gli elementi che assumono natura combinatoria. Tali concezioni sono dibattute nella scienza, nella filosofia e nella psicologia. Un esempio è la Gestalt dove ad esempio una figura complessa è tale solo se si considerano gli elementi assieme alle relazioni, così da formare un qualcosa che no è presente ne nel contenuto dei singoli segni ne nelle relazioni.

Il diagramma UML, per l'emergenza è il seguente.

Class: Emergency Property

Attributes

  • A physical or virtual feature arising from a whole system
  • Not present in constituents alone
  • May be physical or virtual
  • May not be discernable to the observer

Has varying degrees of strength currently viewed as weak and strong

Operations

  • Is context dependent
  • Is lost when the whole is taken apart
  • Is weakened or lost when the whole is at fault (in constituent or topology)
  • Is mainly dependent on critical constituents

L'autorganizzazione

Nell'ambito dei sistemi, visti come un complesso di elementi, possiamo considerare gli stessi elementi od oggetti come sistemi costituiti da ulteriori sottosistemi, in maniera ricorsivamente gerarchica. Ad esempio l'ecosistema ha come sottosistema una società, anch'essa sottosistema strutturato composto da individui, i quali costituiscono un sistema ulteriormente strutturato composto da organi,... A questo punto una nota di carattere metodologico è d'obbligo.

I sistemi possono essere delineati da confini fisici o virtuali, stesso vale per i sottosistemi. Tali confini, specialmente quelli più eterei possono derivare sia da proprietà intrinseche del sistema, o dalla nostra metodologia di indagine che basandosi su ipotesi talvolta semplificative pone un confine che in realtà non c'è o non ha peso rilevante.

Detto questo possiamo descrivere l'autorganizzazione come una proprietà emergente dovuta al superamento di una soglia critica di complessità. Essa nasce dal fatto che in ogni livello gerarchico ogni elemento del sistema può agire spinto da regole relativamente autonome (si usa dire che l'elemento ha delle credenze (belief) e dei desideri (desire)). Nell'autorganizzazione è insito che il sistema sia dinamico. Con dinamico si vuole intendere una dipendenza dal tempo delle relazioni che intercorrono tra gli elementi, al contrario di un sistema statico in cui queste no variano. Quindi un sistema dinamico è intrinsecamente soggetto ad evoluzione, facendo attenzione a non considerare l'evoluzione solo come il direzionarsi del sistema verso uno stato "migliore", ma semplicemente verso uno stato differente. L'autorganizzazione è quindi assimilabile all'emergenza di un comportamento coordinato e collettivo tra gli elementi. Da questa autorganizzazione emergono proprietà globali, non presenti negli elementi del sistema, inesistenti in uno stato precedente, che diventano dominanti. Sia assiste ad un vero e proprio asservimento degli elementi alla proprietà emergente. Il punto focale è che in questo modo nasce un nuovo livello gerarchico che in prima analisi può essere considerato come semplice. Hermann Haken (1927), fisico tedesco, ribadisce che tali proprietà non possono essere in alcun modo individuate nei singoli elementi e questa è proprio la caratteristica che distingue un sistema organizzato da uno i cui elementi non sono organizzati. Ad esempio una miriade di macromolecole, aventi esse stesse una certa complessità, si organizzano in una cellula, la quale è un complesso di quest'ultime con proprietà che le singole macromolecole non hanno. Il livello gerarchico "cellula" è un livello semplice dove i sottoelementi sono in larga misura asserviti. un insieme di cellule formanti un organo con una specifica funzionalità come ad esempio i cuore, sono un insieme di cellule organizzate per espletare il funzionamento del cuore stesso. Quindi si assiste, come dice Erwin Laszlo (1932) nel suo lavoro, Evoluzione: la teoria generale [6], " un nuovo livello di organizzazione comporta una semplificazione della struttura sistemica, ma anche l'inizio di una nuovo processo di progressiva complessificazione.

Tendenze e approcci alla scienza dei sistemi

Oggi, come non mai, la conoscenza procede per iperspecializzazione dei saperi, fortunatamente esistono scienziati che hanno in passato, e continuano oggi ad operare proficue e non epifenomeniche generalizzazioni, formulando teorie interdisciplinari che permettono di considerare in un quadro comune fatti, fenomeni e sottoteorie stesse che altrimenti e magari in apparenza, sarebbero separate. Questo accade in maniera analoga a quanto detto in merito all'emergenza e all'autorganizzazione a dimostrazione del fatto che tali concetti sono tanto reali quanto generali e applicabili a qualsiasi campo: anche alla teoria delle teorie. Il già citato L. Bertalanffy nella Teoria Generale dei Sistemi delinea tendenze e approcci che possono fornire ulteriori livelli concettuali e operazionali di analisi. Tra questi abbiamo sicuramente:

  1. La Cibernetica, che si basa sul principio della retroazione o di catene casuali circolari che forniscono meccanismi atti alla ricerca di fini e comportamento auto-controllato. L'approccio è connesso allo studio della natura e del pensiero umano.
  2. La Teoria dell'Informazione, sia nell'ambito classico Shannoniano che nei successivi sviluppi algoritmici (Algorithm Information Theory, AIT), che introduce il concetto di informazione come quantità "ontologica" e misurabile isomorfa rispetto all'entropia definita in termodinamica (mentre nell'AIT, questa si rende isomorfa ai processi computazionali in una macchina di Turing Universale).
  3. La Teoria dei Giochi , che analizza, nell'ambito di una nuova struttura matematica, la competizione razionale tra due o più player miranti al massimo guadagno oppure alla perdita minima.
  4. La Teoria delle decisioni, che analizza in modo analogo le scelte razionali entro le organizzazioni umane, basandosi su una situazione data e sui possibili risultati. Tale teoria oggi è fruttuosa anche nell'ambito della decisione automatica con l'Approximate Dynamic Programming (ADP).
  5. La Topologia o matematica relazionale, che include campi non metrici, come quelli implicati dalla teoria dei grafi o la teoria delle reti.
  6. L'Analisi dei Fattori, analisi operata nell'ambito dell'Analisi Matematica che consente l'isolamento di fattori plurivariabili della psicologia e di altri settori di studio.
  7. Teoria del Caos, come teoria matematica adatta a descrivere le dinamiche instabili dei sistemi dinamici e a riconoscerne il particolare stato. Precisamente andando a descrivere e misurare il comportamento dei sistemi nel passaggio da uno stato ordinato ad uno caotico. Quest'ultimo avviene attraverso uno stato caotico particolare, in cui secondo molti autori (i.e. S. A. Kuffman) il sistema può essere definito complesso, chiamato caos deterministico [7].
  8. La stessa Teoria Generale dei Sistemi (T.G.S.) nel suo significato più ristretto che tenta di derivare, come abbiamo visto, dal concetto di "sistema" inteso come complesso di componenti in interazione reciproca, concetti che siano caratteristici della totalità organizzante (interazione, somma, meccanicizzazione,centralizzazione, competizione, cooperazione, finalità) e di applicarli a fenomeni concreti.
    1. Nell'ambito di una generalizzazione della T.G.S. si approda ad una "scienza dei sistemi" i cui sviluppi nelle scienze applicate si articolano come:
      1. i.      Ingegneria dei sistemi;
      2. ii.      Ricerca Operativa;
      3. iii. Ingegneria Umana;
      4. iv.      Teoria dei Sistemi nel senso ristretto del temine, proficua nello studio dei sistemi ingegneristici data l'avanzata caratterizzazione matematica.

Questo breve elenco adattato da quanto riferito da L. Bertalanffy mostra come tali discipline siano crossborder e riescano, attraverso una spiccata capacità generalizzativa, ad essere applicate a campi anche molto differenti, come la biologia, la psicologia o la scienza delle organizzazioni (economia).

Di fatto attraverso uno sguardo sufficientemente generale i fatti del mondo e le relative discipline sono un qualcosa di altamente complesso, e la maggior parte dei sistemi che lo studioso si trova ad affrontare hanno una natura "complessa". Questo vale sia per sistemi naturali (ecosistema, corpo umano, cellula), sia per sistemi che nascono dall'organizzazione degli individui (società aziende, organizzazioni), si apre prodotti tecnologici, quindi prodotti sotto la supervisione umana. Un esempio molto attuale è il concetto di Smart Grid, ovvero reti di nuova generazione ad alto tasso di intelligenza distribuita, che nell'insieme sono un sistema complesso, anzi un Sistema di Sistemi Complesso (Complex System of System).

I Sistemi Complessi

Edgar Morin, filosofo molto attento anche al versante sociologico, in un suo lavoro [7] dice in merito alla complessità: " Se si potesse definire la complessità in maniera chiara, ne verrebbe evidentemente che il termine non sarebbe più complesso". Morin è un attento analizzatore della Conoscenza umana e delle regole che soggiacciono alla sua produzione, quindi anche un attento studioso della complessità. Non sono d'accordo con questa definizione ma mi sento di salvare (e forse queste erano le sue intenzioni) solo l'effetto, dato dal gioco di parole che essa instilla nel lettore. Il disaccordo proviene dall'errore di confondere la "parola" con il concetto sottostante, e seguendo il precetto ribadito all'estremo da Alfred Korzybsky (1879 - 1950) in Science e Sanity [8], nel lontano 1933, "Words are not the things we are speaking about"[2]. La sua affermazione sarebbe meno paradossale se in luogo di complesso avessimo usato: "kqurqwylhosqupkwi" che strutturalmente può essere isomorfo ad una sistema complesso[3].

A questo punto siamo approdati al concetto di "complessità", e possiamo fornire una definizione di Sistema Complesso innocua fino a prova contraria, anche se bisogna tener presente che una definizione "definitiva" non esiste e per essere tale deve essere contestualizzata e parafrasata.  Nel darla, introduciamo anche il concetto di adattività, che entra con vigore nell'accezione moderna dei Sistemi Complessi:

"Un Sistema Complesso Adattivo (SCA) è un sistema aperto, formato da numerosi elementi che interagiscono tra loro in modo non lineare e che costituiscono una entità unica, organizzata e dinamica, capace di evolversi e adattarsi all'ambiente" [9].

La Complessità, termine utilizzato per indicare una particolare proprietà dei sistemi, deriva dalle caratteristiche che questi hanno, assieme alle singole caratteristiche dei sottosistemi. Anche i problemi possono avere natura complessa e di fatto oggi la complessità risulta essere una delle maggiori sfide nella Scienza, nelle sue sotto branche e applicazioni come l'Ingegneria, la biologia, l'economia, l'ambiente. Un problema complesso può essere di grande o piccola scala (large or small scale), centralizzato o distribuito, avere natura composita (in termini di sottoproblemi), alto grado di integrazione tra sottosistemi, può manifestare comportamenti multimodali, può avere una organizzazione interna.

Da quanto detto si evince che la struttura dei problemi può essere (lo è quasi sempre) isomorfa alla struttura dei sistemi su cui essi vengono formulati. Teorie della Computazione applicata studiano a fondo questa struttura dei problemi e la loro solubilità a seconda se i sottoproblemi componenti sono fortemente accoppiati o debolmente accoppiati, o disaccoppiati. Le implicazioni vanno al di la della presente trattazione; è importante, però, tenere presente che lo studio dell'interrelazione dei problemi, permette di stabilire se, dal punto di vista computazionale questi possano essere affrontati mediante macchine paralle, o seriali [10]. In generale un problema complesso può essere affrontato secondo il paradigma dell'integrazione che consiste in una coordinazione dei sottoproblemi che sono risolti in branche della conoscenza specifiche producendo soluzioni funzionali ed ottimali. Al  contrario, esso può essere risolto, in opposizione all'integrazione dissezionando il problema in parti separate al fine di ridurne la complessità.

In precedenza si è accennato al fatto che, anche i sistemi tecnologici, o per meglio dire gli ecosistemi tecnologici (visti come macrolivello) possono essere dei sistemi complessi, in particolare possono essere identificati con i cosiddetti Sistemi di Sistemi (System of System). Se questi sono evolventi nel tempo allora si ha a che fare con Gli Structure Evolving System (SES), altrimenti con i Fixed Evolving System (FES). Si è fatto l'esempio delle Smart Grid, ma nel campo dell'Ingegneria ve ne sono molti altri: Reti di comunicazione, Sistemi di Controllo Aereo, catene di montaggio, reingegnerizzazione di affari, aziende od organizzazioni, etc. A esempio una organizzazione complessa può essere intesa come una entità che evolve e genera nuove feauture, e richiede nuovi approcci volti alla complessità, uno di questi è la teoria sei Sistemi di Sistemi, oggi in fase di strutturazione.

Molto interessante risulta la suddivisione delle varie branche della complessità, offerta in [4], dal punto di vista dei SES. Si possono identificare le seguenti forme di complessità:

  • Unit Behavioral Complexity: Lack of knowledge in characterizing the behavior of process.
  • Computational Complexity: Complexity of computational engine associated with a sub-process.
  • Interconnection Topology Complexity: Difficulties in characterizing the interconnection topology
  • Organizational Complexity: Organizational alternatives for decision making.
  • System of Systems Complexity: Variability, uncertainty and multi-level couplings in the system’s organization in describing the overall system organization.
  • Large Scale Complexity: Large scale dimensionality impacting on methodologies.
  • Hybrid Behavioral Complexity: Heterogeneous nature of sub-processes, resulting in behavior.
  • Lifecycle Complexity: Variability and/or uncertainty on the system’s environment during the lifecycle requiring flexibility in organization and operability.

Cercando di mantenere un livello descrittivo abbastanza generale, seguendo i lavori [4] e [5], descriveremo il nuovo paradigma dei Sistemi di Sistemi, che per quanto ci riguarda hanno un forte potere descrittivo e al momento un discreto potere operazionale nelle applicazioni del campo dell'Ingegneria.

Il nuovo paradigma dei Sistemi di Sistemi

La maggior parte degli approcci ingegneristici ai sistemi si relaziona con i "sistemi fisici". Nel settore IT, nel o settore gestionale, c'è sempre più bisogno di una visione integrata e tra applicazioni strettamente tecniche e fisiche e "applicazioni operazionali" od "informative". Il cosiddetto "Integrated Manifacturing System" può essere visto come un raggruppamento di diverse dimensioni fortemente accoppiate.

Fig. 1 Integrated Manifacturing System [4]

Le dimensioni di questo particolare sistema complesso sono:

  1. di Processo Fisico (Physical Process);
  2. di Segnali o Operazioni;
  3. di Dati, Software, Information Technologies (IT);
  4. di Organizzazionale;

Tali dimensioni un tempo erano considerate separate, oggi devono essere considerate come sottosistemi fortemente interagenti, anche grazie alla dimensione IT, che è in continua crescita. Questa interdipendenza rende il paradigma strettamente gerarchico, per quanto riguarda l'organizzazione ed il controllo, obsoleto. Questo è stato sostituito con il paradigma eterarchico o ibrido che fornisce un alto grado di potere decisionale ai sottosistemi, che sono considerati agenti.

Modello teorico e struttura informativa di un SoS

Per descrivere il modello teorico di un Sistema di Sistemi, in [5] viene utilizzata la cosiddetta Abstract System Theory, che può essere approfondita in [12], [13] e [14].

In generale si possono dare le seguenti definizioni:

Definizione 1: Un sistema è una interconnessione o organizzazione di oggetti inseriti in un dato ambiente;

Definizione 2: Un oggetto è un unità generica, astratta o fisica definita nei termini dei suoi attributi e delle relazioni possibili tra questi.

Definizione 3: Per ogni oggetto è definito un dato ambiente dove esso è inserito. L'ambiente consiste in in insieme di segnali, eventi e strutture, che sono topologicamente esterne all'oggetto, e sono collegate a questo in termini di strutture o relazioni tra i suoi attributi.

Definizione 4: L'insieme di oggetti in un sistema sono relazionati l'un l'altro e con l'ambiente, le cui relazioni reciproche sono note come topologie di interconnessione (interconnection topology). I collegamenti interni tra gli oggetti sono conosciute come interconnessioni topologiche interne, al contrario le interconnessioni con l'ambiente di sistema sono note come interconnessioni topologiche esterne.

In quest'ultima definizione è utile ricordare che se le interconnessioni possono essere dinamiche o statiche e che se non esistono interconnessioni topologiche esterne il sistema è detto autonomo.

Fig. 2 Relazioni tra oggetto e ambiente di sistema

E' interessante andare a descrivere la struttura informativa posseduta da un oggetto così da poterlo utilizzare sia in fase descrittiva, cioè quando stiamo identificando un sistema od un sottosistema, sia in fase prescrittiva ovvero quando intendiamo portare a termine un'analisi su questi. Per un oggetto B si possono descrivere le variabili di interesse come un vettore ξB noto come il vettore delle variabili implicite. Le variabili implivite possono essere classificate come variabili di input, output e di stato. Questa classificazione permette di definire l'oggetto come orientato. Essendo, di norma, l'oggetto immerso nell'ambiente di sistema, il vettore delle variabili implicite ξB può essere partizionato come: ξB=[wBt,xBt,νBt]t, dove wB e νB denotano, rispettivamente, l'output e l'input generalizzati associati agli oggetti esterni. Quindi rappresentano le interazioni dell'oggetto con l'ambiente di sistema. In fine xB denota le variabili esterne o lo stato esteso (extended state) dell'oggetto. L'output wB può essere a sua volta partizionato in wB=[yBt,w'Bt]t. Dove la prima componente rappresenta il vettore delle misure o osservazioni, la seconda rappresenta una serie di variabili di input che influenzano il sistema (output influences). Similemante νB può essere partizionato come νB=[uBt, ν'Bt]t ν'B è associato con altri oggetti del sistema èd è nota come input infulences. uB è un vettore di variabili generiche riferite semplicemente come input.

Fig. 3 Struttura dati che caratterizza un embedded object [5]

Questa schematizzazione mostra come l'oggetto possegga una struttura dati o informativa di input suddivisa in informazioni di misura e ingressi generici (ad esempio segnali di controllo), mentre quella di output consente all'oggetto di stabilire delle relazioni con gli altri oggetti del sistema.

Fig. 4 vista semplificata di un sistema embedded [5]

Questo schema, può essere applicato ad un insieme di oggetti, che compongono un sistema dato un insieme di relazioni tra gli oggetti stessi. La composizione semplice, ovvero oggetti + interconnessioni vanno a formare in sistema integrato. A questo livello di descrizione abbiamo un sistema che non ha ancora la possibilità di essere un Sistema di Sistemi. Esso avrà un insieme di regole imposte esternamente, che rappresentano in prima istanza obbiettivi, indici di performance.

Differenze tra Sistema Composito e Sistema di Sistemi

Un sistema che presenta capacità di auto-modellamento, autocontrollo e auto-supervisione in maniera integrata può agire come un agente; esso può essere definito come un sistema integrato. La controparte è un sistema senza queste caratteristiche che è noto come sistema semplice. Possiamo definire in un sistema integrato come:

  • un insieme di interconnessioni topologiche, definite tramite la teoria dei grafi, che relazionano le strutture informative degli oggetti formanti il sistema;
  • un "gioco glonbale" (global game) dove ogni sottosistema è un agente con regole operazionali (Goal, credenze etc.) individuali.

Ciò che distingue un Sistema di Sistemi da un sistema integrato è il fatto che i sottosistemi fortemente intercinnessi si  comportano come agenti intelligenti capaci di decision making autonomo.

La genesi da sistema semplice a Sistema di Sistemi può essere descritta come segue.

Dato un insieme si sistemi e date delle regole di interconnessione, la loro unione, intesa come regole di interconnessione che operano sull'insieme dei sistemi forma il cosiddetto Sistema Integrato. Esso può essere descritto come un nuovo sistema con nuovi confini rispetto all'ambiente.

Se si considerano questa volta un insieme di Sistemi integrati su cui operano regole di interconnessione sulla struttura informativa si ha il cosiddetto Sistema Composito.

Se sul Sistema Composito è definito un game , che può esso stesso essere inteso come operatore sul Sistema Composito, allora siamo in Presenza di un Sistema di Sistemi.

Quindi un Sistema di Sistemi (SoS) nasce come evoluzione semantica di un Sistema Composito (CoS), assumendo che i sottosistemi siano integrati. Quindi il SoS nasce ad un basso livello come una interconnessione di CoS, con una qualche topologia che interconnette i rispettivi sottosistemi aventi capacità di information processing, permettendoli di agire come agenti. Da ciò deriva il poter considerare un SoS come l'"emergenza" di un sistema multiagente (Multi-Agent System, MAS) composto da sottosistemi intelligenti che agiscono come singoli agenti. Le principali caratteristiche sono:

Autonomia: gli agenti sono autonomi;

Visione locale: nessun agente ha una visione globale del sistema;

Decentralizzazione: non vi è un agente predefinito predisposto al controllo.

Un diagramma UML per i Sistemi Compositi e per i Sistemi di Sistemi può essere, adesso, definito [5].

Class: Composite System

Attributes

  • An aggregate of interrelated constituents which are systems themselves
  • Constituent systems have specialized functions/roles
  • Some constituent systems are critical to functionality and sustainability of the whole
  • Constituent systems perform sub-functions of the whole

Operations

  • Manifests emergence
  • Emergence is lost with the loss of critical constituents or disaggregation of the whole
  • Emergence is weakened when critical constituents are at fault state
  • Has normal, degraded and failed states of operation
  • In an operational context, there’s an additional emergency state


Class: System of System

Attributes

  • An aggregate of interrelated constituents which are systems or composite systems themselves
  • Constituents are sustainable functioning systems on their own
  • There’s absence or lack of constituent criticality in the sustainability of the whole
  • Constituent systems may have specialized functions/roles

Operations

  • Manifests emergence
  • Possesses high degree of resilience and sustainability
  • Emergence is sustained with the loss of constituents
  • Emergence is weakened when constituents are at fault state
  • Has normal, degraded and failed states of operation
  • In an operational context, there’s an additional emergency state


Quanto fin ora affermato si riferisce alla speciale classe dei Sistemi di Sistemi. Per riassumere è utile, ora, riportare la schematizzazione operata in [10] sulle differenze dal punto di vista qualitativo tra un Sistema Complesso ed un Sistema Composito:


Sistema Composito (complicato)

Sistema Complesso

Numero di elementi

Molti

Molti

Tipo di elementi

Di solito semplici

Spesso complessi a loro volta

Relazione fra gli elementi

Lineare

Non lineare

Prevedibilità del Comportamento

Alta

Bassa o nulla

Capacità evolutiva

Bassa o nulla (statico)

Alta (dinamico)

Controllabilità

Alta

Bassa

Processi

Generalmente connessi in serie. Ogni processo è critico

Generalmente connessi in parallelo.  Processi ridondanti. Il singolo processo non è critico.

Ridondanza degli elementi

Bassa o nulla

Generalmente alta

Robustezza ai disturbi esterni e flessibilità

Bassa

Alta

Esempi

  • Software di Grandi dimensioni
  • sistemi di automazione di fabbrica
  • procedure amministrative in uno Stato, leggi
  • Space Shuttle, Satelliti
  • ecosistema
  • sistema economico
  • cervello
  • società
  • DNA
  • azienda
  • gruppo di amici
  • ecosistema
  • sistema economico
  • cervello
  • società
  • DNA
  • azienda
  • gruppo di amici


A questo punto possiamo riflettere su quali sono le sfide che la ricerca sui Sistemi Complessi, e sulla particolare sottocategoria dei Sistemi di Sistemi, si trova a dove ancora affrontare. Questo perché l'ecosistema tecnologico è immerso in un ambiente di sistema sofisticato, esso stesso un Sistema Complesso caratterizzato da un hardware ed un software, da regole, da agenti umani che prendono decisioni etc. La teoria dei Sistemi di Sistemi, ancora da ben definire, offrire il sostrato architetturale e operazionale per analizzare ed agire sull' ecosistema generalizzato Gaia.


Riferimenti Bibliografici

[1]

N. Karcanias and A. G. Hessami, "Complexity and the notion of system of systems: part (I): general systems and complexity," in World Automation Congress (WAC), 2010 , London, 2010, pp. 1 - 7.

[2]

N. Karcanias and A. G. Hessami, "Complexity and the notion of system of systems: Part (II): defining the notion of system of systems ," in World Automation Congress (WAC), 2010 , London, 2010, pp. 1 - 7.

[3]

N. Karcanias and S. Vasileiadou, "System and their origins in Ancient Greece," in Proc. of the European Control Conference EEC07, Kos, Greece, July,2007, pp. 2-5.

[4]

Aristotele,., 982b, ch. A,2.

[5]

L. Bertalanffy, General System Theory. New York, USA: George Brazziler Inc., 1969.

[6]

E. Laszlo, Evolution: the general theory, N.J Cresskill, Ed.: Hampton Press, 1966.

[7]

S. A. Kuffmann, The Origins of Order. New York, USA: Oxford University Press, October 1993.

[8]

E. Morin, Le vie della complessità, in Bocchi Ceruti, La sfida della complessità, Feltrinelli, Ed. Milano, 1985.

[9]

A. Korzibsky, Science and Sanity, IV ed. Brooklyn, New York, USA: Institute of General Semantics, 1933.

[10]

A. Gandolfi, Imperi Formicai e Cervelli, Introduzione alla Scienza della Complessità, I ed. Torino, Italy: Bollati Boringhieri, 1999(2008).

[11]

I. Forster, Designing and Building Parallel Programs: Concepts and Tools for Parallel Software Engineering. Reading, Mass. USA: Addison - Wesley, 1995.

[12]

M. D. Mesarovic and Y. Takahara, "Abstract System Theory," Lecture Note in Control and Information Asiences, vol. 116, Berlin 1989.

[13]

L. A. Zadeh and C. A. Desoer, Linear System Theory. New York, USA: McGraw-Hill Book Co, 1963.

[14]

M. D. Mesarovic and Y. Takahara, General System theory: Mathematical Foundation. New York: Academic Press, 1974.



Note


[1] L'opera è stata tradotta in lingua italiana: L. Bertalanffy Teoria Generale dei Sistemi, 1983, Arnoldo Mondadori Editore S.p.A., Milano.

[2] Korzybsky, A. (1933), pag. 61.

[3] Per continuare il "gioco" potremmo riformulare l'affermazione come Se si potesse definire la kqurqwylhosqupkwiehsà in maniera chiara, ne verrebbe evidentemente che il termine non sarebbe più kqurqwylhosqupkwi. E' della stessa idea l'autore di uno scritto sulla complessità reperibile qui: http://serraweb.unipi.it/dsslab/didattica/Lezioni/M.%20Chiuppesi%20-%20Paradigmi%20della%20complessita.pdf .

Ultimo aggiornamento Mercoledì 27 Gennaio 2016 13:33

Che cosa è la Macchina Finale (estremamente inutile!)

E-mail Stampa PDF

Invece di chiedersi che fosse venuto prima, l'uovo o la gallina, d'un tratto

sembrò che una gallina fosse un'idea dell'uovo per avere più uova.

Marshall McLuhan, Gli strumenti del comunicare


In questo breve articolo si descrive, e si mostra un video della "macchina più inutile dell'Universo" ma che in realtà è fonte di importanti riflessioni sulla nostra epoca definita "digitale" e sulla capacità delle macchine di pensare.


digital_personVenti anni fa, chi poteva permetterselo, aveva il brivido di scambiarsi dati e informazioni su una rete telematica chiamata Internet. Poi una sempre più crescente fetta degli individui occidentali hanno avuto il brivido di reperire dati e informazioni nel Web. Oggi, per quasi tutti è di moda il digital, una integrazione orizzontale e verticale dei media grazie a computer, smartphone, tablet etc. eternamente connessi alla rete. Ma cos'è che ha dato vita a questo nuovo paradigma pervasivo e per alcuni schiavizzante? Le tecnologie dell'informazione sicuramente, termine generico a cui afferiscono, la scienza delle reti, dei calcolatori, della trasmissione dati e perché no dell'Intelligenza Artificiale.

Al di là delle annose discussioni filosofiche in merito alla capacità di pensare delle macchine, ciò che afferisce al digital sembra essere sempre più "intelligente". Con intelligente qui vogliamo intendere: reattivo, predittivo, con capacità di conoscere, discernere, consigliare e talvolta di decidere per noi.

Tra i personaggi più influenti, nello scorso secolo, nel mondo dell'informazione, non con l'accezione qualitativa del termine (news dei media per intenderci), ma quantitativa, è stato Claude Shannon. A mio avviso, questo sommo scienziato dovrebbe essere annoverato negli annali al pari del grande Albert Einstein, in quanto in ambito differente ha generato quello che è stato un vero e proprio cambiamento di paradigma nella comunicazione e nel trattamento delle informazioni. Egli nato a Petoskey, nel Michigan il 30 aprile del 1916 (e morto il 24 febbraio del 2001) sin da bambino coltivava un duplice interesse: per la scienza pura come la matematica e per la tecnologia. Oggi, viene maggiormente ricordato come l'iniziatore della moderna scienza della comunicazione "quantitativa" con un suo celebre articolo, del 1949, dal titolo: "The Mathematical Theory of Communication". In tale articolo egli gettò le basi della cosiddetta Teoria dell'Informazione, capace di "misurare" il quantitativo di informazione trasportato da un messaggio costituito da elementi appartenenti ad un opportuno alfabeto simbolico. Ma Shannon non si fermò assolutamente a questo, eglie era un personaggio veramente eclettico. Ispirato da fruttuose discussioni con i guru dell'Intelligenza artificiale del calibro di Martin Minsky (nato nel 1927) si cimentò nella costruzione di macchine in grado di risolvere crivelli, giocare a scacchi e capaci di apprendere. Un esempio è THESAURUS, un topo meccanico, comandato da relè, capace di trovare la strada, tramite apprendimento, in un labirinto [1].

Egli, oltre alle applicazioni strettamente tecnologiche, era mosso da una genuina curiosità scientifica che lo portava a percorrere sentieri inesplorati. Ciò gli consentì di compiere profonde riflessioni epistemologie sulla natura del pensiero umano, sul funzionamento del cervello e sulla capacità delle macchine di "pensare". In maniera del tutto originale immaginò cosa potesse capitare se una macchina fosse capace di imparare a pensare e propose una apparentemente strampalata macchina, da lui stesso definita <<macchina finale>> dalla funzionamento estremamente semplice. Artur C. Clarke (1917 - 2008), inventore e scrittore di fantascienza (il romanzo: "2001:Odissea nello spazio" è il suo) la descrive così [2]:

"[...] impossibile pensare ad un qualcosa di più semplice. Non è altro che un cofanetto di legno, di forma e dimensioni simili ad una scatola di sigari, con un interruttore su uno dei due lati. Azionando un interruttore si sente un ronzio rabbioso, insistente. Il coperchio si solleva lentamente, e dall'interno emerge una mano che si china a rimettere l'interruttore nella posizione iniziale per poi ritirarsi nella scatola. Definitivo come l'atto di sigillare una bara, il coperchio si chiude con uno scatto, il ronzio cessa e torna la quiete. L'effetto psicologico, se non sapete quello che sta per accadere, è devastante. C'è qualcosa di incredibilmente sinistro in una macchina che non fa nulla -assolutamente nulla- a parte spegnersi da sola. [citato in Sloane e Wyner, Biography of Claude Elwood Shannon]"


Esempio di "Ultimate Machine" realmente costruita!


Come sostiene Clarke una tale macchina è inquietante, in quanto nel "non far nulla" in realtà fa tutto ciò che deve fare. Essa è la sublimazione de meccanismo di retroazione che è alla base dell'apprendimento. Inoltre compie l'azione basilare che qualsiasi macchina di calcolo, su cui l'era del digital si basa, che è quella di azionare un interruttore. Allora questi erano semplici interruttori meccanici o relè, oggi sono microscopici e sono chiamati transistori. Al di la della tecnologia il senso è lo stesso, e tale macchina ha la capacità di auto sostenersi negativamente, di auto rispondere ad una azione esterna come quella dell'azionamento esterno dell'interruttore. Essa, se non se ne conoscesse il meccanismo, sembrerebbe avere vita propria. Questo è un esempio di "elemento teorico", estremamente semplice, che avvia una valanga di considerazioni epistemologiche in cui è estremamente difficile districarsi.






[1]

G. V. Pallottino, "Claude Shannon, il padre del digitale," Didattica delle scienze, no. 227, Oct. 2003.

[2]

C. Seife, La scoperta dell'universo. I misteri del cosmo alla luce della teoria dell'informazione, I ed., Bollati Boringhieri, Ed. Torino, Italy, 2006.


Ultimo aggiornamento Martedì 09 Dicembre 2014 02:11

Il Rumore Bianco

E-mail Stampa PDF

V'infastidiscono il rumore, il movimento? La nostra epoca vi fa star male? Provate

a diventare rumore,movimento, e tutto, attorno a voi, apparirà calmo.

Paul Morand, Il viaggio, 1927


In questo articolo tratteremo brevemente la caratterizzazione del rumore bianco cosiddetto gaussiano, in quanto identificabile con un processo aleatorio gaussiano.

Esempio di rumore bianco visivi e auditivo (approssimato)


old_TV


Il termine rumore (ingl. noise) solitamente è associato a disturbo o ad interferenza, ma esso ha caratteristiche peculiari rispetto a quest'ultimi che lo rendono molto differente. Mentre una interferenza può avere una natura deterministica, il rumore possiede genuine caratteristiche aleatorie e per questo viene studiato attraverso la Teoria dei Processi Aleatori. Ne esistono di differenti tipologie (rumore elettronico, rumore ottico, acustico etc.). Un esempio di rumore è quello che è visibile su un ormai obsoleto televisore analogico, quando non è sintonizzato su alcun canale in trasmissione. Il brulichio nevoso sullo schermo è rumore elettronico, se non vi sono presenti altre interferenze. Allo stesso modo una radio non sintonizzata emette un fruscio, anch'esso definibile come rumore. Esso solitamente è studiato come un processo aleatorio che si sovrappone (leggi somma) ad un segnale che trasporta informazione.

Partiamo, nella descrizione delle caratteristiche di un processo gaussiano bianco n (t) realizzabile solo in linea teorica[1] essendo caratterizzato da una densità spettrale di potenza costante in tutto l'asse delle frequenze, definita come [1]:


n (t) è definito propriamente come: "la realizzazione di un processo gaussiano bianco ergodigo, a valor medio nullo e spettro di densità di potenza bianca, cioè costante". Il termine "bianco" deriva dal fatto che la luce bianca è costituita da una presenza di componenti a tutte le lunghezze d'onda, con egual energia. In altre parole essa è una radiazione elettromagnetica con spettro di densità di potenza uniforme.

Il termine N0 equivale ad una costante. Se si considera che il rumore sia prodotto dall'agitazione termica degli elettroni in un resistore ideale con resistenza R a temperatura T allora: N0 = 2RKT e prende il nome di spettro di densità di potenza bilatero [1], dove K è la costante di Boltzman (1.38x10-23 [(Watt/Hz/°K)]) .

Spettro di Densità di Potenza Rumore Bianco a banda infinita


Definiamo adesso la correlazione di un processo aleatorio come momento misto dei ordine (i,j) con i=j=1; il momento misto è definito come:

,

La correlazione vale quindi:


ed è calcolata tra due istanti t1,t2.

Ricordiamo che la covarianza è definita come momento misto centrato , la cui espressione è:

Notiamo che se una delle grandezze è a media nulla covarianza e correlazione coincidono.

Per calcolare la correlazione di un processo bianco siffatto a banda infinita utilizziamo il Teorema di Wiener che recita:

Lo spettro di densità di potenza Px(f) (o di energia εx(f) di x(f) è uguale alla trasformata di Fourier della sua funzione di autocorrelazione.

Quindi invertendo il teorema si ha che:  dove con  si è indicata l'antitrasformata di fourier.

Ora consideriamo lo stesso processo limitato in banda con banda a frequenze positive pari a W.

Esso può essere scritto, utilizzando la notazione ingegneristica rect(), come:


.

La funzione di autocorrelazione  è pari a:


dove .

Spettro di Densità di Potenza Rumore Bianco limitato nella banda a frequenze positive W


Ora, ricordando che una variabile aleatoria (v.a.) estratta ad un qualsiasi tempo t ha densità di probabilità gaussiana a media nulla e varianza , possiamo ricavare il legame tra quest'ultima e la potenza del processo. Si ha infatti che [3]:


.

Quest'ultima espressione mostra, come detto, il legame tra varianza della v. a. estratta in un dato istante, la cui densità per ipotesi di ergodicità e stazionarietà, è uguale a qualsiasi altro istante di estrazione. Inoltre tale varianza coincide con la potenza del processo che è calcolabile come l'area sottesa dallo spettro di densità di potenza del processo stesso. Ora si può dimostrare che per un processo a banda infinita, quindi con W→∞ l'autocorrelazione tende ad un impulso di Dirac centrato in zero di area pari a N0/2. Quindi la potenza, nel caso non limitato in banda è un valore non finito. In formule si ha:

.

A questo punto possiamo fare alcune considerazioni importanti riguardo al rumore gaussiano bianco.

La funzione di autocorrelazione, nel caso limitato alla banda W,  mostra che la potenza è finta, in quanto se valutata in t=0 sinc(0)=1. Inoltre è noto che la funzione di correlazione misura il grado di similarità tra due campioni prelevati ad una certa distanza (di fatto nelle formule abbiamo usato t al posto di τ, spesso utilizzato per indicare un intervallo). Quindi se campioniamo il rumore n(t) con un periodo Tc=1/2W troviamo campioni incorrelati in quanto l'autocorrelazione Rx(1/2W)=0. Inoltre essendo il processo gaussiano essi sono anche indipendenti.

Autocorrelazione Rumore Bianco a banda limitata W


Quindi un processo limitato in banda ha campioni correlati (tranne quelli prelevati con Tc=1/2W ). Questo fatto può essere visto considerando l'operatore di convoluzione come una "funzione memoria" e considerando un processo limitato in banda (gaussiano e a banda infinita) come un processo che transiti in un filtro passabasso ideale con  la cui risposta impulsiva (computando l'antitrasformata di Fourier) è pari ad . E' proprio la memoria introdotta da quest'ultima sul segnale in transito poiché per la convoluzione i valori di uscita sono una combinazione lineare dei valori di ingresso.

A questo punto è possibile mostrare come tramite un filtro con opportuna funzione di trasferimento possa "colorare" il rumore o, detto in termini più precisi, modificare lo spettro di densità di potenza. Per mostrare ciò bisogna introdurre brevemente la teoria del filtraggio di un processo.

[....coming soon...]


Intanto potrebbe interessare uno studio tramite codice Matlab del rumore bianco, tema che ho affrontato qui.




[1]

G. Scarano, Segnali,processi aleatori e stima, I ed., Università La sapienza di Roma, Ed. Roma, Italy, 2009.

[2]

P. Mandarini, Elementi di trasmissione delle Informazioni, I ed., Ingegneria 2000, Ed. Roma, Italy, 2004.

[3]

A. Falaschi, Trasmissione dei Segnali e Sistemi di Telecomunicazione, 11th ed., ilmiolibo.it, Ed. Rome, 2012.





[1] In realtà se il rumore è generato da una serie di campioni pseudorandom, generati al computer esso di fatto non è bianco, inoltre le limitazioni hardware ne limitano ulteriormente la banda, così da "colorarlo", in alcune porzioni dello spettro.


Ultimo aggiornamento Domenica 21 Ottobre 2012 07:57

Il Teorema del Campionamento

E-mail Stampa PDF

La teoria è quando si sa tutto e niente funziona,La pratica è quando tuttofunziona e nessuno sa il perché.

Noi abbiamo messo insieme la teoria e la pratica: non c'è niente che funzioni... e nessuno sa il perché!

Albert Einstein


Questo articolo illustra il Teorema del Campionamento, la sua storia e le sue applicazioni.


Sin_X_su_xOggi siamo ormai abituati ad utilizzare computer, smartphone, andare su Internet, ascoltare la musica con l'Ipod, ovvero ad utilizzare elettronica di consumo per l'intrattenimento e/o il lavoro. Può sembrare retorico ricordare che tali oggetti dal funzionamento misterioso" (per alcuni), sono il frutto di intensi studi e ricerche susseguitesi in quella che si può chiamare "evoluzione tecnologica". In questo lavoro vorrei descrivere una particolare conquista tecnologica, ma non solo come vedremo, che ha permesso di produrre tecnologie in grado di farci comunicare abbattendo qualsiasi distanza, di divertirci con l'intrattenimento e, perché no, talvolta di facilitarci il lavoro. Ciò che dappresso andrò a descrivere, non è l'unica "scoperta" che ha permesso a tali tecnologie di esistere. Bisogna essere consci che il livello tecnologico raggiunto "qui ed ora" è frutto di una complessa interconnessione di fattori (probabilmente infiniti), soggetti ad una qualche legge di selezione tecnologica (al pari della selezione naturale di darwiniana memoria). In questo articolo ho selezionato un elemento, a mio parere essenziale, che ha consentito alle tecnologie sopra citate, generalizzando alle Information Communication Tecnologies (ICT), di esistere. Veniamo, quindi al dunque.

Quando ascoltiamo un brano musicale al computer, o meglio da un CD audio, dobbiamo sapere che ciò che è "inciso" sul CD sono in realtà numeri che il lettore "interpreta" o meglio trasduce in qualche modo in un segnale elettrico che a sua volta è trasdotto dall'altoparlante che trasforma le vibrazioni elettriche in vibrazioni sonore[1]. Se lo stesso brano è ascoltato tramite una audio cassetta, a parte la bassa qualità percepibile notoriamente, non sembra granché cambiare. In altre parole, la musica è la stessa, e il messaggio che essa invia non cambia. Se il nastro è "mangiato" e la cassetta è rumorosa ed inudibile allora le cose stanno diversamente, ma non è questo il caso considerato. Cosa in realtà è l'elemento che fa la differenza tra un CD ed una audio cassetta, ormai consegnata al museo delle cose vintage? Semplificando un po', ma rimanendo sul sentiero della correttezza, l'audiocassetta ha registrato sul proprio nastro un segnale analogico di tipo continuo, mentre sul CD vi sono impressi in forma di "buchi" microscopici, numeri. Eppure il brano ascoltato è il medesimo.

Cosa rende possibile l'ascolto dello stesso brano su supporti con tecnologia così differente?

Possiamo azzardare che la difformità tra i due sia definibile addirittura come paradigmatica.

L'esempio appena descritto può essere esteso a qualsiasi forma di comunicazione attraverso moderne apparecchiature elettroniche; il CD e l'audiocassetta sono stati considerati solo a carattere descrittivo.

La risposta alla domanda precedente posta è, senza ombra di dubbio, il: Teorema del Campionamento.

Ma cos'è questo teorema e cosa permette alla tecnologia di esprimere?

Prima di darne una definizione formale, perseguendo l'esempio, dobbiamo aggiungere che i microscopici buchi di un CD, rappresentano la natura fisica di un pattern prescelto come codifica di un "pezzo" di onda sonora. In altre parole la forma d'onda della musica, non è presente, così com'è nell'audio cassetta, in forma analogica. Bensì ogni pattern rappresenta una serie di bit (bit = binary digit), che codificano[2] per un particolare valore dell'ampiezza della forma d'onda "musicale". Qui è il punto: come otteniamo questo valore? Un Ingegnere risponderebbe senza remore: tramite campionamento del segnale analogico. Quindi ciò che permette una rappresentazione in forma numerica (binaria) dell'ampiezza di una forma d'onda analogica è il cosiddetto campionamento, o sampling per dirla come gli anglosassoni.  Un circuito apposito, con un orologio interno (clock) che batte il tempo con precisione preleva i valori di ampiezza. Di fatto la forma d'onda analogica si trasforma in una successione discreta di valori, intervallati con un tempo ben definito, noto come intervallo di campionamento o sampling interval. Per inciso, queste operazioni sono effettuate in un apparato detto campionatore, che per i CD audio acquistati risiede nelle sale di registrazione e di incisione, ma tale funzione è agilmente svolta dal nostro comune PC o smartphone che sia quando registriamo un qualsiasi suono. Allo stesso modo un circuito "ricostruttore" nel lettore CD o semplicemente nel PC ricostruisce la forma d'onda analogica dai valori numerici campionati.

Se, ad esempio, abbiamo un brano che dura 3 minuti, e decidessimo di prendere un campione della sua forma d'onda, diciamo ogni minuto, cosa ascolteremmo? Se "suonassimo" ogni campione esattamente ogni minuto non ascolteremmo nulla, ma in realtà nemmeno ogni secondo. Se mentalmente pensiamo di diminuire questo intervallo e prendere un campione al secondo? Sentiremmo forse qualcosa, sicuramente non il brano originale. I suoni saranno molto distorti: si perde informazione sul brano originale. Questo perché in un secondo, normalmente vi è un'ampia variazione sonora, e quindi nelle frequenze della forma d'onda, che nella fase di ascolto non sono riprodotte. Ci piacerebbe sapere allora quale è il valore minimo di questo intervallo che permette di non perdere informazione e di riprodurre fedelmente il brano musicale.

Il Teorema del Campionamento permette di stabilire questo valore.

Ora, nel presentarlo, entrerò in un tecnicismo matematico, il significato è stato appena descritto.

Storicamente, come vedremo, ne esistono diverse formulazioni e, a quanto pare i vari autori vi sono arrivati indipendentemente [1].

Darò quella che appare come Teorema 13 in un celebre articolo [2] del padre della Teoria dell'Informazione, Claude Shannon:

sia x(t) un segnale che non contenga frequenze superiori ad una prefissata W. Allora


dove:

.


Una possibile definizione in forma linguistica può essere la seguente [3]:

Un segnale a spettro nullo a frequenze maggiori di W, è univocamente definito a partire dai valori che assume agli istanti t=n/2W,con n intero

La frequenza 2W è nota come frequenza di Nyquist.

Una nota va fatta per non perdere il punto. Il teorema è stato espresso da Shannon in forma matematica appellandosi in realtà ad una funzione f(t), più che ad un segnale, ma lo stesso Shannon nel suo articolo vuole portare all'attenzione agli Ingegneri delle Comunicazioni la forza di tale teorema. In seconda istanza, bisogna tenere a mente che un/a funzione/segnale è costituito da una serie (finita od infinita ) di armoniche, ovvero segnali semplici (sinusoidali a certe frequenze). Se tale funzione/segnale ha una frequenza limite W, si dice limitato in Banda e l'ampiezza della banda è appunto W. In altre parole il contenuto in frequenza del segnale è nella banda W dove W è anche la frequenza più grande.

Il teorema esposto vale così com'è se il segnale (o la funzione matematica) è limitata in banda.

Un tecnico, quale può essere un Ingegnere delle Comunicazioni, asserirà che un segnale x(t) può essere scritto come:


dove la funzione sinc(x) è:  .


sinc_x

sinc(x)


Pierce, ingegnere ed autore di numerosi scritti di carattere filosofico, in una sua opera [4] sostiene che:

[...]molte delle scoperte  più generali e potenti della scienza sono derivate non dallo studio dei fenomeni come si manifestano in natura, bensì dallo studio dei fenomeni nei dispositivi creati dall'uomo o, se volete, nei prodotti della tecnologia.

Sono ampiamente d'accordo con Pierce, anche se tale asserzione non può essere applicata a pieno al Teorema del Campionamento. Sembra che prima della formulazione di Shannon nel 1949 tale risultato era noto ai cosiddetti praticians fin dal 1850 circa, poiché la sua applicazione, anche senza avere una formalizzazione matematica precisa e senza possedere tantomeno una dimostrazione, sembrava risolvere problematiche relative alle trasmissioni telegrafiche prima e telefoniche poi. Nello specifico il problema era che con l'aumento delle utenze, si aveva bisogno effettivamente di trasmettere più comunicazioni contemporaneamente. Una metodologia era quella di trasmettere "pezzi" di messaggio di ogni utente a turno, quindi intervallati da un certo periodo. Il ricevitore, noto tale intervallo, poteva selezionare il pezzo dell'utente, mettiamo k, e ricomporlo. Questo per ogni utente. Tale tecnica era già nota e prendeva (tuttora prende) il nome di Time Division Multiplexing (TDM). A quel tempo, il prelievo dei pezzi di segnale era effettuato tramite rotori meccanici, essendo, l'elettronica di la da venire. Man mano che i sistemi miglioravano  ci si accorse che la voce umana poteva essere campionata con un dato periodo di campionamento. Ad esempio in un brevetto del 1903 l'inventore W. M. Miner asseriva:

It will be understood, then, that the apparatus devised by Mr. Miner, while in its general form the same as that heretofore used for multiplex telegraphy — or telephony for that matter — such apparatus is run at a much greater speed so as to bring the frequency of the closures of connection upon the several branches or sub-circuits up to a rate approximating in greater or less degree the rate of the vibrations of the overtones characterizing speech. A rate of closure of 1,000 or 2,000 per second will not answer the purpose, but as the rate increases and passes beyond 3,000, improved results become apparent, and are markedly better when a rate of 3,500 or 3,600 per second is reached; the best results being obtained with a rate of about 4,300 per second.

In realtà Miner riconosceva che il sampling rate coincideva con la frequenza più alta contenuta nel segnale vocale. I brevetti ad inizio Novecento su tale tecnica furono moltissimi. Prima della formulazione di Shannon è giusto riconoscere che V. A. Kotelnokov diede una formulazione precisa del Teorema nei termini dell'ingegneria dell'Informazione e della Comunicazione [5]. Nel 1939 H. Rabee deduce il Teorema nella sua tesi di dottorato, fornendo l'appellativo "campionamento naturale", alludendo alla frequenza 1/2W.

Vi sono anche altri scienziati ed inventori che in questo periodo si riferiscono a qualcosa come il Teorema del Campionamento, in letteratura giapponese esso è noto addirittura come Teorema di Someya, essendo stato dedotto, probabilmente in maniera indipendente, dal S. Someya e illustrato nel libro Hakey Denso (Trasmissione dei Segnali).

Ma, tornando a quanto Pierce afferma, per il Teorema del Campionamento, vale?

A quanto pare, come molto spesso accade, e molti non se ne accorgono, la matematica come idea pura, isolata e alienata sembra esserci arrivata prima. Di fatto già nel 1795 Lagrange determinò una somma lineare di funzioni armoniche per approssimare una funzione data fino ad un certo grado, dato proprio dal numero N di armoniche. In matematica tali problematiche risiedono nella proficua branca dell'Approssimazione Funzionale, dove viene studiata l'interpolazione. Di fatto la formula precedente che esprime x(t)  come somma pesata di sinc(), è nota come interpolazione cardinale. Essa è l'unica che permette di ricostruire il segnale senza distorsioni e questo grazie alle grandi proprietà della funzione sinc() stessa. Tale interpolazione fu proposta nel Bulletin Academie Royale de Belgique. Anche E. T. Whittaker ha fornito, nel 1915 un contributo alla teoria dell'interpolazione utilizzando una formulazione del Teorema del Campionamento per funzioni limitate in banda. Shannon, nel 1949, in [2] cita il lavoro di Whittaker. Così, secondo alcuni il Teorema del Campionamento dovrebbe chiamarsi Teorema di SNKWS in onore di Shannon Nyquist, Kotelnikov, Whittaker e Someya.


Conclusione

Il Teorema del Campionamento è una sorta di ponte logico che mette in comunicazione, nell'ambito delle funzioni e quindi anche dei segnali, il mondo del continuo, con il mondo discreto. Come abbiamo visto esso èra già presente nella mente dei matematici fin dal 1700, ma pare che indipendentemente, tecnici e praticians delle telecomunicazioni abbiano utilizzato inconsapevolmente i suoi risultati per risolvere problemi inerenti le comunicazioni multiplex su linee in rame e wireless. Shannon, con la sua autorevolezza nel mondo della Teoria dell'Informazione e nella trasmissione delle informazioni, deposita, una volta per tutte nel bagaglio della conoscenza degli Ingegneri delle Comunicazioni questo importante risultato. Oggi senza il Teorema del Campionamento, gran parte dell'elettronica non esisterebbe, ne tantomeno la miniaturizzazione e l'informatizzazione. Esso è una delle conquiste dell'umanità, le cui implicazioni, volendo, vanno ben oltre la mera tecnologia.



[1] con una terminologia meno approssimata, l'altoparlante trasduce la forma d'onda elettrica in una forma d'onda di pressione, dove il mezzo trasmissivo interposto tra lo speaker e l'apparato uditivo è l'aria.

[2] La codifica PCM (Pulse Code Modulation) è un esempio, l'MP3 ne è unaltro:ne esistono moltissime tipologie!


Riferimenti

[1]

D. H. Luke, "The Origins of the Sampling Theorem," IEEE Communication Magazine, pp. 106-108, April 1999.

[2]

C. E. Shannon, "Communication in the precence of Noise," Proc. Ire, vol. 37, pp. 10-21, 1949.

[3]

A. Falaschi, Trasmissione dei Segnali e Sistemi di Telecomunicazione, 11th ed., ilmiolibo.it, Ed. Rome, 2012.

[4]

E. R. Pierce, La Teoria dell'Informazione, I ed., Edizioni Scientifiche Mondadori, Ed. Milano: Gabriella Frassinetti, 1963.

[5]

V. A. Kotel'nikov, "On the transmission capacity of 'ether' and wire in electric communications," , vol. 9, 2006(1933), pp. 01.10.Fv Conferences, lectures, and institutes.



Ultimo aggiornamento Domenica 21 Ottobre 2012 07:58

Una rivelazione onirica

E-mail Stampa PDF

Su di un sogno rivelatore fatto qualche tempo fa...

Russell visione onirica

Solitamente, i sogni sono confusi e dominati da un certo grado di incoerenza di fondo. Non è stato così il pomeriggio di qualche giorno addietro, avendo sognato in maniera nitida e precisa Bertrand Russell (1872 - 1970), il quale mi illustrava tramite una metafora il significato delle "regole". L'occhio della mia mente vedeva la sagoma del filosofo, su uno sfondo nero, a mezzo busto. Essa era adombrata, come se il tutto fosse dominato da un forte contrasto dall'effetto black and white. La sua voce inoltre era chiara, profonda e solenne, quella di un filosofo rivelatore dei segreti reconditi del cosmo. Ciò che mi ha sbalordito, oltre la nitidezza della sua immagine e della sua voce, era la chiarezza e coerenza con cui egli esprimeva il concetto che vado, ora, a "rivelarvi". Prima, però, devo fare un'ultima premessa. Russell è un filosofo eclettico, poliedrico e le sue opere, nonché il suo pensiero spaziano negli ambiti più disparati della filosofia. Tuttavia, i lavori compiuti in filosofia della matematica, sui suoi fondamenti logici ed ontologici, sono quelli che più hanno pesato sulla sua indiscutibile immortalità nella grande famiglia dei filosofi della storia umana. Io sebbene a conoscenza che Russell fosse anarcoide, a parte qualche informazione rubata qua e la nel web,

non ho mai letto nessun suo scritto che parlasse di società e della sua struttura e conformazione. Ad oggi tra le sue opere quelle che ho letto e studiato sono "I principi della matematica" (1903) e "Introduzione alla filosofia della matematica" (1970).

Detto questo andiamo alla rivelazione onirica.

Le "regole". Russell mi spiegava cosa fossero le regole e con questo induceva in me una chiara metafora sulle regole nella società. Visivamente e auditivamente mi mostrava un piano forse infinito, su cui dei fantocci semi-sintetici da varia dimensione,  proiettavano le loro ombre. Queste si dipanavano più o meno casualmente sul piano,  casualità  correlata alla forma varia e fantasiosa dei fantocci. Tali ombre formavano sul piano un groviglio di sentieri, grandi e piccoli, lunghi e corti, annidati. Egli mi diceva che l'uomo comune, non conosce la vera natura effimera, visuale e illusoria delle ombre e tende a percorrere, nella propria esistenza, le strade delineate da queste. Coloro che detengono il "potere della Conoscenza" ovvero coloro che si elevano alla comprensione del reale funzionamento della società, non possono non comprendere, la virtualità di tali sentieri e la vera natura delle ombre. In altre parole essi nella loro esistenza procedono come se tali ombre non esistessero e sono addirittura capaci di assumere forme e posizioni utili a generare ombre conformi al loro tornaconto.

Questo è quanto. La foto iniziale ricorda vagamente l'immagine che ho avuto del filosofo.



Ultimo aggiornamento Giovedì 24 Settembre 2015 19:50

Acceleratori di particelle casalinghi

E-mail Stampa PDF

[pubblicato sull' ILLOGICALLEGRIA 2007]


Tubo catodico

Sono almeno cinquant’ anni che guardiamo la televisione, utilizziamo questa “scatola magica”, apprezzandola e il più delle volte odiandola. La colleghiamo fin anche al computer (il monitor è un particolare televisore) per visualizzare le cose più disparate, da un semplice documento di testo, fino al film dagli effetti speciali strepitosi, gustandocelo fino all’ultimo pixel di risoluzione. Ma cosa sarà mai questo schermo che permette di visualizzare qualsiasi immagine o sequenza di immagini, attraverso una spaventosa resa dei colori? Come funzionerà questo aggeggio infernale? Uno scienziato pazzoide, di quelli visti nei film, che riesce ad esprimersi solo attraverso un gergo tecnico, difficile e apparentemente confusionario, direbbe che sta guardando non la televisione, bensì un “acceleratore di particelle”. Ormai, ogni uno di noi, in casa, o in macchina addirittura, ha un acceleratore di particelle. Siamo diventati tutto d’un tratto fisici di laboratorio? Certo che no, ma inconsapevolmente sfruttiamo gli stessi fenomeni di cui si servono gli scienziati per esplorare il fantastico universo subnucleare! Difatti un acceleratore di particelle serve proprio a questo. A Ginevra ce n’è uno dei più grandi al mondo e generazioni di scienziati hanno potuto indagare, fin dai tempi della scoperta dell’atomo, la struttura elementare dell’universo. Il funzionamento di tale apparecchiatura, per fortuna, può essere descritto con semplicità. Esso consiste in un lunghissimo tubo circolare sotterraneo (dell’ordine dei Km) nel quale vengono immesse particelle elementari, dalle più note come elettroni protoni e neutroni fino a quelle più esotiche come bosoni o positroni. Attraverso potentissimi campi magnetici, alimentati da apposite centrali elettriche, le particelle (cariche elettricamente) vengono accelerate, obbedendo ad una nota legge fisica: la forza di Lorentz. Esse, compiendo vari giri, nel tubo (intorno alla città) raggiungono velocità prossime a quelle della luce assumendo una energia elevatissima. Una volta che la velocità è quella desiderata vengono deviate e spinte contro un nucleo atomico o magari contro altre particelle oggetto di studio. Le collisioni liberano grosse quantità di energia sotto forma di fotoni, mentre i “cocci rimanenti” (massa) sono altre particelle elementari. Solitamente l’esistenza di quest’ultime è prevista da particolari teorie matematiche: l’acceleratore stabilisce sperimentalmente la verità o la falsità delle teorie, nello stile propriamente Galileiano. Quando si capì che la materia era composta di unità divisibili, contrariamente al nome “atomo” dato da Democrito a tali elementi, iniziò una serrata sperimentazione, che come detto permise di esplorare mondi microscopici fino ad allora sconosciuti.

Così gli scienziati riuscirono a controllare per la prima volta con una certa precisione, particelle come gli elettroni, che ancora adesso a pensarci sembra assurdo. Avete mai preso un elettrone in mano con una pinzetta? Non si può, poiché tale microparticella non esiste in uno stato di quiete assoluta, al massimo si può cercare di guidarla verso una certa direzione: eccoci finalmente al televisore.

Il tubo catodico, all’interno dell’apparecchio, è un acceleratore di particelle in miniatura! In esso vengono generati elettroni, attraverso un filamento riscaldato nel vuoto, che accelerati o decelerati mediante campi magnetici guida, colpiscono una griglia (schermo) su cui ci sono tante cellette, piccolissime, contenenti sostanze chiamate in gergo fosfori. Questi, se colpiti dagli elettroni, emettono energia sottoforma di fotoni, percepiti, in infine, dal nostro apparato visivo semplicemente come luce colorata.

Il televisore, “funziona” anche grazie a tante altre soluzioni tecnologiche basate su fenomeni fisici, o sfruttando caratteristiche peculiari della visione, come ad esempio il tempo di persistenza dell’immagine sulla retina (sperimentabile fissando un punto luminoso e poi chiudendo gli occhi) insieme ad una serie di “incollature” operate dal cervello, che permettono di percepire una successione discreta di fotogrammi (25 al sec.) come un continuo, quindi di cogliere con fluidità l’illusione del movimento.

Per brevità, non potrò soffermarmi sui particolari,  in ogni caso i concetti sopra esposti, permettono una riflessione.

In quegli anni pionieristici (primo dopoguerra) e ancora adesso, con tali esperimenti, non si fa altro che ricerca di base, la tanto denigrata ricerca di base, per la quale, oggi, in Italia, vengono riservati sempre meno fondi, poiché dirottati verso “altre” mete.

Eppure astruse congetture su strane particelle quasi mistiche, permettono di visualizzare immagini in movimento in banalissime scatole, per altro poco costose. Quando si iniziarono a pensare esperimenti sugli atomi, i film si guardavano per l’appunto nei cinema attraverso pellicole foto-impressionate, nessuno allora poteva scommettere sull’utilizzo dell’accelerazione degli elettroni per visualizzare un immagine su uno schermo ed assistere ai famosi quiz di Mike Buongiorno.

Ciò rende chiara la potenza di quell’ inafferrabile confine che c’è tra scienza, con la ricerca di base, e la tecnologia, che rende infattibile qualsiasi previsione, anche a breve termine.

Ah, come saprete l’evoluzione tecnologica ha mandato in pensione l’obsoleto tubo catodico, lo schermo piatto LCD funziona secondo principi differenti!

Ultimo aggiornamento Domenica 21 Ottobre 2012 07:58

La teoria della Teoria

E-mail Stampa PDF

Indice

1. Un approccio da lontano: le teorie

2. La matematica

3. Come è possibile classificare le teorie?

4. La tecnologia

5. Una teoria dell’evoluzione tecnologica

6. Una messa a fuoco teorica

7. La matematica come lingua universale



1. Un approccio da lontano: le teorie


Ritengo che la contestualizzazione storica sia un buon punto di partenza per capire il nostro presente. Quello che abbiamo oggi, la tecnologia che manipoliamo, è sicuramente un retaggio delle scoperte e delle invenzioni che si sono susseguite nei secoli. E’ difficile stabilire l’“inizio” di una certa invenzione o teoria. Una similitudine che mi balza d’innanzi agli occhi è quella di un albero con il suo indefinito groviglio di radici che penetrando nel terreno e gareggiano per raggiungere le viscere della conoscenza umana. Ogni estremità trae linfa da questo sostrato che è andato ad accumularsi nel tempo. Molte scoperte o invenzioni fanno capo a idee che si sono sviluppate in tempi diversi. Talune sono state momentaneamente abbandonate, magari perché apparentemente prive di significato, in realtà la storia ha deliberato che erano solo in attesa di altre idee che le rendessero fattibili e al passo con i tempi. Altre, appena prodotte dall’intelletto umano, sono subito risultate pronte per essere messe in pratica dalla tecnica. La possibilità di avere oggi Internet, deriva sicuramente dall’apporto di “tutte” le branche della conoscenza umana. Comprendo che questo è un punto di vista lontano e generale, ma ho deciso di indossare questi occhiali telescopici e di stringere un patto col diavolo per trovare un compromesso tra completezza e brevità, per capire come oggi l’uomo sia arrivato a manipolare gli enti messi a disposizione dalla natura e trasformarli in tecnologia. Il lavoro si interessa al mondo delle telecomunicazioni e di Internet in particolare. Questo perché Internet, sicuramente, è la più grande e generica rete di telecomunicazioni del mondo. Ma soprattutto perché è facile, prendere Internet come paradigma dell’avanzamento tecnologico della società umana, poiché esso riesce ad attrarre a se tutto il corpus di conoscenze tecniche accumulate nei secoli e che nel passato, ma non oggi, sono andate sviluppandosi in maniera compartimentata. La rete, le sue tecnologie particolari, e la tecnologia in generale si sono sviluppate, come detto grazie alla sintesi delle migliori idee prodotte dall’intelletto umano. Come avviene tale sintesi? L’esempio dell’albero con le radici, non certo coniato da me per primo, è emblematico nel mostrare come sia caotico e difficile da decifrare l’avanzamento della conoscenza. Ci sono intere branche della filosofia, oggi molto attive, che intendono risolvere il problema, della sistematizzazione della conoscenza. Gli esempi, nella storia sono molti: la tradizione vuole che l’origine di tali interrogativi è da imputare ad Aristotele (IV secolo a.C.) il quale è stato tra i primi a cercare di trovare una categorizzazione universale della conoscenza e ad utilizzare il pensiero razionale per raggiungere tal scopo. Sembra così lontano, ma il filosofo Stagirita, è stato in un certo senso, il precursore, oltre che di gran parte della conoscenza che oggi fruiamo, anche di idee molto particolari (che vedremo) di cui l’informatica si è nutrita per produrre il mondo che ci circonda.


2. La matematica


Edgar Morin, filosofo contemporaneo, in un suo importante lavoro[1] esordisce dicendo: “Si può mangiare senza conoscere le leggi della digestione, respirare senza conoscere le leggi della respirazione, pensare senza conoscere le leggi della natura e del pensiero, conoscere senza conoscere la conoscenza” ed io aggiungo: “usare Internet senza sapere le leggi delle telecomunicazioni”. Il problema dello stabilire che cosa è la conoscenza o come si può creare una meta-conoscenza per generare basi solide alla conoscenza stessa, in tutte le innumerevoli sfumature, lo lascio alla letteratura specialistica, ciò che qui interessa è comprendere come l’essere umano è arrivato a produrre questo affascinante corpus di saperi che ha permesso l’esplosione tecnologica moderna. In Aristotele abbiamo riconosciuto la figura di uno tra i primi “razionalizzatori”, di colui cioè che ci ha insegnato a mettere le cose giuste nel cassetto giusto, dopo però aver pensato prima le cose giuste e poi creato da abile falegname di idee i cassetti giusti. La lista dei personaggi che hanno contribuito all’avanzare della conoscenza e della tecnologia dai tempi dell’antica Grecia sarebbe lunga, per questo consiglio un buon manuale di storia della tecnologia[2]. Possiamo procedere qui, per “grandi temi”, in maniera da non scontentare nessun filosofo del passato; sono sicuro che molti vorrebbero essere annoverati come i precursori dell’”era dell’ informazione” che oggi viviamo! La disciplina, madre di (quasi) tutte le discipline, che ha gettato le basi e contribuisce tutt’oggi alla creazione della rete è la Matematica. Non a caso è stato citato l’apporto di razionalità da parte di Aristotele. La Matematica sicuramente può essere intesa come il più grande sforzo dell’intelletto umano nell’utilizzare il raziocinio nel categorizzare e rendere “vere” entità da lui stesso generate. Al di la di questa definizione, sicuramente non cruciale nel comprendere cosa è la matematica, è facile osservare che senza quest’ultima, qualsiasi forma di tecnologia oggi non potrebbe esistere. La geometria euclidea prima di essere materia di dibattito tra eminenti matematici dell’inizio del secolo scorso, fu un ottimo strumento nelle mani di agrimensori i quali poterono stabilire con estrema precisione la tassazione delle terre in base all’estensione degli appezzamenti. Si è abituati talvolta a vedere la matematica come una teoria astratta, generata da menti pazzoidi, perdendo di vista anche l’altro lato della medaglia, ovvero che la sua esistenza è necessaria, se non addirittura dovuta, al bisogno dell’uomo di darsi delle spiegazioni sul funzionamento della natura. Dalla storia della scienza inoltre possiamo imparare che spesso molte scoperte potenti e generali sono derivate non dallo studio dei fenomeni come si manifestano in natura, bensì dei fenomeni generati in dispositivi creati dall’uomo: nei prodotti della tecnologia. La matematica fin dalla sua comparsa, è stata sempre il collante tra i fenomeni generati dalla natura e quelli generati dall’intelletto umano. La costruzione di apparati sperimentali ha richiesto, anche prima della coronazione Galileiana, la presenza della matematica come utile ed unico strumento di dimensionamento e di misura. Possiamo affermare che la matematica permette allo stesso tempo di formulare una teoria, e di metterla anche in pratica. Con Galileo si è potuto mettere un paletto importante in questa direzione, stabilendo, al di là delle questioni religiose, che la matematica “è il linguaggio utilizzato per scrivere il grande libro della natura”. Inoltre da questo punto in poi la conoscenza ha fatto del metodo sperimentale e del pensiero logicamente coerente un utile strumento per stabilire la “verità”. Oggi l’utilizzo della matematica nelle discipline scientifiche è fondamentale. Possiamo dividere quest’ultime, inoltre, in due macrocategorie, le discipline di base, come la Matematica stessa o la fisica, e quelle applicative come l’ingegneria. Sicuramente tale distinzione è di comodo poiché queste due macroaree si sovrappongono esistendo al contempo sia la fisica applicata che l’ingegneria teorica. La nostra distinzione ci interessa per stabilire che nella conoscenza umana, proprio quella che ci porta ad usufruire del web ad esempio, c’è sia della teoria che della pratica: la matematica, per la nostra trattazione, risulta essere super partes poiché come vedremo essa è capace di dare sia contributi teorici che pratici. Le branche della matematica sono molte, alcune utilizzate appieno come strutture per teorie fisiche vigenti, come ad esempio l’algebra tensoriale per la meccanica quantistica, altre sono di carattere così astratto che ancora non hanno trovato posto nella spiegazione dei fenomeni fisici. Le cose però non sono poi così semplici, perché ad esempio, l’esistenza dei numeri primi, che in un primo momento potrebbe sembrare una curiosità per specialistici nel campo della teoria dei numeri, permette oggi di avere algoritmi di crittazione per la sicurezza delle comunicazioni altamente performanti. Non esiste una corrispondenza uno ad uno tra “astrattezza matematica” e “astrattezza fisica”, anzi, teorie astratte (come la teoria dei numeri) risultano essere più proficue in campi applicativi e tecnologici che non teorici di base. La capacità della matematica di essere super partes in molte questioni qui affrontate può essere esemplificata esaminando l’aritmetica. Questa disciplina permette di enumerare entità di qualsiasi tipo: navi, aerei ed elettroni, e una semplice estensione permette di ordinare oggetti in insiemi opportuni. Quindi la “teoria” aritmetica è al di sopra della natura stessa degli oggetti che descrive. Essa risulta essere utile tanto a trattare di rane quanto a dimensionare le memorie dei computer. La capacità di ordinare, propria della scienza matematica e molto utile all’”homo tecnologicus” risalta finanche nella lingua francese che si è riservata, in sintonia con il proprio riconosciuto campanilismo, una parola specifica per indicare il computer: l’ “ordinateur”. In campo applicativo possiamo affermare che la matematica è l’unica disciplina capace di creare un modello coerente, in cui è possibile stabilire le “verità” al suo interno. Tramite questo modello è ancora possibile progettare con accuratezza entità fisiche prevedendone il funzionamento. Un altro importante apporto, quindi, che la matematica offre, a colui che la utilizza per descrivere un fenomeno o dimensionare una apparecchiatura è la possibilità di previsione dei risultati entro un limite predicibile. Un manuale di un corso di “teoria della misura” frequentato nel primo anno de miei studi universitari recitava in proposito: “la matematica è una scienza esatta nella misura in cui riesce a predire con precisione l’entità degli errori che commette”. Ecco, diventa chiaro che questa disciplina non può essere messa da parte se si desidera eseguire un compito o stilare un progetto in maniera razionale e per l’appunto calcolata. Costruire un palazzo, oggi come nel passato, ha bisogno sicuramente di teorie che ne permettono il dimensionamento. La statica studiata ai tempi della grecia ellenistica da Archimede (III sec. a.C.), permette di comprendere come sono distribuiti i punti di forza nella struttura architettonica, la scienza dei materiali è utile per capire quale tipo di materiale per l’appunto, può essere utilizzato a seconda delle peculiarità geologiche del terreno o del clima della zona, ad esempio. La possibilità di costruire un ponte che resista ai terremoti, oppure agli slittamenti degli strati rocciosi dove il ponte stesso poggia si basa sul potere di una teoria che possa prevedere con precisione il comportamento dei fenomeni in situazioni controllate. Teorie sempre più accurate e precise, permettono la costruzione di ponti sempre più grandi e impervi: tutto questo è possibile grazie ad una ed una sola disciplina: la matematica ed in particolare in gergo ingegneristico, la matematica applicata. Il ragionamento appena accennato, ci è utile per introdurre una nuova distinzione nel campo delle teorie.


3. Come è possibile classificare le teorie?


Una possibile classificazione riguarda il campo di applicabilità delle teorie. Per questo esse possono essere o particolari o generali. Da un certo punto di vista, le teorie fisiche sono considerabili generali, mentre quelle “più matematiche” sono particolari[3]. Tale distinzione, però, non ha l’onere di essere restrittiva in quanto una branca molto importante della fisica, la fisica teorica, si nutre delle più astruse astrattezze matematiche per formulare le proprie teorie, avendo a disposizione poco o niente di “fisicamente” tangibile”. La distinzione che qui si è posta sta nel fatto che una teoria fisica risulta essere generale in quanto essa non entra in merito ad una classe di fenomeni particolari ed ideali descritti con precisione da “semplici” equazioni matematiche. La teoria della gravitazione di Newton, risulta essere una teoria essenzialmente fisica, che esplica la meccanica dei pianeti del sistema solare, mentre la “meccanica” studiata nei corsi dei primi anni universitari, che è alla base del funzionamento ad esempio di motori o dispositivi di trazione, risulta essere più matematica in quanto trattante di situazioni altamente idealizzate. Sarebbe un errore grossolano, non comprendere che comunque “la meccanica” che è alla base della nostra tecnologia non sia figlia delle teorie fisiche generali suddette. Newton, con le sue opere ha deciso un sistema per descrivere certi fenomeni mettendo in correlazione quantità come velocità, massa, forza, lavoro: strumenti tutt’oggi utilizzati nel dimensionamento dei dispositivi meccanici. Altro esempio è la teoria dei circuiti elettronici. Tutto ciò a cui oggi siamo abituati, l’ iPod, lo smartphone, il palmare, il laptop, ma anche le radioline o gli schermi LCD, sono possibili grazie alla formulazione di una solida teoria puramente matematica capace di descrivere i fenomeni elettrici in situazioni altamente idealizzate. La storia della scienza, in ogni caso, ricorda J. C. Maxwel come lo scopritore dell’unitarietà dei fenomeni elettromagnetici (1864) riuscendo a descrivere matematicamente, ed in maniera abbastanza complicata, il comportamento dell’elettricità e del magnetismo nel vuoto e nella materia. La scienza è bella forse proprio perché riesce a spiegare fenomeni a primo acchitto difficili da comprendere attraverso una semplicità dirompente; per “maniera complicata” intendo attraverso equazioni matematiche che prevedono una conoscenza abbastanza approfondita per essere comprese. La teoria dei circuiti partendo dai fenomeni sommamente descritti da Maxwell, attraverso una ragionata e possibile semplificazione riesce a dimensionare le apparecchiature elettroniche di uso comune attraverso operazioni matematiche che non si discostano di molto dalle quattro operazioni elementari che ci insegnano alla scuola primaria. Il passaggio da “Maxwell ai circuiti” non è netto e senza senso, anzi vi è tutta una teoria dietro che permette di semplificare e ridurre all’osso le equazioni originarie dimensionando matematicamente le situazioni ideali e riducendo la natura (da un punto di vista elettromagnetico) ad un insieme di resistenze condensatori e induttanze. Per sottolineare quanto siano strettamente matematiche tali formulazioni, si può prendere ad esempio la meccanica applicata, che utilizza le stesse entità e le stesse leggi matematiche per descrivere, sempre idealmente, i dispositivi di cui tratta. Di fatto la resistenza che nel campo elettrico risulta essere una sorta di attrito causato dal particolare materiale che impedisce alle cariche (elettroni) di fluire ha  un corrispettivo in meccanica che è l’ammortizzatore, come quello delle autovetture. L’induttanza elettrica è la massa nella descrizione meccanica, mentre il condensatore, che in elettrostatica è un dispositivo costituito da due piastre metalliche separate da un materiale dielettrico che serve ad accumulare carica, ha come corrispettivo meccanico la molla, come quella dei vecchi orologi a carica manuale, che accumulavano, attraverso la nostra azione di carica, l’energia meccanica per il funzionamento delle lancette. Ecco che siamo giunti ad una sorta di paradosso nel quale la teoria di Maxwell è più generale di quella dei circuiti, la quale, dopo questo esempio, risulta essere più generale di quella di Maxwell. Il paradosso (apparente) è risolto appunto tenendo presente che la teoria dei circuiti elettrici ed elettronici risulta essere generale nel campo delle applicazioni, usufruendo per l’appunto della matematica applicata, pane quotidiano degli ingegneri. In definitiva è la matematica applicata che si presta a moltissimi campi della tecnica rendendola una disciplina, in tal senso, generale.


4. La tecnologia

La tecnologia può essere considerata una sorta di sincretismo tra l’esperienza pratica che è tramandata nel tempo, da sempre, tra gli uomini e la pura speculazione teorica. Si è parlato della matematica, come disciplina che riesce a creare un modello coerente della natura, e attraverso la stessa è possibile prevedere e progettare entità artificiali controllando e dimensionando proprio questi enti[4] della natura. La tecnologia consiste proprio in questo: nel progettare e costruire entità controllabili, siano esse apparecchiature meccaniche o digitali, che sono utilizzate dall’uomo per semplificare ed automatizzare alcuni compiti utili per la propria sopravvivenza o semplicemente per diletto. Stabilire la nascita della tecnologia è impresa ardua, e materia di intense discussioni ancora attuali tra storici e paleontologi. Forse una data, o meglio una epoca non potrà mai essere stabilita proprio perché ogni epoca ha dei paradigmi propri in cui anche la tecnologia può essere inquadrata con una specifica definizione. Da profani, ma anche per non addentrarsi in spinose discussioni, ci atteniamo a ciò che ci insegna la storeografia standard, prendendo come riferimenti la scoperta del fuoco (circa 790.000 anni fa), l’invenzione della ruota (V millennio a.C.), e l’utilizzo dei metalli per costruire utensili. Questo, è il periodo preistorico, per il quale stabilire una datazione dei singoli eventi è difficile se non considerando intervalli di tolleranza tra le date molto grandi. Una cosa è certa, che il progresso tecnologico in quest’epoca fu di una lentezza senza precedenti. I paleontologi sono in accordo nello stabilire che il passaggio tra la produzione, il trasporto e la conservazione stabile del fuoco è durato millenni. La nascita della tecnologia, nella moderna accezione del termine si è soliti farla risalire alla cultura rinascimentale dopo la solida affermazione del metodo scientifico galileiano. Lucio Russo in un suo lavoro[5] cerca di dimostrare che la grecia ellenistica nel III secolo a.C. attraverso scienziati quale Archimede, Eratostene, Erone e molti altri può essere considerata l’inventrice e l’utilizzatrice del metodo scientifico sia per la produzione di teorie sia di tecnologia. Egli sostiene che nel seguito, nell’era imperiale fino al tardo medioevo l’umanità sia caduta nuovamente in una fase prescientifica. In tale periodo andarono perse molte conquiste messe a punto dalla civiltà greca a causa della diversa natura della popolazione romana dell’età Imperiale. Egli infine dimostra che i fautori della rivoluzione scientifica rinascimentale, che riportarono la civiltà umana nella fase scientifica che ancora adesso viviamo, per portare a termine la loro opera hanno dovuto per forza basarsi (e alcune fonti lo dimostrano) sulle opere dei sommi scienziati dell’Antica Grecia. Rifacendoci allo studio di Russo quindi, si può pensare all’utilizzo “operativo” della tecnologia già dal tempo dei Greci. In precedenza ho menzionato anche Aristotele, che con le sue speculazioni filosofiche sulla natura, talvolta risultate anche sbagliate dal punto di vista fisico, ha contribuito a fornirci i mezzi che ci permettono di navigare liberamente nel web alla ricerca di qualsivoglia informazione.


Manuali di storia primitiva ci insegnano che la sopravvivenza dei primi gruppi di uomini preistorici è legata a molteplici invenzioni e scoperte. Una fra queste era l’utilizzo di una pietra, la selce, scalfita ad arte per poter essere utilizzata come strumento da taglio, o per infliggere ferite mortali alla preda nelle battute di caccia. Oggi la “selce” (in realtà la Silice è un composto chimico del Silicio) continua ad essere scalfita e incisa, non con pietre preistoriche, ma con potentissimi e precisissimi LASER, trasformando un duro pezzo di roccia in un cervello elettronico: un microprocessore, che avremmo modo di analizzare nel funzionamento nel seguito. Questo dimostra che la storia umana, e della tecnologia stessa, si svolge attorno ad uno sparuto gruppo di elementi che cambiano nella forma e non nella sostanza. Al di la dell’uso specifico delle parole per indicare oggetti e fenomeni, anche il “fuoco” è una delle entità che più o meno è rimasta invariata ed ancora oggi fondamentale per la nostra evoluzione e sopravvivenza.


5. Una teoria dell’evoluzione tecnologica


Sicuramente, le scoperte e le invenzioni dell’epoca post-rivoluzione industriale (la prima) sono quelle candidate come l’hummus dove la moderna evoluzione tecnologica trae nutrimento. Ma non dimentichiamo, che abbiamo indossato, nella nostra analisi, degli occhiali magici che ci permettono di guardare l’evoluzione della tecnica a distanza sufficiente da farci apparire quest’ultima un continuum. Però se a questi occhiali magici mettiamo davanti anche le lenti forgiate dall’inventore e tecnologo americano Ray Kurzweil ci accorgiamo che in realtà questo continuum dell’evoluzione tecnologica non procede in maniera lineare nel tempo come sembra.

Kurzweil sostiene che l’evoluzione della tecnologia, anche se percepita in maniera lineare, avvenga in realtà secondo un andamento esponenziale, come per qualsiasi altro sistema evolutivo. Per tale motivo abbiamo idee sbagliate sul nostro futuro. I nostri progenitori si aspettavano che fosse simile al loro presente che a sua volta era stato simile al loro passato: questa è la concezione “lineare-intuitiva”, secondo la definizione di Kurzweil. La crescita esponenziale, (chi ha dimestichezza con la matematica la dovrebbe conoscere) ha un andamento seducente, inizialmente molto livellato, quasi lineare. Poi, tale andamento diventa sempre più pronunciato, tende a salire fino ad un punto, il gomito, oltre il quale la velocità di crescita diviene enorme. Secondo il tecnologo la concezione che dovrebbe essere adottata è quella “esponenziale-storica” secondo la quale la velocità di cambiamento dei paradigmi umani raddoppia ogni dieci anni circa. In questo modello si può affermare che “il progresso nel corso del Ventesimo secolo è andato accelerando gradualmente fino a raggiungere la velocità attuale; i suoi risultati (del progresso) quindi, erano pari a circa 20 anni di progresso al ritmo del 2000. Faremo altri vent’anni in solo 14 anni (per il 2014) e poi lo stesso in soli sette anni.”[6] Egli continua la sua spiegazione, asserendo che nel Ventunesimo secolo non vedremo un centinaio di anni di progresso tecnologico bensì l’ordine sarà di ventimila anni misurati alla velocità del progresso odierna. Al di là dei calcoli che possono essere errati o precisi a seconda del modello adottato, quello proposto da Kurzweil sembrerebbe esagerato. In realtà alcuni esempi mostrano come questo fenomeno sia usuale nella storia della tecnologia. I biochimici occupati nella sequenziazione del genoma umano, nel 1990 ritenevano che per terminare tale lavoro ci sarebbero voluti un centinaio di anni. Essi fecero il calcolo basandosi sulla tecnologia di allora e tenendo presente che in un anno avevano trascritto un decimillesimo dell’intero genoma. In definitiva l’operazione di sequenziazione è durata solamente 15 anni. La stessa cosa è accaduta negli anni Ottanta, per quanto riguarda lo scetticismo sulla diffusione di Internet, che allora era composto da poche decine di migliaia di nodi server. I pensatori dell’epoca non tenevano conto che il numero dei nodi raddoppiava ogni anno, con alta probabilità che dieci anni dopo diventassero alcune decine di milioni: questo perché il computo era fatto in base alla tecnologia del 1985 che permetteva di “aggiungere” poche migliaia di nodi all’anno. Queste speculazioni di natura teorica sull’evoluzione della tecnologia si basano secondo Kurzweil su una legge ben precisa: la legge dei “ritorni accelerati”. Secondo questa legge “l’evoluzione applica feedback positivi: i metodi più efficaci di uno stadio del processo evolutivo vengo