sublimina.it

  • Full Screen
  • Wide Screen
  • Narrow Screen
  • Increase font size
  • Default font size
  • Decrease font size






  research gate


omino_logo_sublomina


La Conoscenza è come una linea, dove sono i confini non ci è dato di saperlo.

Sublimina.it è un viaggio personale nel mondo del pensiero umano. Per raggiungere ogni meta c'è una via ed ogni via ha un ingresso. Questa è la mia porta personale, l'ho appena aperta. Ognuno ha la sua porta, qualche volta si ha bisogno, però, di intravedere cosa c'è al di là della porta altrui per mirare l'altrove che sta dietro la propria.  Ispirato da: Franz Kafka, Il processo (1925)


Un esperimento con l'IA

E-mail Stampa PDF

Ogni tecnologia sufficientemente avanzata è indistinguibile dalla magia.
Arthur C. Clarke


Un esperimento con l'IA, test di RosarchNel 1921 lo psichiatra svizzero Hermann Rorschach (1884 -1922) ideò, sullo sfondo delle da poco nate teorie freudiane e della Gestalt, un test di personalità basato sull’interpretazione di macchie di inchiostro informi su un foglio di carta. Tali macchie sono considerate “disegni ambigui”, proprio come le nuvole che si stagliano sullo sfondo azzurro del cielo, che chiunque per gioco, almeno da bambino, ha provato ad interpretarne la forma, vedendoci draghi, navi pirata o qualunque cosa la fantasia abbia da suggerire. Anche se gli studi successivi sono stati molto intensi, dividendo gli studiosi in varie “scuole”, l’affidabilità diagnostica del “test di Rosarch” è considerata generalmente discutibile. In molti paesi, come l’Italia, il test è ancora utilizzato in campo clinico.

In ogni caso, al di là della validità clinica che qui non si intende minimamente discutere, il “test di Rosarch”, proprio come il passatempo di vedere “mostri” nelle nuvole, evidenzia alcune caratteristiche cognitive inerenti il cervello davvero interessanti. Nell’ambito della comunicazione visiva, nello specifico della “percezione visiva”, l’atto di proiettare uno stato mentale su un oggetto inanimato è noto come “proiezione” ed è una attività mentale che solitamente si attribuisce agli esseri cognitivamente superiori, come gli esseri umani. La proiezione si basa su uno stimolo visivo che viene interpretato a livello cognitivo, cioè attraverso una qualche elaborazione cerebrale, come una percezione. I primi studi moderni sui temi della “percezione” ed “elaborazione” risalgono alla “psicologia della Gestalt”, o psicologia della “forma”, sviluppatasi agli inizi del XX secolo in Germania. La Gestalt origina dagli studi dello psicologo Max Wertheimer (1880 - 1943), il quale sosteneva che l’occhio cattura i singoli stimoli visuali mentre è il cervello ad organizzare gli stimoli visivi in un’immagine coerente. In linea di principio i seguaci della Gestalt sostengono che la percezione è il risultato della combinazione o raggruppamento degli stimoli visivi e da tale raggruppamento che emerge una immagine coerente. Dietro questi concetti, si evince qualcosa di simile all’ olismo o emergentismo, in quanto i sostenitori della di questa teoria psicologica solevano sostenere che nella loro teoria il “tutto fosse diverso dalle sue parti”, dopo mutato in “il tutto è più della somma delle sue parti”. La Gestalt è stata comunque criticata perché pare non spiegare come avvenga il processo di significazione, ovvero come attribuiamo significato ad un’immagine. In ogni caso, gli elementi teorici di questo approccio aiutano in linea di principio a svelare la natura di molte illusioni ottiche.

Moderni studi all’interno delle scienze cognitive e della modellazione neurofisiologica del cervello, attraverso modelli matematici avanzati mostrano che la percezione è un qualcosa che ha a che vedere con i sistemi dinamici e con il caos. Le classiche illusioni ottiche, dove la nostra percezione oscilla tra due possibili interpretazioni visuali (ad esempio ne Il vaso di Rubin, dove è facile alternare la visualizzazione di due volti e quella di un vaso), sono modellate come dei sistemi dinamici caotici che hanno “punti di attrazione”. Tali sistemi dinamici modellano la complessa e caotica attività dei neuroni nel cervello e, in gergo tecnico, si comportano come “attrattori”. Dal punto di vista termodinamico si potrebbe dire che tali modalità percettive sono un "passaggio di stato", proprio come quando il vapore acqueo passa allo stato liquido. In altre parole (semplificando) è come se lanciassimo un dado su un tavolo liscio e, data la forma particolare, esso non può a lungo rimanere in uno stato dinamico, ma prima o poi deve stabilizzarsi mostrando una delle sue facce numerate. Solo che in tale analogia, il dado, dopo lo stato di riposo, viene rilanciato, poi rilanciato ancora e cosi via.

A questo punto abbiamo abbastanza ingredienti per fare un esperimento con il test di Rosarch e l’ Intelligenza Artificiale (IA), ovvero faremo interpretare ad una IA una macchia di inchiostro pescata tra le tavole del test di Rosarch (vedi immagine).

L’AI che andiamo ad utilizzare è nota nel campo del Machine Learning come Rete Neurale Artificiale. Le reti Neurali Artificiali sono degli strumenti molto potenti nella Computer Science e sono alla base di molte moderne applicazioni all’interno dei social media. Per dirne due, il traduttore di Google se ci azzecca è proprio grazie alle Reti Neurali; la funzione di tag automatico di Facebook basata sul riconoscimento automatico dei volti. Le Reti Neurali sono nate, circa 70 anni fa, nel tentativo di generare un modello matematico semplice del funzionamento dei neuroni biologici nel cervello. Con il passare del tempo l’utilizzo di tali modelli si è allontanato dal mondo della neurofisiologia, e scienziati ed ingegneri hanno iniziato ad utilizzarli sotto forma di algoritmi per permettere ai computer di apprendere tramite esempi. Di fatto Facebook utilizza esempi di foto già taggate manualmente per istruire una Rete Neurale Artificiale a fare altrettanto con foto postate che i computer non hanno mai visto. Oggi le Reti Neurali Artificiali costituiscono gran parte dell’ “intelligenza” dei servizi offerti dai nostri apparecchi digitali.

Per il nostro esperimento, “alleniamo” dapprima una Rete Neurale Artificiale (precisamente una Rete Neurale Convoluzionale) a riconoscere animali, come cani, gatti o uccelli. Pe fare ciò costruiamo un modello (algoritmo) di una Rete Neurale che in ultima istanza è un programma per computer. Diamo in pasto un cospicuo numero di immagini rappresentanti i vari animali informando il modello, durante il processo di apprendimento, sul tipo o i tipi di animali presenti della foto. Una volta che la Rete Neurale ha analizzato tutte le foto essa è pronta per riconoscere animali in nuove foto che le diamo in pasto, foto che non sono state processate durante il processo di apprendimento.

Il fatto interessante è che la memoria delle Reti neurali è inerente ad una particolare architettura, che imita le sinapsi del cervello biologico (i pesi sinaptici). La maggior parte degli studiosi ritiene che nelle sinapsi biologiche sia condensata l’informazione relativa ai nostri ricordi. Nella pratica le Reti Neurali Artificiali posseggono degli strati di pesi (valori numerici) che vengono computati in fase di apprendimento e che sono connessi secondo una particolare topologia. Una volta appresi i valori di tali pesi la rete è pronta per essere utilizzata, ovvero è pronta per riconoscere nuovi oggetti (animali nel nostro caso). In casa Google, ricercatori in questo campo hanno messo a punto una speciale metodologia per visualizzare il contenuto di questa memoria e tale tecnica è stata battezzata “deep dream”. “Deep” è legato al nome dato alla tecnica di apprendimento (in gergo nota come Deep Learning) mentre “Dream” deriva dal fatto che le immagini generate da questo metodo sono oniriche e con forme psichedeliche. Si è scoperto in pratica che nella memoria di tali Intelligenze Artificiali (IA) vi sono rappresentazioni mescolate (apparentemente) in modo causale degli oggetti che sono stati utilizzati nell’apprendimento. In realtà tale metodologia oggi è alla base delle molte app di manipolazione fotografica che permettono di applicare speciali filtri alle foto tramutandole in capolavori d’autore (vedi PRISMA). Tra la comunità di appassionati è apparso anche un nuovo termine che designa addirittura una nuova corrente artistica, la prima dove l’essere umano non è il principale fautore, denominata “inceptionism” (ho trattato l'argomento qui).

Ecco finalmente il punto. Mentre Hermann Rorschach sottoponeva le sue macchie di inchiostro ai suoi pazienti cercando di indagarne i meandri della personalità, noi le sottoponiamo ad una IA che è stata addestrata a riconoscere cani gatti ed uccelli. Ci aspettiamo che i pesi neurali conservino una qualche rappresentazione di ciò che hanno appreso, e di fatto è proprio così…

Abbiamo catturato lo stato mentale dell’IA?

Lasciamo agli psichiatri l’interpretazione della personalità di questa stupefacente IA, certamente un po’ fissata con i cani.

Ultimo aggiornamento Domenica 13 Maggio 2018 22:03

Su una Realtà Generale

E-mail Stampa PDF

Il soggetto non appartiene al mondo, ma è un limite del mondo

Ludwig Wittgenstein - Tractatus Logicus-Philosophicus




Soprattutto quando una teoria non è formalizzata attraverso gli strumenti della matematica, la spiegazione dei fenomeni non può non passare per una qualche specie di metafora; chissà se la stessa matematica non può essere intesa come una grande metafora altamente simbolizzata. In ogni caso ciò che oggi vorrei delineare è un argomento dibattuto da secoli da filosofi e scienziati appartenenti ai più svariati campi del sapere.

Qual è il nostro rapporto con la realtà? Esiste una realtà esterna, e, se sì, in che rapporto essa sussiste con il nostro apparato cognitivo che disvela la nostra realtà interna? Fin da subito tengo a precisare che un tale argomento, seppur molto dibattuto, risulta essere molto spinoso in quanto i concetti che vengono usati per costruire una teoria attraverso il linguaggio sono essi stessi appartenenti alla teoria in un circolo autoreferenziale che non permette di chiarire al meglio cosa è all’interno della teoria stessa e cosa è all’esterno, cioè cosa fa da sfondo alla teoria in esame. Il problema è insito nell’uso del linguaggio, come ha sostenuto il primo Ludwig Wittgenstein nel Tractatus Logicus-Philosophicus:


I limiti del mio linguaggio sono i limiti del mio mondo

o meglio

Che il mondo è il mio mondo si mostra in ciò che i limiti del linguaggio (del solo linguaggio che io comprendo) significano i limiti del mio mondo”.

Ludwig Wittgenstein nel Tractatus  ha anche sostenuto che “Il soggetto non appartiene al mondo, ma è un limite del mondo” ed è da questa affermazione che si ingenera il ragionamento di seguito proposto.

Se esiste un mondo fisico “là fuori”, esso deve essere limitato dai nostri sensi. Sono i nostri sensi che pongono un limite all’illimitato “rumore” della realtà. E il termine “rumore” è qui utilizzato con tutta la carica scientifica che esso può sostenere. L’esperienza e la stessa scienza ci insegnano che l’evoluzione della conoscenza (scientifica) si è avuta attraverso una commistione di avanzamenti teorici (appartenenti alla sfera del puro pensiero e della pura creazione) e di avanzamenti tecnologici che hanno permesso di sottoporre al vaglio le teorie stesse. Gli strumenti della tecnica, essi stessi strumenti costruiti seguendo i dettami di una qualche teoria, hanno consentito di esplorare porzioni di realtà fisica altrimenti esistenti in un altrove difficile da inquadrare. Fu così per il telescopio in epoca galileiana, lo è oggi per gli esperimenti sulle onde gravitazionali, ma lo è stato anche attraverso strumenti tecnici il cui utilizzo è lontano dalla curiosità scientifica stessa, come, ad esempio, le navi di Cristoforo Colombo che hanno rotto il tabù delle Colonne d’Ercole rivelando il cosiddetto “Nuovo Mondo”.

La tecnologia moderna digitale che fa spazio alla comunicazione globale fa largo utilizzo di un bagaglio di tecniche che sono note come trattamento dei segnali. L’esistenza stessa di dispositivi quali smartphone o computer poggia sull’esistenza di una dicotomia tra il concetto di segnale che trasporta informazione e rumore che apparentemente è scevro di qualsiasi informazione utile. Nella stessa fisica delle particelle è segnale per il fisico la traccia lasciata dalla particella di interesse nell’acceleratore, mentre è rumore quel brulichio di particelle prodotte nelle collisioni che fanno da sfondo di rumore. Sintetizzando al massimo il lavoro del fisico delle particelle, egli, in fase di elaborazione dei dati sperimentali, testa modelli statistici che permettono di filtrare il segnale - la particella cercata - dal rumore. La stessa visione da parte degli organismi viventi, dall’apparato visivo più rudimentale appartenente a specie che vivono negli abissi oceanici fino a quello dell’homo sapiens, è una sorta di filtraggio delle informazioni ottiche che vengono sottratte allo sfondo di rumore per poi essere elaborate dal sistema cognitivo. In questi esempi possiamo notare che è l’oggetto della ricerca o in generale del fenomeno cognitivo che assegna il ruolo primario al segnale informativo ed uno secondario al rumore.

La Teoria dei Segnali d’altra parte insegna che il rumore, ad esempio, l’andamento della tensione a vuoto nel tempo di un resistore elettrico, è definibile come “rumore bianco” (white noise), ovvero un brulichio casuale dovuto a fluttuazioni termodinamiche il cui spettro in frequenza è in media piatto. Se questo venisse convertito in suono, e di fatto succede (con tutte le approssimazioni del caso) quando si accende un radioricevitore non sintonizzato su nessuna stazione trasmittente, sarebbe possibile vedere (o ascoltare) uno spettro sonoro in cui sono presenti con la stessa potenza tutte le possibili componenti armoniche. Non è che ciò che percepiamo come realtà esterna, l’Universo fisico per intero, è una sorgente di rumore che solo in un secondo momento i nostri sensi filtrano generando la scelta di cosa sia segnale e cosa sia rumore, permettendo ai sistemi cognitivi superiori di costruire la realtà? In questo quadro quindi l’Universo appare come una massa informe, chiamiamola anche pura energia, che viene sottoposta ad una serie di filtri, alcuni dei quali sono incarnati in noi in quanto evolutisi secondo selezione naturale, mentre altri sono stati costruiti successivamente dall’homo sapiens attraverso la tecnica.

Il segnale relativo alle onde gravitazionali che è stato rilevato il 14 agosto 2017 (il primo catturato da tre rivelatori dislocati spazialmente sul pianeta terra) proviene dai momenti finali della fusione di due buchi neri dalla massa di 31 e 25 volte quella del Sole e distanti dalla Terra circa 1,8 miliardi di anni luce. Esso è uno splendido esempio di informazione che prima di tale scoperta era nell’altrove. E’ stato dichiarato in più occasioni che tale fenomeno, per altro predetto da Albert Einstein con la Teoria della Relatività, ha aperto la strada ad una nuova astronomia e svelerà informazioni sulla natura dell’universo altrimenti inconoscibili. I rivelatori utilizzati, potentissimi ed altamente tecnologici, non sono altro che una versione aggiornata dell’antico telescopio galileiano. Essi costituiscono lo strumento tecnico che utilizziamo per sezionare la “nostra” realtà dal marasma informativo a spettro piatto che è la “realtà generale”. Ecco che torniamo all’archè dell’Universo di Anassimandro (610 a.C. circa – 546 a.C. circa), ovvero all’Apeiron, il principio per cui l’Universo è formato da un'unica materia nella quale i vari elementi non sono ancora distinti. Ciò mostra come i pensatori del passato avevano già percepito una serie di principi evidenti e li hanno resi noti attraverso il limiti del linguaggio e delle conoscenze del tempo. Quindi, assumendo la realtà “là fuori” come una massa indefinibile ed indefinita assimilabile al rumore, siamo noi attraverso i nostri sensi, siano essi biologici o estensioni della tecnica, a forgiare un sottoinsieme di questa realtà che percepiamo come totalizzante; di fatto essa ha una natura “stretta”. Siamo noi esseri senzienti a decidere in qualche modo cosa è degno di nota (segnale) e cosa lasciare nell’altrove (rumore).

A questo punto del ragionamento si perviene a due fatti essenziali. Il primo è relativo all’interpretazione della Teoria dell’Informazione di Claude Shannon (1916 - 2001), la quale trattando di sorgenti di informazione perviene, in linea di principio, a concepire come massimamente informativa una sorgente che emette puro rumore. Quindi ciò che comunemente si identifica come segnale utile è una diminuzione della casualità della sorgente di rumore che diventa statisticamente più prevedibile. Tale concezione relativa all’“informatività” è perfettamente coerente con quanto qui asserito. Un secondo fatto deriva da un’asimmetria essenziale presente nel processo di disvelamento della realtà, la stessa asimmetria che è stata ben chiarita da pensatori come Charles Sanders Peirce (1839 -1914) e Karl Popper (1902 - 1994), presente nel metodo scientifico ovvero che è possibile fornire un qualsivoglia numero di prove per validare una teoria, ma ne basta una sola per invalidarla. Inoltre una teoria scientifica rimane valida fin quando si trovano prove validanti. Le prove invalidanti, fin quando la teoria resta valida, risiedono effettivamente in un altrove difficilmente inquadrabile, nell’attesa di essere pescate. Lo stesso vale per la realtà generale. E questo ha che fare con i meccanismi relativi al principio logico di induzione. La realtà generale è questo altrove informe da cui di tanto in tanto si prelevano attraverso i sensi asserzioni che in un qualche modo vanno a compendiare la nostra concezione di realtà stretta (narrow reality).

In tal modo la conoscenza del mondo è un processo indefinito e qualsiasi essere umano vi si approccia al pari dello scienziato che studia un fenomeno scientifico. Probabilmente l’uso del concetto della dicotomia segnale utile rumore è solo un elemento di una mera metafora, in ogni caso essa aiuta ad ammodernare, tramite i paradigmi attuali, le concezioni degli antichi filosofi relative ad un Universo primigenio informe ed indefinito.

Ultimo aggiornamento Domenica 13 Maggio 2018 15:34

Reti Neurali Artificiali e Inceptionism, una nuova frontiera nell'arte

E-mail Stampa PDF

"Propongo di considerare questa domanda: "Le macchine sono in grado di pensare?"

Alan Turing


E possibile fare arte con l'Intelligenza Artificiale? Le Reti Neurali Artificiali possono sognare? Come sono nate e come funzionano le reti neurali artificiali? Perché il mondo digitale che ci circonda sta diventando sempre più smart? Che cosa è l' "Inceptionism"?


Il famoso matematico Alan Turing prognosticò che entro l’anno 2000 l’uomo sarebbe riuscito a creare macchine intelligenti con capacità cognitive pari a quelle umane. Molti sostengono che oggi, superata la fatidica soglia del millennio da quasi due decenni, siamo di gran lunga lontani da questo obiettivo. Eppure qualcosa nel campo dell’Intelligenza Artificiale (IA) sta succedendo ed in fretta. Dai laboratori Googleplex, la Google-car a guida completamente automatica è pronta, TESLA sta sfornando veicoli elettrici ad alte prestazioni pronti a disegnare il futuro mercato dell’automobile. Internet è passato dall’essere il non-luogo dei sociologi e massmediologi della prima ora alla piazza per eccellenza dove chiunque, assolutamente non esperto di informatica, può muovere i propri passi. Si suole sostenere che siamo nell’era digitale, ma anche nel secolo del cervello e della biologia. Abbiamo oggi a disposizione potenze di calcolo senza precedenti che non hanno disatteso, per ora, la legge di Moore. Solo inizialmente in maniera timida il mondo dell’open source ha conquistato fette di mercato sempre più importanti e le major anziché proteggere il segreto industriale e nascondere i propri problemi irrisolti, che rallentano i processi produttivi, pescano nel variegato mondo del web ricercatori e dilettanti capaci di risolverli sotto esiguo compenso. Nel campo della scienza i laboratori non sono più luoghi settici e gli scienziati non lavorano più soli dietro una scrivania senza dialogare con nessuno per settimane. Questo è anche il secolo della collaborazione, possibile grazie alle tecnologie di comunicazione disponibili che hanno azzerato gli spazi e i tempi e di conseguenza incrementato la creatività e la produttività. L’uso di massa delle tecnologie digitali, del web e dei social network ha fatto sì che gli utenti da passivi consumatori siano diventati essi stessi produttori di contenuti e anche driver senza alcun costo dei brand delle più disparate aziende (basta fare una foto agli occhiali da sole preferiti e postarla su Instagram). L’IA oggi ci circonda, essa è nascosta nella miriade di app del nostro smartphone, quando navighiamo attraverso Google, quando navighiamo su Facebook, postiamo foto su Instagram o cerchiamo un percorso su Google Maps. Ad esempio una delle funzioni più strabilianti, a cui ormai siamo abituati, se utenti di Facebook o utilizzatori di una fotocamera digitale, è il riconoscimento facciale. Come fa un computer a riconoscere un volto? Come fa a riconoscere che quello è proprio il nostro volto tra miliardi di volti? Dietro questa apparentemente semplice funzione si nasconde la storia del pensiero umano di cui una diramazione culmina proprio con la volontà di costruire una macchina artificiale capace di attività cognitive prossime a quelle umane. Nello specifico, nel tag automatico dei volti, o nelle app che riconoscono oggetti in una foto o in un filmato, la capacità cognitiva replicata è la visione e il riconoscimento di ricorrenze note anche come pattern. Nel campo dell’IA sono molte le strade percorribili per arrivare ad un sistema di riconoscimento e di visione artificiale, ognuna con le proprie caratteristiche e prestazioni. Se pensiamo però all’intelligenza di Google, Facebook, etc. ciò che dobbiamo sicuramente tenere presente sono le Reti Neurali Artificiali. Oggi, le prestazioni migliori nel campo del riconoscimento, specialmente nel campo delle immagini, sono dovute a questi oggetti o algoritmi capaci di replicare alcune delle funzioni cerebrali al fine di ottenere un riconoscimento o una classificazione. Ma cosa sono le RNA? Diciamo subito che sono oggetti alquanto complicati che hanno bisogno di una grande potenza di calcolo per dare il meglio di loro stessi. Quindi le RNA cercano di emulare i nostri cervelli e anche se solo abbozzatamente i nostri comportamenti, la nostra capacità di apprendere e perché no la nostra creatività, ad esempio nel produrre arte. Qualcuno potrà domandarsi la qualità delle corbellerie che sono state appena dette. In realtà anche se le funzioni espletabili tramite le RNA sono di gran lunga inferiori alle capacità di un cervello umano, esse possono essere utilizzate per fare arte e in un certo qual modo hanno anche una speciale attività onirica, ma procediamo per gradi.

La loro comparsa, come famiglia di algoritmi, deve essere necessariamente posteriore o quantomeno coeva con l’avvento dei primi calcolatori assieme alle prime ricerche sul cervello che hanno individuato nei neuroni, speciali cellule interconnesse, che si comportano come delle unità di elaborazione biologiche. Di fatto i primi passi furono mossi dal neurofisiologo Warren Sturgis McCulloch (1898 - 1969) e dal matematico Walter Pitts (1923 -1969) i quali intorno al 1943 scrissero un lavoro pionieristico nel campo dei neuroni, nello specifico nella possibilità di modellare matematicamente queste unità di calcolo biologiche e replicarle su un calcolatore sotto forma di un algoritmo. Gli scienziati sostenevano che tali unità artificiali potevano essere connesse in rete secondo un opportuno schema o topologie e potevano replicare tutte le semplici funzioni logiche di un calcolatore come AND, OR, XOR. Il fatto interessante è che tali funzioni erano calcolate attraverso uno schema “connessionistico” o non “computazionistico”. Tali terminologie sono care alla filosofia e tendono a delineare un confine tra uno schema di calcolo simile a quello del cervello (ammesso che il cervello calcoli, ma questo problema filosofico ci porterebbe lontano ora) e lo schema computazionale che è alla base dei primi calcolatori come anche di quelli moderni. Qualche anno più tardi il concetto di neurone fu ripreso dallo psicologo canadese Olding Hebb (1904 – 1985) il quale in un suo celebre libro dal titolo: “The Organization of Behavior” [1] sostenne la rivoluzionaria idea che i collegamenti tra i neuroni, noti come sinapsi, si rafforzano ogni volta che vengono utilizzati. Questo fu il primo passo verso una moderna teoria neurofisiologica dell’apprendimento e della psicologia in generale, che si contrapponeva al behaviorismo che era in voga a quei tempi. L’apprendimento è un concetto fondamentale che nella sua accezione più semplice è sicuramente a noi familiare nella vita di tutti i giorni. Tale concetto entra in gioco anche quando la nostra app dello smartphone riconosce un volto e ci suggerisce un tag con il nome corretto. Dietro queste funzioni apparentemente semplici ci sono raffinatissimi algoritmi che hanno mosso i primi passi proprio da questi studi. Dal punto di vista storico il primo a perfezionare gli studi di McCulloch e Pitts nel campo della sintesi di una macchina artificiale (leggi anche algoritmo), capace di riconoscere semplici figure in un’immagine, fu il neurobiologo Frank Roseblatt (1928 - 1971), che nel 1958 presentò il Mark I Perceptron che era fatto girare su un computer modello IBM 704 [2]. Il perceptron era un algoritmo piuttosto semplice che modellava un’altrettanto semplice rete neurale con un ingresso ed una uscita. Essa elaborava l’informazione in ingresso e tramite opportuni valori che venivano appresi (noti come pesi) era capace di fornire in output una risposta che era corretta se il processo di apprendimento era andato a buon fine. Bisogna tener presente che sebbene le RNA siano algoritmi implementati secondo un opportuno linguaggio di programmazione e fatti girare su un computer fisico, esse sono studiate tramite un modello schematico che ne definisce la topologia delle interconnessioni tra i neuroni e sono descritte tramite un opportuno modello matematico che ne permette di teorizzare e studiare il funzionamento. La storia dell’IA ci mostra che ciò di cui disponiamo oggi è frutto di piccoli passi, da modelli molto semplici a modelli sempre più complessi sia nella topologia sia nel numero di neuroni artificiali. Non solo, ma tale approccio ha ricevuto fortissime critiche e battute di arresto, sia ai primordi, per motivi teorici, sia recentemente, per la scarsa disponibilità di potenza computazionale. Si accenna alle forti critiche del matematico e grande pioniere dell’IA Marvin Minsky (1927 - 2016) il quale, come un fulmine a ciel sereno, mostrò che il perceptron così come presentato da Rosemblatt non era capace di apprendere una semplice funzione logica come lo XOR. Tali critiche, come sovente accade quando si crea qualcosa di nuovo, spinse le ricerche verso modelli che potevano oltrepassare questo limite e furono così inventate reti che oltre ad uno strato di neuroni di input ed uno di output avevano un certo numero di strati intermedi (hidden units) che arricchivano la topologia e la complessità delle stesse. Dagli anni Cinquanta dello scorso secolo fino ad oggi la ricerca sulle RNA è andata sempre più raffinandosi, con qualche rallentamento, come si diceva, dovuto a limitazioni nella velocità di calcolo e a difficoltà nel trovare un algoritmo efficiente per far apprendere a questi oggetti compiti complessi come riconoscere oggetti o animali nelle immagini. Da quel periodo se ne occupano non solo neurofisiologi, ma soprattutto matematici e ingegneri e, attraverso questi ultimi, le RNA sono diventate i metodi di elezione per risolvere problemi di riconoscimento altamente complessi anche nel mondo dell’industria e nello specifico dell’industria digitale.

Quindi una RNA è un algoritmo che gira su un computer e che processa l’informazione data in ingresso e fornisce in output una risposta. Prima però di ottenere una risposta corretta esse devono apprendere. Ciò significa che prima del vero utilizzo pratico, ad esempio nel riconoscere un volto, esse devono essere allenate a farlo e tale allenamento è operato “mostrando” alle rete tanti esempi di volti e fornendogli un’etichetta (il nome della persona) a cui appartiene il volto stesso. Questo è un esempio di “apprendimento supervisionato” poiché l’algoritmo viene allenato tramite esempi pratici e corretti. In generale più sono gli esempi e più le prestazioni sono elevate, anche se è richiesta maggiore potenza di calcolo. Inoltre oggi si è compreso che il numero di neuroni degli strati interni è cruciale per le prestazioni. Nella seconda giovinezza delle RNA che parte dagli anni Novanta dello scorso secolo esse sono state battezzate deep network e la disciplina in genere è chiamata deep learning per sottolineare duplicemente sia le capacità profonde di apprendimento sia la profondità della rete data dall’elevato numero di hidden units.



Figura 1 Schema delle connessioni di una rete neurale artificiale deep con input e output multipli

(Fonte: https://codeahoy.com/2017/07/28/ai-is-not-magic-how-neural-networks-learn/).

Un normale PC desktop sarebbe impensabile per far girare le reti di Google e Facebook, sia per la loro complessità intrinseca sia per il numero di esempi che queste major posseggono, ad esempio, esempi di immagini.  Infatti, quando viene utilizzata la funzione di suggerimento tag volto di Facebook, la deep network è fisicamente sui server dell’ azienda di Menlo Park (California) ed è stata preventivamente addestrata su potentissimi server, processando tutte le nostre immagini che sono state prima taggate manualmente o da noi o da nostri conoscenti. Per inciso, qualsiasi nostra azione su internet è una specie di tag, si pensi alle emoji che assieme al classico “mi piace” permette di associare un’emozione ad un contenuto postato da terzi. Tali “reazioni” sono memorizzate in associazione al contenuto postato e tramite algoritmi di processamento automatico del testo (o delle immagini) vengono utilizzate per apprendere modelli emozionali. In altre parole le macchine diventano capaci di apprendere le nostre reazioni emotive di fronte ad un’immagine, una notizia o un prodotto. Il motivo per cui i Social Network ci spingono all’interazione è molteplice. Sicuramente di base la non interazione porterebbe alla morte dei social per come sono concepiti, ma la non interazione genererebbe anche una mancanza di “etichette” che arresterebbe le procedure di apprendimento automatico. Gli addetti ai lavori nel campo dell’IA e nello specifico dell’apprendimento tramite macchine o machine learning, sanno bene il “costo” di ottenere un data set (insieme di dati codificati opportunamente) che sia “etichettato”,  ovvero una serie di esempi su cui si può allenare una algoritmo di apprendimento supervisionato, come appunto le RNA. Per inciso, ci sono molte tipologie di algoritmi capaci di apprendere tramite esempi ed ognuno ha una filosofia di funzionamento differente ma anche molti punti in comune.

 

Figura 2 Rete neurale biologica con sinapsi che fungono da collegamento tra le varie cellule neurali (neuroni )

(Fonte: https://researchandexploration.wordpress.com/2017/03/21/your-brain-is-awesome/)

Ora sappiamo cosa è una rete neurale artificiale, come è nata, quali sono le potenzialità e come queste vengono oggi sfruttate per fare business da miliardi di dollari da grandi aziende per lo più con sede negli USA.  In sintesi, una deep network opportunamente addestrata tramite esempi a riconoscere cani farà del suo meglio quando le passiamo in input un’immagine contenente un cane, non importa se corre o sta fermo e nella maggior parte dei casi nemmeno la razza è importante. Si precisa che tutti gli algoritmi di apprendimento hanno un margine di errore, in realtà esso se basso è necessario proprio per fornire quella capacità di generalizzazione che tali sistemi hanno. Di fatto la rete neurale da una singola posa di un cane particolare induce una categoria generica che è formata da miliardi di esempi di cane di tutti i colori possibili. Quindi il punto fondamentale di una rete neurale è la capacità di apprendimento tramite esempi e la capacità di generalizzazione o di ragionamento per induzione, skill per altro, importante per il ragionamento negli esseri umani. Esistono, come accennato, una miriade di modelli di RNA, che si differenziano per molti aspetti della loro architettura e descrizione matematica. Una famiglia molto potente nel campo della visione artificiale sono le Convolutional Neural Networks (CNN) che adottano dei metodi sviluppati nell’elaborazione automatica delle immagini (particolari filtri che sono anche alla base di Photoshop) e sono capaci di estrarre gerarchicamente le features principali da un’immagine. In più le CNN sono state sviluppate sulla base del funzionamento della corteccia visiva degli animali, con la quale condividono il concetto di campo percettivo (receptive fields) in cui neuroni corticali individuali rispondono a stimoli in zone localizzate del campo visivo.

Tutte le RNA hanno tale capacità, in linea di principio, e cioè quella di elaborare l’informazione in input costruirne un modello sempre più generale a seconda dello strato considerato: gli strati iniziali si concentreranno sui piccoli dettagli, mentre gli strati profondi codificheranno l’informazione più generale. In altre parole se gli strati iniziali sono capaci di vedere i singoli alberi, gli strati finali sono in grado di vedere l’intera foresta. I primi utilizzi delle RNA in applicazioni pratiche risalgono al riconoscimento automatico del testo (optical character recognition), che muove i primi passi negli anni Settanta, con lo scienziato Ray Kurzweil (1948) che sviluppò il software OCR omni-font, in grado di riconoscere il testo stampato in qualsiasi font. Nel riconoscere un carattere, ad esempio una “A”, una deep network si concentrerà prima sui particolari, sul triangolo superiore e sulle stanghette inferiori e poi sulla forma generale. Allo stesso modo in un’immagine di una casa la rete scoverà dapprima i piccoli dettagli, come le porte, le finestre, i cespugli, etc. e poi l’intera struttura. Ogni strato avrà una propria rappresentazione; si dice che la rappresentazione dell’informazione nella rete è distribuita e gerarchica.



Figura 3 Ogni strato di una rete neurale artificiale (Deep Belief Network) apprende un set di fetures specifiche e strati gerarchicamente superiori apprendono features generali, al contrario di quelli inferirori che si concentrano su singoli particolari di un volto

(Fonte: https://ujjwalkarn.me/2016/08/11/intuitive-explanation-convnets/)

Adesso viene il bello!

Le reti neurali artificiali sono bravissime a riconoscere oggetti, anche se non perfette. Possiamo utilizzarle per apprendere uno stile artistico? Ebbene sì, le deep network vengono utilizzate anche a scopo ricreativo per comporre musica o dipingere. Nello specifico possono essere adoperate per apprendere uno stile pittorico e replicarlo in una qualsiasi fotografia. Alla base della potente applicazione per smartphone di origine russa disponibile sia su telefoni Android, sia su IPhone, sia su Windows 10, chiamata PRISMA, una deep network allenata su migliaia di stili pittorici, da Van Gogh (1853 - 1890) a Piet Mondrian (1872 – 1944), da Pablo Picasso (1881 - 1973) a Roy Lichtenstein (1923 - 1997), riesce a mescolare il contenuto e la forma stilistica di un dato pittore con il contenuto di una qualsiasi fotografia ottenendo effetti sorprendenti e gradevoli alla vista.



Figura 4 Ricostruzione dello stile e del contenuto pittorico del dipinto “Starry Night” di Vincent Van

Gogh [3].


 

Figure 5 Fotografia processata con l’App PRISMA (prima, dopo).

(Fonte: https://www.dpreview.com/news/1934831860/popular-prisma-photo-app-now-available-on-android)


 

Figura 6 Fotografia processata con l’App PRISMA.

(Fonte: http://www.telefoninostop.com/prisma-le-vostre-foto-si-trasformano-quadri/)


Di fatto, la rete neurale in questo caso è capace di apprendere il contenuto stilistico di un dipinto il quale può essere trasferito ad una qualunque fotografia senza particolari artefatti ottenendo un ibrido che conserva il contenuto percepibile dal nostro cervello come appartenente alla foto originaria, e lo stile al particolare artista a cui ci siamo ispirati nell’addestrare la rete. Soffermiamoci per un attimo a meditare su questo punto. Attraverso un algoritmo di IA, una deep network, è possibile trovare un modo per apprendere come separare lo stile di una fotografia dal contenuto, il primo come un invariante e il secondo libero di essere qualsiasi cosa. Questo potrebbe aiutarci a comprendere come l’organo visivo biologico funziona, soprattutto perché la classe delle CNN è inspirata al funzionamento della retina animale. Non solo tali strumenti posso aiutare oltre che a fare arte, anche a comprendere cosa sia uno stile artistico dal punto di vista squisitamente percettivo.

Le reti neurali artificiali possono sognare?

Questa domanda potrebbe sembrare pretestuosa e, di fatto, posta in questo modo lo è. In effetti le RNA sono strumenti meccanici in linea di principio, e siamo noi, talvolta, ad attribuirgli funzioni umane ed antropomorfizzarne le capacità. Tuttavia esse possono aiutarci a capire come funziona il meccanismo della percezione ed in generale l’elaborazione dell’informazione per la costruzione di concetti complessi. In realtà, cercando di capire come una RNA memorizza l’informazione, che sappiamo essere distribuita, è stata inventata una nuova forma d’arte che gli scienziati hanno battezzato “Inceptionism” e che è basata su una tecnica usata per mostrare ciò che la rete ha appreso nei vari strati. Le immagini che saltano fuori sono davvero sorprendenti, con contenuti onirici e allucinogeni


 

Figura 7 “Inceptionism”: i sogni di una rete neurale artificiale.

(Fonte: https://photos.google.com/share/AF1QipPX0SCl7OzWilt9LnuQliattX4OUCj_8EP65_cTVnBmS1jnYgsGQAieQUc1VQWdgQ?key=aVBxWjhwSzg2RjJWLWRuVFBBZEN1d205bUdEMnhB)

Per ottenere tali immagini una deep network è stata allenata a riconoscere migliaia e migliaia di oggetti (animali, case, campanili, persone, automobili, etc.). Poi ad uno strato specifico viene dato in pasto un’immagine composta da rumore bianco (tipo il brulichio dei vecchi televisori a tubo catodico fuori sintonia) e tramite una tecnica di ottimizzazione, l’immagine di rumore diventa ciò che la rete “stava immaginando” in quelli strato. A seconda dello strato, se iniziale o gerarchicamente lontano, e di altri parametri, i “sogni” della rete neurale artificiale possono essere controllati, mostrando più o meno dettagli onirici.


Figura 8 A seconda dello strato e di altri parametri i “sogni” della rete neurale artificiale possono essere controllati.

(Fonte: https://research.googleblog.com/2015/06/inceptionism-going-deeper-into-neural.html)


Figura 9 Un altro “sogno” di una rete neurale artificiale. La tecnica per estrarre tali rappresentazioni dalle immagini è soprannominata “Inceptionism”.

(Fonte: https://research.googleblog.com/2015/06/inceptionism-going-deeper-into-neural.html)


E’ davvero strabiliante come l’IA moderna sia capace di penetrare in moltissimi campi del sapere. Questa sezione ha mostrato come fare arte con le reti neurali artificiali e come studiare da un punto di vista del tutto nuovo uno stile pittorico. Come accennato in precedenza, le RNA sono utilizzate per comporre e studiare la musica, per riconoscere oggetti, il testo ed il parlato e la musica stessa (non dimentichiamo l’app Shazam). Esse sono strumenti molto versatili, come abbiamo visto. Uno dei problemi da affrontare è la forte richiesta di potenza di calcolo che fa sì che un utilizzo a pieno regime può essere effettuato solo da coloro che posseggono ingenti somme da investire in giganteschi data center, anche se alcuni passi si stanno muovendo nella direzione giusta. Ad  esempio, oggi attraverso il calcolo parallelo, e l’utilizzo delle schede grafiche (GPU) come potenti unità di calcolo parallelo, RNA di dimensioni modeste possono essere allenate su grandi data set con prestazioni soddisfacenti. Del resto sono cinquanta anni che si lavora su questi oggetti e solo da pochi anni si hanno capacità computazionali degne di nota. Date queste premesse, staremo a vedere cosa succederà nel prossimo decennio.


Per approfondire.

Un "social network" dove creare e condividere immagini generate con la rete neurale deep dream è qui.

Un articolo molto interessante con ulteriore bibliografia è qui.





[1] Hebb, D. O. (1949). The organization of behavior

[2] Bertuglia, C. S., & Vaio, F. (2011). Complessità e modelli. Un nuovo quadro interpretativo per la modellizzazione nelle scienze della natura e della società. Bollati Boringhieri, Torino.

[3] Gatys, L. A., Ecker, A. S., & Bethge, M. (2015). A neural algorithm of artistic style. arXiv preprint arXiv:1508.06576.

Ultimo aggiornamento Giovedì 01 Marzo 2018 14:12

Il filo tra l'arte e la robotica passa per la scultura

E-mail Stampa PDF

Si usano gli specchi per guardarsi il viso, e si usa l’arte per guardarsi l’anima.
George Bernard Shaw


Tra arte arcaica e robotica postmoderna

We don’t understand ourselves. That’s why we want the computer to do it” (Noi non capiamo noi stessi. Ecco perché vogliamo che il computer lo faccia) è un’ espressione del Professore in Computer Science ed esperto di affective computing (disciplina che studia come i sistemi di Intelligenza Artificiale possono comprendere ed esprimere le emozioni) Grzegorz J. Nalepa dell’Università AGH di Cracovia in Polonia.

Tale affermazione è un punto di partenza interessante nel tentativo da una parte di dirimere il mistero antropologico dell’uomo, e dall’altra per cercare di sbrogliare un filo che parte dalla preistoria ed arriva ai giorni nostri. Di fatto oggi siamo nell’era del digitale e se non ancora massificata, stiamo entrando nell’era della robotica. Gli esperimenti nei più svariati laboratori tecnologici sia pubblici che privati sono numerosissimi. Ormai chiunque ha un’idea di cosa sia un robot e di quali potenzialità dispone. E’ di questi tempi il dibatto sulle intelligenze artificiali e sui robot in particolare a cui viene additata la colpa per la profonda trasformazione del lavoro e addirittura per il crescente tasso di inoccupazione nelle economie occidentali avanzate. Non a caso il termine robot deriva dal termine ceco robota che significa lavoro pesante o lavoro forzato. Ma al di là dell’utilità (o dell’inutilità) dei futuribili robot nella nostra società, cosa è che accomuna un robot umanoide con l’arte o addirittura con la propriocezione?

Andando a ritroso nel tempo il mito di un essere umano artificiale si fa risalire al mito di Pigmalione, riportato dallo scrittore del III secolo Arnobio e descritto bene dal poeta Ovidio (Le metamorfosi, X, 243-297) il quale ci racconta che Pigmalione, uno scultore dell’Antica Grecia, aveva realizzato una statua rappresentante una figura femminile secondo il proprio canone di bellezza e finì per innamorarsene, tanto da dormirle finanche accanto. Un giorno, in occasione delle feste in onore della dea Afrodite, Pigmalione recandosi al tempio della dea la pregò di trasformare la sua statua in una creatura vivente e la dea lo accontentò, tanto che Pigmalione e la statua si sposarono ed ebbero una figlia. Un’altra testimonianza è l'antica leggenda di Cadmo, che seppellì dei denti di drago i quali si trasformarono in soldati, oppure Tupilak, entità che può essere creata da uno stregone per dare la caccia e uccidere un nemico, presente nei miti e leggende nord canadesi e della Groenlandia. Non si può non citare il Golem, figura mitica e simbolica di un essere simile ad un automa, costituito da una materia a cui è stata infusa in modo artificiale la vita e che può diventare un pericolo per il suo stesso artefice. Il Golem, a differenza del “mostro di Frankenstein” ideato da Mary Shalley (1797 - 1851) che era composto da parti umane, è il prodotto di un atto creativo basato sulla parola e risale alla tradizione giudaica e cabalistica. Mentre Frankenstein era un cyborg (possedeva sia parti umane che artificiali), il Golem era un vero e proprio androide che arrivava ad incutere paura nel proprio stesso creatore. Anche Leonardo Da Vinci, intorno al 1500, ideò un cavaliere meccanico capace di muovere gambe e braccia, basandosi, con tutta probabilità, sui suoi studi sull’uomo vitruviano. Ma a Jacques de Vaucanson (1709 - 1782) si fa risalire l’invenzione del primo automa, dopo aver inventato un telaio automatico e una ruota automatica per la tessitura a spina di pesce. L’automa di Vaucanson consisteva in un piccolo flautista dotato di labbra mobili ed una lingua meccanica che dirigeva il flusso dell’aria e mani con dita mobili capaci, tramite punte in pelle, di aprire e chiudere i registri del flauto. Nella letteratura, intorno al 1800, iniziano a comparire racconti fantastici popolati da automi, come L'uomo di sabbia (1817) ad opera dell’esponente del Romanticismo tedesco E.T.A. Hoffmann (1776 - 1822), dove vi era una donna a forma di bambola come protagonista oppure Storia filosofica dei secoli futuri (1860) in cui Ippolito Nievo (1831 - 1861) indicò l'invenzione dei robot (da lui chiamati “omuncoli”, “uomini di seconda mano” o “esseri ausiliari”) come l’invenzione più importante della storia dell’uomo. Da qui storie di automi o robot iniziano a costellare il panorama culturale del 1900 con i film Metropolis (1927), il popolare Guerre stellari (1977), Blade Runner (1982) e Terminator (1984), solo per citarne alcuni tra i principali. La storia dei giorni nostri è nota e, come si diceva pocanzi, la robotica, se ancora in fase sperimentale e non massificata, è una futuribile realtà. Basti pensare ai robot umanoidi giapponesi di Hiroshi Ishiguro, docente all’Università di Osaka, che sono copie quasi indistinguibili dagli esseri umani. Il professor Ishiguro è noto al grande pubblico soprattutto per aver creato addirittura un clone di se stesso. Tali sue creazioni si differenziano da altri famosi robot (vedi Asimo di Honda) per la loro quasi indistinguibilità dagli esseri umani nelle sembianze corporee, in quanto replicare l’intelligenza, il comportamento ed in genere le capacità cognitive umane è tutt’altra storia. Lo scienziato sostiene che “quando sostituiamo un umano con un androide, possiamo comprendere l’umano”.  

Hiroshi Ishiguro

Il professor Hiroshi Ishiguro con un androide

Ecco che ritorna il leitmotiv iniziale: comprendere noi stessi, attraverso la costruzione di un’entità che ci rassomigli il più possibile. Cosa significa specificatamente  “che ci rassomigli il più possibile”? Per tentare una risposta può essere utile partire da una definizione di robot presa in prestito dalla letteratura tecnica [1]: “I robot sono sistemi artificiali dotati di un corpo, di attuatori, sensori ed un sistema nervoso, situati in un ambiente fisico ed eventualmente sociale con il quale interagiscono”. A dire il vero questa definizione piace ai sostenitori della robotica autonoma, branca della robotica e dell’intelligenza embodied, i quali sostengono fermamente che robot intelligenti e capaci di funzioni cognitive non possono prescindere da un corpo fisico che interagisce con l’ambiente. Quindi un robot moderno deve avere qualcosa che sia simile, almeno dal punto di vista funzionale, ad un sistema nervoso e a un sistema sensomotorio per poter interagire con l’ambiente. Tuttavia, dobbiamo essere franchi ed ammettere che i concetti di “sistema nervoso”, “sistema percettivo” e di “cognizione” stessa sono relativamente recenti nella storia dell’uomo. Ma andiamo per gradi. Lo psicologo Julian Jaynes (1920 – 1997) nel suo celebre saggio La mente bicamerale e l’origine della coscienza (1976) sosteneva, come prova a sostegno di una rivisitazione della datazione relativa alla nascita della coscienza e di una nuova definizione della stessa, che nello studiare i testi antichi “gli studiosi proiettano la loro soggettività senza rendersi ben conto della gravità della loro distorsione” [2]. Seppure le illuminanti idee di Jaynes hanno attecchito poco negli studi moderni sulla coscienza in generale, le sue idee in merito alla proiezione della soggettività degli studiosi moderni sui testi antichi è degna di nota e di fatto ricca di buon senso. Lo psicologo sosteneva quindi di leggere i testi antichi cercando di eviscerarli dai nostri “preconcetti” moderni; ad esempio Jaynes invita a rileggere l’Iliade secondo quest’ottica e di considerare il significato di molte parole come poteva essere concepito dall’uomo del II Secolo a. C.. Egli ci suggerisce che, ad esempio, il termine psyche solo successivamente passò ad indicare “mente cosciente”, mentre in origine  essa doveva indicare sostanze vitali come il respiro o il sangue. Di fatto la maggior parte dei termini che oggi riferiamo a emozioni o sensazioni sono anatomicamente localizzate e al tempo stesso, data la non evoluta struttura cosciente rispetto all’uomo moderno, fanno parte del dominio dell’azione e non del pensiero cosciente come lo consideriamo oggi. In definitiva lo psicologo ci suggerisce che l’eroe dell’Iliade non ha una soggettività come la nostra, non ha la consapevolezza della sua consapevolezza del mondo, non ha probabilmente un “io”. Assieme ad una serie di ragionamenti simili, Jaynes ipotizza che la forma mentale dei micenei, e di popolazioni anche più recenti come gli Aztechi, sia marcatamente differente dalla nostra, tanto da fornirgli un appellativo: mente bicamerale.

Partendo dai presupposti di Jaynes, quando oggi assistiamo ad un robot in azione potremmo essere portati a pensare che un tale oggetto tecnologico sia relativamente recente e non abbia nessun collegamento con il passato se non con Pigmalione, che sposa la sua statua tramutata in essere umano dalla dea Atena. Oggi è richiesto ad un robot di possedere un sistema cognitivo ma, se ci si pensa, nella preistoria era impossibile una tale pretesa. Di fatto i robot odierni e quelli di là da venire sono un narcisistico impeto che l’uomo fin dai primordi ha avuto nel rappresentare se stesso, proprio come Narciso, famoso per la sua bellezza e che, preda dell’incantesimo della dea Nemesi,  si innamora di se stesso mentre per caso si trova a specchiarsi in una fonte e che morirà struggendosi per aver compreso che quel bellissimo giovanetto era lui stesso e che non sarà mai capace di ottenere l’amore da quest’ultimo. Ecco che gli automi, seppur considerati capolavori di ingegneria e visti in un’ ottica funzionalistica come entità capaci di sbrigare lavori pesanti e ripetitivi, non sono altro che il continuum di un filone apertosi con quello che la storiografia riferisce come arte preistorica e che va dal paleolitico fino all’età del bronzo. I primi oggetti degni dell’appellativo “artistico” si fanno risalire, nella storia dell’uomo, a circa 30-40000 anni fa, durante il paleolitico, all’epoca dell’uomo di Neanderthal e dell’Homo Sapiens. In quest’era vengono datate le prime rappresentazioni di scene di caccia e proto-sculture di entità femminili, scolpite ed incise in materiali come corno, avorio, ossa o pietra. Tuttavia la rappresentazione umana in questo periodo era rarissima e sovente stilizzata, essenziale nelle espressioni e a carattere propiziatorio, in definitiva primitiva. Se in questo periodo le impronte delle mani rinvenute nelle caverne fanno pensare ad una proto-individualità, nel neolitico la figura umana, sempre stilizzata, inizia a comparire come carattere ornamentale in utensili di vario genere, come vasi di terracotta. Approdando all’arte greca arcaica, possiamo osservare un forte balzo in avanti nella rappresentazione dell’uomo, soprattutto nella scultura. Di fatto la coppia di kuroi, tradizionalmente chiamata come Klèobi e Bitone, ritrovata alla fine dell'800 presso il santuario di Delfi, è un esempio di statuaria greca arcaica, di stile dorico, dove l’uomo è ben rappresentato, anche se la dinamica e le proporzioni classiche e ellenistiche erano di la da venire. I due androidi Klèobi e Bitone hanno proporzioni tozze e massicce, sono essenziali nelle forme anatomiche che sono anche compatte e unite, con articolazioni appena accennate. Possiamo azzardare che la compostezza ieratica delle statue, oltre a indicare solennità, è una caratteristica delle limitate capacità del tempo nel rappresentare la figura umana nella sua totale dinamicità.  

I due androidi Klèobi e Bitone

I due androidi Klèobi e Bitone (1)

Tali limiti sono stati ben superati, ad esempio nel gruppo scultoreo del Laocoonte, datato in epoca ellenistica, dove la rappresentazione dell’essere umano raggiunge caratteri sublimi. La posa instabile, data dalla necessità di liberarsi dalla stretta dei serpenti e la torsione del busto di Laocoonte, mostra la conquista di sopraffine tecniche artistiche nel modellare la pietra e nel rappresentare la dinamicità dell’azione da parte degli scultori greci.  Anche in epoca classica si hanno esempi di rappresentazione dell’essere umano nella dinamicità del compiere un’azione. Il Discobolo di Mirone ne è l’emblema. Si suole sottolineare nel descrivere quest’opera che, sebbene in apparenza il Discobolo sembri colto in una posa naturale (nel preciso istante in cui si appresta a scagliare il disco), la posizione è stata costruita artificiosamente dall'artista, in modo da evidenziare l'eleganza e la perfezione di quel gesto atletico. Con un pizzico di sfrontatezza si può azzardare che se Mirone avesse avuto la possibilità con altri materiali e con altre tecniche, come articolazioni e muscoli artificiali, avrebbe avuto la tentazione di costruire un androide capace di lanciare il disco per davvero. E se no lo avesse fatto Mirone, sicuramente qualcun altro lo avrebbe realizzato, ma all’epoca di materiali composti da nano-tubi di carbonio, esoscheletri ultraleggeri e chip di silicio, non se ne aveva la minima conoscenza. Nonostante ciò le sculture antiche ricche di una drammaticità senza precedenti vanno a stuzzicare i nostri sistemi cognitivi che ne riconoscono gli schemi spaziali, le azioni in fase di compimento e perché no, le emozioni scolpite nel volto come l’espressione dolorosa di Laocoonte, le cui sinuose e severe curve forniscono un grande pathos a tutta la scena. Questo può essere un esempio di affective computing, anche se fa sorridere chiamarlo così proprio perché tale filone di ricerca è moderno e contestualizzabile solo ai giorni nostri (notiamo che in questo caso gli avvertimenti di Jaynes sulla soggettivizzazione dei contenuti e sulla contestualizzazione errata sono non solo veritieri ma facilmente riscontrabili). Di nuovo, possiamo ora balzare dalle rappresentazioni delle statue Greche fino ai giorni nostri, agli androidi con pelle di silicone e capelli umani del Professor Ishiguro, oppure ad altri numerosi esperimenti di robot con marcata mimica facciale al fine di comunicare espressioni, come il famoso Han della Hans Robotics.

Laocoön and his sons, also known as the Laocoön Group

Gruppo scultoreo del Laocoonte (2)

Probabilmente, ma per dirlo bisogna purtroppo aspettare, anche oggi i laboratori di robotica stanno sperimentando limitate capacità realizzative dovute a carenze di tecniche, materiali e idee. Forse tali limitazioni saranno superate e la stessa dinamicità drammatica del Laocoonte sarà ravvisata sui futuri robot umanoidi. Ciò ci riporta all’affermazione di partenza secondo la quale costruiamo robot per cercare di comprendere noi stessi. Se prendiamo nuovamente in prestito le intuizioni dello psicologo Julian Jaynes è possibile comprendere da dove nasce questa necessità e dove ci stiamo dirigendo. Jaynes ipotizzava che l’uomo preistorico, specialmente prima dell’invenzione della scrittura, che è generalmente considerata come un passaggio di stato (come per l’acqua che balza dallo stato solido a quello liquido) cognitivo, avesse una forma mentale (la mante bicamerale) del tutto differente da quella dell’uomo attuale. Si potrebbe affermare con Jaynes che se un uomo preistorico fosse stato sottoposto a visita psichiatrica, sicuramente gli sarebbero state diagnosticate turbe psichiche e comportamenti paranoidi riscontrabili nella schizofrenia. Sarebbe da domandarsi ora cosa penserebbe dell’uomo moderno uno psichiatra preistorico, probabilmente proporrebbe una diagnosi simile. In ogni caso le ipotesi di Jaynes si basano tutte su una serie di indizi disseminati nella preistoria e nella storia dell’uomo. Ad esempio la differente percezione della morte nella cultura egizia come in quelle precedenti, data dai ritrovamenti e dalle rappresentazioni, nonché da pratiche di mummificazione, sepoltura e rituali in cui affianco al cadavere conservato in casa i familiari continuavano a depositare del cibo per parecchi giorni, mostra come l’accettazione di un corpo che muore in cui l’anima svanisce sia qualcosa di recente. Jaynes ipotizza che nella proto-coscienza di queste culture l’effetto evocativo dei familiari morti continuava a funzionare anche dopo la morte così da spingere i vivi a continuare a nutrirli e riverirli. Egli sosteneva addirittura che coloro che possedevano una mente bicamerale vivevano soggiogati da voci nel cervello che erano molto più forti e ammonitorie della voce del pensiero dell’uomo di oggi. Proprio come per i bambini che nel compiere una malefatta sentono la voce ammonitoria del genitore che gli vieta quell’azione, oppure per gli schizofrenici che nelle fasi acute possono sentire le “voci nel cervello” e compiere gesti o azioni eterodirette da queste ultime. Sempre secondo lo psicologo, tutta la cultura iconografica antica (specialmente quella religiosa, ma non solo) e perché no, anche quella moderna, assieme a idoli e dèi, ha un carattere evocativo. Dalle antiche tavolette votive alle icone dei santi alle statue sacre, erano tutti elementi a carattere evocativo che parlavano attraverso le “voci nel cervello”. Tali tesi sono corroborate dalla comprovata cultura orale che caratterizzava i popoli dell’antichità. In definitiva secondo Jaynes l’uomo viveva in uno stato allucinatorio (rispetto ad oggi) e figure come i Re o i Faraoni avrebbero avuto la loro tenuta sul popolo grazie al loro carattere evocatorio, tesi che potrebbe valere con le dovute cautele anche oggi. Jaynes in tali allucinatorie voci intravede anche la nascita di Dio come entità apparentemente esterna che parla, emana moniti e comandi attraverso la mente. A questo punto possiamo azzardare che, attraverso la costruzione di robot che siano simili all’essere umano sia dal punto di vista antropomorfo che da quello cognitivo, l’uomo moderno continua a perpetrare la propria necessità di creare un idolo, un simulacro di sé stesso che abbia un carattere evocatorio che è andato affievolendosi, come ammette lo stesso Jaynes, con l’invenzione della scrittura e con quello che può chiamarsi il passaggio dal Mitos al Logos.

Il filosofo tedesco Ernst Cassirer (1874 - 1945) riteneva che l’uomo conosce il mondo attraverso delle forme fondamentali della comprensione del mondo che sono forme simboliche: il mito, l’arte, il linguaggio o anche la conoscenza. Per l’appunto, oggi, con l’avanzare della tecnica, con la costruzione della bambagia semiotica che ci ha reso esseri simbolici, servono maggiori sforzi, da qui gli ingenti finanziamenti nella robotica, per costruire il Golem evocatore, i Monstrum di latta in cui possiamo rispecchiarci e, perché no, che sia capace di darci amore beffandosi del povero Narciso. Nel caso dei robot il carattere evocatorio sarebbe totale, interattivo e real-time e potrebbe portare l’umanità verso una nuova dimensione ultramoderna le cui sorti sono oggi inconoscibili.

Ecco che un sottile filo che si perde nella notte della preistoria, passa per le conquiste nella rappresentazione dell’uomo della scultura Greca e non solo, unisce opere strabilianti relegate al mondo dell’architettura ingegneristica come i robot alla sete di conoscenza di noi stessi. Possiamo affermare che seppure la scultura e altre forme di rappresentazione come forme d’arte continuano ad esistere oggi, c’è stato un momento nella storia che esse hanno avuto un carattere totalizzante nella rappresentazione dell’uomo, mentre oggi non è così. Lo stesso è stato in tempi recenti per la fotografia o il cinema e il loro carattere evocativo. L’arte di costruire architetture androidi è un’evoluzione stilistica della stessa arte che spingeva a modellare la roccia, solo che la scultura (o la fotografia) seguono rami secondari nell’albero dell’evoluzione, come le scimmie antropomorfe rispetto all’uomo.




[1] Nolfi, S. (2009). Che cos' è la robotica autonoma. Carocci.

[2] Jaynes, J., & Sosio, L. (1984). Il crollo della mente bicamerale e l'origine della coscienza (Vol. 84). Adelphi.

(1) Di en: User:Adam Carr - first uploaded as en:Image:Ac.kleobisandbiton.jpg, Pubblico dominio, https://commons.wikimedia.org/w/index.php?curid=783609

(2) Di English: Hagesandros, Athenedoros, and Polydoros - LivioAndronico (2014), CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=36412978

Ultimo aggiornamento Venerdì 23 Febbraio 2018 13:02

Parole vaghe, parole liquide

E-mail Stampa PDF

Bisognerebbe poter mostrare i quadri che sono sotto il quadro.

Pablo Picasso

C'è un concetto che corrompe e altera tutti gli altri. Non parlo del Male, il cui limitato impero è l'etica; parlo dell'Infinito.

Jorge Luis Borges


La Libertà che guida il popolo - Eugène Delacroix - 1830A volte vedo la mia vita specchiata attraverso le altre persone, quasi mai riesco nell’impresa di sentirla emergere dalle secrete più profonde del mio animo. E quando accade, mi riempio di una illimitata felicità che va assopendosi non appena ritorno alla vecchia abitudine. Poi, spesso, mi accade di riflettere su una serie di parole udite e ribadite nelle conversazioni quotidiane, scritte sui giornali, post di blog e chi più ne ha più ne metta: libertà, giustizia, amore, premura, lealtà, bontà d’animo, ostinazione, temerarietà… E non solo nell’accezione del “bene” – parola che potrebbe essere aggiunta alla lista – bensì anche del “male”: cupidigia, ignavia, cattiveria, gelosia, malvagità… Del resto anche l’utilizzo del termine “anima”  genera in me non pochi problemi. Ecco, mi domando cosa in realtà riferiscono davvero tali parole, note come afferenti al campo della Morale. Vero è che il linguaggio è appannaggio degli esseri umani e che, quindi, solo noi disquisiamo con scioltezza e disinvoltura della “libertà di una nazione”, della “cupidigia di certe persone” e del “bene comune” come obiettivo finale di una società in salute (o del male assoluto). D’un tratto, quando i miei pensieri si avvolgono in tali esempi, sento da qualche parte all’interno della mia mente una serie di “click” e partono immagini di devastazione, di guerre passate ed attuali, di rovinosi tradimenti, di ghepardi che studiano la propria preda nei minimi particolari prima di assalirla sicuri, ma forse incoscienti, della propria superiorità fisica. Il filosofo contemporaneo R. M. Pirsig arriva addirittura, e non a torto, a definire l’iniezione di un antibiotico come un genocidio di una popolazione di batteri che vivono in un corpo. Ancora, si hanno slavine, terremoti, tsunami, esplosioni per fughe di gas, stupri, violenze su donne e su uomini; bambini in paesi del Terzo Mondo che darebbero un braccio per avere solo un pezzo della comfort zone che gli occidentali spesso scambiano per noiosa routine quotidiana. Cosa se ne importa la Natura della libertà?

O Natura, o Natura perché non rendi poi quello che prometti allor? Perché di tanto inganni i figli tuoi?”. Già G. Leopardi si era spinto molto nel rapporto tra Natura e Uomo, finendo per abbracciare quello che i critici hanno poi definito pessimismo cosmico essendo nel pensiero del poeta la Natura considerata “matrigna”. Evidentemente anche in Leopardi alcuni pensieri hanno fatto scricchiolare gli assi dei neuroni. E allora, cosa ha a che fare il sostrato biologico con le vicissitudini che ci raccontiamo e ci rimbalziamo di mente in mente nel normare trascorrere le nostre vite sociali? Nella fisica classica, dai sistemi più semplici ai sistemi più complicati vi è una sorta di discesa naturale che regola il comportamento del sistema stesso, discesa verso il minimo energetico. Un sasso che cade e si deposita sul terreno va verso il suo predestinato minimo. Gli scienziati direbbero che il sistema sta minimizzando l’energia. Sebbene i biologi hanno più difficoltà nel rintracciare tale semplice legge, anche nelle interazioni biologiche si discende verso il campo di minima energia. Detta con una certa approssimazione, sembra che tutti i sistemi seguano questa regola. E cosa è la cupidigia? Un minimo di energia? E la cattiveria? Ciò che appare lampante è uno scollamento tra due livelli ben distinti; il livello dell’interazione biologica ed il livello dell’interazione sociale degli esseri umani, specie che assieme a moltissime altre abita il pianeta terra. Se il raggiungimento del “bene comune” appare un’utopia, mentre il giaguaro che agguanta affamato la preda è una realtà della savana, da qualche parte nella struttura dei comuni ragionamenti qualcosa non torna. Nel passato e purtroppo anche nel presente si usava attingere all’ “ira di Dio”, come elemento scenico tristemente salvifico che faceva da collante tra un fenomeno catastrofico e una presunta direzione verso il “bene” del procedere storico dell’uomo.  Dio l’ho tenuto per un attimo da parte (non me ne voglia) e non l’ho inserito volutamente nell’incompleto elenco sovrastante poiché è l’entità più dibattuta della storia e meriterebbe, almeno in apparenza una discussione a parte (anche se qualcosa mi suggerisce che anche Dio rientra per qualche grado in taluni ragionamenti). “I terremoti accadono per tutto il male che l’uomo fa nel mondo”. “Ti sei comportato male ecco per che ti è accaduta questa disgrazia”. Beninteso simili relazioni di causa-effetto non sono presenti solo nella cultura cristiana, basti pensare al karma. Che vi sia una certa intelligenza (non per forza teleologica) nella natura è lampante! E’ altresì chiaro che percorrere la catena causa-effetto che porta da una cattiva azione ad una catastrofe non è semplice anche se talvolta non è impossibile. Una casa costruita con la sabbia senza tener conto di fattori sismici è una cattiva azione e presto o tardi sarà causa di una tragedia. A morire non saranno con tutta probabilità i progettisti e costruttori ma chi vi abitava! E che colpa ne hanno loro? Nessuna. Oppure dovevano informarsi? E se sono stati ingannati anche dai periti? Ecco che la catena si spezza e una tragedia è accaduta per una colpa, certo, ma non assegnabile a chi ci ha rimesso la vita. Discorsi della stessa struttura sembrano comparire quando si tratta l’argomento mutazioni climatiche e global warming… Tsunami e devastazioni avvengono per mano umana, per quella colpa che ha nel proprio DNA i geni del “peccato originale”. E che dire dell’eruzioni vulcaniche? E di un meteorite che colpisce la terra? Il fisico Fred Hoyle, in “L’origine dell’’Universo e l’origine della Religione” tenta la sua ipotesi sull’origine di Dio e della sua peculiare personalità intravedendo in una pioggia di fuoco dovuta al passaggio di una cometa il riferirsi alla punizione divina da parte dell’uomo, diverse migliaia di anni fa. Del resto, nella Bibbia il peccato originale, cioè quell’azione compiuta da parte di Eva verso Adamo, appare come la condizione iniziale che determina gli esiti nefasti nella storia dell’uomo condannato al duro lavoro. La Bibbia è una narrazione. L’uomo, come del resto io stesso qui, offro una narrazione. “Giustizia”, “libertà”, “amore” sono una narrazione che passa non solo attraverso il filtro cognitivo dell’essere umano nel frangente attuale di tempo, ma è frutto di una sedimentazione avvenuta con costanza e dedizione di generazione in generazione, all’interno di un dato universo culturale. Lo scollamento di cui dicevo sopra, è nascosto nei meandri del filtro cognitivo che si sostanzia nella narrazione della storia dell’uomo. Narrazione che trae linfa da una serie emergente di cause-effetto, che sono selezionate rispetto a tutto l’insieme di cause-effetto concepibili, che sono in numero pressoché indefinito.

donna e naturaSe un uomo confida alla propria donna (o viceversa) di fare “sesso” e non l’ “amore”, quando sono nell’intimità, facili possono sopraggiungere problemi. Sesso e amore sono termini che si riferiscono ad universi differenti, sono i due lembi scollati. Non per questo una riappacificazione ecumenica non può esistere definendo il sesso come l’atto naturale (appunto) che si compie quando due persone si amano e stanno bene insieme. Ma solitamente, in una coppia dove vi è sentimento, se vi è sesso vi deve essere l’amore. Il sesso è come qualcosa di gerarchicamente più basso, rispetto ad Eros che domina dall’alto. Dal punto di vista biologico il sesso è un’importante funzione per la conservazione della specie, e l’amore?

Quale universo abita la libertà? Se chiudo un certo numero di molecole di un gas in un setto ermetico, creando un simulacro di un sistema termodinamicamente chiuso, come posso pretendere che le particelle siano libere di passare all’esterno? Ah, il concetto superiore di libertà non si applica ai gas nobili? Una macchina imbottigliata nel traffico di un’arteria autostradale non è come una particella di gas bloccata in uno stato? La macchina è guidata, diciamo una macchina classica e non a guida automatica, da un essere umano. Quante volte il concetto di libertà, quando viene invitato a scendere dal piedistallo metafisico, traballa? Lo stesso Dio, quando decide di camminare in mezzo agli uomini, trova non pochi problemi. E se è possibile che sia conscio delle imprecazioni venute dal basso della miseria umana, allora sicuramente starà lì, adesso, a non darsi pace. Il ponte è crollato a causa della piena eccezionale causata dal mal tempo eccezionale? C’è chi pensa che è colpa di Dio e lo bestemmia, chi pensa che sia, al contrario, la volontà di Dio a operare. E se muore un bambino in una disgrazia? E’ arrivato più vicino alla grazia di Dio. Forse questa non è la prima volta che viene posta la domanda in questi termini, ma chi lo ha detto che l’agire della Natura debba per forza seguire i dettami del bene? Un po’ come Fëdor Dostoevskij che, nella propria lotta al pensiero positivista, insisteva nel domandarsi se fosse giusto ritenere che l’uomo persegua il principio del “vantaggio”. Di fatto, per il grande scrittore russo un tale principio non può essere una legge generale, una legge di Natura, poiché l’uomo ha con sé il libero arbitrio, e può contravvenire alla regola per il gusto di farlo, oppure forsanche per  una pulsione di morte… Ma S. Freud era di là da venire. Appare più semplice ammettere che la Natura, matrigna o non, faccia il suo corso, correndo veloce nella propria esplorazione del campo di possibilità, mentre la narrazione umana non riesce a tenere il passo, vuoi per la finitezza dei suoi mezzi, vuoi per un ritardo temporale dovuto ad un tardivo sviluppo delle capacità cognitive superiori, capacità che hanno permesso l’utilizzo del pensiero astratto  e l’uso delle parole chiave - già citate - nella dialettica quotidiana. Tale svantaggio sommato ad una limitatezza delle nostre strutture cognitive potrebbe aver portato ad una compressione dell’informazione necessaria ai nostri cervelli per gestire la complessità del divenire quotidiano e la comparsa, nel linguaggio, di parole designanti concetti astratti come quelle citate all’inizio. E’ un’ipotesi.

Un formichiere che mangiando le formiche di un formicaio regolandone il numero e quindi tenendolo in salute (esempio che piace molto a D. Hofstadter che nel suo celebre librone Godel Escher e Bach viene utilizzato per spiegare il concetto di sistema, di funzione e di emergenza, nonché l’organizzazione gerarchica di alcuni sistemi complessi) compie un’azione eticamente malvagia? Oppure sta compiendo una buona azione nel segno di ciò che è giusto? Per non incappare in un cortocircuito cerebrale, solo una visione gerarchia dei sistemi, o sfere sociali e biologiche può aiutare. E qui incappiamo nella sistematizzazione di Pirsig, ovvero che qualsiasi atto della natura è un atto morale, dal nostro punto di vista. Al di là del bene e del male. Sistemi organizzativamente superiori, ovvero sistemi di sistemi come il mio o il vostro corpo (fatto di cellule, anch’esse sistemi a loro volta) possono compiere delle azioni morali, ad esempio sui batteri, tramite il sistema immunitario, per il nostro bene. Azioni del genere non vengono percepite come male e, di fatto, sono la garanzia per la nostra sopravvivenza. Il sistemi sociali, ovvero una numerosità di individui con le loro regole, leggi, codici e relazioni sono un sistema di sistemi. Tale sistema prevede, tanto per fare un esempio, la “Forza dell’ordine”, che, per l’appunto, può usare la forza per reprimere una situazione di squilibrio fino ad arrivare ad uccidere. Quindi, verso i ranghi inferiori le azioni sono percepite moralmente positive, mentre azioni che vanno nel verso contrario sono percepite come moralmente negative. Regola generale. L’abitudine al vegetarianismo o al veganismo, installatasi negli ultimi anni nelle società occidentali, non va contro questa regola generale, anche se in apparenza chi ha queste abitudini alimentari senza prescrizione medica, tende a non voler uccidere inutilmente gli animali. Quindi un sistema gerarchicamente superiore si rifiuta di fare del male ad un elemento del proprio sistema appartenente ai ranghi inferiori. Questo, bisogna ammetterlo con tutta franchezza, è possibile per l’abbondanza di cibo e nello specifico di proteine di qualità assimilabili con alimenti diversi dalle carni e, in ultima istanza, assimilabili tramite integratori medicinali. Ciò che è verificabile è che il vaganismo non porta all’estinzione (grazie all’abbondanza di cibo) della razza umana, sicché è ammissibile la contravvenzione alla regola generale di cui sopra, cioè che azioni dall’alto verso il basso sono considerate moralmente accettabili. Il contro-esempio è semplice, basta spostare l’asticella (e pare ci siano comunità che tentano di farlo) e considerare immorale anche l’assimilazione dei vegetali, di tutti i tipi (non parliamo di coloro che mangiano solo frutti caduti!). A questo punto ci potrebbe essere qualche problema di mal nutrizione vero e proprio e la legge di sopravvivenza spingerebbe a contravvenire alla regola imposta col cuore e con la ragione. Sembra che siamo giunti al nocciolo della vicenda! Niente di sconosciuto però, i protagonisti sono la selezione naturale e la spinta alla conservazione della specie. L’ingegnere filosofo A. Korzibsky negli anni ’30 del secolo scorso sosteneva che “libertà”, “giustizia”, “amore” e simili, sono parole astratte prive di qualsiasi reale senso e, se abusate, possono portare all’insanità mentale ed al cattivo funzionamento della società. Il filosofo Zygmunt Bauman, dal canto suo, descrive la società in cui viviamo attraverso la metafora della liquidità dovuta alla globalizzazione che ha portato sì ad una società iperconnessa, ma le cui connessioni hanno legami deboli, mutevoli, come il legami polari per le molecole di H2O. Ecco, “Amore”, “Giustizia” e “Libertà” (e tante altre paroline) sono parole liquide, che come l’acqua prendono la forma del contenitore. Per questo le sentiamo pronunciare da qualsiasi fazione politica, in qualsiasi discorso pronunciato con baldanza da un dittatore o da un fautore sfegatato della democrazia. Democrazia, aggiungete alla lista e dimenticate, ahimè, la storia del pensiero greco. Questo è il motivo per cui quando sento tali parole è come se il canale fosse disturbato, come se il filo che dall’amplificatore alle casse acustiche facesse falso contatto emettendo dei fastidiosi “click”, che, per altro, possono anche danneggiarle irrevocabilmente. “Amore”, “Giustizia” e “Libertà” non fanno parte delle regole della Natura, possono essere appannaggio solo del nostro universo sociale, ma purtroppo sono liquide, sono come uomini senza midollo, e si prostituiscono appena possono.

Ultimo aggiornamento Mercoledì 04 Ottobre 2017 21:49

Pagina 1 di 3

  • «
  •  Inizio 
  •  Prec. 
  •  1 
  •  2 
  •  3 
  •  Succ. 
  •  Fine 
  • »

Hanno detto..

You are here: Home