Federico Faggin: lectio magistralis

Mercoledì 3 ottobre, mentre i medi nazionali erano impegnati a raccontare il licenziamento della velina, in silenzio si è svolto un evento che avrebbe meritato un’attenzione assolutamente diversa: a palazzo Giustiniani si è tenuta la presentazione ufficiale del libro su Federico Faggin e lo stesso scienziato italiano ha tenuto la propria “lectio magistralis”.

Federico Faggin a palazzo Giustiniani

“5 minutes photo”

Chi sia e cosa ha fatto Federico Faggin è perfettamente noto ai lettori di questo blog ed è assolutamente superfluo ripeterlo in questo post.

La cosa che più ha stupito, anche in relazione con le esperienze italiane, è l’”uomo” Faggin, una persona estremamente gentile e disponibile, quasi emozionato perché pian piano l’Italia si sta accorgendo di uno degli ultimi eredi di Da Vinci. Per rendervi merito di ciò vi cito un piccolo aneddoto: con degli amici avevamo il piacere di avere un foto con Faggin ma lo scatto della stessa ha richiesto quasi 5 minuti (non tutti sono bravi con le macchinette digitali J), attesa ingannata scherzando e chiacchierando delle cose più disparate. Vi immaginate lo stessa situazione con un top-manager italiano? Io si, e sicuramente l’atteggiamento sarebbe stato molto diverso.

Questo a conferma, se ce ne fosse bisogno, di quanto si evidenzia nell’ottima biografia “Faggin, il padre del chip intelligente”, realizzata con passione dal prof. Angelo Gallippi e che vi consiglio assolutamente di leggere.

Federico Faggin, il padre del microprocessore

Vi lascio ora alla “lectio magistralis” che Faggin ha tenuto durate l’evento.

Breve Storia e Futuro dell’Informatica
Federico Faggin, Roma, 3 ottobre 2012

Signor Ministro Profumo, autorità, signore e signori. Sono particolarmente lieto di ringraziare il signor Presidente del Senato per averci ospitato in questa magnifica sala cinquecentesca, le professoresse Rita Levi-Montalcini e Patrizia Livreri per avermi invitato a questa importante cerimonia, i relatori che hanno preso la parola spendendo giudizi lusinghieri su di me, e tutti i presenti per essere intervenuti numerosi, alcuni anche avendo affrontato lunghi viaggi. Ringrazio anche Angelo Gallippi, che da oltre un decennio segue e racconta con passione le mie varie attività.

Oggi vi parlerò dell’informatica, accennando alle varie tappe importanti della sua storia, fino al presente, e soffermandomi sopratutto sulla sua probabile evoluzione futura.
Informatica è una parola di recente invenzione. Fu usata per la prima volta nel 1962 dal francese Philippe Dreyfus, che ottenne informatique dalla fusione di information e automatique, per indicare la disciplina che studia la teoria, la realizzazione e l’utilizzo di sistemi per il trattamento automatico dell’informazione.

La storia dell’informatica però si perde nel tempo. Il primo strumento di calcolo fu l’abaco di cui esistono esemplari che risalgono alla civiltà sumeriana, 4600 anni fa. Tre millenni dopo, la prima calcolatrice meccanica fu inventata da Blaise Pascal in Francia, nel 1642.
Bisogna però aspettare l’ascesa della scienza, con la conseguente rivoluzione industriale, per osservare i primi passi dell’informatica moderna. La prima macchina programmabile, fu il telaio a schede perforate di Joseph Marie Jacquard che nel 1801 poteva fabbricare automaticamente tessuti con disegni complessi. Nel 1890 il governo Americano usò, per il censimento dello stesso anno, una macchina tabulatrice con classificatore, inventata da Herman Hollerith, che dimostrò una grande riduzione dei tempi di elaborazione dei dati rispetto ai metodi manuali precedenti. Qualche anno prima, la prima calcolatrice meccanica a tasti fu messa in vendita negli Stati Uniti, con il nome Comptometer.

Durante il XIX secolo le scoperte dell’elettromagnetismo portarono nuove conoscenze e potenti tecnologie nel mondo, tra cui il motore elettrico e l’elettrificazione della società. A cavallo tra il XIX e il XX secolo, ci fu un periodo straordinario di invenzioni dovute alla maturazione delle tecnologie meccaniche in combinazione con le nuove possibilità offerte dall’elettrotecnica. Invenzioni come la lampadina elettrica, la telegrafia senza fili, la valvola termoionica, l’automobile, l’aereo, il cinema, la macchina fotografica, il grammofono, la radio, il telefono, gli elettrodomestici, e decine di altre invenzioni cambiarono la vita umana.
Il progresso nell’informatica prese una svolta decisiva negli anni trenta con la scoperta che la logica matematica di Boole costituiva il linguaggio naturale per il trattamento dell’informazione. Il primo computer programmabile fu progettato e costruito da Konrad Zuse nel 1941 in Germania. Usava 2300 relè elettromeccanici, e un film perforato di 35 mm, come quelli usati nelle machine fotografiche, per la memoria dei dati e del programma. La frequenza di orologio era di circa 5 Hz.

Nel 1946, il primo calcolatore elettronico programmabile, l’ENIAC, fu costruito negli Stati Uniti con più di 17.000 valvole termoioniche. Occupava 167 mq, pesava più di 30 tonnellate, consumava 150 kW di energia elettrica, e poteva eseguire 5000 istruzioni al secondo – mille volte più veloce del computer elettromeccanico.
Cinque anni dopo, nel 1951, il primo computer commerciale fu introdotto nel mercato: L’UNIVAC 1, un computer con 5200 valvole in grado di fare 500 moltiplicazioni al secondo, al costo di più di un milione di dollari per copia. Ne vendettero 46 unità, segnando l’inizio di un’industria che oggi è gigantesca.

Ma le valvole erano destinate a sparire poichè erano ingombranti, costose, poco affidabili e sopratutto consumavano troppa energia elettrica. Quasi dieci anni dopo, nel 1960, il primo computer interamente fatto con transistori fu pronto, l’IBM 650, e durante gli anni 60, il computer a transistori dimostra la sua versatilità. Faccio notare che nel 1960 anche l’Olivetti mise in commercio il suo primo computer elettronico, l’Elea 9003, anch’esso fatto interamente con transistori. L’Italia era quindi all’avanguardia in questo campo, insieme ai paesi piu’ avanzati.

In seguito alla disponibilità commerciale del computer, comincia l’esplorazione delle sue potenzialità d’uso, e si scopre che esso è ben più di uno strumento di calcolo matematico come si pensava all’inizio. La sua programmabilità si presta a molti altri usi inizialmente insospettati, come il controllo numerico, il controllo di sistemi di commutazione, e la creazione di banche dati. Così si scopre che il computer è un potente manipolatore universale di simboli, limitato soltanto dalla sua velocità e dalla sua capacità di memoria.
Un altro percorso fondamentale iniziò allo stesso tempo dell’ENIAC, con l’invenzione del transistore, nel 1947, reso possibile dalle nuove scoperte scientifiche nel campo della fisica quantistica. Dopo dieci anni di miglioramenti, il transistore raggiunse caratteristiche equivalenti alle valvole termoioniche, finendo per sostituirle verso la fine degli anni 50. Però il computer, anche usando i transistori, era una macchina enorme e costosissima che richiedeva personale specializzato per il suo uso.

Nel 1959 ci fu un enorme balzo avanti con l’invenzione del processo planare fatta da Jean Hoerni, alla Fairchild Semiconductor. Invece di fare un transistore alla volta, il processo planare permetteva di farne centinaia alla volta, sulla superficie di una fetta di silicio monocristallino. Questa invenzione seminale dette vita alla microelettronica poichè rese possibili i primi circuiti integrati qualche anno dopo.
Con i circuiti integrati, vennero gradualmente realizzate tutte le funzioni del computer, in particolare le prime memorie a semiconduttori, costruite alla fine degli anni sessanta, e il primo microprocessore, l’Intel 4004, realizzato nel 1971. Con il primo microprocessore, fu possibile fare un intero computer che, in confronto all’ENIAC, era venti volte più veloce, consumava 10.000 volte di meno, e invece di occupare 300 metri cubi e pesare 30 tonnellate, aveva il volume di pochi centimetri cubici e il peso di circa cento grammi.
Durante la seconda metà degli anni settanta, il personal computer — fatto con microprocessori di terza generazione — debutta sul mercato. Pochi anni dopo — per la prima volta nella storia umana — milioni di persone possiedono la potenza elaborativa di un computer, strumento che pochi anni prima era proibitivamente costoso e di difficile uso. Durante lo stesso periodo, fu anche possibile realizzare un intero computer in un singolo chip, dispositivo che oggi si chiama microcontrollore.

Con il microprocessore e i microcontrollori, applicazioni che erano solo concettualmente possibili con il computer diventarono fattibili, dando così vita a migliaia di nuovi prodotti e servizi che crearono intere industrie, cambiando irreversibilmente la nostra vita. Basta pensare al personal computer, al telefono mobile, e a internet.
Durante gli ultimi 50 anni, la microelettronica ha alimentato la rivoluzione informatica della società con una crescita esponenziale nel numero di transistori integrati in un chip — fenomeno conosciuto come la legge di Moore che stipula che il numero di transistori integrabile in un singolo chip raddoppia ogni 2 anni. Inoltre, la microelettronica ha anche allargato il suo raggio d’azione, permettendo di fare sul silicio sensori di tutti i tipi, nonchè funzioni elettromeccaniche, ottiche e magnetiche. Per esempio, oggi possiamo fare una intera macchina fotografica e video digitale in un cubetto di circa due mm di lato — grande quanto l’occhio di un piccolo animale — che costa circa un euro in grandi volumi.

Lo stato dell’arte attuale include microprocessori che integrano piu’ di 4 miliardi di transistori in un chip, memorie flash – che sono le chiavette che uno si porta in tasca — con 64 GB, e interi sistemi costruiti in un singolo chip. Oggi è possibile avere con se migliaia di canzoni, migliaia di libri, migliaia di fotografie e una decina di film, nonchè una capacita’ di calcolo, di comunicazione e di controllo che era impensabile solo 30 anni fa. Il tutto contenuto in un telefono intelligente tascabile capace di comunicare telefonicamente in tutto il mondo, e accedere a servizi internet quasi dovunque uno si trovi sulla faccia della terra.

Guardando ora al futuro, la microelettronica continuera’ la sua crescita esponenziale con un tempo di raddoppiamento che però si allungherà gradualmente, e che oggi si avvicina ai 3 anni. La strategia principale per continuare tale progresso consisterà per altri 15-20 anni, nella riduzione delle dimensioni fisiche del transistore – la stessa strategia che abbiamo usato durante gli ultimi 50 anni — dagli attuali 22 nm, a circa 5 nm — 5 miliardesimi di metro – che è praticamente il limite fisico dei dispositivi MOS tradizionali. Oggi però si sta già sviluppando la tecnologia che diventerà la nuova strada maestra per continuare con la legge di Moore: I circuiti integrati useranno la terza dimensione fisica, cioè saranno costruiti con multipli strati attivi sovrapposti, esattamente come si fa con i fabbricati quando non c’è più spazio e bisogna costruirli a più piani, fino a fare i grattacieli.
Questa diventerà la nuova strategia primaria per continuare per almeno altri 30 anni la crescita esponenziale, dopo che le dimensioni fisiche del transistore avranno raggiunto il limite fisico. Nel frattempo, nuovi materiali e nuovi dispositivi su scala nanometrica, basati su principi di funzionamento diversi dal transistore MOS, saranno gradualmente aggiunti al silicio per permettere di costruire strutture complesse e eterogenee, anche sotto i 5 nm, in più di uno strato. Per esempio, nanotubi di carbonio e grafene sono materiali promettenti per fare dispositivi o più piccoli o più veloci che potranno gradualmente aggiungersi al silicio per continuare a migliorare le prestazioni dei circuiti integrati. Il silicio diventerà quindi una piattaforma su cui costruire sistemi eterogenei aumentando ancora di più la sua già enorme versatilità.

C’è però anche un’altra strada possibile a lungo termine che richiede di imparare a fare dispositivi elettronici funzionanti su scala atomica e molecolare, usando principi biologici – e vorrei riservare il nome nanoelettronica a questo tipo di tecnologia. La ricompensa più importante di questo approccio è la possibilità che tali sistemi si possano auto-assemblare, in maniera simile a come avviene nel caso delle cellule viventi, riducendo quindi drasticamente il costo di produzione. Se ciò sarà possibile, la crescita esponenziale continuerà almeno per un’altro secolo, anche se il tempo necessario per raddoppiare le prestazioni continuerà ad allungarsi gradualmente. È quindi prevedibile che il progresso informatico continuerà senza sosta, creando nuove categorie di industrie, e allo stesso tempo travolgendo le industrie che non sono in grado di stare al passo.
In passato, la capacità di elaborazione dei computer è cresciuta esponenzialmente di un fattore 10 ogni 4 anni, e questo trend continuerà per molti decennia visti i progressi ancora possibili con la microelettronica e la nanoelettronica che ho appena descritto. Se poi sarà possibile fare un computer quantico, il progresso potrà continuere ancora più a lungo poichè questo nuovo tipo di computer, attualmente oggetto di intenso studio e sperimentazione, promette di poter fare un grande numero di operazioni simultanee utilizzando le straordinarie proprietà della materia che si trova in sovrapposizione quantica. È difficile però prevedere se, e quando, sarà possibile fare commercialmente un computer quantico. Personalmente penso non prima di 20-30 anni, ma niente è certo in materia.

Un’altra importante direzione di ricerca è la creazione di computer cognitivi che sono in grado di imparare da soli, copiando per così dire, le lezioni che impareremo dallo studio del cervello animale e umano. Questo tipo di computer potrebbe aver bisogno di una architettura completamente diversa dall’architettura tradizionale, che è sempre rimasta la stessa – nella sua essenza — da quando fu inventata nella seconda metà degli anni quaranta.
Questo argomento mi porta naturalmente a parlare dei sistemi biologici perchè solo oggi abbiamo le conoscenze teoriche e gli strumenti per investigare la straordinaria organizzazione delle cellule e degli organismi viventi. Consideriamo per esempio un semplice paramecio, un protozoo unicellulare del diametro di circa un decimo di mm, che è un sistema informatico prodigioso, in grado di coordinare migliaia di processi informatici simultanei che avvengono su scala atomica e molecolare. Dotato di un sistema sensoriale e motorio complesso, il paramecio è in grado di imparare da solo, riprodursi, auto-ripararsi e usare energia in maniera efficacissima. Si tratta cioè di un sistema autonomo e intenzionale anche se privo di un sistema nervoso.

Com’è possibile tutto questo? Questa semplice osservazione ci dice quanto lontani siamo, malgrado gli enormi progressi fatti negli ultimi cent’anni, dal comprendere, e quindi riprodurre, le capacità informatiche dimostrate da semplici cellule viventi — senza parlare poi di sistemi multicellulari che sono infinitamente più complessi. Queste considerazioni mi portano alla conclusione che la biologia diventerà molto probabilmente la nuova frontiera, anche per le tecnologie informatiche, e che dal suo studio impareremo moltissime lezioni insospettate.

A questo punto vorrei parlarvi delle applicazioni informatiche che prevedibilmente continueranno anch’esse la loro crescita esplosiva. Avremo libri e giornali elettronici interattivi, traduzione simultanea, guida automatica, case e uffici intelligenti, nuovi servizi informatici e internet degli oggetti, cioe’ l’abilita’ di oggetti forniti di sensori e attuatori di comunicare automaticamente sia tra di loro come con persone o con centri di raccolta dati, utilizzando l’infrastruttura internet. In questo modo migliaia di nuove applicazioni diventeranno possibili, tra cui molte applicazioni oggi impensabili e impensate.
Durante i prossimi 30 anni la modellistica e le simulazioni al computer raggiungeranno un altissimo livello di fedeltà e permetteranno uno sviluppo straordinario di sistemi di realtà virtuale, realtà aumentata, realtà mediata e telepresenza. Robot autonomi e intelligenti cominceranno ad essere fattibili, ma il progresso quì sara’ relativamente lento rispetto alle aspettative, dovuto alla difficoltà di scoprire l’architettura necessaria per fare sistemi veramente autonomi e intelligenti. Ci saranno anche molti dispositivi medicali personali per l’analisi automatica di fluidi e vari altri segni vitali che renderanno più facile prendere cura della nostra salute. E la lista è quasi interminabile.
Vorrei quindi descrivere un po’ più a fondo un paio delle applicazioni sopra accennate, che avranno un importante impatto sociale, e che sono emblematiche delle trasformazioni in atto. La prima è il libro elettronico, che ha debuttato una decina di anni fa, e la seconda è la guida automatica che è ancora nella fase di ricerca e sviluppo.
Il libro elettronico è un libro che viene venduto attraverso il web e scaricato su di un lettore apposito, usando telefonia mobile 3G o 4G. Negli ultimi 4-5 anni, con la diffusione di lettori specializzati, tra cui il Kindle dell’Amazon e l’iPad dell’Apple Computer, l’ebook, così com’è chiamato, ha avuto una crescita straordinaria al punto che negli Stati Uniti si prevede che quest’anno ci saranno più ebook venduti che non libri stampati.

Siamo arrivati al punto che tra alcuni anni la maggioranza dei nuovi libri saranno pubblicati soltanto in versione elettronica e non saranno più disponibili in versione cartacea per evitare e il costo e le limitazioni distributive dell’editoria tradizionale. Il libro elettronico sta già producendo rapidi cambiamenti nell’ecosistema del libro con librerie e case editrici che chiudono, nuove forme distributive che nascono, e sopratutto con una offerta molto più alta di nuovi titoli, che include anche libri antichi e libri fuori stampa. Tutto ciò dovuto al fatto che il costo per pubblicare un libro elettronico è quasi irrisorio.
I vantaggi ovvi del libro elettronico sono: una drastica riduzione dei costi di produzione e distribuzione; il poter comperare quasi istantaneamente qualsiasi ebook, dovunque uno si trovi; la disponibilità di molti più titoli di quanti uno possa trovare in libreria; e la possibilità di portare con se l’intera biblioteca personale visto che il lettore può contenere migliaia di libri.
Benchè questi non siano vantaggi trascurabili, la vera rivoluzione dell’ebook non è tanto nel sostituire la carta stampata con un lettore, ma nel dare la possibilità al libro di trasformarsi in un nuovo mezzo communicativo molto più ricco ed efficace, non essendo più imprigionato dalle limitazioni della carta stampata. In futuro, il libro si evolverà in un oggetto multimediale e interattivo; ricco di immagini, filmati, suoni; e collegato al web in modo da dare servizi bibliografici, dizionari, atlanti e simulazioni che permettano al lettore di ampliare e coadiuvare il soggetto del libro.

Una delle promesse più importanti dell’ebook è nel campo dei testi scolastici dove sarà possibile avere libri che potranno insegnare i vari soggetti di studio come mai prima. Immaginate, per esempio, un libro di zoologia che non si limita ad una descrizione verbale dei vari animali coadiuvata da qualche fotografia, ma un libro che mostra filmati dei vari animali in azione, ne riproduce i versi, mostra le loro abitudini sociali, e così via. Se poi uno studente vuole approfondire il soggetto, il libro è fornito di referenze ancora più dettagliate, direttamente e istantaneamente accessibili cliccando su di esse. Se uno non sapesse il significato di una parola, cliccando su di essa può accedere immediatamente ad un dizionario o ad una enciclopedia; per esempio, cliccando su Serengheti, uno ha accesso ad una carta geografica che mostra dove si trova, e a filmati che mostrano le sue caratteristiche essenziali. Questi libri scolastici avranno anche simulazioni di formule matematiche con la possibilità di cambiarne i parametri; esercizi in grado di valutare la preparazione dello studente, e sulla base della valutazione, dare suggerimenti sul materiale da ripassare, dare spiegazioni sulle risposte sbagliate, e proporre ulteriori esercizi in modo da ottimizzare l’apprendimento.

Possiamo anche immaginare libri simili a videogiochi avanzati, dove il lettore è un attore all’interno dello stesso libro, garantendo così il massimo livello di coinvolgimento possibile. Il libro potrà anche presentare situazioni personalizzate in relazione alle caratteristiche psicologiche del lettore, specializzando quindi la storia e le possibilità di apprendimento o di divertimento del lettore.
L’evoluzione del libro elettronico sarà per molti versi simile all’evoluzione della fotografia digitale. Dieci-quindici anni fa la fotografia digitale era agli inizi della sua fase commerciale, e la maggior parte delle persone pensava che non avrebbe mai potuto sostituire il film fotografico. Si diceva che la qualità delle foto digitali era così povera che le sue applicazioni sarebbero state molto limitate. Però nel giro di dieci anni la qualità, la convenienza e il costo delle foto digitali è migliorata al punto che oggi le macchine fotografiche a film non sono più prodotte e si fa addirittura fatica a comperare e a sviluppare film perche’ non si usa quasi più.
La sorte del libro elettronico sarà simile. Tra dieci anni la stragrande maggioranza dei libri venduti saranno elettronici e le nuove generazioni guarderanno al libro cartaceo come una curiosità storica, interessante, ma fuori del tempo.

L’altra applicazione importante che vorrei approfondire è la guida automatica. Sarebbe bello poter salire in macchina e dire: “portami all’ufficio” e durante il tragitto lavorare tranquillamente lasciando all’auto il compito di guidarsi da sola; e una volta arrivati all’ufficio dire: “Parcheggiati. Ti chiamerò più tardi per portarmi a casa.”
Questo scenario non è più fantascientifico poichè sarà tecnologicamente possibile fra circa 10-20 anni e sarà quindi soltanto una questione economica, legale e assicurativa prima che tale possibilità diventi commercialmente disponibile. Le motivazioni principali per sviluppare la guida automatica sono: la riduzine drastica degli incidenti stradali; l’uso produttivo del tempo di guida; e il miglioramento della viabilità delle strade esistenti.
A rendere la guida automatica possibile saranno molte innovazioni tra cui avanzati sistemi visivi computerizzati, radar anti-collisione, GPS e altri sensori avanzati, sistemi di comunicazione autonoma con i veicoli vicini e con vari servizi stradali, e il continuo progresso nel campo della robotica.

Prevedo che tra circa dieci anni saranno disponibili commercialmente le prime auto in grado di auto-guidarsi in condizioni di guida relativamente facili, come le autostrade. Ci vorranno però altri 10 anni prima che la guida automatica abbia raggiunto il livello di sofisticazione necessaria per essere sicura nel traffico caotico delle città. Tra 40-50 anni è prevedibile quindi che la guida automatica diventi obbligatoria per tutte le nuove auto che entrano in circolazione, in modo da trarre il massimo beneficio sociale da questa tecnologia.
Non posso però finire la mia presentazione senza accennare alla bioinformatica, la scienza che studia i processi informatici dei sistemi viventi, poichè essa rappresenta oggi il piccolo germoglio da cui penso emergerà la prossima rivoluzione che si avvicenderà alla rivoluzione informatica. Nel corso della sua storia, l’umanità è passata attraverso la rivoluzione agricola, la rivoluzione industriale, ed è ora impegnata nella rivoluzione informatica. Ma la rivoluzione informatica non sarà l’ultima rivoluzione. Il prossimo ciclo – la rivoluzione bioinformatica — potrebbe iniziare tra circa 40-50 anni e avere un impatto fondamentale nella comprensione della vita e nell’uso dei principi fondamentali alla base della vita; una rivoluzione che ha il potenziale di motivare una evoluzione della società umana più responsabile e compassionata, benchè ci siano anche potenziali risvolti oscuri.

Fino ad oggi, la natura dell’informazione nei sistemi viventi è stata vista come una conseguenza della biochimica. Però è anche possibile che sia la biochimica ad essere una conseguenza delle necessità informatiche dei sistemi viventi. In altre parole, la natura della vita potrebbe essere primaria e la biochimica sarebbe il modo di esprimere la dinamica evolutiva della vita con i materiali disponibili nel nostro pianeta, rappresentandone la struttura informatica attraverso il linguaggio della biochimica. In altri sistemi fisici, lo stesso dinamismo vitale potrebbe utilizzare materiali diversi e con essi creare altre strutture informatiche, la cui ricchezza di forme sarebbe legata alle capacità espressive dei materiali disponibili.
Se questo punto di vista è corretto, lo studio della bioinformatica in quest’ottica, potrebbe rivelare connessioni profonde e finora nascoste tra informazione, spazio-tempo, energia-materia e consapevolezza che sono molto probabilmente alla base del mistero cosmico della vita.
La natura della consapevolezza, uno dei misteri più profondi, è inestricabilmente connessa alla percezione, intesa come la capacità di ricevere informazione dall’ambiente, e produrre sensazioni e cognizione basate sull’informazione ricevuta, e sulla struttura cognitiva cumulativa. Questa capacità è oggi impossibile da realizzare con il computer classico.
Mi auguro che l’informatica del futuro serva a creare il sistema nervoso dell’umanità con cui comprendere il ruolo sacro della vita, gestire con responsabilità, intelligenza e compassione l’ecosistema del nostro pianeta, e diventare veri cittadini del Cosmo.

Grazie della vostra attenzione.

FF

Press ESC to close