Mercoledì 3 ottobre, mentre i medi nazionali erano impegnati a raccontare il licenziamento della velina, in silenzio si è svolto un evento che avrebbe meritato un’attenzione assolutamente diversa: a palazzo Giustiniani si è tenuta la presentazione ufficiale del libro su Federico Faggin e lo stesso scienziato italiano ha tenuto la propria “lectio magistralis”.
Federico Faggin a palazzo Giustiniani
“5 minutes photo”
Chi sia e cosa ha fatto Federico Faggin è perfettamente noto ai lettori di questo blog ed è assolutamente superfluo ripeterlo in questo post.
La cosa che più ha stupito, anche in relazione con le esperienze italiane, è l’”uomo” Faggin, una persona estremamente gentile e disponibile, quasi emozionato perché pian piano l’Italia si sta accorgendo di uno degli ultimi eredi di Da Vinci. Per rendervi merito di ciò vi cito un piccolo aneddoto: con degli amici avevamo il piacere di avere un foto con Faggin ma lo scatto della stessa ha richiesto quasi 5 minuti (non tutti sono bravi con le macchinette digitali J), attesa ingannata scherzando e chiacchierando delle cose più disparate. Vi immaginate lo stessa situazione con un top-manager italiano? Io si, e sicuramente l’atteggiamento sarebbe stato molto diverso.
Questo a conferma, se ce ne fosse bisogno, di quanto si evidenzia nell’ottima biografia “Faggin, il padre del chip intelligente”, realizzata con passione dal prof. Angelo Gallippi e che vi consiglio assolutamente di leggere.
Federico Faggin, il padre del microprocessore
Vi lascio ora alla “lectio magistralis” che Faggin ha tenuto durate l’evento.
Breve Storia e Futuro dell’Informatica
Federico Faggin, Roma, 3 ottobre 2012
Signor Ministro Profumo, autorità, signore e signori. Sono particolarmente lieto di ringraziare il signor Presidente del Senato per averci ospitato in questa magnifica sala cinquecentesca, le professoresse Rita Levi-Montalcini e Patrizia Livreri per avermi invitato a questa importante cerimonia, i relatori che hanno preso la parola spendendo giudizi lusinghieri su di me, e tutti i presenti per essere intervenuti numerosi, alcuni anche avendo affrontato lunghi viaggi. Ringrazio anche Angelo Gallippi, che da oltre un decennio segue e racconta con passione le mie varie attività.
Oggi vi parlerò dell’informatica, accennando alle varie tappe importanti della sua storia, fino al presente, e soffermandomi sopratutto sulla sua probabile evoluzione futura.
Informatica è una parola di recente invenzione. Fu usata per la prima volta nel 1962 dal francese Philippe Dreyfus, che ottenne informatique dalla fusione di information e automatique, per indicare la disciplina che studia la teoria, la realizzazione e l’utilizzo di sistemi per il trattamento automatico dell’informazione.
La storia dell’informatica però si perde nel tempo. Il primo strumento di calcolo fu l’abaco di cui esistono esemplari che risalgono alla civiltà sumeriana, 4600 anni fa. Tre millenni dopo, la prima calcolatrice meccanica fu inventata da Blaise Pascal in Francia, nel 1642.
Bisogna però aspettare l’ascesa della scienza, con la conseguente rivoluzione industriale, per osservare i primi passi dell’informatica moderna. La prima macchina programmabile, fu il telaio a schede perforate di Joseph Marie Jacquard che nel 1801 poteva fabbricare automaticamente tessuti con disegni complessi. Nel 1890 il governo Americano usò, per il censimento dello stesso anno, una macchina tabulatrice con classificatore, inventata da Herman Hollerith, che dimostrò una grande riduzione dei tempi di elaborazione dei dati rispetto ai metodi manuali precedenti. Qualche anno prima, la prima calcolatrice meccanica a tasti fu messa in vendita negli Stati Uniti, con il nome Comptometer.
Durante il XIX secolo le scoperte dell’elettromagnetismo portarono nuove conoscenze e potenti tecnologie nel mondo, tra cui il motore elettrico e l’elettrificazione della società. A cavallo tra il XIX e il XX secolo, ci fu un periodo straordinario di invenzioni dovute alla maturazione delle tecnologie meccaniche in combinazione con le nuove possibilità offerte dall’elettrotecnica. Invenzioni come la lampadina elettrica, la telegrafia senza fili, la valvola termoionica, l’automobile, l’aereo, il cinema, la macchina fotografica, il grammofono, la radio, il telefono, gli elettrodomestici, e decine di altre invenzioni cambiarono la vita umana.
Il progresso nell’informatica prese una svolta decisiva negli anni trenta con la scoperta che la logica matematica di Boole costituiva il linguaggio naturale per il trattamento dell’informazione. Il primo computer programmabile fu progettato e costruito da Konrad Zuse nel 1941 in Germania. Usava 2300 relè elettromeccanici, e un film perforato di 35 mm, come quelli usati nelle machine fotografiche, per la memoria dei dati e del programma. La frequenza di orologio era di circa 5 Hz.
Nel 1946, il primo calcolatore elettronico programmabile, l’ENIAC, fu costruito negli Stati Uniti con più di 17.000 valvole termoioniche. Occupava 167 mq, pesava più di 30 tonnellate, consumava 150 kW di energia elettrica, e poteva eseguire 5000 istruzioni al secondo – mille volte più veloce del computer elettromeccanico.
Cinque anni dopo, nel 1951, il primo computer commerciale fu introdotto nel mercato: L’UNIVAC 1, un computer con 5200 valvole in grado di fare 500 moltiplicazioni al secondo, al costo di più di un milione di dollari per copia. Ne vendettero 46 unità, segnando l’inizio di un’industria che oggi è gigantesca.
Ma le valvole erano destinate a sparire poichè erano ingombranti, costose, poco affidabili e sopratutto consumavano troppa energia elettrica. Quasi dieci anni dopo, nel 1960, il primo computer interamente fatto con transistori fu pronto, l’IBM 650, e durante gli anni 60, il computer a transistori dimostra la sua versatilità. Faccio notare che nel 1960 anche l’Olivetti mise in commercio il suo primo computer elettronico, l’Elea 9003, anch’esso fatto interamente con transistori. L’Italia era quindi all’avanguardia in questo campo, insieme ai paesi piu’ avanzati.
In seguito alla disponibilità commerciale del computer, comincia l’esplorazione delle sue potenzialità d’uso, e si scopre che esso è ben più di uno strumento di calcolo matematico come si pensava all’inizio. La sua programmabilità si presta a molti altri usi inizialmente insospettati, come il controllo numerico, il controllo di sistemi di commutazione, e la creazione di banche dati. Così si scopre che il computer è un potente manipolatore universale di simboli, limitato soltanto dalla sua velocità e dalla sua capacità di memoria.
Un altro percorso fondamentale iniziò allo stesso tempo dell’ENIAC, con l’invenzione del transistore, nel 1947, reso possibile dalle nuove scoperte scientifiche nel campo della fisica quantistica. Dopo dieci anni di miglioramenti, il transistore raggiunse caratteristiche equivalenti alle valvole termoioniche, finendo per sostituirle verso la fine degli anni 50. Però il computer, anche usando i transistori, era una macchina enorme e costosissima che richiedeva personale specializzato per il suo uso.
Nel 1959 ci fu un enorme balzo avanti con l’invenzione del processo planare fatta da Jean Hoerni, alla Fairchild Semiconductor. Invece di fare un transistore alla volta, il processo planare permetteva di farne centinaia alla volta, sulla superficie di una fetta di silicio monocristallino. Questa invenzione seminale dette vita alla microelettronica poichè rese possibili i primi circuiti integrati qualche anno dopo.
Con i circuiti integrati, vennero gradualmente realizzate tutte le funzioni del computer, in particolare le prime memorie a semiconduttori, costruite alla fine degli anni sessanta, e il primo microprocessore, l’Intel 4004, realizzato nel 1971. Con il primo microprocessore, fu possibile fare un intero computer che, in confronto all’ENIAC, era venti volte più veloce, consumava 10.000 volte di meno, e invece di occupare 300 metri cubi e pesare 30 tonnellate, aveva il volume di pochi centimetri cubici e il peso di circa cento grammi.
Durante la seconda metà degli anni settanta, il personal computer — fatto con microprocessori di terza generazione — debutta sul mercato. Pochi anni dopo — per la prima volta nella storia umana — milioni di persone possiedono la potenza elaborativa di un computer, strumento che pochi anni prima era proibitivamente costoso e di difficile uso. Durante lo stesso periodo, fu anche possibile realizzare un intero computer in un singolo chip, dispositivo che oggi si chiama microcontrollore.
Con il microprocessore e i microcontrollori, applicazioni che erano solo concettualmente possibili con il computer diventarono fattibili, dando così vita a migliaia di nuovi prodotti e servizi che crearono intere industrie, cambiando irreversibilmente la nostra vita. Basta pensare al personal computer, al telefono mobile, e a internet.
Durante gli ultimi 50 anni, la microelettronica ha alimentato la rivoluzione informatica della società con una crescita esponenziale nel numero di transistori integrati in un chip — fenomeno conosciuto come la legge di Moore che stipula che il numero di transistori integrabile in un singolo chip raddoppia ogni 2 anni. Inoltre, la microelettronica ha anche allargato il suo raggio d’azione, permettendo di fare sul silicio sensori di tutti i tipi, nonchè funzioni elettromeccaniche, ottiche e magnetiche. Per esempio, oggi possiamo fare una intera macchina fotografica e video digitale in un cubetto di circa due mm di lato — grande quanto l’occhio di un piccolo animale — che costa circa un euro in grandi volumi.
Lo stato dell’arte attuale include microprocessori che integrano piu’ di 4 miliardi di transistori in un chip, memorie flash – che sono le chiavette che uno si porta in tasca — con 64 GB, e interi sistemi costruiti in un singolo chip. Oggi è possibile avere con se migliaia di canzoni, migliaia di libri, migliaia di fotografie e una decina di film, nonchè una capacita’ di calcolo, di comunicazione e di controllo che era impensabile solo 30 anni fa. Il tutto contenuto in un telefono intelligente tascabile capace di comunicare telefonicamente in tutto il mondo, e accedere a servizi internet quasi dovunque uno si trovi sulla faccia della terra.
Guardando ora al futuro, la microelettronica continuera’ la sua crescita esponenziale con un tempo di raddoppiamento che però si allungherà gradualmente, e che oggi si avvicina ai 3 anni. La strategia principale per continuare tale progresso consisterà per altri 15-20 anni, nella riduzione delle dimensioni fisiche del transistore – la stessa strategia che abbiamo usato durante gli ultimi 50 anni — dagli attuali 22 nm, a circa 5 nm — 5 miliardesimi di metro – che è praticamente il limite fisico dei dispositivi MOS tradizionali. Oggi però si sta già sviluppando la tecnologia che diventerà la nuova strada maestra per continuare con la legge di Moore: I circuiti integrati useranno la terza dimensione fisica, cioè saranno costruiti con multipli strati attivi sovrapposti, esattamente come si fa con i fabbricati quando non c’è più spazio e bisogna costruirli a più piani, fino a fare i grattacieli.
Questa diventerà la nuova strategia primaria per continuare per almeno altri 30 anni la crescita esponenziale, dopo che le dimensioni fisiche del transistore avranno raggiunto il limite fisico. Nel frattempo, nuovi materiali e nuovi dispositivi su scala nanometrica, basati su principi di funzionamento diversi dal transistore MOS, saranno gradualmente aggiunti al silicio per permettere di costruire strutture complesse e eterogenee, anche sotto i 5 nm, in più di uno strato. Per esempio, nanotubi di carbonio e grafene sono materiali promettenti per fare dispositivi o più piccoli o più veloci che potranno gradualmente aggiungersi al silicio per continuare a migliorare le prestazioni dei circuiti integrati. Il silicio diventerà quindi una piattaforma su cui costruire sistemi eterogenei aumentando ancora di più la sua già enorme versatilità.
C’è però anche un’altra strada possibile a lungo termine che richiede di imparare a fare dispositivi elettronici funzionanti su scala atomica e molecolare, usando principi biologici – e vorrei riservare il nome nanoelettronica a questo tipo di tecnologia. La ricompensa più importante di questo approccio è la possibilità che tali sistemi si possano auto-assemblare, in maniera simile a come avviene nel caso delle cellule viventi, riducendo quindi drasticamente il costo di produzione. Se ciò sarà possibile, la crescita esponenziale continuerà almeno per un’altro secolo, anche se il tempo necessario per raddoppiare le prestazioni continuerà ad allungarsi gradualmente. È quindi prevedibile che il progresso informatico continuerà senza sosta, creando nuove categorie di industrie, e allo stesso tempo travolgendo le industrie che non sono in grado di stare al passo.
In passato, la capacità di elaborazione dei computer è cresciuta esponenzialmente di un fattore 10 ogni 4 anni, e questo trend continuerà per molti decennia visti i progressi ancora possibili con la microelettronica e la nanoelettronica che ho appena descritto. Se poi sarà possibile fare un computer quantico, il progresso potrà continuere ancora più a lungo poichè questo nuovo tipo di computer, attualmente oggetto di intenso studio e sperimentazione, promette di poter fare un grande numero di operazioni simultanee utilizzando le straordinarie proprietà della materia che si trova in sovrapposizione quantica. È difficile però prevedere se, e quando, sarà possibile fare commercialmente un computer quantico. Personalmente penso non prima di 20-30 anni, ma niente è certo in materia.
Un’altra importante direzione di ricerca è la creazione di computer cognitivi che sono in grado di imparare da soli, copiando per così dire, le lezioni che impareremo dallo studio del cervello animale e umano. Questo tipo di computer potrebbe aver bisogno di una architettura completamente diversa dall’architettura tradizionale, che è sempre rimasta la stessa – nella sua essenza — da quando fu inventata nella seconda metà degli anni quaranta.
Questo argomento mi porta naturalmente a parlare dei sistemi biologici perchè solo oggi abbiamo le conoscenze teoriche e gli strumenti per investigare la straordinaria organizzazione delle cellule e degli organismi viventi. Consideriamo per esempio un semplice paramecio, un protozoo unicellulare del diametro di circa un decimo di mm, che è un sistema informatico prodigioso, in grado di coordinare migliaia di processi informatici simultanei che avvengono su scala atomica e molecolare. Dotato di un sistema sensoriale e motorio complesso, il paramecio è in grado di imparare da solo, riprodursi, auto-ripararsi e usare energia in maniera efficacissima. Si tratta cioè di un sistema autonomo e intenzionale anche se privo di un sistema nervoso.
Com’è possibile tutto questo? Questa semplice osservazione ci dice quanto lontani siamo, malgrado gli enormi progressi fatti negli ultimi cent’anni, dal comprendere, e quindi riprodurre, le capacità informatiche dimostrate da semplici cellule viventi — senza parlare poi di sistemi multicellulari che sono infinitamente più complessi. Queste considerazioni mi portano alla conclusione che la biologia diventerà molto probabilmente la nuova frontiera, anche per le tecnologie informatiche, e che dal suo studio impareremo moltissime lezioni insospettate.
A questo punto vorrei parlarvi delle applicazioni informatiche che prevedibilmente continueranno anch’esse la loro crescita esplosiva. Avremo libri e giornali elettronici interattivi, traduzione simultanea, guida automatica, case e uffici intelligenti, nuovi servizi informatici e internet degli oggetti, cioe’ l’abilita’ di oggetti forniti di sensori e attuatori di comunicare automaticamente sia tra di loro come con persone o con centri di raccolta dati, utilizzando l’infrastruttura internet. In questo modo migliaia di nuove applicazioni diventeranno possibili, tra cui molte applicazioni oggi impensabili e impensate.
Durante i prossimi 30 anni la modellistica e le simulazioni al computer raggiungeranno un altissimo livello di fedeltà e permetteranno uno sviluppo straordinario di sistemi di realtà virtuale, realtà aumentata, realtà mediata e telepresenza. Robot autonomi e intelligenti cominceranno ad essere fattibili, ma il progresso quì sara’ relativamente lento rispetto alle aspettative, dovuto alla difficoltà di scoprire l’architettura necessaria per fare sistemi veramente autonomi e intelligenti. Ci saranno anche molti dispositivi medicali personali per l’analisi automatica di fluidi e vari altri segni vitali che renderanno più facile prendere cura della nostra salute. E la lista è quasi interminabile.
Vorrei quindi descrivere un po’ più a fondo un paio delle applicazioni sopra accennate, che avranno un importante impatto sociale, e che sono emblematiche delle trasformazioni in atto. La prima è il libro elettronico, che ha debuttato una decina di anni fa, e la seconda è la guida automatica che è ancora nella fase di ricerca e sviluppo.
Il libro elettronico è un libro che viene venduto attraverso il web e scaricato su di un lettore apposito, usando telefonia mobile 3G o 4G. Negli ultimi 4-5 anni, con la diffusione di lettori specializzati, tra cui il Kindle dell’Amazon e l’iPad dell’Apple Computer, l’ebook, così com’è chiamato, ha avuto una crescita straordinaria al punto che negli Stati Uniti si prevede che quest’anno ci saranno più ebook venduti che non libri stampati.
Siamo arrivati al punto che tra alcuni anni la maggioranza dei nuovi libri saranno pubblicati soltanto in versione elettronica e non saranno più disponibili in versione cartacea per evitare e il costo e le limitazioni distributive dell’editoria tradizionale. Il libro elettronico sta già producendo rapidi cambiamenti nell’ecosistema del libro con librerie e case editrici che chiudono, nuove forme distributive che nascono, e sopratutto con una offerta molto più alta di nuovi titoli, che include anche libri antichi e libri fuori stampa. Tutto ciò dovuto al fatto che il costo per pubblicare un libro elettronico è quasi irrisorio.
I vantaggi ovvi del libro elettronico sono: una drastica riduzione dei costi di produzione e distribuzione; il poter comperare quasi istantaneamente qualsiasi ebook, dovunque uno si trovi; la disponibilità di molti più titoli di quanti uno possa trovare in libreria; e la possibilità di portare con se l’intera biblioteca personale visto che il lettore può contenere migliaia di libri.
Benchè questi non siano vantaggi trascurabili, la vera rivoluzione dell’ebook non è tanto nel sostituire la carta stampata con un lettore, ma nel dare la possibilità al libro di trasformarsi in un nuovo mezzo communicativo molto più ricco ed efficace, non essendo più imprigionato dalle limitazioni della carta stampata. In futuro, il libro si evolverà in un oggetto multimediale e interattivo; ricco di immagini, filmati, suoni; e collegato al web in modo da dare servizi bibliografici, dizionari, atlanti e simulazioni che permettano al lettore di ampliare e coadiuvare il soggetto del libro.
Una delle promesse più importanti dell’ebook è nel campo dei testi scolastici dove sarà possibile avere libri che potranno insegnare i vari soggetti di studio come mai prima. Immaginate, per esempio, un libro di zoologia che non si limita ad una descrizione verbale dei vari animali coadiuvata da qualche fotografia, ma un libro che mostra filmati dei vari animali in azione, ne riproduce i versi, mostra le loro abitudini sociali, e così via. Se poi uno studente vuole approfondire il soggetto, il libro è fornito di referenze ancora più dettagliate, direttamente e istantaneamente accessibili cliccando su di esse. Se uno non sapesse il significato di una parola, cliccando su di essa può accedere immediatamente ad un dizionario o ad una enciclopedia; per esempio, cliccando su Serengheti, uno ha accesso ad una carta geografica che mostra dove si trova, e a filmati che mostrano le sue caratteristiche essenziali. Questi libri scolastici avranno anche simulazioni di formule matematiche con la possibilità di cambiarne i parametri; esercizi in grado di valutare la preparazione dello studente, e sulla base della valutazione, dare suggerimenti sul materiale da ripassare, dare spiegazioni sulle risposte sbagliate, e proporre ulteriori esercizi in modo da ottimizzare l’apprendimento.
Possiamo anche immaginare libri simili a videogiochi avanzati, dove il lettore è un attore all’interno dello stesso libro, garantendo così il massimo livello di coinvolgimento possibile. Il libro potrà anche presentare situazioni personalizzate in relazione alle caratteristiche psicologiche del lettore, specializzando quindi la storia e le possibilità di apprendimento o di divertimento del lettore.
L’evoluzione del libro elettronico sarà per molti versi simile all’evoluzione della fotografia digitale. Dieci-quindici anni fa la fotografia digitale era agli inizi della sua fase commerciale, e la maggior parte delle persone pensava che non avrebbe mai potuto sostituire il film fotografico. Si diceva che la qualità delle foto digitali era così povera che le sue applicazioni sarebbero state molto limitate. Però nel giro di dieci anni la qualità, la convenienza e il costo delle foto digitali è migliorata al punto che oggi le macchine fotografiche a film non sono più prodotte e si fa addirittura fatica a comperare e a sviluppare film perche’ non si usa quasi più.
La sorte del libro elettronico sarà simile. Tra dieci anni la stragrande maggioranza dei libri venduti saranno elettronici e le nuove generazioni guarderanno al libro cartaceo come una curiosità storica, interessante, ma fuori del tempo.
L’altra applicazione importante che vorrei approfondire è la guida automatica. Sarebbe bello poter salire in macchina e dire: “portami all’ufficio” e durante il tragitto lavorare tranquillamente lasciando all’auto il compito di guidarsi da sola; e una volta arrivati all’ufficio dire: “Parcheggiati. Ti chiamerò più tardi per portarmi a casa.”
Questo scenario non è più fantascientifico poichè sarà tecnologicamente possibile fra circa 10-20 anni e sarà quindi soltanto una questione economica, legale e assicurativa prima che tale possibilità diventi commercialmente disponibile. Le motivazioni principali per sviluppare la guida automatica sono: la riduzine drastica degli incidenti stradali; l’uso produttivo del tempo di guida; e il miglioramento della viabilità delle strade esistenti.
A rendere la guida automatica possibile saranno molte innovazioni tra cui avanzati sistemi visivi computerizzati, radar anti-collisione, GPS e altri sensori avanzati, sistemi di comunicazione autonoma con i veicoli vicini e con vari servizi stradali, e il continuo progresso nel campo della robotica.
Prevedo che tra circa dieci anni saranno disponibili commercialmente le prime auto in grado di auto-guidarsi in condizioni di guida relativamente facili, come le autostrade. Ci vorranno però altri 10 anni prima che la guida automatica abbia raggiunto il livello di sofisticazione necessaria per essere sicura nel traffico caotico delle città. Tra 40-50 anni è prevedibile quindi che la guida automatica diventi obbligatoria per tutte le nuove auto che entrano in circolazione, in modo da trarre il massimo beneficio sociale da questa tecnologia.
Non posso però finire la mia presentazione senza accennare alla bioinformatica, la scienza che studia i processi informatici dei sistemi viventi, poichè essa rappresenta oggi il piccolo germoglio da cui penso emergerà la prossima rivoluzione che si avvicenderà alla rivoluzione informatica. Nel corso della sua storia, l’umanità è passata attraverso la rivoluzione agricola, la rivoluzione industriale, ed è ora impegnata nella rivoluzione informatica. Ma la rivoluzione informatica non sarà l’ultima rivoluzione. Il prossimo ciclo – la rivoluzione bioinformatica — potrebbe iniziare tra circa 40-50 anni e avere un impatto fondamentale nella comprensione della vita e nell’uso dei principi fondamentali alla base della vita; una rivoluzione che ha il potenziale di motivare una evoluzione della società umana più responsabile e compassionata, benchè ci siano anche potenziali risvolti oscuri.
Fino ad oggi, la natura dell’informazione nei sistemi viventi è stata vista come una conseguenza della biochimica. Però è anche possibile che sia la biochimica ad essere una conseguenza delle necessità informatiche dei sistemi viventi. In altre parole, la natura della vita potrebbe essere primaria e la biochimica sarebbe il modo di esprimere la dinamica evolutiva della vita con i materiali disponibili nel nostro pianeta, rappresentandone la struttura informatica attraverso il linguaggio della biochimica. In altri sistemi fisici, lo stesso dinamismo vitale potrebbe utilizzare materiali diversi e con essi creare altre strutture informatiche, la cui ricchezza di forme sarebbe legata alle capacità espressive dei materiali disponibili.
Se questo punto di vista è corretto, lo studio della bioinformatica in quest’ottica, potrebbe rivelare connessioni profonde e finora nascoste tra informazione, spazio-tempo, energia-materia e consapevolezza che sono molto probabilmente alla base del mistero cosmico della vita.
La natura della consapevolezza, uno dei misteri più profondi, è inestricabilmente connessa alla percezione, intesa come la capacità di ricevere informazione dall’ambiente, e produrre sensazioni e cognizione basate sull’informazione ricevuta, e sulla struttura cognitiva cumulativa. Questa capacità è oggi impossibile da realizzare con il computer classico.
Mi auguro che l’informatica del futuro serva a creare il sistema nervoso dell’umanità con cui comprendere il ruolo sacro della vita, gestire con responsabilità, intelligenza e compassione l’ecosistema del nostro pianeta, e diventare veri cittadini del Cosmo.
Grazie della vostra attenzione.
FF
°_°
Bella Felice, un unico “piccolo” appunto: spezza il testo con degli “h3”, “blockquote” o titoli “strong” perché così l’articolo sembra un wall of text e fa un po’ paura.
Piacerebbe anche a me avere una foto con Faggin ;)
Ecco ho messo nel testo del commento e ha infilato il grassetto ovunque… scusate ;)
Uh.. il tag strong fa un po’ di casino nei commenti. Potete editare cortesemente? Scusate ancora.
Migliorato un po :-)
e sticazzi, per avere attenzione da studio aperto poteva almeno allegarci due foto nudo al libro o dire che aveva avuto una storia con liz taylor. che gli costava?
I nostri riscoprono i Faggin, i Da Vinci, i Colombo solo quando sono morti o hanno esportato il loro genio altrove permettendo ad altri di darci le piste. Solo allora si ricordano che sono italiani e pretendono una qualche sorta di riconoscimento come la madre che abbandona il figlio ma pretende di essere riconosciuta come tale se il pargolo farà fortuna nella vita.
Se invece di perdere tempo e soldi in questi memoriali che poi non fanno neanche il piacere di finire cinque minuti in tv (c’è il culo della minetti di cui parlare) ci si preoccupasse di creare condizioni culturali, tecnologiche ed infrastrutturali atte a creare una vera silicon valley italiana forse sarebbe meglio
chissà quando si accorgeranno anche di quell’altro italiano, quello studente veneto che quasi 20 anni fa inventò “Google”?
Cmq immenso Faggin!!
Articolo molto interessante, dedicato ad uno degli italiani più illustri di ogni tempo. Bellissima anche la copertina del libro anche se, ad essere pignoli, il riquadro centrale che emula la forma di un chip, dovrebbe avere un solo angolo smussato e gli altri retti. Il contrario di come l’hanno fatto insomma. :-)
Grazie per l’articolo.
Non c’e’ magari un video dell’evento cosi’ da sentire F.F. “live” ?
Grazie
ps chi non la conoscesse, guardate le iniziali in alto a dx :)
http://www.4004.com/assets/PB120046.JPG
Molto bella quella foto: sembra la ripresa aerea di una metropoli con l’autostrada tutt’intorno
beh si il marchio è d’obbligo, come un pittore firma la sua creazione anche lui ha messo il suo marchio :)
http://www.intel4004.com/sign.htm
Grazie mille dell’articolo, bellissima la lectio magistralis di Faggin.
Il proporsi da e verso il prossimo dipende dal carattere, dall’educazione primaria ricevuta, dall’ambiente in cui vivi. Le persone più intelligenti sono anche quelle più semplici. Questo signore ha dato forma e verso alla sua intelligenza attraverso questo modo, il top manager può fornire al prossimo la medesima semplicità come no. Non dipende sicuramente dall’arroganza della sua posizione, bensì come ripeto, dalla gentilezza del suo animo. Non è sinonimo bullo/potere o posizione sociale od intelligenza o potere economico, anzi dovrebbe essere inversamente proporzionale. Tendenzialmente l’arroganza e la presunzione è sinonimo solo di grande ignoranza, od altresì di fraintendimento. Almeno secondo il mio modestissimo parere.
Immagino come i cervelli delle “autorità” annaspassero nel vuoto cercando di cogliere i tecnicismi e il significato della lectio…
@Giacomo
Cala cala. Le “autorità” erano stupefatte che il vocabolario potesse contenere tutte le parole sentite durante il discorso.
Quella è gente che millanta esperienze, presenta pezzi di carta comprati in Albania e se va bene di suo ha la quinta elementare
@ [D]
:D
Rileggendo la lezione mi pare strano però che Faggin non abbia accennato alla fotonica come evoluzione naturale dell’elettronica.
Perché mi pare inevitabile che per superare i limiti della corrente elettrica che scorre in piste conduttive non resti che rivolgersi allo scorrere della luce in nanopiste ottiche.
Ma li volevi vedere suicidare i “poveretti” ?
Come potremmo definire la massa popolina italiana? Si trascurano questi eventi e queste grandi menti in favore di eventi e personaggi che, invece di alimentare la cultura, alimentano le convinzioni di frustrazione (il politico ladrone di turno) o di pettegolezzo (la velina p**ttana di turno).
Che pena….
“Gli italiani sono sempre gli altri” cit.
Grazie dell’articolo!
Per carità ditemi dove poter trovare questo libro!
Lo voglio leggere tutto in una volta!
(anche con ebook andrebbe bene)
@djfix.. lo trovi qui: http://www.amazon.it/Federico-Faggin-padre-del-microprocessore/dp/884812724X/ref=sr_1_1?ie=UTF8&qid=1350135808&sr=8-1
Bhe, ecco se si vuol piangere o lanciare i giusti strali dell’ironia contro lo stato della ricerca e dell’industria avanzata italiche va bene, ma anche il piagnere dirotto deve avere un suo senso di realtà…
Si citano Colombo e Da Vinci come esempio di grandi profeti inascoltati in fuga dall’ingrata patria… bòn…
passi per il primo (che però sarebbe ridicolo dipingere come “cervello in fuga”, dato che se ne va dall’Italia come semplice mercante-marinaio e solo a Lisbona matura l’idea di “buscar l’oriente per l’occidente” – grazie anche al fondamentale contributo del matematico TOscanelli che scriveva però da FIrenze) ma con Leonardo non si tiene conto del fatto che il suo genio ha potuto formarsi e fiorire con quella grandezza proprio perché è ha vissuto nella Firenze e poi nell’Italia Rinascimentale, una delle più grandi e determinanti silicon valley del pensiero umano (assieme alla Grecia classica, alla dinastia Tang e poco altro).
Considerato questo, poi si può pure tornare a piagnere…
Si fa poi la solita ironia sulle autorità invitate, e sulla loro belluina impreparazione… secondo beh, le uniche autorità citate da Faggin (qualcuno ha informazioni più precise sulle altre?) non mi sembrano poi tutte diplomate alla radio elettra, sorvolando sulla Montalcini (che c’ha la sua età e magari di informatica non capisce un pif) e sulla Livreri (che però è ingegnere), Profumo sarà pure il babbaleo che volete, ma se ha lavorato nel R&S dell’Ansaldo ed è stato rettore del Politecnico di TOrino, qualcosina del discorso l’avrà pure capita, no?
Non che io volgia dire che viviamo nel migliore dei mondi possibili (per carità), ma che le critiche senza costrutto son solo mugugni da popolino…
#22 ?? come si dice… “prova in farmacia!” ;)
Aldilà dei complimenti doverosi e del riconoscimento di assoluta autorità, per entrare nello specifico della lezione di Faggin, ci sono spunti interessantissimi ma anche una visione eccessivamente “posistivistica” tipica dell’uomo di scienza della sua generazione. Mi riferisco, in particolare, agli esempi relativi alle auto, agli intasamenti del traffico cittadino e all’estinzione del libro cartaceo. In questi casi infatti, l’interpretazione delle linee di sviluppo mi sembra prescindere da alcuni fattori determinanti di natura sociale, politica e delle concrete possibilità di sviluppo della nostra società.
Questo non significa che lo sviluppo tecnologico non proceda con ritmi scientificamente previsti (p.e. la legge di Moore… aggiustata) ma ciò che è molto opinabile sono invece le direzioni in cui potrà avvenire questo sviluppo.
In tal senso le affermazioni di Faggin, per quanto egli sia estremamente competente (perché ci lavora) e autorevole (per i noti trascorsi) non possono essere considerate corrette “a priori”.
Concludo, sempre a titolo illustrativo per essere più chiaro, con uno degli esempi citati: a fronte dei problemi di inquinamento e della disponibilità di risorse energetiche, il modello del trasporto individuale con automobili, nonostnte generi indotti economici importantissimi (infrastrutture, industrie, posti di lavoro ecc..) è uno dei più difficilmente sostenibili. Quindi l’esigenza attuale di un’auto che si parcheggi da sola non è detto che sia una necessità interessante da soddisfare tra vent’anni.
Per il resto, è più che evidente quanto la modestia e il senso della misura di personaggi di tale levatura siano direttamente proporzionali alla loro intelligenza, che quindi non abbiano alcun senso di inferiorità a cui dover sopperire con l’arroganza o con l’apparenza.
Buon RC su jurassicnews.com
Da Vinci in italia era condiderato finchè pitturava cristi sui muri delle chiese o si ingraziava il signore fondendo cavalli in bronzo. Se si fosse limitato a quelle cose per cui noi oggi lo riteniamo un genio (v. il volo degli uccelli e le varie macchine concepite), sarebbe sparito dalle scene in men che non si dica.
Se a quei tempi non fosse già stata distrutta la grande biblioteca, uno come lui, si sarebbe trasferito di gran carriera ad Alessandria d’Egitto e ciao ciao milano.
#[D] quale la fonte di queste sagge considerazioni storiche? Mi sembrano discorsi puerili (..cristi sui muri ..cavalli di bronzo.. sono anch`essi motivi tecnici per cui Leonardo e` da considerarsi un genio).
Comunque le epoche storiche non consentono alcun parallelismo tra genio italico e fuga dei cervelli.
#[D] vabé, ma allora qui son i soliti discorsi senza costrutto…
figurarsi se uno spiritaccio inquieto e invaso dal demone del fare come Leonardo poteva desiderare di andare a seppellirsi in una biblioteca (Lui, che da illetterato manco conosceva il latino, e men di meno il greco antico); e poi per fare che?
Lo spirito del Rinascimento rivaleggiava con l’antico con l’ardore e la presunzione di superarlo.
E poi l’illuminato Francesco I per quale motivo l’avrebbe invitato a corte? Per farsi costruire un elicottero? O proprio per la gloria che quei cristi e quei cavalli gli avevano conquistato?
Noi consideriamo Leonardo un genio principalmente per i suoi trattati d’ingegneria mentre a quel tempo tutto ruotava intorno a cose nettamente più puerili come l’arte sacra.
Lì si capisce il profondo sbaglio di mentalità dell’epoca.
Se ci cose che non ci sono mancate quelli sono stati gli artisti impegnati a riportare scene tratte dalla bibbia e dal vangelo, ma di artisti che hanno saputo vedere aldilà del tempo e del pensiero ne abbiamo avuto solo uno. Purtroppo anche i geni dovevano portare a casa la pagnotta e questo si poteva fare solo facendo i madonnari. Se c’avesse provato tirando in ballo solo l’ingegneria probabilmente il papa d’allora come minimo l’avrebbe bollato come infedele e scomunicato come fece con Federico II quando di fatto concluse un accordo con i musulmani per sbrogliarsi della sesta crociata e pare che in cambio avesse ricevuto conoscenze architettoniche avanzate alla base guarda un po’ di Castel del Monte.
A quel tempo la cultura e la capacità della mente era vista come qualcosa di demoniaco: esisteva perfino un diavolo tutto dedicato alla protezione dei matematici, Asmodai. Non mi stupirei se quanto conosciamo degli studi d’ingegneria di Leonardo non fosse che una minuscola parte, mentre il grosso è andato perduto o è stato nascosto da qualche parte proprio per evitare che qualche prete con le balle per la testa si facese venire l’idea di usarli per accendere un rogo.
Non offenderti [D] ma per la stupidita` dei termini e dei contenuti, le interpretazioni arbitrarie e sciocche, nonostante la liberta` di espressione e il diritto di partecipare ad un blog.. il tuo post meriterebbe la censura: pur non contenendo terminologie inadatte o offese personali, si tratta di un insulto all`intelligenza umana in generale.
Ti consiglio di non inerpicarti in territori in cui manchi della minima conoscenza come potrebbero essere la storia o l`arte… non postare stupidaggini.
E poi cosa c`entra discutere di Leonardo Da Vinci? Cosa c`entra con Faggin… che e` persona inteligentissima ma non prorio un Leonardo o un Einstein (penso che con la sua onesta` intellettuale sia lui stesso ad ammetterlo).
L`idea che un artista rinascimentale di Firenze si trasferisce alla corte milanese possa essere considerata una fuga di cervelli e` praticamente una battuta da Zelig.
Lo stesso definire Michelangelo un madonnaro.. anzi , ecco, questa potrebbe essere un`offesa per cui dovresti essere bannato..
@ Giovanni
non infieriamo, s’è incartato da solo…
(e poi stiamo scorrazzando da un bel po’ nelle praterie dell’OT)
Una sola cosa – però – su Leonardo ingegnere, perché è la bojata meno evidente scritta sopra.
Nessuno contesta l’immenso genio visionario del nostro, anticipatore di molte innovazioni tecnologiche dei nostri tempi (mitraglia, carro armato, bicicletta, calcolatrice, ecc.); ma questi suoi interessi erano tanto frutto di una insaziabile ansia di sperimentare eclettica e senza metodo, quanto in gran parte irrealizzabili o fallimentari.
Porprio perché lui non ingegnere era, ma artista-inventore…
infatti, a parte le notevoli opere idrauliche sui navigli (chi poi non sapeva sfruttare il suo genio?), pochissime invenzioni trovarono applicazione pratica, proprio perché mancanti del metodo e della concretezza richiesti dall’ingegnerizzazione, ma frutto delle elucubrazioni di un potente intelletto creatore che – incalzato dal tempo che passa, vedi la sua precoce senescenza – non aveva la pazienza di sottoporsi alla fatica del tradurre l’idea in prototipo funzionante (il suo laboratorio brulicava di ammenicoli meccanici, intendiamoci, ma non erano che una ridottissima frazione – fra l’altro la meno importante – di tutta la pletora dell’inventato)
si potrà dire: <>, andate a vedere le cupole delle grandi cattedrali e poi ne riparliamo.. infatti Leo non fu mai architetto se non sulla carta, e, a esempio, i suoi progetti di fortificazioni erano spesso fantasiose utopie (mentre invece Michelangelo, anche in questo campo, dette contributi molto più efficaci).
Anche la tanto decantata scienza anatomica del Nostro era poi xosì rivoluzionaria cosa se conforntata al metodo e alla vastità di ricerca che – di lì a poco – avrebbe mostrato il Vesalio, ma qui è tutto un altro discorso…
con questo basta.
manca una parte in corrispondenza delle parentesi uncinate…
si potrà dire: “ma quello era il massimo di ingegneria possibile ai tempi”,andate a vedere le cupole delle grandi cattedrali…
Certo, e comunque il discorso parte da delle premesse quantomeno vergognose:
#[D]: “Noi consideriamo Leonardo un genio principalmente per i suoi trattati d’ingegneria mentre a quel tempo tutto ruotava intorno a cose nettamente più puerili come l’arte sacra.
Lì si capisce il profondo sbaglio di mentalità dell’epoca.”
Una “mentalità dell’epoca” non può avere, per definizione, nessun profondo sbaglio, non è vero che oggi si considera Leonardo un genio per fantomatici “trattati di ingegneria” (penso che si riferisca ai codici di appunti, che trattati di ingegneria non sono proprio!). Non capisco come si possa definire “cose nettamente più puerili” le opere artistiche di Leonardo in particolare e l’arte in generale!
Inoltre Leonardo è andato a Milano per svolgere anche e soprattutto attività ingegneristiche (le opere idrauliche in particolare), e come tecnico-ingegnere era considerato anche a quel tempo, perché proprio nel primo periodo milanese la sua produzione artistica risulta molto pigra. Si consideri tra l’altro che nonostante il livello tecnico elevatissimo delle sue opere (prosprettiva cromatica, sfumato ecc..) il numero è piuttosto ridotto e sono molti gli incompiuti. Per cui anche l’affermazione secondo cui Leonardo non veniva considerato al tempo come tecnico-inventore è assolutamente errata.
una grande mente per una piccola italia….
un appunto però: cit. sarebbe bello dire all’auto “portami in ufficio”
ma, arrivati a quel punto, sarà veramente necessario andare in ufficio?
invece di pensare ad una mobilità sostenibile perchè non pensare ad una non-mobilità?
Perché la mentalità bacata che c’è nelle aziende (non soltanto italiane) è che se non ti vedono seduto in ufficio non stai lavorando. Poi puoi anche passare il tempo a giocare di nascosto al solitario, ma intanto sei seduto lì e, quindi, “lavori”.
Viceversa, se stai a casa sicuramente sei un nullafacente. Poi puoi anche lavorare molto di più rispetto a quanto facevi in ufficio, ma se non ti vedono piazzato lì, vicino a loro, di sicuro non stai lavorando…
Tornando in topic, è un grande lezione sicuramente, ma sono un po’ dubbioso sulla visione di Faggin relativamente ai computer quantistici e quelli “biologici”. Le applicazioni pratiche dei primi sono molto ridotte, e non so se si riuscirà a tirare fuori un computer quantistico in grado di sostituire in toto uno tradizionale. Quelli biologici sembrano interessanti a livello di “(auto) assemblaggio”, ma quanto a capacità di calcolo sono un’incognita. Vedremo…
@ Cesare
gli espertoni dicono che i computer quantistici consentiranno di fare il salto verso l’intelligenza artificiale, non direi proprio un’applicazione ridotta.
Vorrei capire come e perché.
A parte questo e come ho detto, bisognerà vedere se riusciranno a sostituire del tutto i computer tradizionali. Se non ci riusciranno, sarà una rivoluzione mancata. ;)
Il perché sarebbe dato dall’immenso aumento di capacità computazionale grezza, ma soprattutto dalla computazione “fuzzy”, in grado di emulare i processi “analogici” della nostra mente.
Ci sono teorici dell’IA che dicono che “basterebbe” aumentare così tanto la potenza computazionale, anche solo binaria, per creare l’IA simulando i modelli di funzionamento osservabile della mente, senza scendere davvero nella complicazione di creare una vera rete neurale (hardware o software) di trilioni di connessioni, come in un cervello biologico.
Questa potenza la otteresti da moltissimi computer binari o da pochi quantistici.
Con lo stato dell’arte attuale si è riusciti a modellare il cervello di un gatto, ma step by step, non in real time…
Per quel poco che ho capito leggendo chi se ne sa più di me faccio la mia scommessa da 1€ e punto tutto sui computer quantistici fotonici :)
Non vedo tutta questa potenza computazionale, se non nei particolarissimi e limitatissimi ambiti in cui è stato dimostrato che i computer quantistici possono lavorare (non ricordo bene adesso, ma dovrebbero essere soltanto 6).
Sulla mente e i suoi processi ci sarebbe di che discutere. Non mi sembra che la mente lavori in maniera analogica. Per essere precisi, non mi pare che sia stato elaborato un modello effettivo del funzionamento del cervello e dei processi cognitivi.
Se il cervello non è ancora stato modellato, com’è possibile pensare che si possa realizzare un’IA che ne emuli il funzionamento? Purtroppo dopo il boom iniziale degli studi sull’IA, non ci sono stati i progressi che sono stati ipotizzati, e che rimangono ancora legati alla fantascienza.
Rimango, quindi, estremamente scettico sia sui computer quantistici in generale, che sul contributo che potrebbero fornire quale potenza di calcolo grezza, e in particolare per ottenere IA comparabili alle nostre.
My 2 cents. ;)
Tra i compiti nei quali i “quantistici” surclasserebbero i “binari” ci sarebbe la risoluzione in tempi brevi di problemi matematici complessi (crack crittografico).
Per quanto riguarda il cervello e la mente è vero che ancora sappiamo poco del loro funzionamento, ma sicuramente funzionano in modalità analogica, come tutta la natura, non esistono in natura fenomeni noti o grandezze digitali.
L’astrazione binaria è una convenzione creata per l’informatica, infatti avrebbero potuto usare una notazione ternaria, quaternaria, eccetera.
Per quanto riguarda la simulazione dell’IA si ipotizza appunto che per superare la spaventosa complessità di una rete neurale si potrebbe tentare un approccio laterale, modellando i comportamenti risultanti e dandoli in pasto a una enorme capacità computazionale, per simulare piuttosto che emulare l’IA.
In pratica si otterrebbe qualcosa di simile agli androidi di Alien, che mimano il carattere e le risposte umane senza avere l’anima (cit. Prometheus :)
Ottima citazione (tra parentesi: il film preso “da sé”, senza pensare ad Alien, complessivamente m’è piaciuto, a parte alcune, classiche, trovate hollywoodiane ;))
In tutto ciò, comunque, bisogna dimostrare che i computer quantistici possano avere un ruolo, e che sia migliore di quelli tradizionali.
Che i computer quantistici siano ottimi per la crittografica è noto, anche se, riducendo la complessità della radice quadrata, non hanno certo risolto il problema: basta raddoppiare il numero di bit di AES, ad esempio, per far diventare nuovamente il problema intrattabile anche per loro… :D
Ciò detto, si tratta di UN campo applicativo in cui “vanno forte”. Ma, come detto prima, rimangono ancora limitati a poche funzionalità e non v’è nulla che possa far pensare che possano sostituire in toto (quindi per tutti gli ambiti applicativi) i nostri cari computer fatti di bit… ;)
L’ironia, il libro su Faggin non è disponibile come eBook su Amazon.it.
Articolo bellissimo.
Però “medi nazionali” non si può leggere :)
Per quanto riguarda lo sviluppo futuro, direi che le idee espresse da Faggin siano solo scenari possibili.
E’ ovvio che tra 30 anni la macchina che va e si parcheggia da sola potrebbe essere inutile… ma fino a un certo punto. Pensate ad un mondo dove l’auto non è più di proprietà (cosa veramente inutile dato che la si usa al massimo per il 5% della suo tempo vita con tutti i costi connessi) ma un mondo di auto “a noleggio” (topo taxi) automatiche.
Esci di casa, pigi un pulsante e 15 secondi dopo arriva un’auto che ti porta dove vuoi quando vuoi pagando solo il viaggio. Meno auto n giro e sfruttate al massimo.
Per quanto riguarda il computer ottico, purtroppo non è una gran rivoluzione rispetto a quello elettrico. Si velocizza la comunicazione ma fondamentalmente servono sempre i transistor per eseguire la logica.
Il computer biologico è sicuramente il futuro. Pensate soltanto a quante informazioni sono elaborate nel nucleo di ogni nostra cellula con il continuo svolgimento, copia e elaborazione del DNA. E con che costi energetici.
I computer quantistici sono qualcosa che mi è sempre parso poco chiaro. Un sistema del genere difficilmente può essere usato per fare i conti di tutti i giorni. Ha il suo valore in altri ambiti (appunto, forse per cercare di emulare sistemi molto complessi sintetizzando modelli con funzionalità parallele), ma per me che devo scrivere questo post e pubblicarlo ha ben poca utilità.