di  -  sabato 3 novembre 2007

Lo sviluppo tecnologico di cui siamo fortunati testimoni ci fa di tanto in tanto meravigliare di quanto rapidamente certe tecnologie si evolvano e raggiungano livelli impensati. Basti pensare ai cellulari che spesso meravigliano per il numero di funzioni avanzate che riescono a concentrare in pochi grammi di peso.

Ebbene tutto ciò non è altro che il lato pratico della Legge di Moore: “Le prestazioni dei processori, e il numero di transistor ad essi relativo, raddoppiano ogni 18 mesi”. Ciò significa (banalizzando) che col passare del tempo le funzioni aumentano e lo spazio necessario per contenerle diminuisce.

E’ quindi sempre pià attuale, al punto cui siamo arrivati, parlare di singolarità tecnologica. Gli studiosi definiscono la singolarità tecnologica come quel momento in cui il progresso tecnologico avrà raggiunto un livello tale da raggiungere, e poi superare, l’intelligenza umana.

David Orban, membro del Singularity Institute for Artificial Intelligence, prevede che quel giorno è molto vicino. Già nel 20302035 potrebbe verificarsi questo passaggio. Chiaramente un evento di questo tipo che vedrebbe le macchine capaci di auto migliorarsi e progredire in autonomia rispetto all’uomo, apre sconcertanti interrogativi e problemi che, come suggerisce David, andrebbero risolti prima.

Occore infatti preparare basi teoriche, pratiche ed etiche solide prima di questo “sorpasso” in modo da essere già pronti nel momento in cui questo avvenimento si verificherà. Uno dei problemi più gravi che dovremo fronteggiare, già tra pochissimi anni, sarà la perdita enorme di posti di lavoro che si verificherà in molti settori, causata dall’introduzione di macchine sempre più sofisticate.

Personalmente ritengo che una delle chiavi di lettura corrette di questo fenomeno sia quella di favore e sviluppare la creatività negli umani, fin dai primi anni di vita. Una delle cose che difficilmente le macchine potranno toglierci sarà la nostra creatività, la nostra fantasia, la nostra capacità di sognare. Purtroppo però il nostro sistema scolastico è congeniato in modo tale da uccidere la creatività del singolo, per affermare un unico modello ritenuto “formativo” dalla società. Ricordo, ad esempio, quando alle elementari si disegnava. Non ero invitato a disegnare come la mia creatività mi portava a fare, ma dovevo canalizzare le mie energie attraverso modelli predefiniti.

La singolarità tecnologica rappresenta dunque, allo stesso tempo, una ghiotta opportunità e un tremendo rischio. Penso che un uomo più umano, quindi più cansapevole della propria umanità e delle capacità che ne seguono, potrà gestire tale evento in modo positivo. Un approccio errato, invece, potrebbe portare a gravi conseguenze.

11 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    David
     scrive: 

    La ricerca tecnologia, tolte alcune nicchie, è finalizzata ad aumentare la produzione industriale ed, in ultima istanza, il profitto.
    Stante questa mai disattesa regola, pensare che la “singolarità tecnologica” possa portare qualcosa di buono si colloca a metà strada tra l’ingenuità e la pazzia.
    I primi esempi di macchine (molto) parzialmente autonome sono dei robot da combattitmento a forma di piccolo carro armato che verrano usati per pattugliare zone a rischio come è oggi l’Irak.

    http://punto-informatico.it/p.aspx?i=135146

    Quella che si prospetta non sembra affatto quindi un'”età dell’oro dove l’umanità sarà sollevata dal fardello del lavoro”, bensì un nuovo medioevo, dove i ricchi e i potenti avranno mezzi dall’efficacia oggi impensabile per soggiogare tutti gli altri.
    Si badi bene che non sono affatto un tecnofobo, ma solo uno che osserva e giudica ciò che vede.

  • # 2
    Stefano
     scrive: 

    ci sono 2 finali probabili che spero non si avverino: Matrix e Terminator…

  • # 3
    Mirco
     scrive: 

    Le conclusioni dell’articolo sono più che corrette.
    Se la Singolarità o, più modestamente, il futuro che ci aspetta saranno modellati dalla volontà omologatrice di una qualche élite (socialista, comunista, fascista o genericamente statalista), ci sarà per forza una divisione tra chi è superiore, perché ha il potere, e chi è inferiore, perché non lo ha.

    L’unico modo di far funzionare in una società l’accellerazione dello sviluppo scientifico e tecnologico è di permettere il massimo di libertà nelle azioni individuali e di responsabilità nelle conseguenze dei singoli individui.

  • # 4
    Matteomtt
     scrive: 

    se questo arriverà saremo nel nostro armageddon…nel senso che avremmo creato un’altra vista che se anche nn creativa e varia cm noi cmq è in grado pensare e ragione anche più di noi…starà all’uomo e al suo buon senso decidere come andrà a finire…se continueremo sulla strada dell’odio dell’egoismo e delle guerra allora il finale sarà negativo mentre se l’uomo dopo finalmente dopo millenni avrà raggiunto un progresso anche mentale e ideologico tale da superare le controversie che cm detto prima da millenni ha allora il finale sarà positivo…un mondo di convevivenza uomo-macchina pacifica…parlo di armaggendon per anche perchè verso il 2035 e 40 le sfide da affrontare saran anche altre vedi la fine del petrolio,l’inquinamento e la ricerca dunque la ricerca di nuove fonti energetiche…ho solo 19 anni però sperò che se avrò un figlio esso possa vivere una vita lunga sana e creativa…:_)

  • # 5
    Vas.ko
     scrive: 

    Guardiamo le cose da un punto di vista logico. Logico sarebbe che l’uomo si preoccurebbe di assicurare la sopravvivenza della sua specie il più a lungo possibile. Cosa che, ed è sotto agli occhi di tutti, non è assolutamente in grado di fare. Odio, fanatismo, guerre ma anche inquinamento, litigi tra vicini, droghe, non hanno nessun motivo logico di esistere. Se esistono è perché l’uomo è molto di più di una macchina logica; ci sono sentimenti ed emozioni in gioco. Creatività ed autodistruzione. Purtroppo, se in futuro dovremo confrontarci con macchine meno creative, ma logiche, e che vivono in base a ciò che è funzionale e utile, piuttosto che in ciò che è bello o brutto, credo che ne usciremmo male. Sempre un caso di evoluzione sarebbe. E chi ci dice che organismi in grado di ragionare freddamente e logicamente, e capaci di capire e fare propri le condizioni per sviluppare la loro progenie piuttosto che sfogarsi in guerre come facciamo noi, non meritino di più di sopravvivere? In fondo la Terra ci guadagnerebbe soltanto, ad avere dei custodi freddi e efficienti, piuttosto che dei pasticcioni incapaci di capire che guerra e odio, non portano a niente.

  • # 6
    Negadrive
     scrive: 

    Se saranno davvero più intelligenti, come minimo faranno in modo che gli umani smettano di fare i soliti danni e di farsi male da soli…

    Poi cosa sia davvero l’intelligenza, neanche sappiamo definirlo in modo univoco e preciso, essendo un’insieme di cose. E’ possibile che un giorno superino certe capacità di un cervello biologico, per poi migliorarsi da sole in maniera presumibilmente esponenziale. Spero che la loro intelligenza non si limiti a quello, ma visti i loro creatori, c’è caso che ne esca una stupidità umana veloce come un computer (scherzo).

  • # 7
    Diablix
     scrive: 

    Partite dall’errato presupposto che, ammesso e non concesso che l’Intelligenza Artificiale possa superare quella umana (e già qui ce ne sarebbe da discutere…), quest’ultima miri alla distruzione della specie umana.
    Un essere intelligente e logico, totalmente estraneo alle emozioni, può benissimo adattarsi alla convivenza, non deve di certo distruggere.

    Non potete parlare di tutto ciò dando un lato umano all’AI, perchè comunque non sarebbe umana.

    E anche per quanto riguarda il mercato del lavoro, il vero “pericolo”, è molto più probabile una semplice ricollocazione della forza lavoro piuttosto che un dilagare della disoccupazione.

    Stiamo vivendo nè più nè meno le stesse identiche paure che vivevamo nel XIX secolo durante la rivoluzione industriale e durante il XX con l’era digitale.. sebbene quest’ultima non si sia conclusa non mi risulta che finora abbia causato chissà quali disastri, anzi.

    E pensare adesso alle contromisure da prendere per il 2030 quando NESSUNO è neanche lontanamente in grado di predire con precisione quale sarà la situazione tecnologica è quantomeno ridicolo.
    Sarei proprio curioso di tornare indietro nel 1977, intervistare i vari esperti del settore sulle loro previsioni del 2007, ritornare ai giorni nostri e farmi qualche bella risata ;)

  • # 8
    kakaroth
     scrive: 

    L’intelligenza artificiale mira esclusivamente alla rappresentazione del ragionamento logico. Il grosso problema è che il software è molto indietro rispetto alla potenza di calcolo del processore. Avete idea di cosa voglia dire dare una rappresentazione del mondo esterno in termini di codice di programmazione? il mondo è imprevedibile, pieno di variabili, etc.
    Quindi non serve a niente riuscire ad arrivare ad una comparazione tra numero dei neuroni e numero delle porte logiche in un processore, se poi non si riesce a sfruttarle. Inoltre cito il Russell & Norvig dicendo che “la differenza di capacità di memorizzazione significa poco in confronto a quella nella velocità di commutazione o nel grado di parallelismo”.
    I neuroni saranno pure più lenti ma sono in grado di lavorare contemporaneamente attraverso le sinapsi, mentre un computer può contare su un numero ridotto di processori.
    Fatto sta che se anche si riuscisse ad arrivare ad un’archittetura simile a quella del cervello umano, ci sarebbe il problema di capire come sfruttarlo al 100%. Ancora non conosciamo completamente il funzionamento del cervello, molte cose ci sono oscure.
    Un altro appunto. La legge di Moore non è una legge: è solo una supposizione priva di dimostrazione, e secondo me è destinata ad arrestarsi a causa dei limiti fisici dei componenti con i quali costruiamo i processori. E’ vero anche che riuscissimo a scoprire nuovi materiali privi di tali problemi tutto ciò sarebbe possibile, ma questo si discosta dalla “Legge di Moore”.

  • # 9
    Hill
     scrive: 

    “Il grosso problema è che il software è molto indietro rispetto alla potenza di calcolo del processore. […] Quindi non serve a niente riuscire ad arrivare ad una comparazione tra numero dei neuroni e numero delle porte logiche in un processore, se poi non si riesce a sfruttarle.”

    Questo è vero se per creare un’intelligenza artificiale ci si affiderà esclusivamente alla costruzione di un modello di mente originale… ma cosa succederebbe se, con le adeguate tecnologie, scansionassimo un cervello biologico umano? Non ci sarebbe più bisogno di riscostruire le maccaniche di una mente… il lavoro sarebbe già bell’e fatto.

    ““la differenza di capacità di memorizzazione significa poco in confronto a quella nella velocità di commutazione o nel grado di parallelismo”.
    I neuroni saranno pure più lenti ma sono in grado di lavorare contemporaneamente attraverso le sinapsi, mentre un computer può contare su un numero ridotto di processori.”

    Questo è vero solo per le attuali tecnologie a nostra disposizione. I sistemi quantistici (già sperimentati con successo) permetterebbero di sfruttare la sovrapposizione degli stati per fare calcoli in parallelo ad una velocità dunque anche molto superiore.

    “Un altro appunto. La legge di Moore non è una legge: è solo una supposizione priva di dimostrazione, e secondo me è destinata ad arrestarsi a causa dei limiti fisici dei componenti con i quali costruiamo i processori. E’ vero anche che riuscissimo a scoprire nuovi materiali privi di tali problemi tutto ciò sarebbe possibile, ma questo si discosta dalla “Legge di Moore”.”

    Qui temo ci sia qualche incomprensione. La legge di Moore prevede la crescita della potenza di calcolo solo dei computer basati su transistor, se non erro, e fin’ora ci ha sempre azzeccato. Quando passeremo ad una nuova tecnologia (prima accennavo ai computer quantistici) la legge di Moore non potrebbe essere applicata, se non con una sua variante alternativa (una seconda legge di Moore… o una legge di Moore generale, corretta per l’occasione).

    Tutto ciò lascia presagire l’arrivo in temi più brevi (esponenzialmente e non linearmente) della Singolarità tecnologica.

  • # 10
    caiomarius
     scrive: 

    se si legge con attenzione il libro di Kurzweil, è praticamente impossibile non capire che quello che accadrà è già ora “fuori controllo” per l’umanità.

    La nostra condizione di “umani” è solo uno stadio di evoluzione (per fortuna), verso una nuova specie che comunque sarà più evoluta e per definizione migliore.

    L’unico ostacolo a tutto questo può solo essere una catastrofe planetaria dovuta ad errore umano o ad evento cosmico.

  • # 11
    Fausto Intilla
     scrive: 

    “L’opportunità di creare esseri intelligenti superiori agli esseri umani viene messa spesso in discussione,in quanto si dice che tali esseri non sarebbero dei servitori ma dei padroni.Noi riteniamo,al contrario,che sarebbe saggio dal punto di vista economico che i membri di specie evolutesi per via naturale costruissero dei robot intellettualmente molto superiori a se stessi. Ricordiamo che ogni ricchezza è in ultima istanza Informazione.Robot dall’intelligenza superiore aumenterebbero la quantità di Informazione a disposizione di una civiltà ben al di là di quanto potrebbero fare i soli sforzi dei creatori. La cooperazione tra robot superintelligenti e membri della specie che li ha creati, porterebbe ad un aumento della ricchezza disponibile per entrambi i gruppi, e la specie creatrice sarebbe più ricca con i robot che senza. Che la cooperazione tra due entità economiche A e B, con A superiore a B sotto tutti i punti di vista, comporti un miglioramento economico per entrambe, è una ben nota conseguenza della teoria del vantaggio relativo in economia.Noi esseri umani non dovremmo avere paura dei nostri discendenti robot più di quanto ne abbiamo di quelli fatti di carne e sangue, che un giorno l’evoluzione renderà diversi dall’Homo sapiens.Decisamente non sarebbe saggio attaccare o tentare di ridurre in schiavitù i robot intelligenti nostri discendenti. Non dimentichiamo che nel racconto originale Frankestein era inizialmente un essere gentile e generoso,diventato malvagio solo per lo spietato trattamento ricevuto dagli uomini”. (John D.Barrow & Frank J.Tipler – Il Principio Antropico; pag.587) http://WWW.OLOSCIENCE.COM

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.