di  -  giovedì 10 marzo 2011

Con molto ritardo, ma anche con qualche attenzione, sto preparando una serie di riflessioni basate sull’intervista rilasciata da Tim Berners-Lee qualche mese fa alla rivista Scientific American, intitolata “Long live the Web”, disponibile qui.

Voglio anticipare un punto che andrò approfondire nella mia analisi, che mi sembra cardinale nell’impostazione di Berners-Lee e di tutti coloro che promuovono a priori l’intromissione della tecnologia nella sfera della conoscenza.

La storia professionale di Berners-Lee rende del tutto comprensibile il suo bisogno di “dati grezzi” – spogli dal contesto – da accompagnare con sovrastrutture descrittive e poi manipolare, aggregare, disaggregare.

C’è un ma.

“Perhaps it’s vanity, this idea that the work is bigger than one’s capacity to describe it.” diceva Stanley Kubrick in una sua bellissima intervista del 1987 a Rolling Stone. La frase era riferita alla sua antipatia per gli sforzi di sintesi rispetto ad opere monumentali come i film (d’autore).

Il che ci porta dritto al cuore del problema. L’idea che in quest’epoca di informatizzazione totale passa inosservata sotto la porta, l’ispirazione che traspira dall’approccio di Berners-Lee – come di molti altri visionari tecnologici anche con qualche gallone guadagnato sul campo di battaglia – è che questa funzione descrittiva, che ci si azzarda talvolta a reputare superiore alle stesse capacità umane, sia delegabile ad una macchina. Per non parlare poi della rilevanza, anche questa ritenuta, direi di conseguenza, affrontabile per via algoritmica.

Non l’automazione in sé ma questa cieca fede nell’automazione, plasma e comprime impercettibilmente l’evoluzione dell’intelletto. Pone dunque un limite, morbido e scintillante ma pur sempre limite, oltre il quale sempre meno sapremo e sempre meno avremo la curiosità di sapere cosa c’è.

13 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    Dario S.
     scrive: 

    A me pare che comunque la macchina vada programmata. La macchina non inventerà mai un modo per descrivere i dati, quello è sempre il compito dell’uomo. La funzione della macchina è quella di svolgere velocemente i calcoli, secondo uno schema impostato da un umano.
    In questo senso secondo me i computer aiutano l’uomo a focalizzarsi sulla struttura senza perdere tempo sui dati, ed è una grandissima cosa.

  • # 2
    Marco
     scrive: 

    Si può sempre programmare una macchina a programmarsi. Di fatto, tutto ciò che può fare l’uomo lo potrà fare anche la macchina.

  • # 3
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Dario
    Credo che l’urgenza di dare dati in pasto alle macchine abbia ridotto all’osso la funzione descrittiva.
    Un social network deve capire quale libro fa per te partendo dalle preferenze che indichi nella tua profilazione. Posto che quest’ultima sia perfetta, in che modo la descrizione del libro può essere abbastanza esaustiva da incontrarla?
    Nel nemmeno troppo prossimo step sarà necessario dunque dare anche il libro in pasto alla macchina, che lo ridurrà in un mucchio di tag (d’altronde l’analisi semantica già oggi è centrale nel mondo del search), da confrontare con i tag che più o meno consapevolmente qualche algoritmo ti ha attaccato in fronte.
    Il punto è che tanto il libro quanto l’uomo rimangono inintellegibili ad uno sciocco mucchio di transistor. Farà prima la macchina a comprendere l’uomo e le sue opere, o l’uomo a diventare abbastanza stupido da soddisfare i limiti della macchina?

  • # 4
    phabio76
     scrive: 

    Ciao,
    l’articolo di Tim Berners-Lee è tradotto integralmente qui:
    http://www.wemedia.it/blog/2011/01/tim-berners-lee-lunga-vita-al-web/

    Di spunti di riflessione ce ne sono molti ma la “funzione descrittiva delegata alla macchina” è una tua interpretazione (molto) implicita nel discorso. Sarebbe più giusto parlare di diversi approcci culturali al mezzo internet e alla deriva del web.
    Messa così sembra più una questione di pura AI… fino a che punto può spingersi la macchina? Fino al 1965 sembrava impossibile che un computer potesse battere un essere umano a scacchi…

  • # 5
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ phabio76
    Capisco l’ambiguità ma quando parlo del ruolo del descrittore mi riferisco al “latore della descrizione”, non a colui che assume la funzione di descrivere, un processo che presume capacità di conoscere in senso pieno. Alla “conoscenza” tuttavia ci stiamo arrivando, tramite tecniche come per l’appunto l’analisi semantica, che sono già oggi alla base di molte tecnologie di uso quotidiano.

  • # 6
    Dario S.
     scrive: 

    @Marco:
    Non è vero che tutto ciò che fa l’uomo può farlo anche la macchina. Non tutto è algoritmicamente risolvibile.

    @Alessio: ci dovrà comunque essere qualcuno che programma la macchina per la profilazione del libro e dell’utente. C’è certamente urgenza di dare in pasto i dati alla macchina (oggi), ma prima o poi questi dati vanno trattati, ed allora bisognerà tornare a studiare un modello adeguato per trattare quei dati. Dei dati grezzi te ne fai ben poco; tu hai paura che tutto si appiattisca verso il minimo, ma ci sarà comunque sempre qualcuno che saprà sfruttare meglio di altri i pc (nella fattispecie creando un modello descrittivo migliore) e questo alzerà il livello delle competizione, spostando comunque in alto la lancetta.

    Se così non fosse staremmo ancora all’età della pietra… la stessa cosa vale coi pc: se oggi basta accumulare una quantità colossale di dati per aver la meglio, un domani vincerà chi li saprà gestire nel migliore dei modi. E allora ci vorrà cervello.

  • # 7
    Alessio Di Domizio (Autore del post)
     scrive: 

    Dario, sono certo che la competizione già è e sempre più sarà sulla gestione dei dati. In altri termini sulla spremitura di dati – che, perdonami la divagazione, a un certo punto potrebbe iniziare a somigliare a una “spremitura d’uomini” stile Matrix, il cui inizio magari qualcuno rintraccerà col cd. Web 2.0 – dati significativi dai dati grezzi. Ma questa evoluzione non è neutrale. Ed è in mano ad aziende ed uomini la cui assoluta fede nell’algoritmo è propulsa da fini di lucro. Fini che nella Internet anni 2000 si alimentano di… dati personali, azzeramento della privacy, fino al sogno di ogni uomo di marketing: il consumo telecomandato. Premo un pulsante e tutti comprano il mio prodotto. Il che richiede due elementi: una macchina perfetta da un lato, un intelletto azzerato dall’altro. Temo che ci stiamo avvicinando a grandi passi.

  • # 8
    Davide Costantini
     scrive: 

    Sinceramente Alessio non sono sicuro di aver afferrato il tuo discorso. Mi viene in mente la boriosa affermazione del razionalismo in campo economico con l’economia neoclassica (ma che pervadeva tutte le scienze figlia dell’influenza di Cartesio) che costruiva modelli economici che non venivano confermati da riscontri reali ma venivano comunque seguiti ciecamente.

    Oppure allo sciocco utilizzo delle equazioni di Black-Scholes che vennero incolpate di aver causato la crisi. Il secondo dei due creatori alla domanda “pensa ancora che i suoi studi siano validi” ha risposto “le equazioni sono uno strumento e sono ancora valide, credervi ciecamente è l’errore”.

    Insomma l’epistemologia ci insegna che senza teoria di base, senza uno schema interpretativo, i dati non diventano informazioni. Se non conosci l’alfabeto le lettere sono scarabocchi. Se non conosci l’elettronica e vedi un ingegnere che misura una tensione col tester vedi un uomo con una scatola in mano. Lo stesso sono i dati grezzi, non possono prescindere da un sistema interpretativo e questi finora si sono sempre periodicamente confutati. La meccanica quantistica (ma anche il relativismo di Einstein) ha trasformato il concetto di ragione donandogli una certa debolezza. L’attuale visione dei frames cognitivi, delle teorie interpretative, dimostra che queste vengono sistematicamente confutate portando a crisi del paradigma.

    In conclusione credo che questa fede negli algoritmi porterà una bolla di grosse proporzione nella valutazione delle società che sfruttano tali strumenti. Bolla che presto o tardi scoppierà smutandando qualcuno. O forse per alcune di loro non si verificheranno imprevisti fino a quando il modello di business sarà più affinato e autosufficiente.

    Certo è che quando penso al valore di Facebook o di Google ho sempre l’impressione che sia gonfiato.

  • # 9
    Dario S.
     scrive: 

    @Alessio:
    un discorso è la paura che gli uomini (*tutti*) si appiattiscano verso il basso a causa delle macchine (che come ho spiegato non ritengo plausibile…), un altro discorso è che le aziende abusino di un certo potere derivante dalle macchine. Le aziende sono comunque fatte da uomini, i quali riuscendo a sfruttare al meglio certi dati (quindi studiando e inventando strutture migliori di altri) possono sfruttare, nel bene o nel male, questo potere.
    Ma una situazione di questo tipo nega decisamente l’ipotesi che gli uomini si stiano appiattendo per colpa delle macchine.

    A mio avviso la situazione cambierà quando esisteranno le IA (quelle vere, senzienti, che sono ben lontane dagli esperimenti odierni), ma attualmente siamo così lontani da questa meta che sconfiniamo nella fantascienza ;)

    @Davide
    anche secondo me esistono delle società assolutamente gonfiate… facebook, twitter su tutte. Prima o poi faranno il botto :(
    Però devo dire che secondo me google non sarà fra queste… soffrirà, ovviamente, ma credo che abbia saputo diversificarsi così tanto che nel complesso reggerà.

  • # 10
    Davide Costantini
     scrive: 

    Effettivamente Dario, Google è in una posizione alquanto solida. Facebook e Twitter un po’ meno. Può darsi che non si verificheranno mai problemi. Chi vivrà vedrà!

  • # 11
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Dario e Davide
    La fede negli algoritmi è incrollabile perché gli algoritmi scalano all’infinito, e scalando all’infinito risolvono due generi di problemi:
    – azzerano i costi marginali, facendo molto ricchi chi li controlla
    – ti tengono al riparo da rogne legali: non si può dare la colpa a un computer
    Peccato che gli stessi algoritmi, così capaci di influire sul bene pubblico che stato tutela, siano secretati da brevetti industriali. Il che significa che quel monstrum che ci controlla e sempre più ci telecomanda, non sappiamo neppure che faccia abbia.

    @ Davide
    Gli uomini (certi uomini, pochissimi uomini), anche nella palese incapacità degli algoritmi di assumere le funzioni di una IA in senso pieno, hanno tutto l’interesse ad incaricarli delle funzioni di rilevanza, selezione e sempre più descrizione, per i motivi che elenco su. Altri uomini, e sono la massa, hanno l’unico ruolo di rappresentare l’ecosistema da cui questa sovrastruttura tecnologica trae stabilità e nutrimento per la sua crescita. Il tutto oggi è propulso dal soldo. Domani chissà…

  • # 12
    Dario S.
     scrive: 

    @Alessio:
    sul fatto che ti tengano al riparo da rogne legali non ne sarei così certo.
    L’azienda (e i suoi padroni) sono ovviamente responsabili per i danni che eventualmente causano, anche se sono dovuti ad algoritmi errati. E ci mancherebbe pure ;)

  • # 13
    Davide Costantini
     scrive: 

    Sinceramente non sono così pessimista. Parlando pratico, il settore che più mi fa pensare è quello finanziario dove gli scambi sono basati sul funzionamento di diversi algoritmi. L’accelerazione delle fluttuazioni nei vari mercati rende fondamentale l’assistenza telematica e dall’affidabilità di questi sistemi dipendono vari miliardi di dollari.

    Del resto scandali e fallimenti nel mercato finanziario hanno dato prova di avere effetti devastanti nel mondo globalizzato. Non mi dico preoccupato però è lì che focalizzerei l’attenzione pensando al “crescente potere degli algoritmi”.

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.