Internet: bastano i dati grezzi o serve il contesto?

Con molto ritardo, ma anche con qualche attenzione, sto preparando una serie di riflessioni basate sull’intervista rilasciata da Tim Berners-Lee qualche mese fa alla rivista Scientific American, intitolata “Long live the Web”, disponibile qui.

Voglio anticipare un punto che andrò approfondire nella mia analisi, che mi sembra cardinale nell’impostazione di Berners-Lee e di tutti coloro che promuovono a priori l’intromissione della tecnologia nella sfera della conoscenza.

La storia professionale di Berners-Lee rende del tutto comprensibile il suo bisogno di “dati grezzi” – spogli dal contesto – da accompagnare con sovrastrutture descrittive e poi manipolare, aggregare, disaggregare.

C’è un ma.

“Perhaps it’s vanity, this idea that the work is bigger than one’s capacity to describe it.” diceva Stanley Kubrick in una sua bellissima intervista del 1987 a Rolling Stone. La frase era riferita alla sua antipatia per gli sforzi di sintesi rispetto ad opere monumentali come i film (d’autore).

Il che ci porta dritto al cuore del problema. L’idea che in quest’epoca di informatizzazione totale passa inosservata sotto la porta, l’ispirazione che traspira dall’approccio di Berners-Lee – come di molti altri visionari tecnologici anche con qualche gallone guadagnato sul campo di battaglia – è che questa funzione descrittiva, che ci si azzarda talvolta a reputare superiore alle stesse capacità umane, sia delegabile ad una macchina. Per non parlare poi della rilevanza, anche questa ritenuta, direi di conseguenza, affrontabile per via algoritmica.

Non l’automazione in sé ma questa cieca fede nell’automazione, plasma e comprime impercettibilmente l’evoluzione dell’intelletto. Pone dunque un limite, morbido e scintillante ma pur sempre limite, oltre il quale sempre meno sapremo e sempre meno avremo la curiosità di sapere cosa c’è.

Press ESC to close