I media tradizionali rivendicano la prima pagina nei risultati di Google

Abbiamo ragionato spesso sull’impatto culturale della ricerca Internet, sul modo in cui il paradigma dell’informazione tradizionale è stato sconvolto nel passaggio da contenitori a cui si accede per cercare notizie “validate” – dalla fiducia che si ripone in una testata, alla pagina bianca di un motore di ricerca, in cui si indica il proprio interesse e si procede all’esame delle fonti.

Questo paradigma da un lato carica l’utente della pesante responsabilità di selezionare le fonti, dall’altro, in un quadro mediatico tradizionale spesso legato a gruppi di potere politico/economico, lo svincola da quell’azione manipolatoria, fatta di omissioni quando non di distorsioni, che il conflitto d’interessi reso strutturale dalla natura essenzialmente economica dei media tradizionali, introduce.

In questa dicotomia, cui abbiamo dato voce in due distinti post (Il teorema della rete, Internet ci rende più ignoranti e ottusi?), s’inserisce un terzo elemento, che possiamo definire come “prossimità della fonte ai fatti raccontati“.

Si tratta di un elemento fondamentale per la comprensione del problema ed è l’oggetto di una polemica che in questi giorni infiamma la rete. In un simposio tenutosi alcuni mesi fa, è stato infatti affrontato il tema del rapporto fra media tradizionali e motori di ricerca ed è emersa, da parte dei primi, una posizione che merita di essere presa in considerazione, sintetizzata in questa frase di un executive appartenente a una testata giornalistica americana, diretta a Google:

Il vostro sistema non dovrebbe avvantaggiare sproporzionatamente coloro che essenzialmente sono parassiti di chi produce contenuti.


Il riferimento è chiaramente rivolto a quella pletora di contenitori che spesso “rimasticano” l’opera delle testate giornalistiche, le quali, attraverso il lavoro di personale da loro retribuito, “stanno sul pezzo” mandando inviati sulla scena del crimine, pagando esperti per commentare temi scottanti, intervistando a proprie spese personalità influenti, partecipando a convegni, eventi etc.

Non che il lavoro di questi contenitori non sia il benvenuto o che l’opinione altrui su fatti rilevati da altri sia sgradita: il gruppo intervenuto nel simposio (fra cui ESPN, Hearst, Meredith, il New York Times, la Time Inc. e il prestigioso Wall Street Journal) non richiede di oscurare l’opera di chi costruisce notizie su quelle sviluppate dalle testate tradizionali, ma semplicemente di valorizzare maggiormente nei risultati delle ricerche, l’autorevolezza di chi produce notizie di prima mano.

Questo si traduce in pratica in una revisione degli algoritmi di Google, che dia spazio nella prima pagina delle ricerche alle “fonti originali”.

Prima di passare ad ulteriori considerazioni, prendiamo in esame il “peccato originale” di Google: Pagerank, l’algoritmo attorno cui ruota la grande innovazione del colosso di Mountan View.

Pagerank è un algoritmo essenzialmente “democratico” perché – semplificando – mette tutte le fonti sullo stesso punto di partenza e poi ne innalza la rilevanza in base a fattori quali il numero di pagine esterne che linkano una specifica fonte.

Come ho già avuto modo di dire, Google in questo modo sfrutta “l’intelligenza della massa“, elevandola a principale discriminante circa il posizionamento di una fonte fra i risultati di una ricerca, e dunque circa l’attendibilità percepita di quella fonte.

Quanto questo sistema si autoalimenti (ossia quanto la presenza di un link in prima pagina, generi un ulteriore incremento di popolarità) è un dubbio che non mi azzardo a sollevare, non disponendo delle competenze necessarie. Non ho neppure sufficienti elementi – né ne vengono forniti da chi si oppone a queste richieste – per valutare quanto la mancanza di ottimizzazione delle pagine di alcuni dei media che protestano, influisca sul loro posizionamento.

Quel che m’interessa sottolineare, è che gli effetti di questo sistema di classificazione delle fonti, potrebbero produrre, e di fatto producono – da cui le lamentele dei contenitori tradizionali – situazioni quali nella prima pagina di una ricerca compare un popolare blog che commenta o addirittura si appropria senza citare la fonte, di una notizia divulgata originariamente da una testata giornalistica, assente dalla ricerca.

Una testata la quale ha eventualmente dato copertura all’evento, finanziando con risorse proprie un inviato, un cronista, un analista o altra figura professionalmente impegnata – e per questo retribuita – nel lavoro giornalistico.

Questa distorsione diventa particolarmente rilevante, anche per il pubblico, nel momento in cui si considera che il blogger, che magari scrive senza muoversi da casa, potrebbe non possedere titoli professionali che ne garantiscano l’autorevolezza, non offrire garanzie o spiegazioni circa il modo in cui si è formato l’opinione che esprime, potrebbe viceversa essere finito nella prima pagina di una ricerca per aver espresso una posizione originale sul tema, volutamente sensazionalistica, piuttosto che per essere reputato dal suo pubblico una figura attendibile su un certo tema.

Queste ed altre considerazioni, portano alla luce le contraddizioni a cui Pagerank può condurre: contraddizioni che non mi sento di minimizzare, come non mi sento di affidare la selezione delle fonti pertinenti ad un algoritmo proprietario, al giudizio della maggioranza, all’intelligenza della massa.

Eppure l’intento di Pagerank è proprio quello: affiancarsi alla capacità di discernimento dei navigatori – ove presente. Un’implicazione pericolosa se si considera che, chi non abbia maturato in prima persona questa capacità di discernimento, potrebbe assumere acriticamente l’idea che la prima pagina dei risultati di Google contenga le fonti più rilevanti, competenti, pertinenti: una conclusione che, alla prova dei fatti, si rivela spesso errata, anche grazie alla pratica del copia&incolla che spesso affligge la reputatissima (da Google) Wikipedia.

La facilità con cui Google estrae informazioni dalla rete, dà l’idea che si possa sapere tutto su qualunque argomento in un batter d’occhio: un’idea che si dimostra totalmente campata in aria quando si scopre che è solo tramite una competenza che sta a monte di Google, che si può stabilire la pertinenza e l’attendibilità di una fonte.

In uno scenario mediatico ideale, è invece la competenza di un professionista che guida il lettore attraverso l’esame di problematiche complesse ed esterne al senso comune.

Non per “cerchiobottismo” ma per fornire ai lettori una panoramica più ampia e possibilmente neutrale del problema, va posto sotto la lente un altro elemento cruciale: l’effettiva qualità delle notizie diffuse dalle testate giornalistiche online e non.

A rendere ardue le pretese delle testate tradizionali, c’è il fatto che è spesso impossibile stabilire un evidente differenziale di qualità fra le notizie diffuse dai “dilettanti” e quelle diffuse dai professionisti. Anche l’ordine cronologico, nel rapporto fonte-derivato, è spesso molto meno che chiaro per una persona fisica, ed ugualmente può esserlo per un algoritmo.

La questione diventa particolarmente evidente quando le testate tradizionali – e qui il riferimento all’Italia è esplicito – si avventurano in materie tecnologiche, spesso dando spazio a imprecisioni, praticando scarsa verifica delle fonti, offrendo letture distorte da poca competenza in materia e sensazionalismo.

In questi casi diventa difficile ergere una barriera di professionalità, e il gap fra “dilettanti” e professionisti, su cui si basano le lamentele dei media tradizionali, arriva spesso ad invertirsi.

Alla luce di esempi come questo, il caso del “cronista di guerra” che finisce dietro al blogger, assume un peso relativo rispetto al volume e alla varietà di notizie che le testate veicolano quotidianamente. Internet ha insegnato anche ai professionisti a lavorare da casa, piuttosto che usare “suola e tacco” prima che la penna, come facevano i grandi maestri del giornalismo italiano e non.

In conclusione, pur nella complessità dei problemi e nella parziale legittimità delle posizioni di tutte le parti in causa, credo che la soluzione ottimale sia l’educazione dell’utenza ad un “uso cosciente” dei motori di ricerca: l’intelligenza artificiale di Google non dovrebbe mai sostituirsi alla capacità di discernimento di chi naviga.

Sarebbe questa una materia tremendamente interessante da insegnare a scuola, per evitare il rischio che le opinioni degli utenti della rete seguano pedissequamente le variazioni di questo o quell’algoritmo proprietario.

La consapevolezza nell’uso dello strumento e una cultura di base idonea ad accompagnare il processo di formazione dell’opinione, rimangono l’unico modo per premiare le fonti più meritevoli, ivi compresi i media tradizionali, i quali vanno anche loro spesso presi “con le molle”.

In assenza di queste “reti di protezione” tuttavia, la libertà che Google offre non vale nulla, e rischia di diventare un moltiplicatore per i propri preconcetti, per la propria ottusità. Non c’è algoritmo che tenga.

Press ESC to close