di  -  mercoledì 25 marzo 2009

Abbiamo ragionato spesso sull’impatto culturale della ricerca Internet, sul modo in cui il paradigma dell’informazione tradizionale è stato sconvolto nel passaggio da contenitori a cui si accede per cercare notizie “validate” – dalla fiducia che si ripone in una testata, alla pagina bianca di un motore di ricerca, in cui si indica il proprio interesse e si procede all’esame delle fonti.

Questo paradigma da un lato carica l’utente della pesante responsabilità di selezionare le fonti, dall’altro, in un quadro mediatico tradizionale spesso legato a gruppi di potere politico/economico, lo svincola da quell’azione manipolatoria, fatta di omissioni quando non di distorsioni, che il conflitto d’interessi reso strutturale dalla natura essenzialmente economica dei media tradizionali, introduce.

In questa dicotomia, cui abbiamo dato voce in due distinti post (Il teorema della rete, Internet ci rende più ignoranti e ottusi?), s’inserisce un terzo elemento, che possiamo definire come “prossimità della fonte ai fatti raccontati“.

Si tratta di un elemento fondamentale per la comprensione del problema ed è l’oggetto di una polemica che in questi giorni infiamma la rete. In un simposio tenutosi alcuni mesi fa, è stato infatti affrontato il tema del rapporto fra media tradizionali e motori di ricerca ed è emersa, da parte dei primi, una posizione che merita di essere presa in considerazione, sintetizzata in questa frase di un executive appartenente a una testata giornalistica americana, diretta a Google:

Il vostro sistema non dovrebbe avvantaggiare sproporzionatamente coloro che essenzialmente sono parassiti di chi produce contenuti.


Il riferimento è chiaramente rivolto a quella pletora di contenitori che spesso “rimasticano” l’opera delle testate giornalistiche, le quali, attraverso il lavoro di personale da loro retribuito, “stanno sul pezzo” mandando inviati sulla scena del crimine, pagando esperti per commentare temi scottanti, intervistando a proprie spese personalità influenti, partecipando a convegni, eventi etc.

Non che il lavoro di questi contenitori non sia il benvenuto o che l’opinione altrui su fatti rilevati da altri sia sgradita: il gruppo intervenuto nel simposio (fra cui ESPN, Hearst, Meredith, il New York Times, la Time Inc. e il prestigioso Wall Street Journal) non richiede di oscurare l’opera di chi costruisce notizie su quelle sviluppate dalle testate tradizionali, ma semplicemente di valorizzare maggiormente nei risultati delle ricerche, l’autorevolezza di chi produce notizie di prima mano.

Questo si traduce in pratica in una revisione degli algoritmi di Google, che dia spazio nella prima pagina delle ricerche alle “fonti originali”.

Prima di passare ad ulteriori considerazioni, prendiamo in esame il “peccato originale” di Google: Pagerank, l’algoritmo attorno cui ruota la grande innovazione del colosso di Mountan View.

Pagerank è un algoritmo essenzialmente “democratico” perché – semplificando – mette tutte le fonti sullo stesso punto di partenza e poi ne innalza la rilevanza in base a fattori quali il numero di pagine esterne che linkano una specifica fonte.

Come ho già avuto modo di dire, Google in questo modo sfrutta “l’intelligenza della massa“, elevandola a principale discriminante circa il posizionamento di una fonte fra i risultati di una ricerca, e dunque circa l’attendibilità percepita di quella fonte.

Quanto questo sistema si autoalimenti (ossia quanto la presenza di un link in prima pagina, generi un ulteriore incremento di popolarità) è un dubbio che non mi azzardo a sollevare, non disponendo delle competenze necessarie. Non ho neppure sufficienti elementi – né ne vengono forniti da chi si oppone a queste richieste – per valutare quanto la mancanza di ottimizzazione delle pagine di alcuni dei media che protestano, influisca sul loro posizionamento.

Quel che m’interessa sottolineare, è che gli effetti di questo sistema di classificazione delle fonti, potrebbero produrre, e di fatto producono – da cui le lamentele dei contenitori tradizionali – situazioni quali nella prima pagina di una ricerca compare un popolare blog che commenta o addirittura si appropria senza citare la fonte, di una notizia divulgata originariamente da una testata giornalistica, assente dalla ricerca.

Una testata la quale ha eventualmente dato copertura all’evento, finanziando con risorse proprie un inviato, un cronista, un analista o altra figura professionalmente impegnata – e per questo retribuita – nel lavoro giornalistico.

Questa distorsione diventa particolarmente rilevante, anche per il pubblico, nel momento in cui si considera che il blogger, che magari scrive senza muoversi da casa, potrebbe non possedere titoli professionali che ne garantiscano l’autorevolezza, non offrire garanzie o spiegazioni circa il modo in cui si è formato l’opinione che esprime, potrebbe viceversa essere finito nella prima pagina di una ricerca per aver espresso una posizione originale sul tema, volutamente sensazionalistica, piuttosto che per essere reputato dal suo pubblico una figura attendibile su un certo tema.

Queste ed altre considerazioni, portano alla luce le contraddizioni a cui Pagerank può condurre: contraddizioni che non mi sento di minimizzare, come non mi sento di affidare la selezione delle fonti pertinenti ad un algoritmo proprietario, al giudizio della maggioranza, all’intelligenza della massa.

Eppure l’intento di Pagerank è proprio quello: affiancarsi alla capacità di discernimento dei navigatori – ove presente. Un’implicazione pericolosa se si considera che, chi non abbia maturato in prima persona questa capacità di discernimento, potrebbe assumere acriticamente l’idea che la prima pagina dei risultati di Google contenga le fonti più rilevanti, competenti, pertinenti: una conclusione che, alla prova dei fatti, si rivela spesso errata, anche grazie alla pratica del copia&incolla che spesso affligge la reputatissima (da Google) Wikipedia.

La facilità con cui Google estrae informazioni dalla rete, dà l’idea che si possa sapere tutto su qualunque argomento in un batter d’occhio: un’idea che si dimostra totalmente campata in aria quando si scopre che è solo tramite una competenza che sta a monte di Google, che si può stabilire la pertinenza e l’attendibilità di una fonte.

In uno scenario mediatico ideale, è invece la competenza di un professionista che guida il lettore attraverso l’esame di problematiche complesse ed esterne al senso comune.

Non per “cerchiobottismo” ma per fornire ai lettori una panoramica più ampia e possibilmente neutrale del problema, va posto sotto la lente un altro elemento cruciale: l’effettiva qualità delle notizie diffuse dalle testate giornalistiche online e non.

A rendere ardue le pretese delle testate tradizionali, c’è il fatto che è spesso impossibile stabilire un evidente differenziale di qualità fra le notizie diffuse dai “dilettanti” e quelle diffuse dai professionisti. Anche l’ordine cronologico, nel rapporto fonte-derivato, è spesso molto meno che chiaro per una persona fisica, ed ugualmente può esserlo per un algoritmo.

La questione diventa particolarmente evidente quando le testate tradizionali – e qui il riferimento all’Italia è esplicito – si avventurano in materie tecnologiche, spesso dando spazio a imprecisioni, praticando scarsa verifica delle fonti, offrendo letture distorte da poca competenza in materia e sensazionalismo.

In questi casi diventa difficile ergere una barriera di professionalità, e il gap fra “dilettanti” e professionisti, su cui si basano le lamentele dei media tradizionali, arriva spesso ad invertirsi.

Alla luce di esempi come questo, il caso del “cronista di guerra” che finisce dietro al blogger, assume un peso relativo rispetto al volume e alla varietà di notizie che le testate veicolano quotidianamente. Internet ha insegnato anche ai professionisti a lavorare da casa, piuttosto che usare “suola e tacco” prima che la penna, come facevano i grandi maestri del giornalismo italiano e non.

In conclusione, pur nella complessità dei problemi e nella parziale legittimità delle posizioni di tutte le parti in causa, credo che la soluzione ottimale sia l’educazione dell’utenza ad un “uso cosciente” dei motori di ricerca: l’intelligenza artificiale di Google non dovrebbe mai sostituirsi alla capacità di discernimento di chi naviga.

Sarebbe questa una materia tremendamente interessante da insegnare a scuola, per evitare il rischio che le opinioni degli utenti della rete seguano pedissequamente le variazioni di questo o quell’algoritmo proprietario.

La consapevolezza nell’uso dello strumento e una cultura di base idonea ad accompagnare il processo di formazione dell’opinione, rimangono l’unico modo per premiare le fonti più meritevoli, ivi compresi i media tradizionali, i quali vanno anche loro spesso presi “con le molle”.

In assenza di queste “reti di protezione” tuttavia, la libertà che Google offre non vale nulla, e rischia di diventare un moltiplicatore per i propri preconcetti, per la propria ottusità. Non c’è algoritmo che tenga.

13 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    Paganetor
     scrive: 

    temo conti poco la “qualità” dell’informazione: se paghi sei in cima, se non paghi devi essere bravo a “darla a bere” agli spider di google, se non sei bravo finisci in fondo…

    mi meraviglia il fatto che i vari giornali/riviste on-line (che magari hannio anche l’equivalente su carta) non abbiano ancora cominciato una crociata contro il popolo dei copiaincollatori ;-)

  • # 2
    luigi
     scrive: 

    @ alessio
    per quel che valgono ti faccio i miei complimenti per la scelta delle notizie, il modo in cui le sviluppi e la cultura che ogni volta dimostri di avere. Grazie.

  • # 3
    Marcello
     scrive: 

    Il problema in realta’ non sussisterebbe se chi fa uso del copia/incolla mettesse alla fine dell’articolo il link alla fonte dell’informazione, cosa che gia fanno in pratica tutti i siti(come hwupgrade) e i blog autorevoli.
    Poi c’e’ da dire che basta usare le parole chiave corrette nel motore di ricerca per buttar via gran parte della spazzatura, il problema si riconduce quindi sempre all’utonto di turno; cioe’ il problema non e’ Google, ma chi lo utilizza, non c’e’ algoritmo che tenga in questo caso!

  • # 4
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Luigi
    Grazie, ti assicuro che valgono molto.

    @ Marcello
    Beh intanto in HWU non è che si faccia proprio un copia e incolla… comunque la citazione della fonte non necessariamente risolve il problema, perché il giornalista che riporta una notizia sviluppata mettiamo da un sito straniero, non necessariamente riesce a risalire alla fonte originale. In questo contribuisce a creare quel rimbalzo caotico di fonti che, a posteriori, rende impossibile risalire a chi “si sia fatto il mazzo” per produrre la fonte originale.

  • # 5
    soloparolesparse
     scrive: 

    La base di partenza è che è necessaria intelligenza in ogni ricerca e mai bisogna limitarsi ai primi risultati ottenuti.
    Detto questo però, ritengo più interessante arrivare ad un secondo o terzo pezzo di qualche blogger che non all’articolo originale.
    In questo modo posso avere pareri diversi e magari discordanti e comunque risalire all’originale dai link che (si spera) i blogger avranno inserito.
    Se invece arrivo direttamente all’articolo originale rimango lì e pace…

  • # 6
    caffeine666
     scrive: 

    beh ma forse non hanno calcolato l’altro lato della medaglia, e che:
    1: spesso le testate non permettono il confronto diretto tra utenti, con commenti etc
    2: in italia ad esempio dove c’è del giornalismo attuale di bassa lega, con giornalisti spudoratamente faziosi, che “rimasticano” e soprattutto SCELGONO le notizie a modo loro…. non si puo’ attuare una cosa del genere…
    sono gia’ sicuro che se mettessero le testate come primi risultati, io salterei direttamente alla seconda o terza pagina… infatti non è infrequente che vada a leggere notizie su siti e giornali stranieri…

  • # 7
    mav
     scrive: 

    Alessio, fondamentalmente sono d’accordo, l’utente non deve essere pigro e deve verificare tutto. Vorrei puntualizzare che con internet è possibile, con la tivì, no.

    Detto questo; parli delle baggianate che a volte saltano fuori dai media tradizionali quando parlano di tecnologia/internet. Ti do ragione. Molti di noi se ne possono accorgere perchè siamo ben informati sul piano tecnologico e sappiamo ben o male come funzionano le cose.

    Però il problema non è circoscritto all’ambito hi-tech. Quando parlano di altri argomenti dimostrano ugualmente tutta la loro ignoranza, ma molto spesso le persone che possono fare un ragionamento critico su un altro argomento non coincidono con quella categoria che si occupa di hi-tech.
    Quello che voglio dire è che solo un ipotetico lettore ben informato su tutti gli argomenti potrebbe capire che in realtà quelli che tu chiami professionisti dell’informazione sono, con le dovute eccezzioni, degli ignoranti belli e buoni.

    Lo stato dei media tradizionali è questo. L’unico settore in cui eccellono è la cronaca nera, di quella riempieno i giornali..

  • # 8
    Andrea R
     scrive: 

    A scuola non devi insegnare ad usare un motore di ricerca, al massimo puoi insegnare la teoria dei grafi, così che uno ha idea delle varie misure di centralità e in un colpo solo capisce i motori di ricerca e un sacco di altre realtà.

    Seconda cosa che va imparata è cosa è un monopolio e come funziona un mercato. Internet è libero, ma se l’unico accesso ad internet è Google quello che succede è che Internet è Google. Ad oggi effettivamente Google ha troppo potere e non possiamo stare tranquilli sul fatto che mantenga un atteggiamento “corretto” nelle ricerche.

    Per il resto, tutto il discorso sulla professionalità dei giornalisti è abbastanza un’abbaglio. Quà in Italia non c’è una informazione tradizionale libera. I giornali pubblicano falsità e omettono cose importanti.
    Hanno i loro interessi da difendere. Prendono soldi dal governo, dalla pubblicità e sono proprietà di gruppi industriali con altri interessi. Forse se Internet li ridimensiona non è malaccio.

    Se vogliono offrire una sorta di ricerca autorevole non hanno che da implementarla sui loro siti. Sarebbe senz’altro una cosa buona, ma il mondo deve cambiare. Il giornalista di guerra deve essere lui blogger a volte, mentre i media tradizionali semplicemente non possono ignorare il futuro, altrimenti certo che diventano “tradizionali”. Servono media “moderni”, capaci di innalzare gli standard, di guadagnarsi una reputazione e di vivere su Internet.

    Gestito correttamente un sito di un giornale avrà sicuramente un page rank molto più alto di un blogger medio.
    PS: i codici antispam mi danno spesso problemi.

  • # 9
    Pio Alt
     scrive: 

    Mi pare che quelli che si lamentano sempre di “Internet” sono ogni volta quelli che meno capiscono il web.

    Se una testata autorevole, che pubblica decine di post al giorno, con migliaia di pagine visualizzate, non risulta nei primi posti di Google, vuol dire che chi gestisce quel sito non è capace di farlo.

    Sebbene l’algoritmo sia segreto (ancora non è chiaro se sia un pregio o un difetto perchè aperto non è stato mai) ci sono delle tecniche per salire di posto che così come vengono usate dai blog del copincolla, possono essere usate anche dai portali dei quotidiani.

    Poi non si deve seguire il comportamento del sempliciotto che prende per buono il primo risultato, d’altronde senza quelli sprovveduti i giornali cosa venderebbero? :D

    P.s.: quasi sempre problemi con l’antispam, ma c’è un tempo limite per usare il primo codice?

  • # 10
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Pio Alt
    M’interesserebbe approfondire l’impatto dell’ottimizzazione sul ranking dei siti popolari tipo NYT, WSJ etc. Hai informazioni in merito?

  • # 11
    Wizards
     scrive: 

    Preferisco che google classifichi una notizia in questo modo piuttosto che seguire la fonte originale, in entrambi i casi l’utente cmq dovrebbe fare opera di filtro.. perchè non è che sui giornali ci sia il verbo.. altro che professionisti, l’informazione in italia è morta i giornalisti scrivono quello che la direzione vuole con buona pace della libertà di stampa.
    Il problema di fondo è che chi legge le notizie deve accendere il cervello, magari cercando verifiche incrociate e non assorbirle senza colpo ferire.
    Quindi ben venga google con il suo sistema “simil” democratico piuttosto che lo schifo che abbiamo oggi da noi.

  • # 12
    v1
     scrive: 

    leggendo il titolo mi è venuto da ridere.. immaginando i piccoli giornalistucoli che frignano perchè il grande internet gli ha pestato i piedi. leggendo ho capito che le cose non stanno proprio così.

    l’articolo è davvero molto ben scritto e l’analisi assolutamente condivisibile

  • # 13
    Alessio Di Domizio (Autore del post)
     scrive: 

    Grazie a tutti per l’apprezzamento. Colgo l’occasione per invitarvi, qualora non lo aveste già fatto, a leggere anche i due post che rappresentano le premesse di quest’ultimo.

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.