di  -  giovedì 21 Maggio 2009

Wolfram Apha

Lanciato a metà di maggio al pubblico, Wolfram Alpha è un motore di ricerca di nuova concezione, la cui innovazione consiste nel fornire risposte “finite” tramite l’accesso e l’elaborazione di dati strutturati, piuttosto che offrire collegamenti a pagine web potenzialmente pertinenti con le keyword inserite. Per questo motivo viene definito “answer engine”: in termini pratici, l’inserimento di una chiave di ricerca come ibm market cap restituisce non un elenco di siti finanziari potenzialmente contenenti le informazioni richieste, ma una quotazione inserita nel corpo della pagina, corredata da grafici, cambio nella valuta locale e altri dati di contorno.

Il cambio di paradigma è netto rispetto al modello dei motori di ricerca tradizionali, e sembra nascere per dare attuazione alla tesi propugnata da Tim Berners Lee in più occasioni negli ultimi mesi: alla rete servono dati grezzi, da utilizzare ed aggregare indipendentemente dal contesto.

Una visione, quella di Berners Lee, assolutamente interessante, ma che possiede alcune implicazioni “filosofiche” che proprio Wolfram Alpha porta alla luce.

L’obiettivo di WA è quello di rendere immediatamente disponibili e fruibili le informazioni richieste, con il minimo sforzo da parte dell’utente. Questo minimo sforzo tuttavia esautora l’utente dalla scelta delle fonti per lui più attendibili e in generale rende opaco il ruolo delle fonti, su cui si basa la ricerca nel senso più serio del termine.

Un’operazione del genere, particolarmente nel caso in cui si ricerchino informazioni controverse o non “esatte” – come di frequente accade nella ricerca scientifica – mostra i suoi limiti a meno che, ed è qui che il potenziale di Wolfram Alpha potrebbe venir fuori, le sue metodologie non vengano rese trasparenti a un punto tale da renderlo una fonte accreditata per la ricerca scientifica.

La strada che porta a questo risultato è tuttavia irta di ostacoli. Pur dando per scontata la fiducia dei ricercatori scientifici nello strumento, da un lato il suo potenziale è fortemente limitato dall’inaccessibilità via web, in modo gratuito, parziale e non, di un volume non quantificabile ma certamente importante di testi scientifici.

Dall’altro, come rileva ArsTechnica, WA nella sua attuale incarnazione non offre un livello di precisione sufficiente per giustificarne un impiego scientifico; la sua capacità di offrire informazione validata, elaborata e strutturata richiede inoltre tempo umano: un fattore che potrebbe non scalare alla stessa velocità con cui cresce il volume d’informazioni accessibile via Internet.

8 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    Enrico Pascucci
     scrive: 

    Ci ho giocato un po’ ieri e non ne sono rimasto particolarmente affascinato.

    L’impressione è che l’organizzazione delle informazioni non sia poi così tanto aiutata dalla semantica.
    Utilizzandolo ho avuto l’impressione che il tipo di risultati forniti siano decisi in base a quali sono le fonti che lo contengono più che da una reale analisi del rapporto che si instaura tra le parole inserite.

    Trovo molto più interessante e completo l’approccio utilizzato da Google per ora.

    Se scriviamo “google” su Worlfram otterremo una sintetica analisi finanziaria dell’azienda, scrivendo però “google nasdaq” su Google otterremo per primo un link al servizio Google che offre il medesimo resoconto più una cascata di indirizzi potenzialmente utili ad approfondire.
    In sostanza Google fa quello che fa Wolfram, lo fa meglio e lo fa da più tempo. Però Wolfram è giovane, e i giovani meritano fiducia :-)

  • # 2
    Gianluca Tarola
     scrive: 

    La pulizia e l’immediatezza della risposta sono sicuramenti convincenti. Credo che il confronto con Google
    sia deviante, in quanto sono prodotti di una diversa filosofia di ricerca. Google è analogo ad un immenso indice, ed appunto restituisce dei link, ma non la risposta diretta. Rappresenta la dimensione verticale dell’informazione. Wolfram Alpha rappresenta invece la dimensione orizzontale, ovvero la risposta pronta ed elaborata da cui partire per eventuali nuove ricerche. Questo approccio apre la strada a scenari che potrebbero essere non solo visivi, e ad interfaccie anche non umane, in quanto se si raggiungesse una certa sicurezza sulla certezza della risposta a fare domande potrebbero essere anche degli agenti artificiali o apparecchi elettronici, che a loro volta potrebbero elaborare le risposte (metainformazione)per darci ulteriori risposte legate al contesto. Immaginate un microonde intelligente che riconosce il cibo e si (e ci) informa sui valori nutritivi, oppure un lettore dvd che ci dice tutto sull’autore di un brano musicale. Scenari futuribili, ma non lontanissmi.

  • # 3
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Gianluca
    Il problema centrale è sempre la validazione dell’informazione. Se il microonde va a cercare fra i dati di wikipedia le informazioni sulla busta di precotti che ci metto dentro, e quelle informazioni in wikipedia le ha editate direttamente l’azienda che produce precotti, potremmo ritrovarci con le arterie ostruite mentre pensavamo di mangiar sano.

    Per automatizzare l’intelligenza il buon senso non basta produrre metadati, rendere i dati commentati aggregabili in qualunque maniera e in generale collegare punti fra di loro. È necessaria un’intelligenza affidabile e se vogliamo anche una responsabilità riconoscibile.

  • # 4
    BrightSoul
     scrive: 

    [quote]
    otremmo ritrovarci con le arterie ostruite mentre pensavamo di mangiar sano.
    [/quote]

    Non sarei così pessimista. Più una fonte come wikipedia viene utilizzata, più diventa controllata e affidabile. Si instaura un circolo virtuoso che riduce al minimo il caso da te presentato.

    Non solo.
    L’utente non è conoscenza di tutte le fonti che potrebbe consultare per ottenere la risposta che cerca. Anzi, quasi sempre si affida solo alla fonte che è abituato ad utilizzare, senza andare a cercare altrove.
    Invece, il motore di ricerca semantico – che si presume imparziale – potrebbe fornirgli una pluralità di risultati, messi l’uno di fianco all’altro e provenienti da diverse fonti con diversi punti di vista.

  • # 5
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Brightsoul
    Io invece proprio su wikipedia sono molto pessimista. Certe inesattezze sono divenute delle barzellette, al di là di tutto non mi dà alcuna garanzia il suo sistema di verifica delle informazioni. Wikipedia è il tempio del copia&incolla non citato, ormai tutta la rete è piena di copia&incolla, al punto tale che quando fai un po’ di ricerca su argomenti specifici – mi capita spessissimo – trovi lo stesso testo in dieci posti diversi fra cui, quasi sempre in wikipedia.
    La quale è peraltro vittima degli attacchi dei nuovi metodi di comunicazione “2.0”, con aziende e personaggi pubblici che la manipolano per elevare la loro reputazione e coprire magagne.
    In questo modo si spargono sciocchezze in giro per la rete e nessuno ne è responsabile. Quando queste sciocchezze arrivano a decretare meccanicamente il comportamento dei miei elettrodomestici, che fino a prova contraria possono avere una CPU ma non un cervello, possono combinare disastri da casa di Fantozzi nel futuro.

  • # 6
    Flare
     scrive: 

    Tra l’altro, Alessio, è Wikipedia a venire particolarmente copia&incollata e presa come fonte, cosicché errori e inesattezze si diffondono un sacco. Succede anche che un sito copia l’errore di Wikipedia e poi un altro utente di Wikipedia usa quel sito come fonte (autoreferenzialità insomma). Per non parlare delle traduzioni alla lettera che travisano l’originale. Ho visto errori permanere anche per molti mesi ( = li ho notati e ho visto che nella cronologia erano lì da un sacco di tempo). Oppure ti ritrovi gente che va a correggere cose corrette, non capendone il senso, o gente che se pazientemente sistemi, si impunta, così nascono “edit wars”, in cui di solito resta chi ha più tempo da perdere e spesso si rasenta il ridicolo e la totale mancanza di buon senso; ad esempio un caso esemplare che riguarda noi italiani:
    http://commons.wikimedia.org/wiki/File_talk:Flag_of_Italy.svg

  • # 7
    Alessio Di Domizio (Autore del post)
     scrive: 

    A me è capitato spessissimo, facendo ricerca in stralci di commentatori di qualche fama, riportati pari pari su Wikipedia senza l’ombra di una citazione.

    Un altro problema è che Wikipedia è oggetto dell’interesse delle stesse aziende e persone che vi sono citate, le quali hanno tutto l’interesse a veicolare una visione unidirezionale su Wikipedia che il pubblico poi scambia per oggettiva, tramite il ricorso a “professionisti 2.0”.

    Poi che anche Wikipedia possa essere copiata – ho avuto sott’occhio casi pratici di studenti universitari che ne hanno copiato interi stralci – è possibile, il che non fa che aumentare le mie perplessità sulla qualità delle notizie in rete, duplicate, decontestualizzate, sottratte alla responsabilità di un autore, pretese oggettive…

  • # 8
    Uatoo
     scrive: 

    Visto che si parla di motori di ricerca umani voglio segnalare il progetto UATOO che, per quanto sia ancora alla fase iniziale, presenta diverse caratteristiche interessanti.

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.