di  -  venerdì 17 luglio 2009

Img courtesy of blogs.sun.comLeggendo i commenti al mio precedente pezzo su Chrome OS, ho notato che alcuni utenti sembrano incondizionatamente propensi all’adozione del nuovo paradigma riproposto da Google. Trattandosi di uno scenario che alcuni ritengono plausibile (e sul quale di certo si spenderanno presto anche Microsoft e altri titani di calibro simile), vorrei in questa sede spendere qualche parola su quelle che mi sembrano le più immediate conseguenze dell’introduzione sul mercato della “reincarnazione” del Network Computer di Oracle.

Facciamo un passo indietro per entrare in contesto: per chi opera nel comparto hardware, il netbook è “il peccato originale”. Un prodotto realmente “disruptive”, che in un sol colpo ha bloccato la corsa alla crescita dell’hardware – con essa le ambizioni di chi vi faceva leva per vendere nuove feature SW – e dimostrato all’utenza che si può fare tutto con meno. Con la “complicità” della congiuntura economica, il netbook ha quindi abbattuto prezzi e margini dell’intera industria. In conseguenza di ciò, per gli OEM non sarà facile, anche in caso di ripresa, risalire questa china, che ha modificato radicalmente le aspettative dell’utenza in rapporto al budget allocato.

Oggi in effetti si portano a casa computer buoni per la routine quotidiana, a meno di € 300; poco più in alto, gli UMPC che fino a qualche anno fa andavano via a € 2500/3000, oggi ne costano meno di 1000. In un mercato che si sta omologando su prezzi ridotti all’osso, il problema della differenziazione fra marchio e marchio si aggrava, mentre i soldi per il marketing – come sempre in tempi di vacche magre – scarseggiano.

All’indomani del successo del modello proposto da Chrome OS tuttavia, gli OEM potrebbero guardare con rimpianto a questo già duro momento. Vediamo perché.

I motivi tecnici sono facilmente intuibili: dirottando il carico di lavoro richiesto dal software dall’altro capo del cavo, i requisiti hardware – rispetto a un sistema in grado di “tenere in piedi la baracca” software – si comprimono fino a divenire minimali.

Per un’utenza nata e cresciuta sul “fat client” la rivoluzione sarebbe traumatica: le discussioni su questo o quel processore, sulla RAM o sull’hard disk, diverrebbero di colpo retaggi del passato, mentre gli opulenti notebook full-featured andrebbero via via sparendo in favore di strumenti più simili a degli smartphone che a dei computer, perlomeno come potenza elaborativa, autonomia e chiusura (per inciso, quale momento migliore per il lancio di una piattaforma SAAS consumer e di terminali dedicati, anche per MS e Apple?).

Per gli OEM questa rivoluzione avrebbe l’effetto di consolidare la spirale al ribasso dei prezzi e dei margini già iniziata col netbook: nel momento in cui l’esperienza si sposta da dentro a fuori il computer, il computer passa da centro delle attività digitali a “telecomando” di un ambiente software remoto. Il più scarso dei netbook oggi in circolazione, con un monitor decente, sarebbe più che sufficiente.

Potrebbe cambiare radicalmente anche lo scenario distributivo per questi oggetti: se non Google stessa, potrebbe essere l’ISP a fornire questi terminali in comodato d’uso con il contratto di accesso, assieme a vari pacchetti per l’accesso a casa e in mobilità. Nulla vieterebbe poi a un colosso come Google (o MS, altro protagonista del mondo SAAS) di entrare nel mondo hardware, rivolgersi direttamente a colossi del settore ODM come Compal e Quanta, e produrre apparati personalizzati. Di fronte a questa eventualità, vedremmo tutti gli OEM correre in fila indiana verso il Googleplex per stilare un accordo esclusivo, a qualunque condizione (con una mano in tasca a fare scongiuri perché l’intero piano fallisca).

Queste prospettive, invero piuttosto fosche per una bella fetta di economia ICT, non compromettono, anzi avvalorano, la partnership Google/Intel per Chrome OS. Al restringersi dei dispositivi, come ha ottimamente spiegato Cesare Di Mauro, l’architettura x86 vede infatti aumentare la sua impasse rispetto a chi realizza architetture più efficienti, ARM in testa. Questo mette Intel nell’urgenza di presidiare da vicino ogni mutamento di scenario.

In questo senso, una partnership Intel-Google su thin client di nuova generazione potrebbe spingere l’Atom fin dove, con le sue sole gambe, non è ancora riuscito ad arrivare.

25 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    filippo1974
     scrive: 

    Sono scettico su un ritorno generalizzato al paradigma del thin client. Faccio fatica a vedere una convivenza di questa impostazione con attività come ad esempio l’elaborazione multimediale (anche un’attività a portata di tutti come montare e masterizzare su DVD il filmino del matrimonio dell’amico, come si concilia con l’idea alla base di Chrome OS?)

    Certo, molte attività quotidiane ben si sposano con il network computing, ma sono convinto che il fat client resterà vivo e vegeto, vedendosi ovviamente restringere il campo applicativo.

    Ciao
    Filippo

  • # 2
    EnricoG
     scrive: 

    L’iPhone e’ la dimostrazione che il thin-client e’ ancora ben lungi da venire.
    Fino a quando iPhone aveva solo web app solo i fan sfegatati di Apple l’hanno preso in considerazione, ma poi con lo store e le attuali decine di migliaia di applicazioni client, beh le cose sono cambiate radicalmente.
    Persino Google maps per iPhone e’ un’applicazione client-server e non solamente server!!!
    Versione dopo versione l’iPhone sta diventando sempre piu’ evoluto come hardware e con capacita’ grafiche impensabili fino a qualche hanno fa su un dispositivo cosi’ piccolo, e non vedo come questa tendenza possa invertirsi.
    Ma e’ cosi’ difficile capire che le soluzioni vincenti sono appunto quelle che risiedono sul client e sfruttano servizi web, ma le web app… perfavore… risparmiateci la sofferenza di doverle usare ;)

  • # 3
    orni
     scrive: 

    sarò anacronistico, ma io non mi sentirei tranquillo al 100% usando un apparecchio con questa “filosofia”.
    Prima gradirei una diversa tutela della privacy e dei miei dati. Le attuali condizioni d’uso dei servizi google (e quindi immagino anche il futuro chrome os) non si sposano col mio modo di pensare: “i miei dati sono miei e vorrei sapere che fine fanno”.
    Quindi, per quello che mi riguarda, spero che l’hardware rimanga a casa mia :P Se voglio avere dei dati in giro con me… mi porto dietro una chiavetta.

  • # 4
    v1
     scrive: 

    quoto filippo1974, ci sono moltissimi campi in cui i client necessitano di potenza hardware. a meno che i servizi web non si sviluppino così tanto da garantire la stessa flessibilità (impensabile). per di più, spostando anche le applicazioni più pesanti in remoto, ci sarebbe bisogno di velocità di connessione oggi fantascientifiche.

    secondo me google chrome os ha buone possibilità di essere un fallimento, al di fuori del comparto netbook.

  • # 5
    gaspode
     scrive: 

    Secondo me la filosofia thin client è utile, in alcuni ambiti, ma assolutamente deleteria in altri.
    Sono precentualmente pochi gli ambiti, se pur in numero assoluto rilevanti, in cui questa architettura può portare vantaggi, in primo luogo finanziari (considerando che sono i soldi a smuovere le migrazioni).
    Consideriamo che la fascinazione di questo modello informatico è ciclica, non passa generazione informatica che non si tenti di riportarla in auge.
    Ma troppo spesso ci si scorda delle grosse variabili che si introducono.
    1) larghezza di banda per il collegamento client-server
    2) fedeltà della suddetta banda
    3) problematiche di fail del server
    ecc…
    Da un lato di sicurezza a 360% non si fa altro che traslare le problematiche dall’utente al sistemista, dal client al server, dalle “periferie” al “centro”.
    Ma tutto questo non intacca minimamente la fonte primaria di indeterminazione e problemi di un sistema informatico, l’utente medio (almeno sul lato consumer).
    Mentre in un ambito lavorativo ci troveremo dinanzi a realtà enterprise che, potendosi permettere sistemi centralizzati affidabili, potranno anche mettersi a ponderare su altri fattori, pro o contro, a questo tipo di architettura.
    In realtà soho, che sono la stragrande maggioranza in italia, ci ritroveremmo a lavorare su impianti non adatti a reggere il fail della struttura centrale, caduta di collegamento ecc… semplicemente perche, così come ora, non ci si può permettere di spendere grossi capitali in sistemi ridontanti e a prova di guasti.
    Dunque credo che questa nuova ventata di “thinkclientismo” sia destinata a fallire: nell’ambito consumer per colpa delle connessioni attualmente disponibili a prezzi accessibili, in ambito soho, per via di un non immediato recupero dell’investimento.
    Rimangono realtà di nicchia, in ambiente soho e quelle enterprise, che considereranno queste alternative, così come sono state da sempre interpretate. Non scordiamoci però che MS ha da sempre in offerta la sua soluzione.
    Desktop remoto e virtualizzazione sono i sistemi che utilizza per realizzarle.

  • # 6
    tidus.hw
     scrive: 

    ma una specie di cloud a livello di rete locale non sarebbe meglio per adesso?
    attualmente è impensabile spostare tutto sul lato server con connessioni che abbiamo.. però ad esempio per la casa potrebbe andare bene… un solo pc “potente” che elabora i dati del photoshop della sorella, del videogioco del bambino.. e così via.

    Per ora fantascienza in ogni caso :D

  • # 7
    andrea
     scrive: 

    non sono un tecnico, quindi magari mi sbaglio, però da utente, l’impressione è che insieme ad aggiunte significative in termini di funzionalità, molti nuovi software nascondano codice sempre peggiore e peggio ottimizzato, così da richiedere necessariamente (o volutamente, talvolta) sistemi più potenti…
    Talvolta queste richieste sono motivate, talvolta hanno a che fare con funzionalità di base e quindi assolutamente incomprensibili…
    Qualche settimana fa sono rimasto stupito da questa cosa…
    Ho provato un paio di software, nelle loro versioni base, per realizzare semplici spartiti musicali: si tratta di Vivaldi e Finale Notepad 09, ambedue originali…
    Bene, sia su un desktop (P4 3.2 Ghz, 2Gb Ram) che su un portatile (non ricordo la cpu, cmq un buon computer Asus di tre anni fa), quando si esegue un playback midi (un solo strumento, senza VSTi o cose del genere), la cpu lavora tantissimo, finendo anche per scaldare molto dopo un pò…
    Ora, si tratta di per sè di un operazione che dovrebbe essere leggera (e che in effetti altri software eseguono senza pesare granchè sul sistema)… mi fa però sorridere pensare che con un Amiga 1200 a 14Mhz negli anni novanta facevo più o meno la stessa cosa senza difficoltà…

  • # 8
    quell'uomo
     scrive: 

    Il concetto di Thin Client è perdente, per un semplice motivo: un Fat Client può fare da Thin Client, non in modo ottimale, ma può; il Thin Client non può fare da Fat Client e basta.

    Ci sono tipologie di applicazioni e servizi che su un TC (e dunque su un FC) possono essere svolte ottimamente, e altre no.
    La “banda larga” o largissima che dir si voglia è un bus lentissimo in termini assoluti rispetto alla connettività locale, come questa lo è rispetto ai bus interni, come questi lo sono rispetto ai bus integrati, e in più la banda è pubblica con tutti problemi (o anche fisime) di sicurezza e privacy dei pacchetti annessi e connessi…

    Ci sono applicazioni/servizi per cui questo collo di bottiglia è accettabile, e dunque NON è un collo di bottiglia, e altre che semplicemente non sono adatte a questa architettura applicativa.
    Per cui il FC sarà sempre vincente in termini di versatilità, e sarà sempre la scelta d’obbligo per professionisti, appassionati, “utonti avanzati” :) che magari lo useranno per un buon 50% delle applicazioni come un (non ottimale) TC, ma avranno nel loro quaotidiano anche un buon 50% di applicativi per cui l’approcio TC semplicemente non funziona in termini di accessp alle risorse.

    I TC IMHO avranno il loro momento di gloria, come è stato anni fa in ambito home, facendo da pionieri del mondo dell’ultraportabilità, e magari saranno l’unico dispositivo di cui gli “utonti non avanzati” :) avranno bisogno nella maggior parte dei casi.
    Salvo poi, come è già successo in altre fascie, soccombere ai più flessibili FC quando il progresso tecnico abbatterà costi e consumi di questi ultimi, o magari per pura e semplice avidità dei produttori che dopo aver saturato il mercato di “innovativi” TC vorranno risaturarlo di “innovativi” FC… Tanenbaum stesso dice che nel mondo dell’IT ci sono spesso flussi e riflussi, e a seconda dello stato dell’arte di una tecnologia si ridefiniscono le idee su quale sia l’approcio migliore (lo dice riferendosi alla memoria virtuale… guarda caso anche qui si parlava di ampiezza di banda…)

  • # 9
    Luca69
     scrive: 

    Google fornisce giá soluzioni hardware per le imprese che vogliono indicizzare la propria intranet e mettere un motore di ricerca interno “google-like”.

    Potrebbero quindi proporre soluzioni anche consumer per la gestione di servizi integrati quali pubblicazione di foto, navigazione, posta elettronica e cosa simili.

    Il think client quindi potrebbe avere un futuro in quegli stessi ambiti dove un netbook ha avuto successo :)

  • # 10
    Marco
     scrive: 

    Dove lavoravo prima, una multinazionale con 100K dipendenti, i thin client erano piuttosto diffusi (almeno un 50% delle macchine), dovendo far girare quasi esclusivamente Lotus Notes (che immagazzina tutti i documenti in un server centralizzato, e qui ci starebbe anche il parallelo con le Google apps). Non sto qui a raccontare i dettagli, cmq ad esempio HP (nostro fornitore) ha sempre creduto tanto nei TC e ne ha sempre avuto parecchi a catalogo anche in tempi non sospetti.

  • # 11
    pabloski
     scrive: 

    non penso che finirà così

    innanzitutto facciamo i conti con l’economia e col fatto che ci piaccia o no i netbook vendono e hanno annientato le vendite di altri tipi di hardware

    e questo indipendentemente dai thin client, da google, dal clod, ecc…

    dunque che google spari chromeos nell’arena o si continui con windows 7 e compagnia, credo che il trend dell’hardware sia segnato

    il problema è che oggi la gente si è accorta che molto software è bloated e opta per soluzioni più snelle e soprattutto la gente comune non ha bisogno di photoshop o autocad, per cui un netbook è più che sufficiente

    con l’avanzare del cloud e delle applicazioni ria non cambierà molto, anzi le macchine virtuali necessarie a farle girare implicherà un aumento della potenza di calcolo e non una diminuzione

    il paradigma del cloud come modello thin client non può avere successo e alla fine avremo un’ibridazione tra elaborazione locale e remota….ad esempio è sensato installare un’applicazione ria come word sul pc per scrivere documenti e poi trasferirli sui server remoti, sarebbe insensato invece inviare ogni carattere digitato sulla tastiera ad un server remoto che dovrebbe sobbarcarsi il carico di milioni di documenti scritti contemporaneamente

    è chiaro che il cloud non sarà come il modello thin client ma sarà molto più decentralizzato con una buona dose di attività svolta dai client pur mantenendo una costante comunicazione con il sistema remoto per il reperimento di plugin al volo, elementi multimediali e quant’altro

    in questo senso non vedo un problema per l’hardware, o meglio dire che non è il cloud il problema degli oem ma sono i netbook

  • # 12
    filippo1974
     scrive: 

    @ Marco

    Concordo con te che ci sono ambienti, tipicamente quelli aziendali, dove l’approccio tramite Thin Client rimuove in un colpo solo una serie di problematiche tipiche della gestione di infrastrutture IT corporate: dal deployment massivo di macchine client, all’aggiornamento del software su ciascuna, al controllo sulle possibilità di personalizzazione che il singolo utente ha sulla sua postazione (tutte cose che, per carità, si possono fare anche con il più tradizionale approccio client/server, ma con una complessità -e relativi costi- notevolmente superiore).

    Nell’ambito consumer, invece, il discorso Thin Client funzionerebbe solo in parte: al di là del fatto che molte delle necessità aziendali vengono meno in ambito “casalingo”, resta, come già fatto notare da altri interventi qui, il discorso della privacy e l’inadeguatezza del network computing a determinati ambiti applicativi dove il tradizionale paradigma del fat client è per ora insostituibile.

    Ciao
    Filippo

  • # 13
    zando
     scrive: 

    @6
    Oddio, al giorno d’oggi ci sono videogiochi che potrebbero mettere in difficoltà alcuni server! A parte questo il thin client lo vedrei eccezionale in molte aziende, che dispongono di una buona banda di connessione e questo tipo di architettura aiuterebbe non poco gli amministratori di rete…

  • # 14
    massimo m.
     scrive: 

    bello vedere come la ruota gira e torna al punto di partenza. mainframe -> client server -> www e thin client, che sono esattamente la stessa cosa del mainframe, cioe’ server che elabora e client che fa poco piu’ che presentare a video.
    imho sarebbe interessante un thin client ma in ambito aziendale, cioe’ che un server INTERNO all’azienda faccia girare le applicazioni,e i thin client che si connettono non a internet ma al server interno. pochissima manutenzione, minore stress per i sysadmin, meno necessita’ di upgrade continui dei client

  • # 15
    Raleigh
     scrive: 

    Dal punto di vista puramente aziendale non mi fiderei nemmeno per un minuto di mettere i miei dati sensibili in mano al web. Si è vero, potrebbe essere una bella idea, potrebbe essere economicamente vantaggioso, ma significherebbe che avere un problema di rete mi impedirebbe di fare le cose più banali!

    Sono dell’idea che avere un sistema troppo dipendente da qualcosa è come incatenarsi ad un treno in corsa : ti può andare benissimo, ma se il macchinista si addormenta? Se il controllore in stazione fa una fesseria ?

    Il netbook dominatore? Balle, la congiuntura lo ha fatto diventare di successo, ma da qui a dire che è un’alternativa al al buon vecchio PC ce ne passa di strada. Sarebbe come dire che le “smart” sono il nuovo prototipo dell’auto moderna e che le station wagon sono da considerarsi superate… ma se devi fare un viaggio? Se devi fare la spesa? Se vuoi portare una valigia?

    Il netbook è la stessa cosa: un cosetto plasticoso, dai 200 ai 400 euro, con un display minimo, che ti permette di andare su internet ovunque. Questa è la sua funzione, niente di più.

    Il mercato hardware, è in una fase molto interessante, sopratutto per le tasche dei medi utenti, dopo una fase di “smania da portatile” (che poi viene usato al 90% come desktop) i prezzi abbordabili consentono ad un sacco di utenti di abbandonare i gloriosi e vetusti sk478,754,939,775(I°gen) per abbracciare nuove tecnologie senza svenarsi e con il tempo ci sarà un interessante ripresa.

  • # 16
    MarconWPS
     scrive: 

    =) sorrido si perche i TC sono il passato e onestamente ho sempre sperato di avere un sistema potente e abbordabile da poter usare . Il fatto che ora ci sia un ritorno di fiamma mi preoccupa , perche’ toglie quella fetta di utenti che mi abbassavano il prezzo dei PC anche se in realta’ comperavano hardware che poi non utilizzavano .
    Spero non si ritorni a sistemi ultracostosi visto che finalmente posso usare un quadcore e non ho dovuto vendere un rene :)… per il software ahime no comment!

    Personalmente ricordo ancora la acorn che in tempi lontani credeva la stessa cosa spostare in rete il software un sistema client server , e mi sa che sono in pochi a ricordasi di questo hardware . E dire che erano anche macchine particolamente potenti come non citare il famoso archimedes oooo che tempi … si ho qualche capello bianco :)!!!

    Saluti Stefano

  • # 17
    sabbia
     scrive: 

    Il Pc si differenzierà certamente e arriveranno anche gli ARM.

    Questo è solo un bene, la concorrenza non ha mai fatto male.
    Ma da qui a dire che siamo vicini al riflusso del TC, ce ne corre.

    Per quanto mi riguardi, spero proprio di vedere un giorno un bel desktop con una MoBo al cui interno girino dei RISC, tipo ARM, multi core, multi gpu, multi apu, quello che sarà, insomma, grande poco più del masterizzatore e che non consumi nulla.

  • # 18
    Cael
     scrive: 

    @Sabbia

    poni molto male le tue speranze. ARM non arriverà mai su pc per il semplice motivo che l’accoppiata x86-Windows(ed ora anche OSX) determina il 99% del mercato software, che ovviamente non prenderà in considerazione investimenti su piattaforme diverse da x86 a meno che queste non raggiungano quote di mercato considerevoli. Ma tali quote senza software non si raggiungono. Ormai è una storia vecchia, a cui la stessa Apple si è arresa.

  • # 19
    Marco
     scrive: 

    “Ormai è una storia vecchia, a cui la stessa Apple si è arresa.”

    Tsk… se Apple si fosse arresa non proporrebbe un proprio SO incompatibile con Windows, non credi?

  • # 20
    Cael
     scrive: 

    @Marco

    Apple si è arresa ad usare x86. Anche per convenienza, perchè senza la possibilità di installare Windows il boom di questi ultimi 2 anni non l’avrebbe mai avuto.

  • # 21
    Marco
     scrive: 

    “perchè senza la possibilità di installare Windows il boom di questi ultimi 2 anni non l’avrebbe mai avuto.”

    Questo lo credi tu.
    Semplicemente ha scelto x86 perche’ i PPC erano praticamente fermi come sviluppo e di li a poco sarebbero stati tagliati fuori dal mercato, soprattutto nel segmento mobile.
    Ovviamente ora mi verrai a dire che il 90% di chi compra un Mac ci installa Parallels con Windows ^_^, e allora perche mai Apple non si accorda con MS e vende i Mac con Windows preinstallato?

  • # 22
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ tutti
    Per evitare discussioni sterili è corretto distinguere i dati acclarati (e dimostrabili) dalle opinioni personali, all’occorrenza usando un bell’IMHO.

  • # 23
    Cael
     scrive: 

    @alessio

    ma infatti il dato di fatto è che con il passaggio a x86 e quindi con la possibilità di installare Windows (nella stragrande maggioranza dei casi per giunta in modo illecito) c’è stato il boom di vendite di Apple. Il resto sono solo chiacchiere.

    P.S.

    Ma è possibile che ogni volta che scrivo al primo tentativo mi viene dato errore col codice anti-spam mentre al secondo va bene?

  • # 24
    Marco
     scrive: 

    @alessio
    ma infatti il dato di fatto è che con il passaggio a x86, che ha consentito di realizzare computer più potenti ed economici, c’è stato il boom di vendite di Apple. Il resto sono solo chiacchiere.

  • # 25
    Network Computer: anche i flop, a volte, ritornano - Appunti Digitali
     scrive: 

    […] tutto questo va oggi a sommarsi un non trascurabile problema di sostenibilità economica (già brevemente accennato): con gli ISP già messi alla frusta dall’avvento dello streaming video su larga scala, i […]

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.