di  -  giovedì 17 novembre 2011

Nella mia quotidiana rassegna di notizie, mi sono imbattuto ieri in un pezzo di Techcrunch su una questione controversa che più volte abbiamo discusso su queste pagine. L’autore dell’articolo reputa finita l’epoca in cui era fondamentale interessarsi delle specifiche hardware di un prodotto tecnologico.

In soldoni l’ipotesi è la seguente: basta misurare megahertz, megabyte e megapixel. Aveva senso quando il software era uguale per tutti (Windows) ma nell’epoca del mobile, mentre ci avviciniamo al tramonto del duopolio Wintel, l’integrazione HW-SW è troppo stretta perché le specifiche abbiano ancora una proporzionalità diretta con le prestazioni e l’esperienza d’uso di un portatile, smartphone, tablet etc.

L’argomento è caldissimo: rappresenta il perno di una importante “rivoluzione culturale” del mondo IT, che ha i suoi sostenitori e i suoi altrettanto agguerriti oppositori.

Posto che anche prima che l’informatica si unisse sotto il segno di Windows l’hardware si misurava (e passare da un 6502 a un 68000 faceva una gran bella differenza) vengo subito a quello che reputo l’argomento più solido – con ciò intendendo soprattutto duro a morire – contro la progressiva opacizzazione delle feature hardware: il “ferro” è il parametro più concreto a disposizione dell’utente per misurare il rapporto qualità/prezzo di un oggetto.

Ne consegue che i produttori che non pongono al centro della loro comunicazione le caratteristiche hardware dei propri prodotti lo fanno con l’intento di incrementare le proprie marginalità?

O forse misurare parametri “oggettivi” è sempre stata la maniera migliore per non capire – pensiamo alle sterili battaglie del megahertz o del megapixel – le potenzialità e i limiti di un dispositivo?

In un mondo tecnologico passato in trent’anni dalla riga di comando al tablet, dalle migliaia di utenti ai miliardi, simili diatribe sono strutturali (ne abbiamo parlato qui a proposito di semplificazione vs controllo assoluto).

Comunque la si pensi è difficile negare che l’integrazione fra hardware e software, resa indispensabile dall’avvento in massa del mobile, stia rendendo sempre più difficile stabilire una proporzionalità fra mhz, megabyte e performance. È un trend iniziato sul fronte mobile, che con Windows 8 si estenderà al mondo PC. Oggetti sempre più integrati e chiusi alla personalizzazione nella misura in cui necessitano di essere sempre più compatti e parchi nel consumo energetico.

A questo si somma l’avvento del cloud computing che sposta storage e calcolo in remoto segnando in qualche misura il ritorno dei thin client – dispositivi per i quali la nuda potenza di calcolo non è mai stata determinante.

Questo non implica che l’incremento delle marginalità sia estraneo agli interessi degli operatori, tutt’altro. Semplicemente c’è un valore intangibile – l’integrazione fra hardware e software, il fatto che il SW riesca a utilizzare efficacemente tutte le risorse dell’hardware, batteria compresa – che oggi pregiudica l’esperienza d’uso di un dispositivo mobile più di ogni singolo componente hardware.

26 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    PippoBau
     scrive: 

    Imho, ci sono tipologie di dato e di elaborazione che si prestano al decentramento, che sia secondo il modello mainframe, cloud, web application.
    E-governament, mail, social network (e in senso lato groupware), navigatori, ecc.. sono ottimi esempi di applicazione ideale per essere centralizzata e fruita da tanti terminali “leggeri” dal punto di vista hardware.
    Anche i classici gestionali e gran parte del classico lavoro su office può ormai essere efficacemente centralizzato.
    Dall’altra parte della bilancia però abbiamo scenari in cui la centralizzazione è alquanto problematica, e il nocciolo è disporre di terminali dotati di potenza bruta e grosse e/o veloci memori di massa.
    Abbiamo applicazioni completamente negate per la centralizzazione, quando ad esempio la banda richiesta sarebbe altissima (non c’è storia nemmeno paragonando le più potenti tecnologie di rete con le più misere interfacce dati interne di un moderno pc soho) come tutto il settore dell’editing professionale.
    Pensiamo poi a sistemi di calcolo distribuito, tipo SETI: il contenuto può essere centralizzato, ma i terminali partecipano con la loro potenza bruta a generarlo altrimenti i costi del progetto sarebbero insostenibili.
    Oppure la centralizzazione è improponibile anche nei casi in cui sarebbe applicabile, quando prevalgono le preoccupazioni per la sicurezza e eventuali derive in senso pigrecomezzi delle leggi sulla privacy.

    Il modello del calcolo centralizzato su terminali meno costosi e meno potenti ha perso in passato per il semplice motivo che un terminale più potente può fare esattamente le stesse cose di uno meno potente più tante altre che questo non può fare, e per i costi interviene l’economia di scala a rendere più economico ciò che si vende di più (un thin client costa ormai più di un buon PC).

    La sfida si ripropone oggi perchè è possibile portare molti nuovi utenti in un mercato altrimenti stagnante vendendo terminali ultramobili… in cui incidentalmente i limiti fisici delle attuali tecnologie sono ancora pesanti e quindi costringono i produttori a fare esattamente il contrario di 5-10 anni fa, cioè non imbottire macchine esistenti “di tutto di più” ma di alleggerirli come hw e sw il più possibile.
    Quando tra 5-10 anni le tecnologie saranno mature, si tornerà a vendere sistemi imbottiti all’inverosimile, per sfruttare un mercato che nel frattempo si sarà saturato, giocando questa volta sul vantaggio competitivo di dare terminali più completi possibili, tanto per le applicazioni remote che locali.

  • # 2
    massimo
     scrive: 

    Sono d’accordo solo a metà. E’ vero che per uno smartphone o un tablet poco importa che ci sia dentro un tegra, un ARM o un atom, basta che faccia il suo lavoro.

    Però quando dici che windows 8 porterà questo disinteresse per l’hardware anche sui PC, qui ho i miei dubbi: vero è che tanta gente si compra il PC solo per andare su internet e poco altro, per cui a questi signori non interessa già ora di cos’hanno sotto il cofano, però c’è un grossa fetta di appassionati, non solo chi sviluppa di software ma anche i videogiocatori, per cui il tipo e la qualità dell’hardware è e resterà molto importante.
    Questi saranno sempre interessati a sapere in dettaglio che cosa si portano a casa quando comprano un PC… potranno essere disposti a passare da una piattaforma all’altra se è il caso, ma solo per motivi precisi e non solo perché “il negozio vendeva questo qui…”

    Puoi dire che chi videogioca in genere si compra una console: è vero solo a metà. Chi videogioca molto, alla fine approda al PC perché, checché se ne dica, un PC offre un’esperienza di gioco che le console (ancora?) non possono offrire.

  • # 3
    Leo
     scrive: 

    Parlare di spostare storage e calcolo “nella nuvola”, o nei server per come la vedo io, è ancora oggi, molto pericoloso.
    Un conto è la casella di posta in IMAP, altra storia quando si tratta di un intero archivio fotografico, piuttosto che documenti sensibili, depositati chissà dove e fruibili solo quando il device è online, come appunto il chromebook che, senza linea, è solo un grosso fermacarte.
    Mi chiedo poi, tanto come esempio, con l’avvento dei telefoni in grado di fare filmati fullHD, come si crederà di gestire un basilare editing e successivo storage di files con quelle dimensioni. Questo vale per un singolo filmato, se poi si considerano i dati di una vita intera? Le foto delle vacanze, dei bimbi, una massa di dati notevole, sempre soggetta ad EULA variabili, come successo di recente per dropbox, costretta poi a tornare indietro.
    A me sembra soltanto che in ambito consumer lo scopo finale sia il customer lock-in, e ci stanno cascando tutti molto facilmente.
    In fondo è l’ennesimo ciclo “togli dal desktop e manda nel server”, l’abbiamo già visto ed è tornato tutto nel desktop quando scoppiò la rivoluzione digitale e tutti hanno iniziato a riempire gli hardisk.
    Ci sarebbe poi il problema, o trend se preferite, della progressiva consumerizzazione dell’IT in ambienti enterprise, discorso che apre una valanga di implicazioni, siano esse pratiche, di sicurezza e operative.

  • # 4
    phabio76
     scrive: 

    “La specifiche hardware signficano ancora qualcosa?”
    Bella domanda…
    La risposta, implicita nel post, è:
    “Nella maggior parte degli scenari NO”

    Per tornare agli esempi sulle console, qual è la percentuale di videogiocatori che è consapevole che la sua Xbox o la sua PS3 è equipaggiata rispettivamente con una cpu PowerPC o un Cell? … e la diversa architettura, il numero di core, la frequenza, i teraflops, a chi possono interessare? La gente ci gioca e basta.

    Una nicchia (sempre più nicchia) di videogiocatori PC, invece, ancora presterà attenzione a qualche benchmark delle diverse architetture di nVidia e AMD che vengono messe a confronto sullo stesso terreno.

    Sempre su Techcrunch, c’è una recente dichiarazione del CEO di Amazon Jeff Bezos:

    “In The Modern Era Of Consumer Electronics Devices, If You Are Just Building A Device You Are Unlikely To Succeed.”

    che non fa altro che confermare quanto detto nel post.

  • # 5
    Alessio Di Domizio (Autore del post)
     scrive: 

    Se dovessi rappresentarla sugli assi cartesiani, direi che ci troviamo in una situazione in cui la curva della potenza di calcolo in fascia entry level (Atom o ARM) ha incontrato o è vicinissima a incontrare il livello su cui si attestano le esigenze della maggioranza degli utenti – che per inciso con la massificazione dell’informatica sono andate livellandosi verso il basso. Questo credo spieghi sinteticamente la questione.

  • # 6
    Leo
     scrive: 

    Alessio, sono d’accordo sul fatto che all’utenza generica non serva molto più di quanto si trova oggi dentro uno degli ultimi cellulari di grido.
    C’è solo un problema in tutto ciò, un domani, a chi si rivolgerà, e quanto costerà un calcolatore (termine che sa di antico) vero e proprio? Ma sopratutto, quanti manterranno linee produttive per soddisfare quelle che diventeranno nicchie di mercato?
    Non è l’unico problema poi, a mio avviso diventerà anche più elitario il sistema operativo “complesso”, per così dire. Quante software house vorranno mantenere la schiera di programmatori necessaria a produrre SO ormai non più necessari?
    Personalmente non mi vedrei molto bene a lavorare domani con un tablet.

  • # 7
    Cesare Di Mauro
     scrive: 

    @Alessio: però c’è da dire che ormai anche i processori di fascia bassa sono multicore e integrano anche una GPU. Oggi si parla di ARM quad core a 2,5Ghz e GPU integrata di buona potenza di calcolo.

    Coi nuovi processi produttivi si potranno impaccare molti più transistor nello stesso spazio, con frequenze più elevate e/o consumi più ridotti.

    Insomma, fra pochi anni la fascia bassa sarà rappresentata da quella che oggi è la medio-alta di.

    E sarà inevitabile che, risorse alla mano, si vorrà pur utilizzare questo ben di dio.

    Non credo, pertanto, a thin-client o roba interamente cloud, proprio perché il più scarso dei SoC (alla fine le CPU questo diventeranno) metterà a disposizione una notevole potenza di calcolo.

  • # 8
    Antonio Barba
     scrive: 

    Il ritorno ai thin client potrebbe anche essere una moda passeggera.

    Provo ad impostare un’analisi volutamente esagerata:

    L’abbattimento dei costi delle CPU multicore ha permesso di creare server molto potenti con l’uso di pochi socket. Questo ha spinto a dismisura la moda della virtualizzazione (che non sempre è utile o vantaggiosa, anche se i commerciali di VMWare sostengono il contrario), e con server potenti e virtuali che ci fai? Vendi servizi che nessuno ti ha chiesto (cloud), e visto che nessuno li ha chiesti, devi convincerli che non possono farne a meno e come ben sappiamo i bisogni “indotti” non sono eterni, ma perdurano finchè dura l’induzione e non sopraggiunga l’assuefazione. Dopodichè il bisogno svanisce e la moda passa.

    Verrà prima l’assuefazione oppure cesserà prima l’efficacia dell’induzione? Questo lo vedremo nei prossimi anni, anche se secondo me verrà meno l’induzione a causa dell’esplosione di questa enorme bolla del cloud computing (tutti investono ma quasi nessuno è riuscito ancora a monetizzare abbastanza da rientrare nei costi, a parte Amazon con ECS e forse Microsoft con Azure).
    Dopodichè il cloud rimarrà una tecnologia operativa, ma non più pubblicizzato all’esasperazione, e non lo useremo certo per montare video, ma per compiti più decentralizzati come social networks e cose simili.

    A quel punto i teraflops serviranno eccome, quando la macchinetta del fustino Dixan sfornerà filmati 4k a 2 Gbps e dovremo processare quella mole di dati in real time :-D (fino a 10 anni fa era impensabile che un cellulare sfornasse foto, figuriamoci foto da 12 milioni di pixel, come il Nokia N8 e altri simili)

  • # 9
    Fiber
     scrive: 

    .
    Nessuno piu’ quando comprerà un computer o un device guarderà alle caratteristiche hardware per capire se sta pagando salato o meno l’hardware che sta comprando (essendo informatica e non salumeria) perchè prenderanno tutti spunto da Apple = la massa home consumer casalinga guarderà solo se il device possa far lustrino ed arredare al meglio la scrivania e basta come appunto Apple insegna.
    Oggi Apple potrebbe vendere NUOVO un suo Notebook anche con on-board una CPU Intel Dual Core di prima generazione di 3 anni fa abbinato ad una GPU commercialmente vetusta di 2 anni fa a 1500€ che tanto la massa home nel 90% dei casi lo compra lo stesso senza capire niente di queste cose ma solo per far lustrino e pendant al meglio con l’arredamento ..tanto per bighellonare su Fessbook o cinguettare su Twitter e/o guardare 2 video come qualche foto anche la potenza di una Cpu e GPU di 2 anni fa bastano ed avanzano …

    ecco il “trucco” a cui si arriva oggi grazie al progresso tecnologico nella potenza di calcolo delle CPU

    oramai la massa consumer compra computer e giocattoli come iPac etc solo per capzeggio e far arredamento senza badare all’hardware

    alcune aziende come Apple potrebbero anche truffare tutti mettendo dentro in Hardware al device 2 uova al tegamino che venderebbero lo stesso a tutti e ai prezzi salatissimi che vogliono a occhi chiusi, un po’ come accade anche su iPhone che in Hardware rispetto agli altri SmartPhone come HTC Evo 3D ,Htc Sensation XE Baets Audio Pro, Galaxy S2 ,Nexus, etc etc e’ inferiore sempre quasi in tutto ..non a caso ad Apple un iPhone 4 gli costa circa 180$ finito in produzione ..il prezzo a cui poi viene venduto alla massa consumer lo sapete già da soli

    con questo avete capito dove siamo arrivati

    bye

  • # 10
    arkanoid
     scrive: 

    “Oggetti sempre più integrati e chiusi alla personalizzazione nella misura in cui necessitano di essere sempre più compatti e parchi nel consumo energetico.”

    Non mi semrba che l’informatica si stia spostando lì, casomai verso un aumento controllato del consumo, che è una cosa un po’ diversa.

  • # 11
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Antonio

    Vendi servizi che nessuno ti ha chiesto (cloud), e visto che nessuno li ha chiesti, devi convincerli che non possono farne a meno e come ben sappiamo i bisogni “indotti” non sono eterni, ma perdurano finchè dura l’induzione e non sopraggiunga l’assuefazione. Dopodichè il bisogno svanisce e la moda passa.

    Non ne sono del tutto convinto :-)
    IMHO nella tua analisi non consideri che il cloud sta già funzionando il collante fra i dispositivi che utilizziamo quotidianamente, con o senza un’operatività analoga a un file system.
    In parte dunque il futuro del cloud dipende dal futuro della tecnologia: se sarà un futuro monodevice, dove lo smartphone arrivi a casa e lo attacchi al monitor da 20″, o multidevice (telefono, tablet, notebook).

    Verrà prima l’assuefazione oppure cesserà prima l’efficacia dell’induzione? Questo lo vedremo nei prossimi anni, anche se secondo me verrà meno l’induzione a causa dell’esplosione di questa enorme bolla del cloud computing (tutti investono ma quasi nessuno è riuscito ancora a monetizzare abbastanza da rientrare nei costi, a parte Amazon con ECS e forse Microsoft con Azure).

    Dimentichi Google ed Apple :-) Questo per dire che in un certo senso di cloud si potrebbe anche non parlare più, nella misura in cui diventa silenziosamente parte del tuo flusso di attività: dalla sincronizzazione dei calendari di lavoro coi tuoi colleghi fino ad iTunes Match o alla musica che ascolti in streaming su Spotify.

    Dopodichè il cloud rimarrà una tecnologia operativa, ma non più pubblicizzato all’esasperazione, e non lo useremo certo per montare video, ma per compiti più decentralizzati come social networks e cose simili.

    Vedi che allora il problema è più concentrato sul fatto che la comunicazione sta bombardandoci circa le magnifiche sorti e progressive ai tempi del cloud, che cioè ci sta comunicando il cloud come prodotto standalone, il che ci fa dimenticare “il cloud in noi”, quello che è parte della nostra “vita digitale” fin dai tempi dell’IMAP.

    A quel punto i teraflops serviranno eccome, quando la macchinetta del fustino Dixan sfornerà filmati 4k a 2 Gbps e dovremo processare quella mole di dati in real time :-D (fino a 10 anni fa era impensabile che un cellulare sfornasse foto, figuriamoci foto da 12 milioni di pixel, come il Nokia N8 e altri simili)

    Fino ad oggi il software ha sempre prodotto innovazioni più o meno utili – ma evidentemente percepite dal mercato come utili – che hanno messo l’hardware in condizione di accelerare costantemente. Ci sarà un punto di inflessione in questa curva?
    Il nodo centrale del computer da $300$ che processa flussi 4K non è tanto la fattibilità tecnologica, quanto il modo in cui si riuscirà a farne un prodotto che la gente sente il bisogno di avere – perché due anni che si faccia un piano per venderne decine di milioni a $300 deve aver venduto milioni di unità a $3000.

    Questo per dire, e concludo, che l’assottigliamento del client in qualche misura è anche il frutto di una percezione non chiara del mercato – compreso il sottoscritto – dell’utilità pratica di hardware superpompato che passa il 99% del tempo in idle a consumare comunque batteria (in un’epoca in cui peraltro la mobilità comanda).

  • # 12
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ arkanoid

    Non mi semrba che l’informatica si stia spostando lì, casomai verso un aumento controllato del consumo, che è una cosa un po’ diversa.

    Il dilagare di ARM (e l’evoluzione delle CPU x86) mi pare dimostri il contrario: oggi i grandi volumi si fanno su processori che oltre ad aumentare le performance per watt tentano di diminuire il consumo netto a carico della batteria.
    In quanto alla personalizzazione, mi pare difficile non rimarcare che dimensioni e consumi stanno portando i produttori a presentare oggetti sempre più integrati…

  • # 13
    Marco
     scrive: 

    “la macchinetta del fustino Dixan sfornerà filmati 4k a 2 Gbps e dovremo processare quella mole di dati in real time”

    Tranquillo che se e quando nel fustino troverai una macchinetta simile, esisterà già da un pezzo un tablet da 50 euro capace di maneggiare quei flussi in tutta disinvoltura.

  • # 14
    fornost
     scrive: 

    Premesso che non sono un esperto della materia e quindi il 90% delle considerazioni “tecniche” non le ho capite, volevo prendere in considerazioni questo paragrafo:

    “In soldoni l’ipotesi è la seguente: basta misurare megahertz, megabyte e megapixel. Aveva senso quando il software era uguale per tutti (Windows) ma nell’epoca del mobile, mentre ci avviciniamo al tramonto del duopolio Wintel, l’integrazione HW-SW è troppo stretta perché le specifiche abbiano ancora una proporzionalità diretta con le prestazioni e l’esperienza d’uso di un portatile, smartphone, tablet etc”

    Chiedo a voi più esperti di me, ma non è giù quello che succede con i benchmark?
    Nel campo delle schede grafiche per PC, per esempio, a parte il discutibile dato dei Mega/Gigabyte di memoria, non viene posta così tanta attenzione al numero degli steam processors, quanto agli FPS che riescono a fare nei vari videogiochi con più o meno filtri attivati… Insomma alla reale “esperienza d’uso”.

    Stessa cosa si fa anche per paragonare 2 processori.

    Direi che è inevitabile, con la proliferazioni di mille modelli diversi di processori utilizzati in ambiti diversissimi, andare a vedere le prestazioni più che le specifiche tecniche che restano una cosa per appassionati.

  • # 15
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ fornost
    L’esperienza d’uso è fatta di situazioni specifiche che nessun benchmark può riassumere. Chiaro che se stai acquistando una scheda grafica fare un confronto circoscritto, rappresentativo e ceteris paribus è sensato. Ma contare il megahertz sullo smartphone o anche sottoporlo a un benchmark verticale inizia ad avere poco significato nell’economia complessiva dell’esperienza d’uso.

  • # 16
    fornost
     scrive: 

    Sì hai ragione, mi sono spiegato male…

    Non intendevo l'”esperienza d’uso” rispetto al prodotto completo (PC o smartphone o tablet) che è difficilmente quantificabile, anche perché in buona misura è soggettiva e soprattutto perché un fenomeno troppo complesso da spiegare con i soli indici attuali.

    Il senso del mio discorso è che i benchmark che vengono fatti su specifiche applicazioni per “testare” l’hardware sono già una misura dell’integrazione tra quell’hardware e quel software.

    Ossia che già ora, anche se limitatamente ai confronti “ceteris paribus”, si fanno i confronti “integrati” hw/sw perché la valutazione del megahertz o del megabyte non ha senso se slegato dal contesto applicativo.

  • # 17
    Antonio Barba (TheKaneB)
     scrive: 

    @Alessio: ho volutamente straesagerato nella mia analisi :-D
    PS: Apple usa il cloud di Amazon se non erro. Google non “vende” servizi cloud computing, se lo tiene per i suoi servizi interni e vende gli spazi pubblicitari agli inserzionisti. Quando dico “vendere servizi cloud” intendo roba tipo ECS2, Azure, ecc… cioè servizi “grezzi” che solo soltanto una versione moderna e on-steroids del caro vecchio web hosting, quindi non rivolti all’utente finale, ma ad aziende che poi costruiranno un servizio sopra questi server. Insomma, la vedevo un po’ più dal punto di vista del developer (Azure), che dal punto di vista utente (Google Docs).

  • # 18
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Antonio
    Esattamente, tanto Apple quanto Google infatti fanno leva sul cloud per offrire servizi che non si chiamano necessariamente cloud. Il fraintendimento fondamentale risulta dall’eccessiva enfasi sulla parola cloud, che punta l’attenzione su un concetto astratto come se fosse il futuro, quando la sua declinazione pratica appartiene al presente e anche al recente passato!

    Quello che con una buona sintesi chiami web-hosting on steroids è e rimarrà sempre roba da smanettoni e operatori professionali. Converrai che è singolare sentire gli stessi che ieri non avevano la minima idea di cosa fosse il web hosting, oggi (stra)parlare di cloud.

  • # 19
    Antonio Barba
     scrive: 

    sisi, è un fenomeno semi-paradossale!
    Fenomeni simili di “popolarizzazione” di concetti complessi ed estremamente tecnici ne vediamo in continuazione. Potrei citare alcuni esempi come: neutrini, spread, schermo capacitivo, ecc…
    Termini tecnici che sono sulla bocca di tutti, ma di cui pochi conoscono il significato.

    Allo stesso modo, sentire la gente che discute sul “cloud” come fosse una partita di calcio mi fa sorridere, perchè traspare una profonda alienazione di quel termine dal suo contesto specifico :-)

  • # 20
    Molghi
     scrive: 

    Ciao a tutti,

    secondo me oggigiorno ha poco senso (via, diciamo MENO senso) misurare l’hardware in quanto non è più l’hardware il collo di bottiglia.
    15 anni fa, quando si avevano a disposizione una manciata di MHz e di Mb, allora si che l’hardware faceva la differenza.
    Oggigiorno che uno smartphone al top ha la potenza di calcolo sufficiente ad un utente PC medio, l’hardware perde di importanza.
    E non tanto per l’ “integrazione” fra HW e SW (alla fin fine iOS, Android e WP7 girano tutti su ARM, quindi non è che ci sia questa grande integrazione: mica li sviluppano in assembler questi SO…), ma per l’esperienza d’uso che il software quasi da solo (ovviamente se supportato da un hardware recente) è in grado di regalare.

  • # 21
    Flare
     scrive: 

    Penso sia vero, ma solo in parte.
    L’articolo di Techcrunch (un po’ semplicistico, per la verità) da cui parte questo post, confronta gli Android che mostrano i muscoli a suon di hardware, con altri dispositivi che sulla casta sono più scarsi, ma nonostante ciò hanno più successo, concludendo che le specifiche hardware stanno perdendo importanza per gli utenti.
    Certamente le specifiche non sono tutto, contano i servizi di contorno e l’ecosistema, inoltre un SO e software dedicato consentono maggiore ottimizzazione. Se esiste un solo prodotto con un certo SO (che sia un tablet, un telefono o una console) ha poco senso confrontare le specifiche hardware direttamente con un prodotto diverso, che a parità di hardware hanno prestazioni differenti, ma anche servizi. A parte il Trasformer, i tablet attuali sembrano fatti con lo stampo. L’utente li confronta, guarda al massimo l’autonomia, quanto è responsivo, quanto è usabile, ma anche le applicazioni e altri servizi. Cosa ci può fare e quanto bene, dipendono poco dal processore.
    Se uno sceglie un iPad (o un iPhone), tornerà a valutare l’hardware, confrontando però gli iPad di differente capienza, supporto 3G, o i modelli precedenti con diverse prestazioni e caratteristiche, per decidere quale iPad prendere. Insomma confronta le mele con le mele, non con le pere.
    Il discorso Android e i taiwanesi che si lamentano poi può valere per i tablet, ma sui telefoni ha un buon successo, che io sappia. Esistono smartphone per tutte le tasche e in tutte le salse. Ci sono anche delle personalizzazioni. Ma se dovessi scegliere fra due smartphone Android, certamente guarderei la velocità del processore. Prendendone uno a 600 Mhz, per esempio, navigare in Internet è un pianto.

    In conclusione per me le specifiche hardware si guardano un po’ ancora, ma per lo più fra dispositivi con SO e software simile. MA è sicuramente miope confrontare le mele con le pere o credere che la differenza possano farla i megapixel o una porta USB.

  • # 22
    Flare
     scrive: 

    Ops, nello scrivere in fretta ho pigiato “t”, invece di “r” e mi è uscito “casta”, invece di “carta”.

  • # 23
    Flare
     scrive: 

    “s” LOL

  • # 24
    Morris
     scrive: 

    Bhè se i Pc si tramutano in client dovrebbe contare solo la connessione internet… tuttavia conviene tramutare un pc in un host dipendendo completamente da un mainframe esterno?

    mmm… mi sa un po di controllo totale.

  • # 25
    Danilo
     scrive: 

    La base di utenza è enormemente aumentata rispetto a quando i computer li comprava solo chi era interessato all’informatica.
    l’utonto quando compra una macchina informatica va in negozio e chiede “ci posso vedere feisbuc e iutiub?” basta e avanza.
    Gli hard core gamers continueranno a comprare pc di fascia alta finchè li venderanno, poi si adatteranno alle consoles…
    Per tanti anni l’HW ha dovuto evolversi in fretta per potere fare ciò che fa oggi ed entrare nelle case di TUTTI mascherato da smartphone, smart tv, tablet era logico che fosse esaltante vedere le cose ce si potevano fare in più da una generazione di HW all’altra (basti pensare all’avvento della 3dfx) ciò che era stato sino a quel momento invecchiò molto velocemente…..ora basta… contano i servizi e la user experience…e meno male.

  • # 26
    homero
     scrive: 

    le specifiche hardware non fanno la differanza, pero’ bisogna stare entro certi massimali……
    ossia con tutti i tablet si possono fare piu’ o meno le stesse cose….con tutti i netbook si possono fare le stesse cose e con tutti i portatili si possono fare le stesse cose….
    se pero’ ho un compito specifico da svolgere i fattori cambiano e di molto….e non lo dico tanto per dire…..programmare uno Xylinx puo’ rendere l’idea di come un algoritmo posto in hardware diventi piu’ veloce di qualsiasi GPU sul mercato……
    ora si vive in una confusione enorme dove il parallelismo infinito vuol risolvere ogni soluzione……ci crede intel con le sue 50 mini unita x86 in un socket…..e ci crede amd con processori con 16 core, o nvidia con i suoi cuda unit….
    io personalmente non credo in 50 core o 500 cuda unit…..

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.