di  -  lunedì 10 Febbraio 2014

Nella mia “lunga” carriera di appassionato di tecnologia, sono stato spesso preda di attacchi di luddismo di fronte ad avanzamenti della tecnologia che ritenevo avessero più a che vedere con i bilanci delle aziende tecnologiche che con le mie esigenze. Questa mia personale inclinazione è stata senza dubbio incentivata da un’evoluzione nel marketing dell’industria tecnologica, passato da uno stato primordiale, basato sull’idea che un prodotto utile e con buone caratteristiche vende più o meno da sé, a tecniche più raffinate, meticciate con logiche proprie del largo consumo quando non della moda. In pratica dalle pubblicità cartacee strapiene di dati tecnici e foto di bassa qualità siamo arrivati a Ashton Kutcher – il cui cv include ruoli fondamentali nel mondo tecnologico quali il fidanzamento con una stagionata Demi Moore e la parte di Steve Jobs in una pessima biografia cinematografica – eletto a product engineer di Lenovo.

Pur tenendo fuori queste amenità, alcuni stadi dell’evoluzione tecnologica degli ultimi anni mi hanno lasciato con una sensazione di parziale o totale inutilità (ad esempio la “febbre” del multicore di qualche anno fa, dei 64 bit, i laptop touchscreen etc.).

Molte tecnologie sono arrivate sul mercato allargato ben prima che esistessero le premesse per un loro pieno sfruttamento. In particolare molto spesso abbiamo assistito ad evoluzioni “quantitative” della tecnologia con vantaggi marginali decrescenti fino a diventare impercettibili. La densità dei pixel per esempio: dopo che Apple ha aperto le danze con i display “retina”, si è scatenata una lotta all’ultimo pixel, arrivata a punti paradossali. Non a caso parlo di utilità marginale decrescente: quale occhio riesce ad apprezzare la differenza tra 320ppi e 440ppi? Quale utente riesce ad apprezzare la performance addizionale portata dall’aggiunta di due core (senza contare la penalità sul clock a parità di TDP)? E quanto costa tutto ciò? In termini di consumo energetico oltre che di costo al consumatore finale?

Veniamo ad un esempio recente: il nuovo Mac Pro, lanciato poche settimane fa, se non sempre porta un miglioramento prestazionale rispetto alla generazione precedente, promette di riuscire a gestire con un refresh rate ottimale, display ad altissima risoluzione per personal computer (4K). Il prezzo che ha oggi l’accoppiata Mac Pro + display 4K è talmente proibitivo (oltre 8000€) da rendere la scelta di un sistema similmente configurato adatta ad un pubblico che sa di averne assolutamente bisogno o ha soldi da investire nell’ultimo grido tecnologico.

Non v’è dubbio tuttavia che nel giro di qualche anno i 4K saranno appannaggio anche di display da 400€ esposti sui banconi della grande distribuzione e che anche lo standard “retina” degli attuali Macbook Pro verrà surclassato da risoluzioni ancora più insensate. Ebbene, a meno di netti “upgrade” nella vista umana, ogni € speso nella ricerca e sviluppo abilitante questa tecnologia e poi nell’acquisto della stessa, sarà sprecato, così come lo sarà ogni Watt che questi dispositivi inevitabilmente assorbiranno in più di altri equipaggiati con display a risoluzione inferiore, ma che sono già oltre le capacità visive umane. E quando anche l’energia di questi pannelli avrà eguagliato quella assorbita dai pannelli precedenti, rimarrà facile ipotizzare che l’affinamento del risparmio energetico della generazione precedente avrebbe prodotto consumi netti migliori, e costi inferiori. Per muovere più pixel ci vorranno sempre e comunque più elettroni.

È davanti a quest’ultima considerazione che si evidenzia a mio modo di vedere la rotta di collisione fra gli interessi sostanziali – depurati cioè dai lustrini del marketing – dell’utenza e quelli dell’industria tecnologica, per i bilanci della quale è fondamentale mantenere rapido il ciclo di obsolescenza dei prodotti anche in assenza di evoluzioni tecnologiche che giustifichino il ricambio. In una discussione da bar potremmo postulare che se per gli utenti finali la curva di utilità tecnologica marginale si appiattisce all’avanzare linearmente della tecnologia (incremento lineare del clock, dei PPI, dei core, dei gigabyte), i produttori hanno interesse in una crescita lineare delle specifiche tecniche, che alimenti le i ricavi e mantenga alti i profitti.

Un caso pratico: che beneficio avrei – a parità di altre condizioni come qualità del pannello, resa cromatica, angolo visuale etc. – nel sostituire a tipica distanza di lavoro il mio pannello 1680×1050 con un pannello 2880×1800 o 4K? Nessuna – se vi interessano approfondimenti visitate questo link. Che vantaggio invece troverei nell’utilizzare un sistema risparmia energia con un display 1680 iper-ottimizzato accompagnato da una GPU proporzionata alla risoluzione? Alcune ore di batteria, magari quelle che mi servirebbero in quel lungo viaggio in aereo o a completare una giornata di lavoro intensivo senza dovermi preoccupare di avere l’alimentatore al seguito.

33 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    MCMXC
     scrive: 

    Dipende dall’uso… per chi come me si occupa di animazione e rendering 3D display a risoluzione molto elevata, 64 bit, molti Giga di RAM e soprattutto piu’ core a disposizione sono elementi a dir poco fondamentali.

  • # 2
    Alessio Di Domizio (Autore del post)
     scrive: 

    Certo, dipende dall’uso. Ma ammetterai che il numero di persone che come te usano risoluzioni elevatissime e tutte le capacità di una CPU multicore a 64bit sono una nicchia, una piccolissima frazione di coloro cui viene proposto l’identico equipaggiamento per navigare in internet, usare qualche gestionale anni ’90 e office.

  • # 3
    Frank
     scrive: 

    Secondo me hai posto un problema giusto portando un esempio sbagliato.
    Una workstation da 8.000 euro è un prodotto di nicchia, difficile immaginare che qualcuno, pur accecato dal marketing, spenda quelle cifre senza pensare se davvero gli serve un sistema che gestisca il 4k. Ed effettivamente, come ti hanno fatto notare, per chi si occupa di grafica quelle caratteristiche sono necessarie o comunque impattano sui tempi di lavoro.

    Un esempio migliore secondo me è l’ultimo iphone, dotato di processore a 64 bit :
    Chiunque abbia conoscenze un po’ approfondite di come funziona un pc (i moderni smartphone direi che sono assimilabili a pc) avrebbe storto il naso sulla sua utilità, soprattutto in considerazione del resto della configurazione hardware (numero di core e memoria disponibile), mentre i commenti dei siti specializzati si sono orientati tutti sul fatto che Apple fosse stata la prima a presentare questa soluzione e non sui reali benefici apportati.

    Sempre rimanendo sui cellulari (ma vale anche per i portatili), sarebbe bello che nelle recensioni si desse forte evidenza al tema della durata delle batterie, un aspetto che incide notevolmente sull’utilizzabilità dei dispositivi mobili e che viene spesso trascurato.

    Purtroppo la consumerizzazione (argh) dell’informatica si è portata dietro anche un abbassamento dell’offerta informativa e forse per questo gli ingegneri di prodotto sono diventati degli attori.

  • # 4
    Alofrio
     scrive: 

    Io sono completamente d’accordo con lei egregio dottor Di Domizio.
    Ottimo articolo complimenti.
    Presi nel 2008 un 27,5″ uno degli ultimi 16:10 a 1920×1200 e tutt’ora anche se le dimensioni dello schermo sono abbondanti, non sento la necessità visiva di aumentare la risoluzione…e leggo spesso commenti di gente che un 27 non l’ha mai posseduto, che non si possa in uno schermo cosi grande che avere un retina altrimenti i lo schermo sarebbe un quaderno a quadretti… non sanno di cosa stanno parlando, vittime del lavaggio del cervello del marketing e della scimmia all’ultimo grido… Poi come ha detto il suo primo commentatore, ci sono alcuni casi in cui ciò può essere una necessità ma non sono certo la norma

  • # 5
    MCMXC
     scrive: 

    > Ma ammetterai che il numero di persone che come te usano risoluzioni elevatissime e tutte le capacità di una CPU multicore a 64bit sono una nicchia

    Si, naturalmente. In effetti c’e’ gente per la quale avere “l’ultimo bellissimo ultrapotente modello” non è dovuto ad una reale necessità, ma unicamente perchè spinto dal marketing… questo l’ho visto spesso…

  • # 6
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Frank
    Certo, il Mac Pro porta una tecnologia all’attenzione di una nicchia ristrettissima che può spendere 4000€ solo per il monitor. Ma se tutto va come penso, il Mac Pro è solo l’apripista: presto ci ritroveremo al supermercato sfavillanti monitor 4k la cui utilità marginale rispetto a monitor full HD o 2560×1440 sarà minima, e comunque molto inferiore rispetto a quella ottenuta passando da uno schermo 1280 a un 1920.

    Venendo ai cellulari sarebbe interessante sì valutare realisticamente l’impatto energetico, anche in vista del consumo di schermi con risoluzione insensata (fullHD per 4 pollici…).

  • # 7
    Ciccio
     scrive: 

    Ma volete scherzare.. ho preso di recente un mbp retina da 13″, ed è tutta un’altra cosa rispetto al mbp “vecchio” che avevo. Sarà che ho la vista buona..

    una precisazione: i monitor 4K sotto i 1000 euro sono attesi, numerosi, già quest’anno.

  • # 8
    Fede
     scrive: 

    I monitor 4k sotto i 1000€ si trovano già su amazon. Ovvio non da amazon IT

  • # 9
    David
     scrive: 

    Articolo abbastanza inutile, almeno nei concetti. Mi sembra di leggere le solite polemiche contro le CPU sempre piu’ performanti o le GPU sovradimensionate per l’utilizzo “comune”. Innanzi tutto nessuno punta la pistola alla testa al consumatore obbligandolo a scegliere panneli con risoluzioni folli, seconda cosa io noto all’atto pratico differenze enormi tra un pannello full HD e uno “retina”, dunque che ben vengano risoluzioni maggiori, soprattutto se come riportato dallo stesso redattore saranno presto fruibili a prezzi “consumer”.
    Di tecnologie inuitili se vogliamo alimentare le polemiche poi ne siamo pieni, siamo circondati da cose che costano un occhio della testa e poi le sfruttiamo al 40%, faccio un banalissimo esempio, ho una moto che da 0-100km/h ci mette 2 secondi e fà 280km/h di velocità massima, mentre l’auto la casa la dà a circa 198km/h, eppure il limite massimo sulle strade é 130 ed in media a causa del traffico non supero i 38km/h in città.

  • # 10
    Emiliano
     scrive: 

    Mah… Condivido parzialmente. Io ho preso l’iPad mini retina, proprio perché sul modello precedente i pixel si vedono eccome, e la lettura non è ottimale.

    Guardando bene, riesco a distinguere i pixel perfino sul modello retina (ma devo concentarmi). La sensazione è che, se non con questo modello col prossimo a risoluzione 4×4 (rispetto al primo modello 1024×768) saremo oltre le possibilità visive umane.

    A meno di impianti nella “retina”, quella vera…

  • # 11
    Kino
     scrive: 

    Mah, devo dire di essere daccordo in parte con l’articolo.
    Il concetto di base è corretto: l’apparato macchina-uomo nel suo insieme può essere analizzato come un sistema unico, se ho una macchina con prestazioni sfavillanti e poi mi trovo il collo di bottiglia lato uomo non sto facendo niente di buono.

    Detto questo: la potenza non è mai troppa. Certo, se compri un computer che monta un processore da 1000€ e il tuo uso tipico è la navigazione internet e la visione dei film sei quantomeno una persona con più soldi che buon senso.
    Bisogna però considerare che il suddetto processore ha comunque il suo motivo di esistere: se fai rendering 3d, se fai simulazioni, se hai bisogno di tenere aperte più macchine virtuali contemporaneamente; in tutti questi casi e molti altri se avessimo processori o memorie o quel che è veloci il doppio di quelli che abbiamo oggi ne trarremmo comunque beneficio proprio perché sono attività pesantemente dipendenti dalla macchiana e non dall’uomo.
    Per i cellulari il discorso può essere simile: se la qualcomm o chi per essa fa ricerca e sviluppo per tirare fuori un processore octacore con prestazioni allineate a quelle di una CPU desktop di qualche anno fa ottiene 2 benefici vantaggi:
    -il primo è consentire agli sviluppatori di software di poter avanzare creando applicazioni più pesanti (ho visto il salto di qualità passando da un vecchio galaxy S ad un Nexus 5 anche su cose stupide come un generatore di segnali. Posso assicurare che il Nexus ci mette si e no 1/5° del tempo del vecchio galaxy per generare la sua bella onda sonora) o, perché no, permettendogli di spendere meno soldi e tempo per ottimizzare l’applicazione.
    -il secondo è che se il loro top di gamma ha prestazioni elevate e consumi comunque compatibili con un normale telefono (uno snapdragon 800 non consuma molto più del vecchio hummingbird) vuol dire che possono comunque sfruttare tutta la tecnologia che hanno sviluppato scalandola in basso e ottenendo un processore dalle prestazioni comunque sufficienti e consumi ridotti.

    Discorso differente per i sistemi di interfacciamento con l’uomo come possono essere appunto schermi, diffusori audio e periferiche di input-output varie.
    Quì torniamo appunto al discorso dell’essere umano come collo di bottiglia del sistema, bisogna solo capire dove si raggiunge questo collo di bottiglia.

    Vi racconto la mia esperienza personale evitando di tenere conto di altri aspetti come lo scaling delle interfaccie alla risoluzione che pure sono importanti.
    Personalmente ho un portatile con schermo 15″ full hd e un monitor 23″ sempre full hd. Arrivo da uno schermo da 19″ a 1440×900, quando sono passato al 23″ mi sembrava definito. Ora ho abituato l’occhio al portatile e sul 23″ vedo i pixel senza alcuno sforzo da distanza d’uso: non è un’esperienza piacevolissima.
    Se mi metto d’impegno fra l’altro vedo i pixel pure sullo schermo da 15″ del portatile da distanza di lavoro, non mi da assolutamente fastidio ma forse se mi abituassi ad usare uno schermo più definito e tornassi a quello del portatile mi accorgerei maggiormente della cosa.

    Discorso diverso per lo schermo del nexus 5 per cui non riesco a distinguere i pixel nemmeno volendo e nemmeno da una distanza più ridotta di quella tipica d’uso: probabilmente li si fosse trattato di uno schermo in 720p la differenza sarebbe stata poca e di sicuro non abbiamo bisogno del 2k su uno schermo da 5″ mentre potrebbe risultare effettivamente utile su quello di un tablet da 10″ (anche se ne dubito).

  • # 12
    maarco
     scrive: 

    Seguo sempre con passione i tuoi articoli e anche questo non mi ha deluso. “…è fondamentale mantenere rapido il ciclo di obsolescenza dei prodotti anche in assenza di evoluzioni tecnologiche che giustifichino il ricambio…” Questa è la frase che meglio rappresenta il senso di questo articolo e di tutta l’industria informatica di qualche anno a questa parte. Questo è anche uno dei motivi per cui, sempre più, mi sto ri-appassionando alla nicchia del retro-computing dove un tempo, come sottolineato dall’autore, le innovazioni erano veramente tangibili e utili.
    Ottimo articolo e ottime considerazioni. :D

  • # 13
    Ciccio
     scrive: 

    Io nei giochi distinguo i pixel sull’iPhone 5s.. ben vengano risoluzioni 2k sui cellulari, e 2.5k (o maggiori) sui tablet.
    In fondo la risoluzione tipografica di stampa per le riviste è sempre stata 300 dpi, e nessuno s’è mai sognato di ridurla.
    Perché non avere la stessa qualità su tablet e altri schermi?

  • # 14
    Birba
     scrive: 

    retina in linea teorica permette di giocare risoluzioni da pro senza brutti effetti causati dallo scaling.
    per questo che ho ancora un crt da 24″, quando gioco a 800×600 è necessario ( es. con natural selection 2 )

  • # 15
    Giacomo
     scrive: 

    Un tempo sarei stato d’accordo anche io.. Sulla impossibile discriminazione tra un 360ppi e un 440ppi sono anche d’accordo.. Ma la qualità della vita migliora grazie anche a queste piccole cose… Schermi “Retina” nei laptop, nelle sveglie, nel display del forno a gas non saranno strettamente necessari, ma miglioreranno il nostro feeling nei confronti del mondo che ci circonda… Bisogna saper guardare oltre..
    Ogni evoluzione o innovazione sembra inutile di primo acchitto: a chi serve il condizionatore in auto? Per anni si è andati col finestrino aperto.. E il bizona? È il navigatore? Si può sempre chiedere ai passanti.. E La corrente elettrica? Mancano forse le fabbriche di lampade a gas? La verità è che ogni piccola innovazione ne porta dietro altre 100 mila, è una catena… E non va spezzata…

  • # 16
    Alessio Di Domizio (Autore del post)
     scrive: 

    Credo di non essere riuscito a trasmettere alcuni concetti centrali nella mia tesi:
    1) il pubblico di riferimento è quello mainstream, che non fa rendering né 3D professionale;
    2) il concetto di utilità marginale decrescente associato all’evoluzione lineare della tecnologia: l’utilità aggiuntiva nel passare da un core a due ceteris paribus, l’utilità aggiuntiva di passare da 90ppi a 130ppi e da 130 a 320. L’utilità marginale decresce progressivamente dunque il valore aggiunto di ogni ricambio generazionale si assottiglia. Il PC, un prodotto ormai maturo, ha raggiunto un compromesso fra prestazioni, portabilità, consumo e prezzo ormai ottimale. Un processore con più core – a parità di software mainstream – dà poca utilità marginale. Uno schermo con più PPI di quelli che la vista umana è in grado di distinguere dà poca utilità marginale. Una batteria da 24 ore di autonomia dà poca utilità marginale a chi non usa il PC da mattina a notte fonda al centro della foresta del Borneo. Cionondimeno – in assenza di nuove rivoluzioni, che nei termini di questo articolo definirei innovazione non lineare – su questi assi si continua ad innovare e a promuovere l’esigenza di ricambio.

  • # 17
    lured
     scrive: 

    Ma non sono assolutamente daccordo!
    E’ proprio grazie alla vendita del “di più” che assistiamo al continuo e progressivo incentivo al miglioramento!
    Grande o piccolo che sia è sempre un progredire.
    Qualcuno indicava gli automezzi (che fin dal 1910 vanno a piu di 80 km/h contro una media cittadina che non raggiunge i 30km/h) eppure, e la storia lo dimostra, piccoli e sistematiche invenzioni e o inutilità hanno permesso il rilascio di prodotti sempre più efficaci, confortevoli e risparmiosi.
    I primi monitor a led consumavano 150 -300 w ora un 27″ 2K arriva a malapena a 50w. Insomma gli esempi sono infiniti….

    Insomma è proprio il marketing, il di più, il più o meno costoso e/o inutile a garantirci nei fatti prodotti sempre migliori.
    Del resto quando una tecnologia è inutile perde “naturalmente” di valore. Il marketing ha una grande forza…ma sempre (fortunatamente) dal respiro corto: su via non siamo un branco di rimbambiti, come alcuni pensano. Fortunatamente noi esseri umani qualche potere nel discriminare l’inutile lo abbiamo.
    eheheh

  • # 18
    io
     scrive: 

    direi che la demenza della “corsa al più” si può riassumere nella frase “la qualità della vita migliora grazie anche a queste piccole cose” che ho letto qua sopra.
    Beati gli stolti che pensano che la loro “qualità della vita” dipenda dai pixel del loro smartphone…

    Oddio quanto siamo caduti in basso… si capisce percvhè l’ItaGlia va come va.

  • # 19
    massimo
     scrive: 

    I vantaggi di un display di tipo retina sono oggettivi,provate a mettere un cellulare/tablet 360-450 ppi accanto ad un monitor full hd da 21 o 24″ oppure al portatile con risoluzione 1366*768 da 11-15″
    La differenza visiva sul testo è davvero devastante per i poveri monitor a 96-100 ppi.

    Certo andare oltre i limiti dell’occhio non ha senso ma intanto raggiungiamolo quel limite anche nei monitor.

  • # 20
    Sandro
     scrive: 

    Verissimo, purtroppo la tecnologia di un prodotto di massa non parla alla mente e al buon senso, ma all’ istinto come un bel petto femminile in una pubblicità. L’ acquirente di tecnologia è un bambino….anche un filo stupidotto.

    Da fotografo ho assistito alla crescita vertiginosa dei pixel e dei megapixel quando nel 2003 con un Nikon D1 da 2,7 Mpixel riuscivo a fare delle splendide stampe 30×45. In questo campo il buon senso avrebbe dovuto imporre meno risoluzione e più luce nei singoli sensori elementari ( di maggior superfice ) per una migliore immagine in condizioni di scarsa luce. Invece no, la corsa è stata senza fine: la reflex Nikon da regalare a un ragazzino, la più economica viaggia a 24 MP e poi che ne facciamo di queste immagini? Poster? Gigantografie? No le mettiamo in rete, magari su FB e buttiamo via il 90% dei pixel….

    Cosa stà succedendo adesso sulle fotocamere dei telefonini? Esattamente lo stesso! e siamo felici di avere una foto mossa perché la poca luce obbliga ad una posa lunga ma possiamo vantarci di una bella foto da 40 MP …… mossa.

    Ma non c’ è molto da fare, se non farcene una ragione: il mondo va così!

  • # 21
    Kino
     scrive: 

    @Sandro
    Eppure è innegabile che uno smartphone moderno di fascia medio-alta fa foto migliori di qualsiasi compattina di qualche anno fa, e che il migliore in assoluto (non sulla carta, ma come risultati reali) da questo punto di vista è un certo Lumia 1020 che ha un sensore da 41mp.

    C’è evoluzione tecnologica e sta portando a miglioramenti, piccoli o grandi che siano, questo è innegabile. Alcuni di questi miglioramenti sono dettati dal marketing duro e puro, di altri forse ci sfuggono i meccanismi perché, a differenza di chi li ha studiati, non siamo esperti del settore.
    Continuo con il discorso delle fotocamere degli smartphone:
    41mpx su una fotocamera (qualsiasi) in quanto tali sono inutili, il motivo per cui sono stati usati sul lumia di quì sopra però non è quello di poter stampare gigantografie di foto scattate con il cellulare ma perché si sono accorti che con la tecnologia che usavano riuscivano a ridurre rumore ed aberrazioni usando tanti elementi sensibili più rumorosi e interpolando i dati che non usandone di meno ma meno rumorosi.

    Ho letto qualcuno fare critica sulla frase “la qualità della vita migliora grazie anche a queste piccole cose”: quì stiamo andando su aspetti tendenti al filosofico. Personalmente la qualità di vita è data da ben altre cose e non è la qualità dello smartphone o semplicemente AVERE uno smartphone che la determina; forse l’utente che l’ha scritto ha scelto dei termini poco felici e sarebbe stato più giusto parlare di esperienza d’uso relativa al singolo oggetto, ma salvo andare a fare i nazisti sulla terminologia se si usa un pò di buon senso il concetto si capisce: l’evoluzione degli ultimi anni ha comunque portato a miglioramenti con l’esperienza che abbiamo con i dispositivi che si usano tutti i giorni.

    Tornando più sul tema dell’articolo visto che di fatto stiamo divagando:
    Si, più si va avanti e più i miglioramenti diventano difficili da cogliere, ma questo è dato dalla natura sensoriale umana che è logaritmica. In altre parole se per migliorare di 10 volte qualcosa che parte da una qualità base di “1” devo spendere “9” per fare lo stesso processo da qualcosa che ha una qualità di “10” devo spendere “90”. Non ci voleva molto a raddoppiare la qualità percepita degli scatti di una webcam che scattava in 640×480, diventa più difficile farlo con un sensore full frame di una D4 però.

    Questo vuol dire che dobbiamo smettere di investire e migliorare quello che abbiamo già? Secondo me no, almeno non finché non arriveremo in ogni specifico campo al trovare il limite delle capacità umane.
    Questo è successo tanto tempo fa con l’audio (e infatti non è che negli ultimi 20 o 30 anni ci sia stata chissà che evoluzione qualitativa in quel campo), sta succedendo adesso con gli schermi in alcuni settori, per tutto il resto siamo abbastanza lontani.

    Sarò scemo io ma la costante evoluzione di quello che abbiamo è, per definizione, alla base del progresso. Non so quanti di voi preferirebbero girare con una vecchia 127 piuttosto che con una punto moderna, eppure quello che fai con una fai pure con l’altra; tutto questo senza considerare che se oggi abbiamo computer, telefoni, anche macchine di fascia medio-bassa in grado di fare il 90% di quello che serve ad un utente normale è perché l’evoluzione della fascia alta spinge a sua volta la qualità di tutto il resto del marcato verso l’alto con il passare delle generazioni.
    Se 3 anni fa i produttori di smartphone avessero deciso che un Galaxy SII (top di gamma) era più che sufficiente e avessero mantenuto le caratteristiche per gli anni a venire oggi di certo non avremmo smartphone da 200€ che hanno l’esperienza d’uso di un Moto G.

  • # 22
    Sandro
     scrive: 

    Caro Kino, prendi il tuo telefonino da 42 MP e fotografa il compleanno di un bambino con relativa festa in un interno mediamente illuminato e scoprirai che funziona molto meglio una compattina di 5 o 10 anni fa col suo flashino che garantisce …….gli occhi rossi. Eppure con la tecnologia di oggi potrei fare foto dignitose in interno col cellulare, magari con soli 6 MP. Ma se pubblicizzo un telefonono che fa buone foto in luce scarsa nessuno se lo fila, mentre se ti offro una cosa con un fantastilione di pixel ti emoziona ed apri il portafoglio. Ricordiamoci sempre che poi, alla fine le immagini finiscono su di una pagina FB o similare dove 1 MP e ancora troppo.
    Mai sentito dire che nel progetto di un oggetto tecnologico il marketing ha più potere dell’ ingeneria?
    Il design più della tecnologia?
    Non desidero concludere con la tesi che il progresso non va avanti, ma che quando acquistiamo tecnologia non siamo guidati dalla razionalità ma dall’ istinto più becero.

  • # 23
    Gurzo2007
     scrive: 

    @Sandro

    i 41mp sono utilizzati soprattutto per avere uno zoom decente con lenti fisse e quindi non usare il pessimo zoom digitale(basta andarsi a vedere le presentazioni dello stesso)

    ps il cell da 41mp fa ottime foto al buio ed usa il flash della compattina che tu indicavi….

  • # 24
    Kino
     scrive: 

    @Sandro
    Fermo restando che ti do perfettamente ragione quando dici che il marketing è molto fumo e poco arrosto (a volte niente) e che ti do perfettamente ragione anche quando dici che molte volte gli acquisti non sono una cosa razionale. Purtroppo i produttori NON sono onlus, devono guadagnare, e questo vuol dire, talvolta, non cercare la soluzione tecnicamente migliore ma quella più vendibile.
    Detto questo la situazione attuale è quella che ho spiegato: le foto tecnicamente migliori fra tutte quelle scattate fra gli smartphone in commercio vengono da un sensore da 41mpx. Non dal sensore (pur molto avanzato) da 8mpx dell’iPhone, non da quello da 20mpx del sony xperia z1 (fra l’altro la sony è produttrice di sensori d’alto livello, inclusi quelli nelle reflex nikon, quindi penso che sappiano come fare un buon sensore) ne tantomeno quello presente nel LG G2, nell’HTC One e via dicendo.

    Ora magari mi dici che coloro che hanno progettato quel sensore a parità di costo di produzione/sviluppo potevano tirare fuori un sensore da 12mpx che magari faceva foto migliori e ti dico che forse hai ragione, ma non è scritto da nessuna parte e il risultato che hanno ottenuto è stato comunque superiore a quello di TUTTI gli altri competitor.

    Intanto se si ragiona con il discorso di “l’evoluzione ormai è talmente impercettibile che non ne vale la pena” staremmo ancora con la fotocamera del vecchio nokia n95 e invece ci troviamo con cellulari che funzionano meglio di molte compatte.
    Allo stesso modo avremmo ancora telefoni che non possono gestire più di due applicazioni aperte senza morire o senza terminare quelle in background, avremmo ancora computer che quando si aprono più di 5 programmi contemporaneamente rallentano e avremmo macchine che fanno una media di 8km/l avendo prestazioni e comfort inferiori a quelle di una moderna utilitaria… ah, il tutto pagandoli ben più di quello che facciamo oggi per un oggetto tecnicamente superiore.

    Figuriamoci poi, non dico che sia una scelta razionale prendere sempre l’ultimo uscito, non dico che bisogna comprare l’ultima novità in ogni campo, ma vi fa così schifo l’idea che le cose vanno avanti a passi sempre più piccoli consentendo di avere prodotti sempre migliori in tutte le fascie, incluse quella bassa e quella media?
    Nessuno o quasi oggi ha la NECESSITA’ di un oggetto di fascia alta, in qualsivoglia campo; ma c’è chi lo vuole perché è uno status symbol, chi perché vuole un oggetto di qualità fra le mani, chi perché semplicemente è appassionato e ne ama la tecnica che c’è dietro; e a tutti quelli a cui non importa più di tanto nessuno punta una pistola alla testa per acquistare il top di gamma e si può benissimo rifare sulla fascia bassa spendendo poco e ottenendo comunque buoni risultati.

    A volte ho la forte sensazione che delle due o c’è un forte spirito “hipster” dietro certe affermazioni oppure c’è gente che si sente a disagio sapendo che qualsiasi cosa compreranno oggi tempo 6 mesi e verrà superato da qualcosa di nuovo (manco smettesse di funzionare l’oggetto vecchio).

  • # 25
    sbaffo
     scrive: 

    sono d’accordo con l’autore al 90%, direi in toto sui telefonini, meno sui computer.
    Se sui cellulari ormai si è arrivati a risoluzioni indistinguibili all’occhio umano anche appogginadoli al naso, e il problema cosumo (e lag, vedi S4) è importante, nei pc si è inspiegabilmente rimasti a risoluzioni spesso inferiori nonostante la dimesione degli schermi molto maggiore. E posso affermare da utente generico, non di grafica pro, che anche usando Excel su un 19′ a 1280×1024 ho sentito a volte la necessità di maggiore risoluzione (provate a fare uno zoom out o a rimpicciolire i caratteri fino alla dimensione 5 per avere una visione d’insieme, ii simboli di dollaro e euro diventano uguali ad un 1 con conseguenti cantonate tremende). Anche ora mentre scrivo qui si vedono alcuni caratteri seghettati (le parentesi, il %,)e sono a un braccio di distanza, anche se non mi lamento certo per questo.

    @Kino
    mi dispiace vedere che la disinformazione del marketing ha fatto bene il suo lavoro: il sensore del Lumia 1020 è si a 41mpx, ma le foto escono per impostazione standard interpolate a circa 7mpx (o 5 non ricordo bene). Inoltre, ed è la cosa più importante, la grandezza è di 1/1,2 pollici mentre gli altri delle compatte e dei cellulari migliori sono solitamente da 1/2,3 o peggio spesso anche 1/3 pollici. Se calcoli l’area del sensore sul nokia è circa quadrupla rispetto ai migliori altri, come in effetti è circa quadrupla anche la risoluzione (dipende cosa paragoni, gli 8mpx dell’iphone o i 13 dei galaxy, facciamo 10 di media), il sony da 20 non lo conosco. Quindi come densità e dimensione dei pixel è “circa” simile agli altri, ma poi fa la media, a parte quando zoomma.
    E io non mi interesso di fotografia, men che meno coi cellulari. Purtroppo anche la maggior parte delle review non lo dicono chiaramente.

  • # 26
    Kino
     scrive: 

    @sbaffo
    Il marketing avrà fatto pure bene il suo lavoro, ma non mi pare di aver mai scritto il contrario di quello che hai detto… Tanto per citarmi: “41mpx su una fotocamera (qualsiasi) in quanto tali sono inutili, il motivo per cui sono stati usati sul lumia di quì sopra però non è quello di poter stampare gigantografie di foto scattate con il cellulare ma perché si sono accorti che con la tecnologia che usavano riuscivano a ridurre rumore ed aberrazioni usando tanti elementi sensibili più rumorosi e interpolando i dati che non usandone di meno ma meno rumorosi.”

    Comunque figurati che non voglio vendere mica niente a nessuno :P Continuo semplicemente a sostenere la mia tesi per cui un progresso di qualsiasi tipo è in realtà a favore dell’utente.
    Nel momento in cui viene spinto qualcosa di nuovo e migliore ogni anno senza aumentarne il prezzo medio (rapportato al costo della vita su tutto il resto quantomeno) vuol dire che possiamo prendere oggetti migliori ad un prezzo stabile o prendere gli stessi oggetti vecchi ad un prezzo inferiore.
    E se è vero che l’evoluzione è poco percettibile (ripeto, non perché non sia presente ma perché diventa sempre più difficile avere miglioramenti relativi costanti, specie in rapporto alla natura sensoriale umana) la cosa è ancora migliore sotto certi punti di vista perché avremo fascie differenti di prezzo che hanno prestazioni percettibili molto simili e ci troveremo con oggetti di fascia media, che costano come una fascia media, e offrono il 90% di quello che offre una fascia alta.
    Poi magari sbaglio qualcosa nel mio ragionamento, non saprei.

  • # 27
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ kino

    E se è vero che l’evoluzione è poco percettibile (ripeto, non perché non sia presente ma perché diventa sempre più difficile avere miglioramenti relativi costanti, specie in rapporto alla natura sensoriale umana) la cosa è ancora migliore sotto certi punti di vista perché avremo fascie differenti di prezzo che hanno prestazioni percettibili molto simili e ci troveremo con oggetti di fascia media, che costano come una fascia media, e offrono il 90% di quello che offre una fascia alta.

    Sì ma di questo passo presto anche la tecnologia di fascia media avrà superato la barriera della futilità. :-)

    Tornando più sul tema dell’articolo visto che di fatto stiamo divagando:
    Si, più si va avanti e più i miglioramenti diventano difficili da cogliere, ma questo è dato dalla natura sensoriale umana che è logaritmica. In altre parole se per migliorare di 10 volte qualcosa che parte da una qualità base di “1″ devo spendere “9″ per fare lo stesso processo da qualcosa che ha una qualità di “10″ devo spendere “90″. Non ci voleva molto a raddoppiare la qualità percepita degli scatti di una webcam che scattava in 640×480, diventa più difficile farlo con un sensore full frame di una D4 però.

    La tesi dell’articolo era però un po’ diversa. La curva logaritmica che vedo io è legata all’utilità: un progresso *lineare* di risoluzione dello schermo, numero di core, frequenza di clock, megapixel del CCD etc etc ha un’utilità marginale decrescente, nel senso che mano a mano che crescono linearmente queste variabili il valore aggiunto dello step successivo diventa sempre più impercettibile fino a rasentare lo zero. Sarà vero che anche queste evoluzioni lineari hanno dei costi marginali, magari non decrescenti ma di certo sono ampiamente giustificati dalle vendite.
    La domanda fondamentale dell’articolo è se la crescita lineare della tecnologia – come opposta a “rivoluzioni” – sia giustificata da un’utilità per l’utente finale.

  • # 28
    IoLoSoTeNo
     scrive: 

    “Un caso pratico: che beneficio avrei – a parità di altre condizioni come qualità del pannello, resa cromatica, angolo visuale etc. – nel sostituire a tipica distanza di lavoro il mio pannello 1680×1050 con un pannello 2880×1800”.

    In effetti un 15″ 1680×1050 visualizzato a una canonica distanza di 40 cm si avvicina alla risolvenza umana.

    Si avvicina. Non la raggiunge.

    Al contrario, un 2880×1800 la supera.

    La soluzione adatta allo scopo e sarebbe stata la mediana 2400×1500.

    Evidentemente però in fase di produzione la differenza fra la 2400×1500 e la 2880×1800 non era tale da risparmiarci, questo ha l’aggiunto beneficio di permettere la perfetta risolvenza dell’immagine anche se si visualizza lo schermo da più vicino rispetto i 40 cm di cui sopra (non di tanto, eh, giusto 35 cm).

    Che disfattista che sei…

  • # 29
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ iolosoteno
    Dal link di Cultofmac che ho postato su, pare che il macbook pro 15″ hi res (1680) sia già al 90% “retina”. Teoricamente dunque già a 1920×1200 avresti superato tale limite. Peraltro lo schermo 1680 ha il vantaggio di avere uno spazio sul desktop di oltre il 35% superiore rispetto a un 2880×1800. Ma non è tanto sui calcoli che voglio soffermarmi – magari hai ragione tu – quanto su una questione di fondo: qual è l’utilità marginale di un passaggio da una risoluzione che rasenta i limiti della vista umana a una che la supera? È una domanda fondamentale perché il prezzo invece cresce in maniera lineare.

  • # 30
    IoLoSoTeNo
     scrive: 

    Sicuramente andare oltre la risolvenza dell’occhio umano è uno spreco e come tale va giustamente rimproverato (è come aumentare il gas sotto la pentola che bolle l’acqua: la temperatura rimane comunque di 100°c e non aumenta la velocità di cottura, si buttano via solo soldi).

    Prima però arriviamoci. Dobbiamo tutti ringraziare Apple che da anni sta perseguendo questa via evolutiva che è praticamente la cosa più importante in un display e che fino ad ora, ciecamente, nessuno se ne preoccupava. Io ricordo bene cellulari da 176×220 in cui non si riusciva a leggere gli SMS e monitor LCD con pixel grossi come fagioli, per fortuna è cambiato (e di certo non vorrei un OLED dai colori perfetti e 56 ore di autonomia ma con schermo da 176×220 in un mio prossimo telefono).

    Ma non sono neppure a favore di quello che ha detto un utente poco sopra a cui piace avere la moto da 300 km/h per andarci a 38 km/h in città, visto che porta alla conseguenza di un consumo pari a 12 km/l (praticamente un’auto) rispetto ai 35 km/l di uno scooter oppure una monocilindrica adeguatamente sviluppata per l’uso cittadino (come in effetti stanno iniziando ad uscire).

    Così come certamente sono d’accordo che i cellulari da 400/500 ppi sono al limite dell’offensivo.

    Alla fine siamo però noi che decidiamo, è importante quindi aumentare le nostre conoscenze così da non essere schiavi del marketing, plasmando l’offerta tramite le nostre “non scelte”, in modo che chi viene pagato per vendere al consumatore non persegui più la via del “ora lo frego con questo slogan, questo numero o questa immagine taroccata”, ma “ora gli propongo un prodotto che rispecchia tutto quello che mi ha chiesto gli piacerebbe avere”.

  • # 31
    Alessio Di Domizio (Autore del post)
     scrive: 

    Pienamente d’accordo sulle conclusioni. Sulle moto da 300 all’ora non posso molto parlare… ma lì è questione di sentimenti, la ragione c’entra poco :-D

  • # 32
    floriano
     scrive: 

    è proprio vero, dovessi cambiare cellulare mi troverei nei guai.

    E’da tempo che attendo un cellulare sulle 200€ con:
    * hardware telefonico e schermo tipo l’huawei y300 (magari con 1 gb di ram)
    * sensore fotografico e flash tipo la mia fuji da 4mpixel di 10anni fa
    * batteria potenziata
    * schermo possibilmente in plastica (il gorilla glass sui nexus, iphone, s3,s4 mi sembra troppo delicato per i miei usi)

    chiedo troppo???? :)

    eppure comprando due dispositivi separati (huawei y300 da 100€ e macchinetta nikon da 70€) a 200€ non ci arrivo (maledetti markettari!!!) …

  • # 33
    Gio
     scrive: 

    Al netto di chi ci lavora, io ad esempio renderizzo con sw cad, per la maggior parte delle persone la risposta te la sei data te in questo pezzo: “Un caso pratico: che beneficio avrei – a parità di altre condizioni come qualità del pannello, resa cromatica, angolo visuale etc. – nel sostituire a tipica distanza di lavoro il mio pannello 1680×1050 con un pannello 2880×1800 o 4K? Nessuna” nessuna appunto….ma vuoi mettere il numerone che altri non posseggono? il fatto per il 90% delle persone di avere qualche cosa che fa “grosso”? ecco il punto da sempre è tutto li.

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.