Retina o non retina?

Nella mia “lunga” carriera di appassionato di tecnologia, sono stato spesso preda di attacchi di luddismo di fronte ad avanzamenti della tecnologia che ritenevo avessero più a che vedere con i bilanci delle aziende tecnologiche che con le mie esigenze. Questa mia personale inclinazione è stata senza dubbio incentivata da un’evoluzione nel marketing dell’industria tecnologica, passato da uno stato primordiale, basato sull’idea che un prodotto utile e con buone caratteristiche vende più o meno da sé, a tecniche più raffinate, meticciate con logiche proprie del largo consumo quando non della moda. In pratica dalle pubblicità cartacee strapiene di dati tecnici e foto di bassa qualità siamo arrivati a Ashton Kutcher – il cui cv include ruoli fondamentali nel mondo tecnologico quali il fidanzamento con una stagionata Demi Moore e la parte di Steve Jobs in una pessima biografia cinematografica – eletto a product engineer di Lenovo.

Pur tenendo fuori queste amenità, alcuni stadi dell’evoluzione tecnologica degli ultimi anni mi hanno lasciato con una sensazione di parziale o totale inutilità (ad esempio la “febbre” del multicore di qualche anno fa, dei 64 bit, i laptop touchscreen etc.).

Molte tecnologie sono arrivate sul mercato allargato ben prima che esistessero le premesse per un loro pieno sfruttamento. In particolare molto spesso abbiamo assistito ad evoluzioni “quantitative” della tecnologia con vantaggi marginali decrescenti fino a diventare impercettibili. La densità dei pixel per esempio: dopo che Apple ha aperto le danze con i display “retina”, si è scatenata una lotta all’ultimo pixel, arrivata a punti paradossali. Non a caso parlo di utilità marginale decrescente: quale occhio riesce ad apprezzare la differenza tra 320ppi e 440ppi? Quale utente riesce ad apprezzare la performance addizionale portata dall’aggiunta di due core (senza contare la penalità sul clock a parità di TDP)? E quanto costa tutto ciò? In termini di consumo energetico oltre che di costo al consumatore finale?

Veniamo ad un esempio recente: il nuovo Mac Pro, lanciato poche settimane fa, se non sempre porta un miglioramento prestazionale rispetto alla generazione precedente, promette di riuscire a gestire con un refresh rate ottimale, display ad altissima risoluzione per personal computer (4K). Il prezzo che ha oggi l’accoppiata Mac Pro + display 4K è talmente proibitivo (oltre 8000€) da rendere la scelta di un sistema similmente configurato adatta ad un pubblico che sa di averne assolutamente bisogno o ha soldi da investire nell’ultimo grido tecnologico.

Non v’è dubbio tuttavia che nel giro di qualche anno i 4K saranno appannaggio anche di display da 400€ esposti sui banconi della grande distribuzione e che anche lo standard “retina” degli attuali Macbook Pro verrà surclassato da risoluzioni ancora più insensate. Ebbene, a meno di netti “upgrade” nella vista umana, ogni € speso nella ricerca e sviluppo abilitante questa tecnologia e poi nell’acquisto della stessa, sarà sprecato, così come lo sarà ogni Watt che questi dispositivi inevitabilmente assorbiranno in più di altri equipaggiati con display a risoluzione inferiore, ma che sono già oltre le capacità visive umane. E quando anche l’energia di questi pannelli avrà eguagliato quella assorbita dai pannelli precedenti, rimarrà facile ipotizzare che l’affinamento del risparmio energetico della generazione precedente avrebbe prodotto consumi netti migliori, e costi inferiori. Per muovere più pixel ci vorranno sempre e comunque più elettroni.

È davanti a quest’ultima considerazione che si evidenzia a mio modo di vedere la rotta di collisione fra gli interessi sostanziali – depurati cioè dai lustrini del marketing – dell’utenza e quelli dell’industria tecnologica, per i bilanci della quale è fondamentale mantenere rapido il ciclo di obsolescenza dei prodotti anche in assenza di evoluzioni tecnologiche che giustifichino il ricambio. In una discussione da bar potremmo postulare che se per gli utenti finali la curva di utilità tecnologica marginale si appiattisce all’avanzare linearmente della tecnologia (incremento lineare del clock, dei PPI, dei core, dei gigabyte), i produttori hanno interesse in una crescita lineare delle specifiche tecniche, che alimenti le i ricavi e mantenga alti i profitti.

Un caso pratico: che beneficio avrei – a parità di altre condizioni come qualità del pannello, resa cromatica, angolo visuale etc. – nel sostituire a tipica distanza di lavoro il mio pannello 1680×1050 con un pannello 2880×1800 o 4K? Nessuna – se vi interessano approfondimenti visitate questo link. Che vantaggio invece troverei nell’utilizzare un sistema risparmia energia con un display 1680 iper-ottimizzato accompagnato da una GPU proporzionata alla risoluzione? Alcune ore di batteria, magari quelle che mi servirebbero in quel lungo viaggio in aereo o a completare una giornata di lavoro intensivo senza dovermi preoccupare di avere l’alimentatore al seguito.

Press ESC to close