Siamo arrivati dunque alla terza parte (qui la prima, qui la seconda) di una lunga e dettagliata retrospettiva riguardante gli ultimi quattro anni di competizione fra nVidia e AMD. Anni che hanno visto avvicendarsi architetture diversissime, uniti però da un sottile fil rouge, il processo produttivo a 28nm. Ecco quindi la terza parte del contributo, il cui autore, assiduo frequentatore di AD, si fa conoscere col nickname omerico “nessuno”. Le successive “puntate” verranno rese disponibili nei prossimi giorni. A nome di tutta la silente ma sempre presente ciurma di AD, auguro una buona Pasqua ai nostri affezionati lettori :-)
Negli stessi giorni AMD presenta anche lei quello che dovrebbe essere il suo step successivo di ottimizzazione sullo stesso processo produttivo, la versione 1.2 di GCN: nome del chip Tonga. Questo chip è una revisione completa di Tahiti nel tentativo di realizzare una scheda nel segmento della 770 (aka 680 overclock, che monta il GK104) più competitiva. Il chip viene presentato nella sua versione PRO, cioè con ridotto numero di shader attivi e bus di memoria di 256bit, quando si mormora che in realtà il chip abbia un bus di memoria di 384bit come Tahiti e qualche shader in più. La nuova revisione di GCN ha come caratteristica l’implementazione di un sistema di compressione dei dati in memoria che dovrebbe migliorare l’uso della banda di memoria, ovvero ridurre la quantità di dati che transitano dalla memoria grafica verso il core della GPU e viceversa, una caratteristica che nVidia implementa già da Kepler e che con la seconda versione di Maxwell ha ampiamente raffinato.
Il test della nuova GPU montata sulla scheda R9-285, che grazie al diverso bus monta 4GB di RAM contro i 3GB della 280X (aka 7970 GHz edition), è un mix di luci e ombre: rispetto a Tahiti mostra dei miglioramenti nella computazione pura ma è più lenta nella gestione della memoria, nonostante la nuova compressione di cui è dotata ma con bus più stretto (256 vs 384bit). In media la nuova scheda risulta leggermente più lenta della vecchia 280X anche se consuma il 30% meno sulla carta. Il chip risulta quindi un compromesso che non risolve davvero il problema che sta alla radice di GCN rispetto ai risultati della concorrenza, ovvero la necessità di usare più silicio e corrente per ottenere gli stessi risultati. Per fare un esempio, il consumo di Tonga equivale a quello del GM204 ma le prestazioni sono su due fasce completamente diverse.
La presentazione di Tonga dopo tanti mesi di preparazione non è solo un piccolo fallimento riguardo alla specifica scheda realizzata (che alla fine non va meglio di una scheda presentata 2 anni prima), ma è una indicazione abbastanza importante, e non certo positiva, sulla capacità che AMD ha in quel momento di competere. Se il meglio che è riuscita a realizzare AMD con l’ultima revisione 1.2 della sua architettura è Tonga mentre nVdia ha realizzato con Maxwell il GM204, molti vedono delle nubi sull’orizzonte di AMD.
I dati di vendita del periodo sono impietosi: nVidia vende oltre 5 volte quello che vende AMD nel mercato delle schede grafiche discrete. Le analisi di market share descrivono AMD con il 18% delle vendite, quando all’inizio dell’era 28nm ne deteneva il 35%. Una dimezzamento netto.
La situazione è così grave dal punto di vista finanziario che a fine 2014 AMD si vede costretta a fare dichiarazioni nel tentativo di evitare ulteriori ribassi del proprio titolo azionario. AMD annuncia che ha ultimato il lavoro su una nuova GPU che usa una nuova rivoluzionaria memoria, denominata HBM (High Bandwidth Memory) su cui AMD sta lavorando da diverso tempo insieme a Hynix. Questa memoria promette di superare di gran lunga le limitazioni delle GDDR5, la cui adozione per raggiungere elevate bande passanti (quantità di dati trasferibili al secondo) diviene sempre più costosa, complessa ed economicamente non sostenibile. Le caratteristiche salienti della HBM sono i tempi di latenza ridotti, uso di grande bus, uso di una frequenza ridotta. Inoltre è una memoria di tipo stacked (costituita da diversi livelli di silicio sovrapposti) che viene montata vicino alla al die della GPU, senza necessità di usare lunghi bus sulla scheda, che degradano il segnale e necessitano di potenze di trasmissione dei segnali molto elevate.
I risultati promessi sono prestazioni maggiori con riduzione notevole dei consumi e dei costi della scheda (per via del delicato bus esterno verso i chip GDRR5 che ora non c’è più). Un vantaggio secondario aggiunto è che le dimensioni della scheda si riducono notevolmente non necessitando più di montare una notevole quantità di chip GDDR5. Le limitazioni sono quella che nella sua prima versione queste memorie sono disponibili con una densità piuttosto limitata che ne condiziona la quantità installabile e sopratutto che il costo produttivo è ingente, dato che necessitano di un ulteriore base di silicio molto grande su cui montare sia la GPU sia le memorie (base denominata interposer).
AMD presenta quindi una rivoluzione nel campo delle schede grafiche, dove l’uso delle varie GDDRx perdura sin dalle primissime versioni di chip dotati di accelerazione 3D prodotti negli anni ’90. I vantaggi come abbiamo visto sono notevoli e permettono di andare oltre alle GDDR5, ma con lo svantaggio di un costo iniziale di adozione molto alto, non essendo ancora matura la loro produzione su vasta scala né l’ottimizzazione per ridurre i costi dell’interposer necessaria per ospitare GPU e memorie vicinissime. AMD dice che userà un bus da 4096bit (4 canali da 1024bit ciascuno), che abbinati ai dati conosciuti della HBM definisce la banda di 512GB/s (per confronto la Titan X arriva a 336GB/s) e la quantità di memoria installabile (e non espandibile in alcun modo), pari a 4GB (1GB ciascun chip x 4 chip montati).
La presentazione suscita numerose discussioni sui vari siti di appassionati circa le possibili capacità di questa nuova GPU. Volano numeri da capogiro e non manca chi descrive scenari apocalittici per nVidia che a molti sembra essere giunta al capolinea con la sua architettura Maxwell, in attesa della successiva che però verrà resa disponibile almeno un anno dopo.
Il tempo passa, ma di questa nuova rivoluzionaria GPU ancora non se ne vede l’ombra. AMD proclama da mesi che le schede sono pronte e che manca solo il tuning del BIOS. Sembra lecito pensare che la mossa di anticipare così tanto l’annuncio di un prodotto non finito fosse solo per questione finanziaria (non far fuggire gli investitori in un periodo tanto difficile) e di marketing (arginare le vendite della concorrenza che sul mercato sta complessivamente vendendo 5 volte tanto).
A marzo 2015, nVidia gioca la sua ultima carta: presenta la Titan X. Una scheda basata sul chip “monster” GM200 con architettura Maxwell. Su questo chip circolavano voci insistenti, ma da diverso tempo non se ne sentiva più parlare per vie ufficiali e molti lo davano per abbandonato per impossibilità di realizzazione su processo produttivo a 28nm (ricordiamo che Maxwell era originariamente pensato per il processo produttivo a 20nm che permette quasi il raddoppio del numero dei transistor nello stesso spazio). Invece a sorpresa nVidia lo crea, seppur con qualche limitazione. Il chip si presenta come una vera GPU “monster” a tutti gli effetti: anzi, è LA GPU più grande mai costruita: 601mm^2 che includono 3072 shader, 192 TMS e 96 ROP e 384bit di bus di memoria. Viene montata sulla Titan X con ben 12GB di GDDR5 e 250W di TDP. Il chip però non ha le unità di calcolo a 64bit caratteristiche di tutte le GPU di classe professionale sfornate fino a quel momento da nVidia. Il compromesso è necessario per limitare le dimensioni del chip che già nella sua veste castrata arriva al limite delle dimensioni di produzione dei macchinari di TMSC.
Il prezzo della scheda è lo stesso della vecchia Titan: $999. Questa volta meno giustificabili, dato che rispetto ad una scheda gaming (che tutti ormai si aspettano arriverà, come fu con il lancio della Titan poi seguito dalla 780Ti) monta solo più memoria. Niente capacità di calcolo 64bit che possano interessare chi necessita di fare simulazioni scientifiche ma non può permettersi le schede Quadro o Tesla.
La scheda mostra subito numeri altissimi nei test dedi giochi: finalmente si avvicina alla possibilità di essere usata singolarmente per la risoluzione 4K, anche se con diversi compromessi. La differenza con la 980 è notevole, così come lo è con il meglio che la concorrenza offre, la 290X, basata ancora su quel chip Hawaii ormai 1 anno e mezzo più vecchio.
Qualche settimana dopo AMD annuncia, finalmente, che presenterà la sua nuova serie, inclusa la nuova top gamma basata sulla GPU con HBM, a giugno. Intanto circolano presunti test sulle capacità della nuova GPU di AMD con vari giochi che la vedono particolarmente in vantaggio sulla scheda top di nVidia. Si comincia a discutere sull’eventuale prezzo della scheda che test alla mano, a questo punto potrebbe andare molto vicino se non oltre al prezzo della Titan X.
Con una mossa inaspettata, all’inizio di Giugno 2015, nVidia annuncia la 980Ti, la scheda gaming basata sul GM200. Leggermente più castrata della Titan X, come fu per la 780Ti rispetto alla Titan, monta “solo” 6GB di RAM e le prestazioni sono solo leggermente inferiori con un prezzo, e questo è la parte importante, indicato a $650, non tanto lontana da quelli che sono i prezzi delle 980 custom (superiori a $500). Sembra che nVidia sia nel disperato tentativo di vendere la sua ultima GPU prima del debutto della scheda rivale che mostra numeri migliori dei suoi.
A metà giugno AMD presenta finalmente la sua nuova serie di schede grafiche, la serie 300. È praticamente un rebrand di tutte le schede già in commercio (alcune anche dal 2012), fatta salva la sostituzione di Tahiti con il nuovo Tonga. Tutte le GPU presentate sono una revisione che permettono di aumentare la frequenza, seppur a discapito dei consumi che già non erano bassi. Tonga viene montato ancora solo nella sua versione PRO, cioè quella leggermente castrata rispetto alle caratteristiche complete del chip. Questa mossa non è ben compresa, dato che AMD sul mercato ha un Tonga completo che però è usato esclusivamente per i MacBook di Apple. La nuova serie 300 è quindi la stessa serie 200 con prestazioni migliori dovute a clock e consumi leggermente aumentati. Non ci sono novità di rilievo e la serie è deludente visto che fa ancora uso di GPU basate sulla versione GCN 1.0 nelle fasce minori.
Il 24 Giugno, 3 settimane dopo la presentazione della 980Ti, AMD finalmente presenta la sua ultima creatura in ordine di tempo: la scheda Fury X su cui monta la nuova rivoluzionaria GPU Fiji con HBM e incorpora un dissipatore a liquido di default. I numeri del nuovo chip sono: dimensione 596mm^2 ovvero la GPU più grande in assoluto che AMD abbia mai prodotto e pari (solo 5 mm^2 in meno) alla dimensione del GM200, 4096 shader, 256 TMU e 64 ROP oltre ad avere a bordo 4GB della nuova HBM. Da considerare che per montare la HBM è necessario l’uso di una base di silicio su cui posizionare sia il die della GPU che quelli delle 4 RAM, cioè un ulteriore pizza di silicio (l’interposer) di oltre 1000mm^2. Il costo finale del chip è quindi molto elevato.
Per l’occasione AMD rispolvera un vecchio glorioso marchio, Fury, come già ha fatto nVidia con le versioni Ti delle sue schede. E come sempre avviene, ecco arrivare on-line le prove della scheda…
Continua qui.
Mha… ho visto qualche test online… effettivamente Fury è qualcosa più veloce delle Titan, ma niente di chè…
Certo a parità di prezzo, si prende quello che corre di più anche se solo di una decina di punti percentuali.
Certo è, che vista la differenza minima, non credo che Nvidia ci impiegherà molto a superare di nuovo Amd… e me ne dispiaccio… la palla della concorrenza quando passa da una azienda ad un altra, e resta tale per periodi medi, fà sempre bene.
Da modo all’azienda, prima penalizzata, di rientrare sul mercato e recuperare reddittività, e sprona l’ex prima, a trovare nuove soluzioni per tornare con prodotti nuovi più performanti.
Ma forse stiamo arrivando al limite dei questo tipo di tecnologia di silicio, per cui anche le prestazioni cominciano ad uniformarsi.
La questione GTX980Ti vs Fury X è un po’ complessa.
La Fury X fa qualche frame in più in qualche gioco a 4K, mentre alla riduzione della risoluzione perde notevolmente prestazioni, sia rispetto alla GTX980 che rispetto alla 390X. Che è una cosa che indica che qualcosa in quel chip non funziona come ci si sarebbe aspettato da un soluzione che integra le ultimissime tecnologie decisamente più performanti (e costose) di quello che adotta la concorrenza.
Il problema principale della Fury X sono i “soli” 4GB di RAM che per il 4K sono davvero il minimo sindacale. C’è gente che ha trovato tutte le scuse del mondo per affondare la 970 con i suoi 3.5GB+0.5GB, scheda non certo nata per i 4K, ma poi non si fa problemi a definire la Fury X il non plus ultra solo perché c’è montata la HBM.
Ultimamente stanno uscendo giochi con texture a risoluzione alta che saturano già i 4GB e si comportano meglio sulla GX980Ti che ne ha 6. Senza contare le esagerazioni che richiedono i 12GB della Titan X.
Per le performance in senso assoluto, i test che hai visto si riferiscono tutti a schede con frequenze stock. La GTX980Ti è risaputo essere una ottima scheda da overclock con frequenze ad aria che arrivano a 1.3GHz (+30%) e a liquido che raggiungono facilmente i 1.4GHz fino a 1.5GHz (+40 o 50% rispetto alla versione stock). Mentre la Fury X non sale quanto promesso da AMD (che l’aveva dichiarata una scheda regina di overclock).
Quindi anche sotto il punto di vista degli FPS assoluti (quelli che l’utente sperimenta sul suo monitor), la Fury X perde il confronto.
Purtroppo in questi 4 anni non c’è stata alcuna mossa di AMD che ha portato nvidia a migliorare un bel nulla. Dal lancio di Tahiti che le ha permesso di usare una GPU di fascia inferiore per competere nella stessa fascia alta alla revisione 1.2 di GCN che non ha portato nulla di nuovo sotto il profilo delle perfomance, c’è stato un rilassamento completo con prezzi delle schede nvidia che non si sono mosse dal prezzo di lancio.
Vedi quanto costano oggi le 970 e le 980 rispetto a quando sono uscite. Ed è passato un anno e mezzo. L’innovazione di nvidia è stata tutta indirizzata a migliorare i suoi margini, con GPU più piccole e più fresche, non certo più perfomanti.
Vedi cosa riesce a fare con la 960. Non è certo una GPU nata per andare meglio della concorrenza (Tonga), ma ha un costo (ed un consumo) che è la metà. Anche se va qualcosa di meno rispetto alla 380, è venduta allo stesso prezzo.
Siccome sono aziende che nascono per fare soldi, non per garantire frame in più ai clienti (che sono solo uno dei modi per vendere e guadagnare di più), nvidia si è concentrata nell’ottenere il massimo con il minimo sforzo. Economicamente è stato un periodo d’oro per lei ( e i bilanci lo confermano), con la nascita della serie enthusiast a prezzi folli e il piazzamento delle serie alte realizzate con chip di fascia media venduti a prezzi che sono addirittura maggiori delle vecchia schede di fascia alta realizzate con GPU più grandi e costose. Un passo indietro in termini di avanzamento tecnologico, dal mio punto di vista, nonostante la bontà dell’architettura Maxwell che ancora oggi si paga davvero cara.
Forse il problema di fondo è che agli utenti, bastano le attuali tecnologie e prestazioni.
Certo, gli “enthusiast” che guardano agli incrementi prestazionali (senza badare al portafoglio) ci sono, ma non sono in numero tale da spronare AMD e Nvidia verso nuovi investimenti.
Tutto sommato al 90% degli utenti, che sono quelli che fanno volumi, ergo soldi, hanno già quel serve loro.
Peccato…
I volumi sono sempre stati fatti dalle fasce medio basse.
I margini sono (erano) però molto bassi. Le fasce alte ed enthusiast vendono meno, ma sono anche quelli che garantiscono guadagni molto più alti. Della serie, se da una R9-360/GTX940 guadagno 1 euro e e ne vendo 1000, mentre sulle 380/960 guadagno 10 euro e ne vendo 100 e su una Fury X/980Ti faccio 100 euro di guadagno e ne vendo 10, il guadagno è sempre lo stesso per ogni fascia anche se i volumi sono diversi.
Inoltre non è questione di quel che vuole l’utenza, ma di quel che propone la concorrenza. Se uno dei due attori entra sul mercato con una serie leggermente più performante ma dai costi inferiori e quindi comincia a vendere di più in tutte le fasce, è logico che devi lavorare per fare meglio e essere tu quello leggermente più veloce con margini migliori (per fare pressione sui prezzi ed averli migliori o al più, guadagnare molto di più della concorrenza).
Il gioco è tutto qui. C’è invece chi pensa che queste compagnie stiano a contare gli FPS ogni minuto per sfornare qualcosa che va meglio. Non gliene frega una cippa se il gioco XYZ fa 2 frame in più o in meno a meno che non sia un gioco da benchmark (e quindi fa pubblicità positiva o negativa). A loro interessa che il prodotto sia percepito come valido (usando appunto i 4 giochi in croce dei benchmark come specchietto per le allodole) e che riescano a ottenere il maggior margine possibile = più soldi in tasca.
Qualsiasi cosa che permetta di fare questo è una strategia vincente. Il resto sono solo chiacchiere da bar di gente che si spenna per dimostrare che la scheda XYZ è migliore della ZYX perché fa 3 frame in più, consuma 4 W in meno, costa 10 euro in meno etc… etc…