di  -  venerdì 18 marzo 2016

Ospitiamo qui la seconda parte (qui la prima) di una lunga e dettagliata retrospettiva riguardante gli ultimi quattro anni di competizione fra nVidia e AMD. Anni che hanno visto avvicendarsi architetture diversissime, uniti però da un sottile fil rouge, il processo produttivo a 28nm. Ecco quindi la seconda parte del contributo, il cui autore, assiduo frequentatore di AD, si fa conoscere col nickname omerico “nessuno”. Le successive “puntate”  verranno rese disponibili nei prossimi giorni.

Nel 2012, dopo una serrata lotta durata di 6 anni (che include il passaggio dal processo di produzione a 90nm fino a quello a 40nm), in molti hanno compreso che qualcosa di veramente importante era successo. Quello che rendeva le GPU di nVidia grandi ed energivore è ora una caratteristica di AMD. La regole che voleva AMD un passo più indietro nelle prestazioni ma due passi avanti nei consumi è svanita. La situazione della GPU top gamma di AMD presentata da poco è critica: per la prima volta, dopo il disastro dell’RV600, la migliore GPU di AMD ha prestazioni leggermente inferiori (come nel passato) ma questa volta con una GPU più grande e con consumi più alti.

AMD è passata da una soluzione con dimensioni simili a Tahiti che competeva contro il “monster” di nVidia da 520mm^2, a non riuscire a competere con la soluzione della rivale grande poco più della metà di quella precedente. Chiunque non si fosse fatto abbagliare dai numeri sulla carta delle due GPU ha capito che le regole stavano per cambiare esattamente come nel 2006, quando la presentazione del G80 cambiò radicalmente l’andamento del mercato (e ne fondò un altro).

Con tre mesi di ritardo rispetto alla concorrente, nVidia comunque vince il match. Le sue schede top gamma cominciano ad andare a ruba tanto che il prezzo della 7970 cade a picco, ben sotto il prezzo della GTX680. Tutta la nuova serie 7xxx di AMD viene a trovarsi schiacciata da una situazione in cui la top gamma non è all’altezza della situazione e comprime i prezzi (e i margini) di tutte le fasce sottostanti. AMD reagisce con il rilascio di una 7970 overcloccata che chiude il piccolo gap di prestazioni (e di immagine) rispetto alla scheda nVidia, ma di contro porta i consumi ad essere ancora più elevati (oltre il 30% in più rispetto alla concorrente).

Le parole di nVidia alla presentazione della 7970 ora diventano chiare. nVidia ha la possibilità di competere con AMD senza dover realizzare la sua GPU “monster” su un processo produttivo ancora immaturo con conseguenze nefaste (come fu per la precedente architettura Fermi con quel GF100 che dovette essere corretto e rimpiazzato dopo solo 9 mesi dal suo rilascio). nVidia ha la possibilità di risparmiare un sacco di soldi e risorse nel posticipare il GK110 e nello stesso momento di avere margini altissimi con la vendita di queste sue nuove GPU che ribaltano il paradigma degli anni scorsi. Per nVidia è una vittoria a tutto campo che lascia preannunciare tempi difficili per i consumatori, senza diminuzioni di prezzo nel breve periodo.
Seguono mesi di tranquillità assoluta in cui i due produttori perseguono strategie diverse e non si preoccupano uno dell’altro. I prezzi rimangono stabili, con nVidia che non accenna a voler modificare il prezzo di lancio delle sue schede. In questa situazione nVidia non ha bisogno di fare nulla per migliorare la propria posizione e AMD è bloccata nella sua posizione.

Un anno dopo nVidia non ha intenzione di accelerare i tempi di rilascio della sua super GPU in campo consumer e i prezzi delle sue schede sono praticamente gli stessi del giorno di lancio. Nel Febbraio 2013 nVidia decide che è il momento di dare un segno di vita e di rilasciare il GK110. Sebbene inutile nel mercato consumer dove detiene il controllo sui prezzi e i margini rispetto alla rivale, nel campo professionale il vecchio GF110 sta cominciando a mostrare il fianco alle nuove schede acceleratrici create da Intel come derivate da quel progetto Larrabee clamorosamente fallito.

Le caratteristiche della versione completa di questo nuovo chip “monster” sono: dimensione di 561mm^2, 2880 shader, 240 TMU, 64 ROP, bus da 384bit e TDP di 250W.
Rilascia una scheda particolare: la Titan che inaugura una nuova serie ibrida tra il mondo consumer e quello professionale. Questa scheda monta un GK110 non completo, che comunque dà una idea di quello che nVidia ha nel cassetto. Le sue performance sono di tutto rispetto e pongono nVidia un passo avanti all’offerta di AMD che fino a quel momento se la giocava alla pari in termini di prestazioni (pur con lo scotto di costi e consumi maggiori).

Nel maggio 2013, poco più di un anno dopo la presentazione della GTX680, nVidia rilascia una nuova serie completa, la serie 7xx.
La particolarità di questa serie è quasi una copia di quel che avvenne nel 2006: nVidia riusa i vecchi chip (operazione che viene definita “rebranding”) scalandoli di mezza fascia verso il basso. Il GK104 che era nella 670 e 680 viene ora montato nelle varianti della 760 come chip non completo e sulla 770 nella versione full. A distinguere la 770 dalla 680 solo una marginale aumento di clock con conseguente aumento dei consumi. La novità è costituita dalla 780, scheda che finalmente monta il GK110, in versione ancora più castrata rispetto alla Titan, ma con un prezzo accessibile al mercato consumer. Le prestazioni della scheda sono inferiori a quelle della Titan di poco, ma il suo prezzo la rende certamente preferibile rispetto a quest’ultima. La disponibilità di un GK110 nel mercato videoludico è rimandata.

Come detto AMD è impossibilita a rispondere e passeranno ancora 6 mesi prima che possa rilasciare una nuova serie completa, periodo nel quale il valore delle schede AMD scende ancora di più. I risultati finanziari trimestrali parlano chiaro sulle difficoltà dell’azienda di competere in termini di costi e vendite con la rivale di sempre.
Alla fine del 2013 AMD finalmente rilascia la nuova serie R-2xx (questa la nuova nomenclatura), successore della serie HD7xxx, introducendo una novità. Una GPU top gamma, Hawaii, con revisione 1.1 di GCN. Le altre GPU sono un riciclo delle stesse GPU usate nella vecchia serie, con AMD che ne cambia il nome, forse per revisioni interne legate al processo produttivo e alla conseguente migliorata gestione energetica. In termini di caratteristiche e prestazioni non cambia nulla per queste.

Vediamo nel dettaglio il risultato di questo nuovo rilascio.
Hawaii è una GPU ancora più grande della precedente Tahiti creata per riconquistare il trono delle prestazioni: è la GPU più grande prodotta da AMD dai tempi del R600. Montata sulla scheda 290X, la scheda top di questa nuova serie, si presenta con caratteristiche di tutto rispetto: dimensione di 438mm^2, 2816 shader, 176 TMU e 64 ROP e revisione 1.1 dell’architettura GCN che porta ad alcune modifiche importanti al core. Ciò che impressiona però è il bus: 512bit, esattamente come l’R600. La scheda arriva a misurare prestazioni che sono leggermente superiori a quelle di una Titan, scheda che ha un costo quasi doppio. Il suo punto debole è il calore che sprigiona che porta la GPU a 95° e quindi in throttling (ovvero diminuzione automatica della frequenza per contenere il calore prodotto); a ciò si somma la pessima idea di AMD di non far produrre schede con dissipatori custom migliori del suo se non dopo troppi mesi.

L’arrivo di Hawaii è il momento che nVidia aspettava per dare finalmente spazio al GK110 completo nel mercato consumer.
nVidia rispolvera la vecchia nomenclatura Ti dei vecchi tempi, e crea la 780Ti con un GK110 completo. Le performance di questa scheda superano mediamente di qualche punto percentuale quelle della 290X consumando leggermente meno. Ma nVidia ha un problema qui: la sua GPU è più grande di quella di AMD, e se con la Titan e la GTX780 poteva usare i GK110 non completamente funzionanti e non adatti alle schede professionali, qui deve usare un chip in perfetto stato che ha un costo molto alto e i cui margini non possono certo essere quelli del mercato professionale.
Ancora una volta il prezzo delle schede AMD scende fino a raggiungere quello della serie inferiore per cercare di aiutare le vendite che latitano.

Il mercato si tranquillizza ancora per un po’ di tempo. Sembra che dopo 2 anni dalla presentazione del processo produttivo a 28nm e con la cancellazione da parte di TMSC (la fabbrica che produce le GPU sia di AMD sia di nVidia) dei processi che avrebbero dovuto sostituirlo, non ci sia più nulla da aspettarsi. Senza un nuovo PP non sono mai uscite nuove architetture, a parte il G200 di nVidia che non aveva certo brillato per efficienza – proprio per quel motivo. E queste ultime serie mostrano di essere già arrivate molto vicine al limite di 300W concesso alle schede PCI-e. Anzi, la 7990 (scheda che monta 2 GPU Hawaii) è già ben oltre quel limite, quindi inutile pensare che vi possano essere margini per vedere soluzioni migliori che possano fare la differenza. Ci si appresta ad un noioso periodo di stasi completa fino all’arrivo del nuovo PP, i 16nm Finfet che TMSC dice saranno pronti per realizzare GPU, ma di cui non si conosce esattamente la data di presentazione.

Ma per chi pensava ad un periodo di completa noia fino all’arrivo del nuovo processo produttivo, le sorprese non sono finite.
Nel febbraio 2014 nVidia presenta quello che mancava alla serie 7xx presentata 4 mesi prima: la fascia bassa, quella con denominazione x50. Sorprende il posticipo nel rilascio della soluzione destinata alla parte di mercato più facile da coprire, anche usando GPU riciclate delle serie precedenti. L’annuncio scuote però il mercato: le nuove schede, denominate 750Ti e 750 montano il GM107, dove la M nella sigla sta per quel Maxwell che era stato annunciato 4 anni prima – destinato a quel processo produttivo da 20nm abbandonato da TMSC per problemi tecnici. GM1xx indica che è la versione 1 di Maxwell. I chip seguenti saranno basati sulla seconda versione della stessa architettura (GM2xx).

Il chip è minuscolo, del genere che nVidia normalmente sforna per prima come prototipo quando realizza una architettura per saggiare la bontà del processo produttivo. Con dimensioni di 148mm^2, 512 shader, 40 TMU e 16 ROPS è evidente che non è un tentativo di nVidia di sfoderare la GPU definitiva per quanto riguarda le prestazioni. Ma non sono le prestazioni assolute che nVidia persegue. Con prestazioni che a parità di caratteristiche sono circa il 20% maggiori di Kepler, quello che sbalordisce un po’ tutti sono i consumi. La scheda consuma appena 60W, così pochi da evitare di avere un connettore di alimentazione ausiliario. L’altra cosa che sorprende è la dimensione del bus: soli 128bit, sufficienti però per reggere il FullHD con impostazioni qualitative medie. La più vicina scheda di AMD che può fare lo stesso ha un bus grande il doppio.

Il campanello di allarme suona fortissimo in casa AMD, che già arranca in termini di consumo e dimensione del chip per stesse prestazioni contro Kepler.
nVidia presenta un chippino che mostra un aumento di prestazioni per mm^2 usati e una riduzione consistente dei consumi. Praticamente sono due pugni in pieno viso quando la guardia è bassa. Passano i mesi ma è ovvio che c’è ancora qualcosa che bolle in pentola nel centro di ricerca e sviluppo di nVidia. Il dubbio è se quello mostrato come anteprima con un chip così piccolo possa essere realizzato anche con le GPU più grandi e complesse e se abbia senso farlo, con un nuovo processo produttivo forse in arrivo.
A Settembre 2014, dopo 2 anni e 9 mesi dalla presentazione della prima GPU realizzata a 28nm, quello sfortunato Tahiti, è la volta di nVidia di presentare una nuova serie, questa volta non più riciclando le vecchie GPU. Realizzata sullo stesso processo produttivo ormai maturato a sufficienza, la seconda versione dell’architettura Maxwell si presenta in tutta la sua gloria. È il GM204, ancora una GPU che dal nome non è quella che nVidia definisce la più grande, a essere montata su una scheda x80, la 980 per l’esattezza. Da chiarire che la serie nuova è la 900 dato che la 800 è stata usata come nome di una ulteriore serie di completo rebranding (riciclo) di GPU Kepler nel mondo mobile.

È questa la seconda bomba che nVidia sgancia su AMD. Questa volta presa completamente alla sprovvista.
Il centro di ricerca e sviluppo di AMD infatti dimostrerà di non aver lavorato a quello che sarebbe dovuta essere la contromossa a questa novità. È probabile che AMD non credesse possibile creare una architettura con sufficienti vantaggi e quindi guadagni, rispetto alla vecchia per giustificare gli (enormi) investimenti necessari.
Maxwell di nVidia era in sviluppo da anni, e solo la mancanza di un nuovo processo produttivo su cui era stata pensata era l’ostacolo per realizzarla. In nVidia hanno trovato le risorse per rivederla e realizzarla sul PP da 28nm invece che rimandarla ai 16nm (o cancellarla del tutto). Questo significa che il nuovo processo produttivo non è così imminente come tutti gli utenti speravano.

Il risultato della nuova architettura lo descrivono le caratteristiche sintetiche del GM204 realizzato: dimensione di 398mm^2, 2048 shader, 128 TMU e 64 ROP, bus a 256bit. Il chip è 102mm^2 più grande del GK104, ma ben 150mm^2 più piccolo di quell’enorme GK110 che aveva debuttato sulla Titan e che faceva fatica ad avere la meglio contro Hawaii. Sorprendentemente il nuovo nato in casa nVidia eguaglia e talvolta supera le prestazioni del GK110 consumando il 33% in meno. nVidia toglie dal mercato quasi immediatamente quelle schede 780 e 780Ti che tanto gli costavano per rimpiazzarle con le nuove 970 e 980 basate sul GM204 con nuova architettura più efficiente. Il successo è immediato. La 970, che vanta un ottimo rapporto tra prestazioni e prezzo, inferiore a quello della R9-290 di AMD contro cui rivaleggia, diventa la scheda di fascia alta più venduta del periodo. I prezzi delle schede AMD scendono ancora di più e questa volta per AMD la situazione diventa davvero difficile, dato che Hawaii è un chip che costa e consuma di più e in prestazioni offre lo stesso o poco meno rispetto al chip di fascia alta di nVidia, non più quello “monster”.

Continua qui.

10 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    Sisko212
     scrive: 

    Tsè… per cui la mia R9 280x è una stufa, pure lenta, comparata con le nVidia GM…
    A dire il vero io avevo optato per l’Amd per aver meno problemi di compatibilità con linux… nVidia è abbastanza famosa per dare poco supporto alla comunità linux… è ancora famosa la reazione, di cui si trovano video su youtube, di Torvald alla domanda di una partecipante ad un convegno, la quale gli aveva chiesto opinioni in merito.

  • # 2
    Nessuno
     scrive: 

    Ciao,
    purtroppo risulta essere così: la tua 280X monta Tahiti, un chip che ha fatto concorrenza a uno molto più piccolo e parsimonioso di energia per tutto il tempo in cui è stato sul mercato.
    E’ stato infatti sostituito da Tonga, un chip che purtroppo ha avuto ancora meno fortuna come si vedrà nelle prossime puntate.
    Per la questione “lento” o “veloce” è una questione che durante la descrizione non è mai stato preso in conto come valore assoluto. Le comparazioni sono state fatte per fasce d riferimento. La 7970 GHz Edition (poi 280X) si è scontrata con il GK104 con prestazioni simili. Con l’uscita di Maxwell e la sostituzione di Tahiti con Tonga la comparazione perde senso, perché le fasce sono cambiate.

    Per quanto riguarda Linux, mi sa che hai sbagliato a capire: l’insulto a nvidia è dovuto al fatto che non supporta al meglio la comunità open source, ma i suoi driver closed funzionano meglio di quelli AMD.
    Quindi se hai preso AMD per protesta contro le politiche di nvidia hai fatto bene, se invece cercavi migliore supporto reale alle performance e alla compatibilità sotto Linux, mi sa che hai fatto una scelta sbagliata.

  • # 3
    Sisko212
     scrive: 

    Mha… in realtà non è che abbia necessità mostruose, avevo bisogno di una scheda con uscite multiple, perchè linux lo uso per sviluppare, e volevo un desktop esteso su 3 display… uno per il codice, ed un paio per gli output.
    Avendo trovato la 280x usata per poco più di 100 euro, e non volendo usare driver binari per non avere problemi con debian o altre distro, mi pareva una scelta migliore.

  • # 4
    Asd
     scrive: 

    Gran bel articolo, aspetto con ansia la terza parte.
    Questa roba ci manca ed è una boccata d’aria fresca tra il pattume che infesta hardware upgrade negli ultimi anni.

  • # 5
    TheFoggy
     scrive: 

    Concordo col commento di Cesare di Mauro nella prima parte dell’articolo: ho scoperto l’esistenza di un nuovo articolo per puro caso, essendo AD relegato ad un angolino in basso di HWU (che ammetto di seguire meno rispetto al passato, perchè ritengo la qualità sia decisamente calata..).
    Ringrazio nessuno per l’articolo e anche Alessio e Yossarian (non smetterò mai di ritenere gli articoli sulle GPU di Yossarian, STUPENDI).

    Attendo con ansia la terza parte! :)

  • # 6
    Alessio Di Domizio (Autore del post)
     scrive: 

    Sei servito :-)

  • # 7
    TheFoggy
     scrive: 

    Cavolo, che rapidità!! :D

  • # 8
    Squalho
     scrive: 

    Grazie del bellissimo articolo, una miniera d’oro di informazioni. Volevo chiedere un chiarimento. In questa seconda parte dell’articolo compare “a sorpresa” l’architettura Maxwell che, a quanto ho capito, era destinata per il processo a 20nm (mai avvenuto), in realta` poi stata usata per quello a 28nm, cioe` lo stesso usato da Kepler.

    Se ho capito bene, questa strategia sembra simile al classico Tick-Tock di Intel, dove cambiamento di architettura e di ciclo produttivo sono alternati e non avvengono assieme. Ora nVidia e` pronta con le Pascal a 16 nm. Vuol dire che ritornano a cambiare processo produttivo e architettura allo stesso tempo? E, visti i costi del cambio di processo, potrebbe voler dire che il successore di Pascal potrebbe essere sempre sui 16nm?

  • # 9
    Nessuno
     scrive: 

    Non credo che nvidia abbia adottato la strategia Tick-Tock di Intel.
    Quest’ultima è padrona dei processi produttivi che usa e quindi può pianificare ricerca e sviluppo su tutta la linea come meglio crede.
    E infatti viste le grandi difficoltà con i 14nme il tick-tock non rispettato, ha deciso di dilatare ancora di più i tempi tra un processo produttivo e di creare un terzo step.

    nvidia (come AMD) invece devono progettare le loro architetture anni prima che il processo produttivo sia realmente disponibile e devono sperare che al momento in cui loro hanno finito la progettazione dall’altra parte vi sia il processo che funziona. Se questo non è vero (come successo con Maxwell che nvidia progettava da diversi anni in attesa dei 20nm che TMSC aveva messo nel proprio piano di sviluppo) le scelte che si presentano sono 2: getti tutto e passi alla architettura successiva sul successivo PP quando pronto, oppure adatti quello che hai fatto a quello che è disponibile (con ulteriore costo, questo di sicuro).
    nvidia ha scelto la seconda strada, probabilmente sicura dei risultati nonostante il PP non fosse quello sperato.

    Nel mondo delle GPU, la corrispondenza tra architettura nuova e processo produttivo nuovo è un po’ casuale, essendo i tempi di sviluppo fino a qualche tempo fa molto ma molto ridotti.
    AMD ha quasi rispettato la cadenza sviluppando una architettura nuova su PP nuovo. nvidia invece ha avuto vicende diverse, per cui il leggero ritardo avuto con lo sviluppo del G80 sugli 80nm ha poi fatto coesistere 2 architetture a 65nm (G92 e G200) per poi saltare quasi completamente i 55nm (se non come shrink sia di G92 che di G200 dopo parecchio tempo) mentre Fermi era in sviluppo sui 40nm.
    Con i 40nm, durato più dei soliti 12-18 mesi, abbiamo avuto per entrambe le aziende una nuova architettura + una sua revisione, Fermi GF100, quello venuto male e Fermi GF110, quello che è venuto meglio per nvidia e Cayman + Cypress per AMD. Sui 28nm abbiamo avuto 2 architetture (e mezzo se contiamo il GM107, aka Maxwell v2) per nvidia e una architettura + 2 revisioni per AMD (che sinceramente non so cosa avesse deciso per i 20nm poi cancellati).

    Con il prossimo PP, non sappiamo se e quando i 10nm saranno pronti e se saranno un processo in grado di adattarsi alle caratteristiche di una GPU (come per esempio non lo sono stati i 20nm di TMSC, che pure sono esistiti adatti per altri tipi di integrati).
    E’ possibile che Volta, successore di Pascal, debba essere rivisto per i 16nm. Oppure, se AMD avrà maggior fortuna con il processo a 14nm di GF, magari sarà rivisto per quello. Oppure sarà semplicemente rinviato fino a a quando i 10nm saranno disponibili.

    Di sicuro credo che qualche altra revisione di Pascal e di Polaris dobbiamo attendercela nei 2 anni a venire, dato che nonostante tutto, quello che è rimasto pressoché costante nel mondo delle GPU è un rilascio di una nuova serie ogni 12 max 18 mesi.

  • # 10
    Squalho
     scrive: 

    Chiarissimo, grazie!

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.