di  -  lunedì 10 Aprile 2017

Ben ritrovati. Ecco a voi la terza ed ultima parte dell’analisi di Nessuno sui nuovi processi produttivi GPU. Qui la prima, qui la seconda. Come sempre grazie della pazienza e soprattutto grazie a Nessuno per il suo contributo.

 

#2.4 Polaris 10

Alla fine del mese di Giugno arriva il giorno dell’esame di maturità anche per AMD. Il 29 è il giorno della pubblicazione dei test condotti dai vari siti specializzati alle schede RX480 e RX470 basate su Polaris 10. È il momento di dare un volto alle slide, agli annunci, alle mezze verità e alle tante speranze che sono state alimentate con saggezza per 6 lunghi mesi, da quella prima slide in cui compariva un Polaris 11 super efficiente e competitivo. E’ arrivato il momento in cui i test realizzati con le più disparate configurazioni, giochi e applicativi riveleranno anche quei numeri che AMD non ha mai dichiarato, lasciando intendere, ma non comprendere. È il momento della verità raccontata dalla realtà dei fatti, non quella delle test selezionati condotti in casa e delle belle slide colorate.

Cominciamo con un confronto tra le caratteristiche tecniche delle schede (con chip completo) presentate dalle due rivali:

Comparativa[2.4.1 – Tablella comparativa]

2.4.2[2.4.2 – La 1080 è quella in fondo al grafico, se non l’avete trovata]

I confronto è impietoso.
L’unico punto in cui AMD non è in svantaggio rispetto al GP104 è la dimensione del chip che suggerisce che le due soluzioni sono destinate a fasce diverse del mercato, sebbene secondo tutto quello che aveva fatto semi intuire AMD non sarebbe dovuto essere proprio così, con il suggerimento che Polaris 10 avrebbe potuto in qualche modo dar fastidio al GP104, sopratutto grazie alla sua migliorata efficienza energetica rispetto a quel GCN che da quel punto di vista molto aveva da recuperare.

Una volta digeriti i numeri, spente molte illusioni, ritornati con i piedi per terra e quindi ridimensionati quelli che dovevano essere i risultati di Polaris, molte cose rimangono in sospeso, non ultima il comprendere la strategia annunciata da AMD per combattere la rivale. Ma più nell’immediato tornano in mente le slide mostrate solo poche settimane prima: che voleva dire con quel CrossFire che andava più della 1080 con il 50% di carico? Qui si vede che Polaris se funziona tutto completamente forse arriva al 60% delle prestazioni del GP104.

E la slide in cui compariva una efficienza del 2.5x rispetto a GCN? Vediamo che Polaris è migliore di GCN ma molto lontano dal quel 2.5x annunciato. Neanche 2x nonostante il nuovo PP. E non arriva nemmeno a rispettare la slide di AMD che indicava un consumo <150W, dato che in realtà ne consuma più di 160 (e la versione reference sfora le specifiche PCIe assorbendo più dei 66W dallo slot della scheda madre). Ne risulta che la 480 ha efficienza energetica persino inferiore alla vecchia 980 a 28nm, che ha lo stesso consumo ma è leggermente più veloce.

Le prestazioni sono migliorate rispetto a GCN esattamente in proporzione all’aumento di frequenza e tutte le nuove caratteristiche di Polaris descritte nelle slide non sembrano aiutino a renderla nemmeno il 5% più veloce a parità di clock. Se Pascal sembra uno shrink migliorato di Maxwell, Polaris sembra solo uno shrink di GCN senza alcun vantaggio architetturale.
In assoluto le prestazioni della 480 sono inferiori a quelle della 980 e della 390X (e addirittura della ormai vetusta 290X).

Non si capisce quindi come l’azienda possa tenere testa a NVIDIA con questa soluzione che AMD stessa dice sarà il meglio che ha da offrire per i successivi mesi (almeno 6, in verità sappiamo che saranno almeno 10) .

Tutto questo si riflette ovviamente nel prezzo della scheda appena presentata. Piazzata a circa metà del prezzo di lancio della 980, obbliga NVIDIA, dopo oltre 2 anni, ad abbassare il prezzo delle sue soluzioni Maxwell (970/980) a livello di questa. Però le soluzioni NVIDIA sono basate su una GPU di quasi 400mmq, che seppur realizzate con un PP a 28nm maturo hanno un certo costo, quindi al prezzo della nuova scheda equivalente di AMD (prezzo che comunque non raggiungeranno mai) diventano molto anti economiche per l’azienda.

Il problema per NVIDIA è comunque momentaneo, giusto il tempo di svuotare i magazzini di 980/979 a prezzo (neanche tanto) ridotto, dato che il GP106 è pronto e manca solo inscatolarlo e infatti il mese successivo rilascia la GTX1060 che va a scontrarsi direttamente con la nuova 480.

Confrontiamo quindi i due chip che competono nella stessa fascia mainstream del mercato:

Comparativa1060 [2.4.3 – Tabella comparativa]

 

2.4.4[2.4.4 – Grafico riassuntivo di TechPowerUp delle prestazioni della 1060 a 1080p]

2.4.5[2.4.5 – Grafico riassuntivo di TechPowerUp dei consumi della 1060]

Come si comporta questa ultima scheda di NVIDIA?
Per prestazioni è praticamente una copia solo leggermente migliore del GM204 montato sulla 980, con un piccolo miglioramento dei consumi (120W vs 165W), ma sopratutto è grande il 50% in meno essendo solo di 200mmq vs i 398mmq del GM204. Con un numero di risorse di calcolo inferiore a quelle del GM204, è evidente che NVIDIA ha puntato tutto sull’aumento di frequenze con conseguente diminuzione dell’efficienza, che infatti non è il 2x promesso, ma con vantaggio dei costi per un chip più piccolo, compromesso possibile per quanto detto prima sulle capacità del PP di migliorare le prestazioni tramite frequenza invece che solo per aumento dei transistor.

Il confronto rimane impietoso se consideriamo che la 480 non riesce a superare le prestazioni della 1060 se non di poco in quei giochi che sono stati ottimizzati per l’architettura AMD.
Il grafico di TechPowerUp descrive malinconicamente la situazione. Che non solo non è migliorata da GCN vs Maxwell, ma è persino peggiorata se possibile.

AMD ancora una volta insegue nelle due caratteristiche principali che definiscono la bontà (e quindi il margine ottenibile) di una soluzione: prestazioni/area e prestazioni/watt.
Come abbiamo già detto prima, il primo rapporto definisce il margine di guadagno necessario per fare i soldi che mancano alle casse di AMD, il secondo la possibilità di far adottare la soluzione in sistemi mobile come i notebook, che ormai assorbono il 50% delle GPU discrete.

Come con GCN, il confronto con le soluzioni della concorrenza indicano che AMD avrà un basso margine e che le sue soluzioni non faranno quel botto sperato nel mercato mobile.
I prezzi delle schede NVIDIA rimangono così altissimi e persino la GTX1060 da 6GB viene venduta con un prezzo premium rispetto alla RX480. E’ evidente che AMD ha fallito in quella rivoluzione che voleva far abbassare i prezzi delle schede video riportandoli a quelli “popolari” di una volta. Senza un prodotto alternativo convincente, con il mercato che continua a preferire una spesa maggiore per un prodotto migliore, i prezzi della nuova generazione non solo non sono diminuiti, ma addirittura si sono alzati, sintomo che non c’è una ritornata competitività tra le due aziende.

Se a questo punto vedete la situazione di AMD non proprio rosea per aver sul mercato una GPU contro le 2 di NVIDIA (tralasciando il GP100 destinato ad altro mercato completamente) che coprono una fascia di mercato ben più ampia, con una seconda GPU più piccola in arrivo e quindi destinata a fascia bassa dal margine ancora più basso, non avete visto ancora tutto. Infatti abbiamo l’affondo di NVIDIA che presenta a sorpresa solo pochi giorni dopo la GTX1060 il GP102, GPU la cui realizzazione era tra i rumor ma che molti non credevano sarebbe mai stata realizzata per via della sua presumibile inutilità (NVIDIA già conduce il mercato della fascia alta senza davvero alcun rivale e già impone i prezzi che meglio crede). Mai però sottovalutare l’ego del CEO NVIDIA!

Questa GPU è praticamente la versione per il mercato consumer del GP100, epurato delle unità per il calcolo FP64, di quelle per il calcolo FP16, della interfaccia proprietaria nvlink e del controller di memoria HBM sostituito da quello per memorie GDDR5(X) con bus da 384bit. Il risultato è una GPU di “soli” 471mmq (poco più grande di Hawaii tanto per fare un paragone con una GPU che è ancora in vendita) che ha capacità di calcolo (sulla carta) il 25% superiori a quelle del GP104 (11TFLOPS vs 8.8TFLOPS) e un consumo di 250W quando abbinato a 12GB di memoria GDDR5X a 10GHz effettivi. Destinazione, come ovvio, la nuova Titan X (stesso nome della vecchia ma senza il prefisso GeForce). Per NVIDIA è un altro modo di diminuire i costi (471mmq contro i 601mmq del “vecchio” GM200) e di alzare i margini in una fascia in cui la concorrenza non c’è.

La concorrenza in questo mercato è infatti praticamente nulla e NVIDIA ne approfitta in attesa di quella che dovrebbe essere la nuova GPU performante di AMD, Vega, che in teoria con l’uso della HBM2 (e quindi dei costi associati) dovrebbe inserirsi in questa fascia.

Infine, la mossa di AMD di rilasciare Polaris 11 a conclusione delle proprie soluzioni create prima di Vega è annientata da NVIDIA che cala anche il GP107 (che presenta una curiosità che vedremo in seguito).

Lo scenario è abbastanza desolante e i prezzi sul mercato riflettono la cosa.
NVIDIA ha un chip di 332mmq che vende ad un prezzo superiore rispetto al vecchio GM200 (da 601mmq). Il suo chip da 200mmq, il GP106, va quanto, se non meglio, di Polaris 10 da 232mmq. Il suo chip da 132mmq, il GP107, batte senza se e senza ma Polaris 11 consumando sempre meno (e questo è un problema per il mondo mobile a cui Polaris 11 era destinato).

La fortuna di AMD a questo punto si chiama “avidità”, e NVIDIA ne ha tantissima. Il risultato è un mercato completamente sotto il controllo di quest’ultima che volendo fare più margini possibile evita di schiacciare con i prezzi le soluzioni più costose e meno performanti della concorrenza. È evidente infatti che NVIDIA potrebbe vendere il GP106 ad un prezzo inferiore a quello praticato per Polaris 10 da AMD, portando quest’ultima ad annullare completamente il già esiguo margine. Ma, come dimostrato dai risultati dell’ultima trimestrale (conclusa a fine Settembre per AMD e a fine Ottobre per NVIDIA), NVIDIA persegue l’obbiettivo di realizzare il massimo profitto senza voler “uccidere” la concorrenza (senza la quale sorgerebbero problemi di anti trust rimanendo l’unica compagnia a operare nel mondo delle GPU discrete).

Questo è probabilmente uno scenario che non cambierà più fino all’arrivo di Vega nel Q1 2017 (aggiornamento… sembra che Vega sia posticipato al Q2).

La speranza è che Vega non faccia la stessa fine di Fiji che nonostante tutte le caratteristiche che mostrava sulla carta non è comunque riuscito a battere il GM200 ed è stato schiacciato nel prezzo da quest’ultimo. Se così sarà, sarà un bel problema per AMD visto che fino alla prossima generazione, prevista nel 2018 con Navi non sembra avere altri assi nella manica.

Fin qui ho elencato i fatti in maniera più o meno cronologica con poche (spero) interpretazioni. Ora vediamo quali sono le nuove armi a disposizione dei contendenti con cui misurarsi per gli anni a venire, ovvero quali sono le condizioni del mercato che sono cambiate.

#3. The deafening sound of silence

All’annuncio di AMD riguardante Polaris 11 e i suoi presunti vantaggi rispetto a Maxwell NVIDIA non ha risposto in alcun modo. Sembrava non avere nulla da dichiarare, come qualcuno preso alla sprovvista da un annuncio shock imprevisto, alla stregua di un pugile preso con la guardia abbassata.
Ma che stava facendo in quelle settimane?

3.1[3.1 – Immagine del GM200]

Guardate la data di produzione di questo GM200, segnata con il codice -1543 … anno 2015, 43 settimana. La 43^ settimana corrisponde alla terza settimana di Ottobre. Quindi mentre AMD sfornava i primi esemplari della minuscola Polaris 11 con la quale poi gongolarsi in slide poco realistiche (come i fatti hanno dimostrato), NVIDIA produceva in silenzio la sua mattonella da 610mmq destinata ad un mercato con margini impensabili per i prodotti AMD. Tanto che il suo primo annuncio riguardante Pascal è stato proprio dire che era a disposizione il GP100, che è già il massimo producibile (per dimensioni) con il nuovo PP, ai partner selezionati, non un mezzo confronto tra la sua GPU mignon appena sfornata (e lontana 8 mesi dalla messa in vendita) e una castrata della generazione precedente.

Forse la differenza di preparazione ad affrontare il mercato con i propri prodotti in toto si può misurare da questi due tipi di approcci. Negli ultimi anni, dopo la catastrofe Fermi, NVIDIA non ha più fatto alcun annuncio prematuro dei suoi prodotti, limitandosi ad annunci pubblici qualche settimana prima della reale messa in vendita dei prodotti. Talvolta sforna soluzioni senza dare alcun preavviso (come appunto per il GP100 o come con la Titan X).

Il silenzio durante la prima apparizione di Polaris 11 e fino alla messa in vendita del GP104 evidenzia la differente disponibilità di mezzi e soluzioni tra le due aziende: per NVIDIA sembra che parlino i fatti e le prestazioni reali delle proprie schede rispetto alle dichiarazioni e i numeri delle innumerevoli slide di AMD. Il tutto credo sia dovuto al fatto che la concorrente di NVIDIA da qualche tempo è NVIDIA stessa e presentazioni troppo anticipate causerebbero danno ai propri prodotti in vendita e venduti senza particolare necessità di creare aspettative.

È una cosa da tenere in considerazione, perché potremo valutare quando il clima in casa NVIDIA cambierà e cominceranno a modificare la propria strategia.
Forse allora potremo realmente constatare che AMD è tornata a dare fastidio alla casa di SantaClara che per ora (e da diversi anni) domina il mercato senza scomporsi.

9 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    Xeus32
     scrive: 

    Diciamo che AMD è effettivamente più brava negli annunci che nel presentarsi con soluzioni concorrenziali.
    Rimango tuttavia abbastanza convinto che queste Polaris non siano un vero nuovo prodotto ma piuttosto una “ottimizzazione” del precedente prodotto/prodotto.
    Ricordo che GCN è alla base di Xbox e PS4 e che probabilmente ha contratto ha anche un dieshink per tale architettura. Non vorrei mai che sulle spalle di Sony e Microsoft abbia spalmato i costi di sviluppo ottenendo i nuovi chip per PS4 , PS4 Pro ed eventuale Xbox One (14nm).
    Ovviamente se intraprendi tale strada devi mantenere la compatibilità con cambiamenti minori al progetto. Una volta ottimizzato il prodotto lo ha “rimarchiato” e venduto. Tanto la sua base di acquisto cioè PS e Xbox la ha già.
    Dalle informazioni su VEGA, risulta una nuova architettura con un diverso OP-CODE cosa inaccettabile se vuoi mantenere la compatibilità.
    Alla fine NVIDIA ha tutte le carte in regola per il mercato server e HPC ma al contempo AMD si è tenuto stretto il mercato Console che non vale certamente meno in termini assoluti.
    Sono molto curioso di vedere che differenze ci saranno tra XBOX Scorpio e il nuovo VEGA perché se non ci fossero enormi differenze sarebbe veramente un nuovo colpo nello spalmare i costi di sviluppi su più player. Si NVIDIA fa il prodotto “migliore” ma deve anche venderlo, AMD ha la sua clientela fissa (Sony e MS) e prima fa contenta quella che garantisce margini su periodi lunghi (6 anni) e poi pensa al mercato consumer e HPC.

  • # 2
    Nessuno
     scrive: 

    Trovo l’analisi che hai fatto un po’ “piccola”. Prima di tutto bisogna valutare quali che sono i margini delle vendite dei “clienti fissi” come li hai definiti. Dall’analisi delle trimestrali non sembra che siano così alti da giustificare un investimento in R&D solo per loro.
    Il valore del mercato ha poco significato se i tuoi prodotti non ti fanno fare soldi. Mercati come hpc e mobile possono garantire introiti maggiori, come ben si vede dai conti di nvidia.

    Ciò che appare a bocce ferme dopo l’introduzione di Maxwell da parte di nvidia è che AMD ha capito che la sua architettura GCN non aveva alcuna speranza. Non poteva competere in nessun modo, né per prestazioni/area né per prestazioni/consumi. Che insieme vuol dire no competizione prestazioni/costi e fuori dal mercato mobile, come infatti vediamo. È quindi passata a sviluppare Vega e ha toppato il buco dei 14nm con un semplice die shrink più quello che avrebbe dovuto essere GCN 1.2 ma che non ci stava con i 28nm.
    Non che nvidia abbia fatto meglio, con Pascal solo marginalmente meglio di Maxwell e sviluppato più per il contenimento dei costi piuttosto che aumento delle performance.
    Ma il vantaggio era suo e tale è rimasto è il ritardo è tutto utile sprecato in casa AMD.
    Vega e Volta dovrebbero essere entrambe nuove architetture.
    Cambia quelle che è la concorrenza per entrambe: Vega dovrà vedersela con il basso costo di Pascal. È inutile fare una GPU che per un verso o l’altro costa il doppio della concorrenza e va uguale o poco di più. Non si avrebbe nessun vantaggio esattamente come detto prima. Vega deve andare di più e costare in maniera simile ai prodotti nvidia (ho detto costare, all’azienda non a noi).
    Volta a sua volta (scusa il gioco di parole) dovrà vedersela con Vega. Solo che probabilmente sarà più facile perché sarà a 12nm TMSC, che vuol dire densità migliore rispetto a AMD diversamente da ora, nonostante a parità di dimensioni nvidia sforni lo stesso GPU più veloci e ulteriori minori consumi. Tutti termini che già mettono nvidia avanti e non poco.
    La distanza temporale tra le due architetture non sarà così grande, quindi anche un eventuale exploit di Vega in termini di tutti gli indici di prestazioni, costi, consumi non sono destinati a durare a lungo. Vega è una generazione indietro temporalmente. Deve quindi essere due generazioni più avanti di Polaris (quindi GCN) per competere. Perché la concorrenza guarda e avanza lentamente spremendo il limone più che può, ma di certo non sta dormendo e non sembra che avrà problemi nell’immediato a colmare qualsiasi gap si possa formare avendo il vantaggio completo in termini di area, frequenze e consumi.

  • # 3
    Francesco Baldacchini
     scrive: 

    si, analisi ben fatta, ma a conti fatti ora per chi si vuole assemblare un buon fisso da gioco per giocare in Full-HD non consiglierei altra scheda che la 480, è il best buy senza dubbio alla cifra a cui si trova ora sul mercato e in più ti da la possibilità di usare il freesync con monitor alla portata di tutti, al contrario dei folli che montano il g-sync. Quindi ok, non saranno le schede più performanti o più efficienti ma sono sempre quelle il cui rapporto costo al consumatore/prestazioni è il migliore, e a me in quanto cliente finale quello importa

  • # 4
    Nesuno
     scrive: 

    Quella condotta è una analisi non banale che si limita a fare il confronto tra i prezzi e le performance.
    Per quella non sarebbero servite le 3 paginate. ma altrettanto, non avresti in mano nulla su cui valutare passato, presente e futuro.
    Credo d rivolgermi ad un pubblico di appassionati che vogliono sapere il perché e il percome qualcosa sia quello che è.
    Io non ho certo la verità in tasca, ma cerco di interpretare i fatti (che sono fatti, non me li invento) in maniera da dare un senso logico a quello che spesso non si comprende immediatamente (ma che spesso suscita reazioni sui forum che riflettono quasi sempre le incapacità di comprensione di chi le esterna).
    Il mio vorrebbe essere un modo per alzare un minimo la qualità delle discussioni che spesso vedo sui forum dove ci sono utenti che non hanno la minima idea di quel che scrivono ma lo scrivono perché qualcuno che sa ancora meno di loro gli ha detto che funziona così.

    Per i semplici consigli sugli acquisti di chi vuole spendere il minimo possibile ci sono mille altri siti da consultare.
    Poi non si chieda perché i prodotti escono in ritardo o non soddisfano le promesse iniziali.. tanto gli interessa solo spendere di meno.

  • # 5
    Cesare Di Mauro
     scrive: 

    Concordo: questa è una serie di articoli tecnici, e come tale va gustata (considerata la penuria di materiale di tale portata).

    Per le discussioni da bar dello sport c’è l’imbarazzo della scelta, in particolare nei forum.

    Purtroppo anche questa serie è finita, ma spero che possano arrivarne altre. Intanto ringrazio Nessuno per aver tolto un po’ di polvere da AD.

  • # 6
    Spark
     scrive: 

    Ma quante fanboyate… :D

    “Il confronto rimane impietoso se consideriamo che la 480 non riesce a superare le prestazioni della 1060 se non di poco in quei giochi che sono stati ottimizzati per l’architettura AMD.”

    Uh? Andava circa 3-4 fps meno in DX11, e 8-10 fps più in DX12. Costava mediamente 50 euro in meno, e supportava freesync che in sè era motivo più che sufficiente per consigliare l’acquisto a chiunque avesse un budget da rispettare.

    Il signor Nessuno sarà anche un bravo ingegnere, ma non lo metterei agli acquisti della mia azienda neanche se lavorasse gratis! :D

  • # 7
    Nessuno
     scrive: 

    Ma quante fanboyate… :D

    Eh già, il fanboy è proprio colui che vede solo quello che vuole vedere.

    La mia analisi non era di tipo commerciale. Per quello puoi fare affidamento a tuo cuggino che sicuramente ne sa più di me.
    La mia analisi era di tipo tecnico, quella che a 1 Aprile 2017 ancora porta AMD a non avere margine sui suoi prodotti sufficiente per coprirne i costi, mentre nvidia affoga in un mare di soldi proprio perché la 480 non arriva alle prestazioni della 1060 neanche dopo l’overclock estremo della serie 500 che porta la scheda a consumare 240W.
    Certo che tre lunghe pagine di dati e considerazioni sono difficile da comprendere, ma almeno il buon senso di non postare queste vostre reali fanboyate che cercano l’ultima giustificazione possibile sul “ma costa meno” potete risparmiarvele.

    Cercate di capire: il solo “costa meno” è un vantaggio solo ed esclusivamente per voi. Per il resto del mercato è un malus che è visibile nell’andamento dello sviluppo e dei prezzi che abbiamo avuto in questi anni.

  • # 8
    michele
     scrive: 

    io ho sia 480 che 1060 e posso dire che parlare solo del pezzo di hw è tecnicamente giusto ma non rende l’idea di quanto nvidia sia ancora più avanti di AMD nei driver, ottimizzazione nei giochi e colpi di coda dei bug qua e là.

    Forse una menzione ai driver era da fare perchè i bench servono ma poi uno con il pc ci deve fare girare software molto diverso. Nel campo game le schede alla fine rendono la stessa esperienza fps + o – . nvidia ha prestazioni in CUDA superiori all’opencl di amd ed ha un encoder molto convincente come nvenc. Certo qui si parla di fascia media e come tale anche di utente medio che non farà mai una compressione o un rendering con la cpu quando ha una gpu che lo fà 4 volte più veloce con una perdità di qualità impercettibile.

    mi piacciono molto queste rubriche anche se un tintinnino cattivo con AMD sei stato è :P alla fine ce la stanno mettendo tutta per rimettersi in gioco e un poco vanno premiati ;D io sono sicuro che senza la 480 a 8 giga la 1060 sarebbe uscita con 4 giga di vram al 100% e che sarebbe stata una mezza delusione come la 960…

  • # 9
    Nesuno
     scrive: 

    Non mi pare di essere stato né buono né cattivo, dato che ho riportato i fatti che ho raccolto dalla rete.
    L’impegno è una cosa, i risultati sono un’altra. Io ho solo valutato quello che sono questi ultimi, perché la loro descrizione dettagliata è quello che ci dice a che punto stiamo e saremo per i prossimi anni.

    Vorrei sfatare nuovamente, se possibile, questa cosa che si ritrova ciclicamente detta nei forum, cioè che NVIDIA o AMD possano fare le schede con relative GPU in tempo zero guardando quello che ha rilasciato la concorrenza.
    Purtroppo non funziona così. Puoi decidere il prezzo a tempo zero, ma sicuramente non la configurazione della scheda. Già ci mettono mesi a tarare un bios nel caso si voglia modificare le frequenze base di funzionamento, non potete credere che si possa decidere se la scheda viene con 4 o 6 GB a seconda del fatto che AMD abbia o meno rilasciato la scheda a questo o quel prezzo 3 settimane prima.
    Per chiarire, il bus del GP106 è di 192bit e quindi ha come valori “corretti” per la RAM multipli di 3GB. Questo a meno di magheggi come fatto in passato con la 660Ti o la 970.

    Quello che puoi dire è che il GP106 è così castrato (per bus e numero di shader) perché NVIDIA ha ritenuto che con quelle specifiche e quelle frequenze (che ha calcolato poter raggiungere con quei consumi) avrebbe potuto presentare una scheda nella fascia mainstream che competesse con la soluzione analoga di AMD (che a sua volta ha deciso di creare Polaris 10 con quelle caratteristiche per raggiungere un certo livello computazionale ritenuto corretto per la fascia di appartenenza).
    Viceversa, pur apparendo cattivo con AMD, la sua soluzione che sarebbe dovuta arrivare con consumi inferiori a 150W, efficienza energetica maggiore, costo ridotto e soprattutto in tempi brevi, ha fallito in tutto, dato che sebbene si creda che sia NVIDIA ad essere quella che è corsa a rilasciare Pascal, i fatti indicano che è Polaris ad essere stato rilasciato in fretta e furia con tutto un susseguirsi di errori di manovra che hanno portato AMD a dover rilasciare schede con 8GB perfettamente funzionanti castrate a 4GB per mantenere la promessa di un Polaris a 200 dollari (su un PCB scandaloso come quello della 480 reference).
    Cosa che ovviamente non ha alcun senso economico, ma solo di facciata. Che ancora una volta dimostra che variare i piani in tempi brevi non è semplice e che AMD si è trovata impreparata a svolgere i compiti a casa, promettendo quello che non poteva mantenere e trovandosi nuovamente in posizione di svantaggio (non prestazionale, chi ancora non ha capito la cosa dovrebbe leggersi anche le vecchie puntate).

    Il mettere in risalto queste mancanze non è “essere cattivo”, è far notare “ai più distratti” che le cose che spesso leggono (e raccontano) non sono proprio corrette, dato che i fatti portano a tutt’altra interpretazione.

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.