di  -  lunedì 17 luglio 2017

Cari lettori, vi presento la seconda parte (qui la prima) dell’articolo sui processi produttivi del nostro autore Nessuno. Buona lettura e grazie a Nessuno per il suo contributo.

 

4.0 14 vs 16nm, i protagonisti

Il riassunto di tutto quanto detto precedentemente può essere questo: l’avanzamento di tutti i parametri di miglioramento per il funzionamento di un chip si attua riducendo la dimensione del transistor (descrizione semplificata che comunque è sufficiente per la trattazione del nostro argomento), che implica l’uso di macchinari più sofisticati oltre che a una complicata ricerca di abbattimento di tutte le problematiche secondarie che nascono man mano che le dimensioni dei transistor scendono (alcune saranno descritte in seguito). Ecco perché l’evoluzione dei processi produttivi è così lenta, costosa ma anche dannatamente utile per progredire.

Da sempre un PP è identificato da un numero che indica una dimensione, un tempo lontano espressa in micrometri (milionesimi di metro, o millesimi di millimetro), poi più recentemente in nanometri (miliardesimi di metro, o milionesimi di millimetro). Storicamente questo numero descriveva la dimensione media (perché non tutti i transistor riescono perfettamente uguali) del gate del transistor realizzabile con quel PP. Oggi, però, non è più così.

Da diverso tempo infatti la “moda” è quella di usare i nanometri come indice di prestazioni del PP piuttosto che della sua reale capacità di realizzare i componenti fondamentali dei circuiti ad una determinata dimensione. Così abbiamo Samsung che ha chiamato il suo nuovo PP 14nm mentre TSMC lo ha definito 16nm. Quali caratteristiche siano state usate per definire “la nanometria” (o indice prestazionale) lo vedremo presto.
Il confronto tra i due PP può essere fatto solo paragonando i risultati ottenuti dai prodotti realizzati con essi.

Quando si hanno architetture diverse su stesso PP (vedesi per esempio le architetture AMD e NVIDIA sui processi produttivi precedenti con tutte le differenze che mostrano) abbiamo un confronto dei risultati che somma automaticamente tutte le differenze tra le architetture. Se il PP è il medesimo, non c’è alcun dubbio che le prestazioni migliori o peggiori di un prodotto rispetto ad un altro sia dovuto esclusivamente per come questo è stato disegnato e realizzato e quali compromessi si sono scelti (es. maggiori prestazioni a scapito di consumi o silicio usato o viceversa). Il confronto è quindi più semplice, anche tenendo conto del fatto che che i costi per mmq sono sostanzialmente uguali. Con architetture realizzate su PP diversi come nel caso delle ultime soluzioni di AMD e NVIDIA, la comparazione dei meriti, problemi o scelte strategiche sui compromessi ritenuti ragionevoli si fa più difficile perché le variabili da considerare sono maggiori; tale comparazione rimane comunque ricca di spunti di riflessione.

Abbiamo visto che la prima a realizzare un prodotto finito arrivato sugli scaffali con un processo produttivo post 28nm è stata TSMC con i suoi 16nm+ che sono una evoluzione ad alte prestazioni dei 16nm usati per la realizzazione di SoC ARM, tra cui gli A9 di Apple, a loro volta evoluzione con transistor FinFet (o 3D) dei 20nm planari sempre per SoC e mai evoluti a processo per circuiti ad alto consumo energetico, ovvero lo step che era necessario affinché Maxwell e GCN 1.2 fossero realizzati a nanometria inferiore rispetto a quella iniziale. A 20nm e alle frequenze richieste dalle GPU, pare che le dispersioni fossero tali da non permettere di realizzare circuiti così complessi con le giuste prestazioni.

Sarebbero dovuti girare a frequenze inferiori per non fondere, quindi con prestazioni che non ne giustificavano la spesa. Per quanto visto prima praticamente non si aveva un risultato conveniente a fronte dei soldi necessari a costruire nuovi chip, quindi il PP a 20nm è un processo produttivo che è stato scartato da entrambe AMD e NVIDIA. Come abbiamo sottolineato prima, le ragioni economiche hanno il loro peso per decidere se, come e quando realizzare una determinata soluzione. Questo è solo un chiaro esempio di questa importanza spesso trascurata a favore di lunghe discussioni e digressioni su numeri puramente tecnici ed astratti.

La new entry nel mondo delle GPU, Global Foundries, è arrivata in seguito con un processo a 14nm rivolto ai circuiti ad alte prestazioni preso in licenza da Samsung, evoluzione di quel 14nm FinFet usato anch’esso per la costruzione del SoC A9 di Apple, tra gli altri. L’evidenziazione che gli antenati degli attuali PP siano stati usati per realizzare entrambi il chip di punta della scorsa generazione di Apple non è casuale ma ci permette di fare una rara comparazione diretta, che ci consente di ottenere interessanti informazioni.

Lo stesso chip (su carta) realizzato con due differenti PP ovviamente esce dalle fabbriche con caratteristiche diverse proprie dei limiti che il PP impone (per tutto quello che abbiamo detto sopra). A produzione iniziata, la comparazione diretta dei chip immessi sul mercato dice che il SoC Apple realizzato con i 16nm di TSMC risulta essere il 10% più grande rispetto a quello realizzato con i 14nm di Samsung, ma (perché c’è un ma, altrimenti non ci sarebbe nulla di interessante in tutto questo lungo discorso :) ) il chip a 16nm sale in frequenza passando dalla modalità idle a quella pienamente operativa consumando meno corrente. Sembrerebbe il contrario di quanto detto prima, cioè che la miniaturizzazione aiuta ad aumentare la densità (e infatti i 14nm sono più densi dei 16nm) e a diminuire i consumi. Ma in questo caso i 16nm disperdono meno corrente dei 14nm. I test sugli A9 di Apple, alla frequenza massima imposta al SoC (che non è la massima assoluta di cui sarebbe capace), indicavano consumi più alti fino al 30% per il chip realizzato da Samsung. Come è questa storia vi chiederete?

Da quanto detto all’inizio, la nanometria è usata come indice prestazionale e vi sono moltissimi parametri che definiscono un processo produttivo: bisogna solo capire quali sono quelli usati per attribuirgli un numero piuttosto che un altro. Il confronto diretto ci permette di dire che Samsung ha messo più enfasi a indicare come il suo PP fosse più piccolo (quindi denso), mettendo in secondo piano il fatto che la tensione da applicare al transistor per farlo funzionare molto velocemente come un interruttore non sia proprio quella che la denominazione “14nm” potrebbe suggerire. A questo aggiungiamo che anche la dispersione di corrente (che dipende da molti fattori, non ultimo i materiali isolanti usati e la tensione stessa) sia parecchio alta.

Viceversa TSMC ha usato una numerazione più conservativa per via della minore densità possibile con il suo PP ma con prestazioni decisamente più alte per quanto riguarda correnti disperse e tensioni applicate, che sono decisamente più basse.
È chiaro ora che confrontare due PP usando solo la nanometria “suggerita” non sia così semplice come sembra. Fermarci al numerino del nome è un po’ come confrontare le prestazioni di due auto tenendo conto solo della loro cilindrata.

I dati a noi sconosciuti per una analisi completa sono il costo per millimetro quadro all’origine, cioè il costo di un wafer finito, e sopratutto le rese, che abbiamo visto definire i costi finali dei chip funzionanti. Quindi non sappiamo, al netto dei risultati prestazionali ottenuti, quale dei due PP sia più conveniente. Non di meno possiamo tentare di fare qualche analisi interessante.

4.1 Il confronto reale

Dopo tante chiacchiere, ecco il confronto tra i due nuovi PP usati da AMD e NVIDIA. Attenzione, non è un semplice confronto tra le prestazioni assolute ottenute dai prodotti realizzati con essi: è un confronto che cerca di determinare se e come questi PP siano uno migliore dell’altro (portando quindi evidenti vantaggi a chi lo adotta) e quanto entrambi siano migliori del precedente a 28nm. Inoltre, a fronte delle differenze che riscontreremo, cerchiamo di capire se alla fine uno dei due attori ha scommesso sul PP sbagliato per la produzione dei propri dispositivi. Ovviamente il confronto è imprescindibile dalle architetture che implementano, e questo è ovvio.

Ci aspettiamo comunque che i risultati ci possano suggerire quanto bene è stato fatto il lavoro per sfruttare al meglio i PP e quanto margine ancora eventualmente c’è di miglioramento per dei processi produttivi che non si prevede siano sostituiti tanto presto (anche se già si parla di 12nm nell’imminente e 7nm per il futuro); tali PP sono per esempio la base per l’architettura Vega di AMD che arriverà un anno dopo la commercializzazione della prima soluzione post 28nm (che significa che un anno dopo i 14nm sono ancora un PP su cui scommettere per il futuro, che significa che ci sarà abbastanza tempo prima di un nuovo PP per recuperare gli investimenti fatti su esso).

Abbiamo visto che la densità tra i due PP è diversa. E’ un parametro fisico del PP sul quale il design dell’architettura ben poco può fare, se non sfruttare i transistor in più a disposizione rispetto a quelli concessi alla concorrenza su PP meno denso per chip con uguale superficie. Non conoscendo il costo per millimetro quadro non possiamo però fare un analisi di costi e convenienza precisi. Però possiamo farci un’idea considerando che la differenza di densità non è alta (intorno al 10%).

Addentriamoci quindi un po’ più nei dettagli delle differenze di funzionamento delle GPU realizzate con tali PP.
La analisi più interessante risulta quelle sulle frequenze e i consumi che i vari prodotti mostrano. Sono due parametri correlati tra loro come abbiamo visto: in generale più alta la frequenza, più alti i consumi.

Ogni circuito complesso ha una curva caratteristica che indica quanto è il consumo a seconda di quale è la frequenza a cui lo si fa operare. È una curva all’inizio quasi lineare all’aumentare della frequenza fino ad un certo punto, dove diventa esponenziale, ovvero all’aumento minimo della frequenza vi è un corrispondente consumo di corrente molto più alto.

Normalmente i produttori cercano di porsi il più vicino possibile a questo punto di migliore efficienza, perché sotto di questo non ha senso perdendo prestazioni per un guadagno minimo in termini di consumo (sezione lineare della curva) e andando oltre invece si ha un enorme consumo con pochi benefici prestazionali (sezione esponenziale della curva). Il punto esatto dove porsi è dipendente dal target a cui il chip è destinato (maggiore efficienza o maggiori prestazioni assolute), ma non è mai troppo distante da quello ideale posto in prossimità del cambio di comportamento della curva. Allontanarsi troppo ha più controindicazioni che vantaggi.

PP_1

Rapporto tra tensione e frequenza. I consumi salgono più velocemente delle linee nel grafico (con andamento comunque similare). La linea azzurra Ellesmere è Polaris 10.

4.1.1 Frequenze

I due PP presi in esame (insieme alle rispettive architetture che come abbiamo già detto nel confronto tra prodotti fatti e finiti non si può fare a meno di considerare) permettono curve notevolmente differenti, e infatti vediamo come il processo produttivo di TSMC permette di avere un punto di maggiore efficienza intorno ai 1500MHz per le GPU NVIDIA (che guarda caso è la frequenza a cui è posto il GP100, la grande GPU destinata al mercato server HPC dove l’efficienza è molto importante) e quello di GF con l’architettura AMD invece ha un punto ottimale intorno ai 1000MHz.

Rapporto tra consumi e frequenze reference delle schede AMD e NVIDIA.

Rapporto tra consumi e frequenze reference delle schede AMD e NVIDIA.

Ovviamente entrambe le case hanno portato sul mercato consumer schede con frequenze superiori al punto di massima efficienza, perché in questo mercato le prestazioni sono più importanti dei consumi e qualche punto percentuale in più di prestazioni significa, per quanto detto prima, qualche dollaro in più di margine che per milioni di pezzi significano milioni di dollari. Per valutare meglio a che punto della curva le schede sono cloccate di default, valutiamo i risultati visibili con l’overclock, ovvero valutiamo le differenza applicando un delta di clock rispetto a quello di fabbrica: le schede NVIDIA salgono di frequenza fino a 2000MHz di massimo boost, vicino al fisico di stabilità dei transistor intorno ai 2100MHz, alla tensione massima che ha fissato senza che i consumi ne risentano particolarmente (crescita lineare).

Oltre, la crescita risulta meno lineare come si vede dal grafico. Per AMD il grafico mostra solo le frequenze di funzionamento standard. Prove condotte sull’overclock oltre i 1250MHz mostrano che le schede cominciano a consumare moltissimo. Polaris 10 da 1250MHz e 160W passa a 1350MHz e 220W (+8% OC +37% consumi).

Addendum dell’ultimo minuto: la nuova serie 500 dimostra quanto avevo già visto. Le nuove schede che portano le stesse identiche GPU Polaris 10 già montate sulla 480 a frequenze intorno ai 1400MHz, arrivano a consumare fino a 240W (+12% OC, +50% consumi!).

Consumi di Polaris 10 cloccato oltre i 1300MHz.

Consumi di Polaris 10 cloccato oltre i 1300MHz.

 

Consumi di Polaris 10 cloccato a oltre 1400MHz, la semplice soluzione a costo zero per l'incremento delle prestazioni dell'ultima serie AMD (vedere il punto 1 delle possibili modalità di aumento delle prestazioni)

Consumi di Polaris 10 cloccato a oltre 1400MHz, la semplice soluzione a costo zero per l’incremento delle prestazioni dell’ultima serie AMD (vedere il punto 1 delle possibili modalità di aumento delle prestazioni)

Abbiamo quindi che le GPU NVIDIA costruite con il processo produttivo di TSMC hanno una curva la cui parte esponenziale inizia molto più tardi rispetto alla frequenza applicata e la curva è molto meno ripida di quella delle GPU AMD costruite con il PP di GF.

Fortunatamente (ecco la sorpresa) abbiamo un’altra possibilità di confronto che ci è offerta dall’ultima GPU proposta da NVIDIA.
Il GP107 (montato sulle GTX1050/1050Ti) infatti a differenza di tutte le altre GPU di NVIDIA è fabbricata con lo stesso processo produttivo a 14nm licenziato a GF da Samsung, ma nelle fabbriche di Samsung.

La piccola GPU di NVIDIA di 132mmq, comparabile a Polaris 11 per numero di transistor integrati, raggiunge i 1800MHz rimanendo sotto i 65W contro i 1200MHz della concorrente a 75W. All’aumentare del clock i consumi di quest’ultima salgono enormemente, tanto che aumentare il clock di boost di soli 50MHz equivale a aumentare i consumi di ben 15W.

 

Consumi della 460 Strix cloccata a 1256MHz

Consumi della 460 Strix cloccata a 1256MHz

Da notare come le frequenze di riferimento siano riportate in maniera diversa dalle due aziende: AMD indica il valore del boost massimo oltre la quale la scheda non va, NVIDIA invece dichiara sia il clock base minimo sia il valore più basso a cui il boost si porta, lasciando in verità che siano le condizioni di temperatura e alimentazione a determinare il valore massimo di frequenza a cui la scheda può spingersi, valori molto più alti anche di quelli di boost dichiarato. Così, nei nostri esempi, la 1050Ti si spinge fino a 1800MHz di boost rimanendo nei consumi imposti di 66W.

È evidente che le frequenze per la GPU AMD siano già poste ben oltre il punto di massima efficienza che abbiamo descritto prima, se per un overclock del 5% abbiamo un aumento dei consumi del 20%: siamo già sulla parte alta della curva esponenziale, come abbiamo visto anche per Polaris 10.
La GPU di NVIDIA invece è su un punto completamente diverso della sua curva. La frequenza a cui la scheda è posta, è limitata solo per poter funzionare senza connettore ausiliario (lo slot PCIe può erogare al massimo 66W o 5.5A a 12V da specifica). Liberata da questo limite commerciale la GPU può superare i 1900MHz a 75W, come si vede con le versioni custom della 1050Ti dotate di connettore ausiliario.
PP_5

4.1.2 Tensioni

Confrontiamo le tensioni applicate da AMD e NVIDIA ai diversi PP usati per cercare una relazione tra frequenze e consumi dovuti al PP stesso.
Il sito techPowerUp offre molte informazioni a riguardo ed è da lì che provengono tutti questi grafici.
Le tensioni di alimentazione sono direttamente responsabili dei consumi dei chip, quindi le ziende tenderanno a tenerle più basse possibili. Viceversa, più alte sono le tensioni, più velocemente può commutare un transistor, quindi andare a frequenze maggiori. Quindi le aziende teneranno di applicare le maggiori tensioni possibili.
Siccome le due cose non sono ovviamente compatibili, si raggiunge un compromesso che è quello che si trova nel punto di maggiore efficienza visto precedentemente, dove la tensione è la migliore sia per i consumi che per le frequenze (ovvero le performance).

Tensioni applicate per i due PP da NVIDIA:

1060_Volt_Table

1060 volt table

1050Ti_Volt_Table

1050Ti volt table

Vediamo come i valori per i 14nm Samsung siano più elevati che per i 16nm TSMC sia a bassa che ad alta frequenza.
La tensione massima per i 14nm Samsung è di 1.100V per raggiungere i 1800MHz.
la tensione massima per i 16nm di TSMC è di 1.050V per raggiungere i 1900MHz.
Vediamo per curiosità i grafici delle frequenze a seconda della tensione applicata, valori gestiti automaticamente dal BIOS della scheda che qui sono stati solo registrati:

1070_Volt

1070

1060_Volt

1060

1050Ti_Volt

1050Ti

Tensioni applicate da AMD ai 14nm di GF

460_Volt_Table

460 volt table

480_Volt_Table

480 volt table

Vediamo che le tensioni a bassa frequenza rimangono più alte di quelle usate da NVIDIA sul PP di Samsung.
Per la 460 la tensione massima rimane simile a quella di NVIDIA con la GPU che raggiunge i 1270MHz
Per la 480 la tensione massima è invece inferiore a quella usata da NVIDIA sui 14nm con la GPU che raggiunge le stesse frequenze della 460.

Per dare un senso a questi grafici in poche parole, i numeri sono questi:
a 1.0V le GPU di AMD raggiungono i 1200MHz circa mentre quelle di NVIDIA, sia su PP di TSMC che su quello Samsung, arrivano a 1700MHz.

 

4.1.3 Conclusioni

Abbiamo quindi uno scenario con diverse informazioni sparse da analizzare.
NVIDIA, valutabile sia sul processo a 16nm di TSMC sia sul processo a 14 di Samsung (gemello di quello di GF):

  • sui 16nm è in grado di arrivare oltre ai 2000MHz senza creare una fusione nucleare delle sue GPU e non le serve alzare la tensione a livelli stratosferici.
  • sui 14nm è in grado di arrivare a 1900MHz con un delta di pochi W (lineare) rispetto a girare a 1400MHz. La tensione applicata rimane comunque più elevata rispetto a quella usata dal processo di TSMC, testimonianza che i due PP hanno molte più differenze rispetto a quanto il “numerino” che dà loro il nome suggerisce.

AMD, valutabile solo sul processo a 14nm di Global Foundries

  • sui 14nm raggiunge frequenze non più alte di 1300MHz, oltre le quali i consumi letteralmente esplodono (last minute: testimonia la cosa la nuova serie 500 di AMD cloccata a oltre 1400Mhz).
  • le tensioni sono simili a quelle usate da nvidia per i 14nm e solo marginalmente superiori a quelle usate per i 16nm (anche se in teoria dovrebbero essere inferiori).

Abbiamo visto uno scenario simile anche con il precedente PP che era comune ad entrambe: NVIDIA raggiungeva frequenze più alte di quelle AMD con consumi inferiori (a pari prestazioni).

Facendo una rapida analisi sembra che il problema principale per AMD non sia il processo produttivo (che ha la sua influenza comunque), ma bensì l’architettura (o come è realizzato il layout per la sua implementazione). Sia con i 28nm che con i 14nm, su 2 PP differenti le frequenze non si sono alzate molto (dai 1000MHz ai 1300MHz, +30%) e l’efficienza di Polaris è molto lontana da quella che ci era stata promessa (2.5x quella di GCN) pur AMD non avendo “tirato” i chip a frequenze elevate come ha fatto NVIDIA.

Di contro quest’ultima che già partiva da una situazione con frequenze più alte (1300MHz di base per Maxwell) è riuscita a portarle ancora più in alto vicino ai 2GHz (+50%) mantenendo i consumi perfettamente sotto controllo e quindi sfruttando questo vantaggio per creare chip più piccoli con frequenza maggiore a discapito dell’efficienza che rimane comunque migliore di quanto già non fosse quella ottima di Maxwell anche se non ai 2x promessi da NVIDIA, almeno non sulle schede consumer.

Ecco che abbiamo visto che a seconda dei vantaggi che si hanno a disposizione è possibile scendere a compromessi diversi per ottenere prodotti con le stesse prestazioni originariamente pianificate. Silicio contro frequenze, frequenze contro consumi. Questi ultimi sono quindi importanti per poter dare più margine di manovra alla strategia che l’azienda vuole perseguire. Con consumi inferiori abbiamo visto che c’è possibilità di risparmiare ulteriormente rispetto ad aumentare le prestazioni moltiplicando le unità di calcolo e quindi usando più silicio.

Ribadiamo che qui non si fa una comparazione diretta tra le due architetture in termini di prestazioni per Hz. Che è una cosa senza senso come molti sanno. Si fa un confronto tra la capacità di guadagnare prestazioni per le frequenze permesse dal nuovo PP (che è abbiamo detto essere una caratteristica importante per l’aumento di prestazioni nei PP nuovi) e di posizione sulla curva di efficienza (che indica quanto ci si è spinti oltre quello che sarebbe dovuto essere il target, ovvero il punto di massima efficienza più qualcosina) in circuiti dalla dimensione simile.

Questa semplice e superficiale analisi effettuata pone alcuni dubbi sul lavoro che AMD ha fatto su Polaris, quasi a significare che non ci abbia investito molto (di fatti è più che altro uno shrink di GCN) mentre la lunga attesa per quella che dovrebbe essere la nuova architettura Vega potrebbe far pensare (e sperare) che i risultati per questa siano completamente diversi.

Anche questo articolo è stato scritto in un lasso di tempo abbastanza lungo durante i quali sempre più fatti hanno confermato l’analisi, non ultimo il rilascio della serie 500 di AMD con le sue frequenze innalzate per ulteriori consumi extra, come se i precedenti non fossero sufficienti, ma a quanto pare come dicevo all’inizio di tutto, l’importanza (e il guadagno) di qualche punto percentuale di prestazioni in più è maggiore dei disagi che i maggiori consumi comportano. Vedremo se questa politica premierà la strategia di AMD. Quello che rimane una sicurezza è che questa mossa non aiuterà Polaris a entrare nel mercato mobile.

47 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    Nick
     scrive: 

    Ottimo articolo.
    grazie

  • # 2
    lucusta
     scrive: 

    che menata di luoghi comuni!

    il tuo discorso si frantuma quando parli di GP107 e polaris 11 senza metterci dentro l’IPC, le rese, cernita, binning del chip e, cosa piu’ importante, il costo.

    lo puoi vedere dalla tabellina dei voltaggi di 1050Ti e 460.
    per reggere 1Ghz su 3.0B di transistors AMD necessita di 0.980V, Nvidia ne regge 1240mhz con 0780V per 3.3B di transistors sullo stesso PP, ma SUL PEGGIOR CHIP CHE VENDONO.

    ora vai a immaginarti che forse 1/3 della produzione nvidia viene buttata quando solo l’1% di quelle AMD lo è… e che AMD butta tutto sul mercato, perchè ha palesi problemi di possibilità produttiva.

    se nel discorso non ci metti OBBIETTIVO DI RESA PRODUTTIVA, IPC e uso dell’ARCHITETTURA rispetto ai CODICI IN USO, quali API piu’ o meno favorevoli a ridurre overwork dei driver, tutto quello che dici sono solo luoghi comuni e faziosi, ma sopratutto NON C’ENTRANO NULLA CON LA DESCRIZIONE DI UN PROCESSO PRODUTTIVO, figuriamoci un confronto…

    era meglio se prendevi in esame solo l’A9, dove almeno c’era la stessa architettura (ma attento, non lo stesso disegno).

    PS:
    ti faccio notare che Polaris 10 binnato da AMD per essere messo sulle embedded in formato MXM (quello che c’e’ nei portatili) ha 95W di TDP per 5.3TF (stessi parametri della 480, solo che usa ram a 7gbps invece che 8), mentre nvidia non binna i chip per mobile e una 1060 ha sempre 120W, sia su portatili che su desktop (logicamente al power limit assegnato a 120W… in overclock è tutta un’altra storia).

  • # 3
    Cesare Di Mauro
     scrive: 

    IPC, architettura, API, codice in uso (!), e driver non hanno assolutamente nulla a che vedere con l’articolo, che riguarda il processo produttivo.

    lucusta, qui non siamo su Bits & Chips dove puoi continuare a fare il megafanboy AMD (mentre sul forum di hwupgrade ami giocare a carte coperte), e quest’articolo non ha nulla di partigiano: riporta dei dati, fa delle analisi, ed espone le riflessioni dell’autore.

  • # 4
    Nessuno
     scrive: 

    Lucusta, è un po’ che leggo i tuoi vaneggiamenti sui vari forum dove già c’è gente che ti corregge continuamente ma tu prosegui imperterrito a inventarti teorie e dimostrazioni che non si basano su nessun fatto, e per tanto non ho intenzione di aprire alcun dibattito qui dove si cerca di mantenere un certo rigore scientifico nel trattare gli argomenti.

    Parlare di API, driver e “codice in uso” nella comparazione di processi produttivi è il luogo comune del fanboy che sconfina nell’irrazionalità per cercare di distorcere la realtà che non combacia con i propri desideri. Si chiama frustrazione. E’ uno stato d’animo da non sottovalutare perché porta a comportamenti socialmente pericolosi, come scrivere post deliranti nei forum.
    Qui ci sono fatti e numeri e sono interpretati per quello che valgono.

    Suppongo che tu debba essere veramente incommensurabilmente ricco visto che possiedi segreti preziosissimi che nessun altro ha quali le rese dei micro sfornati da nvidia e AMD.
    Io non so quali queste siano. E nessun altro le sa, e chi le sa non le dice perché rischia più che il lavoro, la vita per quanto sono preziose. Mi limito a fare ipotesi basate su teorie comprovate riguardanti la produzione dei microprocessori relativi alle loro dimensioni.
    Che mi portano a dire che Polaris 11 e GP107 hanno più o meno le stesse rese ma il GP107 le suona alla grande in prestazioni a Polaris 11 nonostante i tuoi “driver, API e codice in uso”. Il GP107 è così efficiente in versione mobile che è prodotto in versione super slim per i super portatili. Polaris nemmeno con il binocolo si avvicina a uno di questi.
    Quindi più o meno stessi costi di produzione ma nvidia può vendere il suo chip con margini migliori, esattamente come fa con tutti gli altri chip che sforna. Mannaggia ti era sfuggito, nevvero?
    Per quanto riguarda Polaris 10 mobile, sia AMD che nvidia fanno binning e mentre AMD propone Polaris 10 a 95W, nvidia propone GP106 a 75W, che la pone come GPU più efficiente finora prodotta (e infatti è infilata in un numero di portatili che AMD sogna la notte).
    https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Pascal-Mobile-GTX-1080-1070-and-1060-Enter-Gaming-Notebooks
    Tutte le tue teorie si frantumano quando vai a vedere quanti sono i portatili che montano le soluzioni AMD rispetto al numero di quelle che montano le soluzioni nvidia. Semplicemente AMD non ha una soluzione energeticamente valida (che è quello che conta nei dispositivi mobile) da quando ha creato GCN. Ed è un fatto, non un luogo comune.

    Quindi riassumo visto che devi aver perso qualche pezzo degli articoli finora scritti (anche dei precedenti) e buona parte della realtà che non mi sembra che ti arrivi completamente limpida:
    1. A parità di dimensioni nvidia ha prestazioni migliori (fatto)
    2. A parità di consumi nvidia ha prestazioni nettamente migliori (da cui AMD assente nel mobile) (fatto)
    3. A parità di costi (di produzione seguendo le regole razionali,. non quelle da fanboy che vuole AMD con rese del 99%) nvidia vince in termini di prestazioni e consumi. Regole più che confermate dai risultati finanziari di nvidia. (diciamo pure assunzione che trova conferma nei fatti)
    4. A parità di tensione applicata nvidia raggiunge frequenze nettamente più alte di quelle AMD (cosa che era valida anche con TMSC e quindi è un problema di architettura, non di PP) (fatto)
    5. A parità di frequenze l’architettura nvidia consuma molto di meno (fatto)

    ERGO (dai fatti)
    L’architettura nvidia finora dimostra di essere migliore (o meglio bilanciata) sotto tutti i punti di vista, API, driver o “codice in uso” che tu voglia prendere in considerazione, perché da tutte le analisi fin qui riportate non è il 10% che AMD guadagna con il codice super ottimizzato per la sua architettura che rende l’architettura GCN vincente o meno.
    L’architettura AMD è migliore SOLO nel computing puro qualora si riesca a strizzarne tutti i TFLOPS teorici di cui è capace (e pare che non sia così facile), perché a parità di dimensioni ha TFLOPS teorici maggiori dell’architettura nvidia.
    Quindi se fossero schede per il computing, AMD avrebbe un leggero vantaggio prestazionale (sebbene una penalizzazione energetica non indifferente che non la rende buona in server dove l’efficienza conta perché i MW costano e non poco), ma siccome stiamo parlando di schede nate e usate per i videogiochi, il non voler vedere che AMD arranca in termini di dimensioni e consumi dietro alla concorrente è qualcosa di assurdo che sconfina in mental disease.

    Se credi che questi articoli siano stati scritti nell’arco di una notte insonne come lo sono i tuoi post mi spiace deluderti. Sono il frutto di settimane di tempo libero speso in ricerche e analisi, e riconferme e ricerche e ancora analisi. Non sono la verità assoluta, ci mancherebbe, ma non sono di certo quel concentrato “di luoghi comuni” che attribuisci loro usando tu stesso parole vuote di ogni significato e usate fuori contesto.
    D’altronde queste semplici analisi hanno ben sopravvissuto “la revisione di Polaris 10 = Polaris 10 prima versione OC” e l’arrivo di Vega (su cui magari scriverò 2 righe in un commento separato più avanti) che non hanno screditato nulla di quanto scritto: l’architettura AMD non è pensata per le alte frequenze per raggiungere le quali soffre consumi eccessivi (Polaris 10 v2 che AMD ha detto essere una revisione in verità è solo OC, 12% di OC = 50% di consumi, esattamente come previsto dalle tabelle che ho riportato calcolate dalle varia analisi prima che questa versione fosse presentata).
    Cosa sarebbe solo un mezzo problema se almeno consumasse meno (che dovrebbe essere scontato usando più silicio a frequenza minore).
    Invece purtroppo soffre anche di gravi problemi di parallelizzazione, visto che se pure la vogliamo realizzare sprezzanti dei costi con die enormi e grandi quantitativi di unità di calcolo non scala come previsto (vedi Fiji e Vega, dove per quest’ultimo la cosa è abbastanza problematica al punto di doverlo cloccare a 1600MHz con +100W di consumi per renderlo migliore di Fiji stesso nonostante architettura nuova su PP nuovo, definirlo un disastro è poco anche se per te che sei un semplice utente il costo pari a un chippetto da 314mm^2 con GDDR5 sembra una cosa fantastica).

    Ora scrivi tutte le teorie che vuoi sui driver, API e “codice in uso”, ma la realtà è purtroppo questa. Che combacia anche con il resto dei punti di vista del mercato già scritti negli articoli precedenti (pre Polaris): AMD che doveva rivoltare il mercato con GCN, nvidia che se la ride, AMD che doveva impensierire nvida con Polaris e i suoi 2.5x di efficienza, cosa rinviata a Vega che doveva essere la rivoluzione e addirittura il Volta killer, e ora sarà Navi (non prima della fine del 2018, più probabilmente inizio 2019) a dover mantenere la promessa, nvidia che non cala i prezzi (anzi li cala AMD ancora prima di lanciare le proprie schede sul mercato, con Vega che dai 1200 dollari del primo annuncio è scesa a 1000), AMD che si è giocata la carta della HBM (e no DP) ancora una volta per tentare il colpaccio contro il GP102 senza riuscirci e sfornando una GPU dai costi improbabili per il mercato consumer, costi che le farà assemblare package con il contagocce (da qui prezzi folli per la legge domanda/offerta ma nessun problema per le quote di nvidia), nvidia che non corre per creare schede nuove mentre fa record su record di incassi, il cui tutto fa facilmente prevedere che Volta costerà di più di Pascal (come fu per Maxwell e Pascal stesso, ah, GCN, che grande architettura) a parità di fascia perché AMD non avrà nulla con cui controbattere, visto che ha già raggiunto il massimo OC di fabbrica prima di fondere il chip (non eri tu quello dei 400W del GP102? Mi sa che hai sbagliato previsione… è Vega la GPU da 400W per ottenere le prestazioni di una 1080 a 1600MHz che richiede il liquido per non fondere), senza che debba essere impensierita da tagli di prezzi dato che AMD si è già posta da sola a rivaleggiare con la fascia inferiore e a meno ci perde.

    Detto questo, ti lascio a vaneggiare e torno a fare un paio di calcoli su quello che sarà Volta per noi poveri mortali (ovvero Volta consumer) e quanto ci costerà nei prossimi anni questa ennesima magnifica architettura (fallimentare) di AMD fino all’arrivo dei 7nm. Che si spera cambi la situazione.

  • # 5
    Cesare Di Mauro
     scrive: 

    “Fatality…” :D

    Avresti potuto scrivere un altro, apprezzabile, articolo con questa tua risposta. Ma spero che lo farai per le tue considerazioni su Volta. ;)

  • # 6
    lucusta
     scrive: 

    mi dispiace, Nessuno, ma in un articolo che parla di processi produttivi sei andato del tutto fuori tema, infilandoci dentro una delle faide da fanboy da forum piu’ annali e trite del settore: AMD contro Nvidia.

    usano dettami diversi nella produzione di chip, quindi il confronto che vuoi fare o lo fai compiutamente, o non c’entra nulla.

    se ti fermavi all’analisi dell’A9 riuscivi meglio a spiegare cosa sia un processo produttivo ed i punti chiave che una produzione segue tramite un confronto diretto; se usi come esempio chip di diversa natura, ne devi, per forza di cose, sviscerare la natura e le diversità, per capire quale sia in sunto del processo produttivo.
    non è perchè i chip nvidia e quelli AMD si usano per un certo ambito che li puoi confrontare così alla leggera, perchè sennò ti sfido a confrontare un Intel core con un Power IBM.

    invece ti sei limitato a dire quanto è bella la pizza, ossia nulla sui processi di produzione e solo una sfilza dei soliti luoghi comuni da forum, con l’ultima considerazione che solo una persona che non ha concettualmente presente che sia una produzione industriale su lagra scala puo’ fare (e dimostrazione c’è con il fatto che AMD produce schede MXM da 95W con polaris 10).

    te l’ho scritto: fammi vedere le rese dei chip AMD e Nvidia, descrivi le differenze architetturali e poi puoi iniziare un confronto sul processo produttivo…
    che nvidia produca chip di qualità media migliori è sotto gli occhi di tutti, ma ben pochi sanno a che costo e quanti ne deve buttare per ottenere quei risultati.

  • # 7
    Cesare Di Mauro
     scrive: 

    Le differenze architetturali non hanno nulla a che vedere con quanto scritto da Nessuno.

    Inoltre lui stesso ti ha detto che non si conoscono le rese dei chip, e ti ha chiesto le fonti in merito, che ovviamente non hai fornito in alcun modo.

    I confronti fatti da Nessuno sulla scorta dei dati / fatti a disposizione sono innegabili, ed è evidente che non hai alcun modo per poterli contrastare (altrimenti avresti potuto benissimo rispondere punto per punto).

    Le tue rimangono soltanto chiacchiere del megafanboy AMD che sei, e da cui cerchi inutilmente di nasconderti (su hwupgrade: qui e su Bits & Chips non ti fai problemi, invece).

  • # 8
    Cesare Di Mauro
     scrive: 

    Dimenticavo un altro paio di cose.

    Nei suoi articoli Nessuno ha sempre messo a confronto le GPU di AMD e nVidia. D’altra parte sono i produttori di GPU che si contendono il mercato, e per cui è ovvio che siano confrontati i loro prodotti.

    Secondo, i confronti fra i processori di Intel e IBM si possono certamente fare, ma Intel produce parecchi prodotti mentre IBM ben pochi. Su quale base vorresti fare i confronti? Sulla superficie del die, frequenze, tensioni, processo produttivo, prezzo, prestazioni (ma qui ci sarebbe di che discutere visto che servirebbero parecchi benchmark)?

  • # 9
    lucusta
     scrive: 

    Cesare,
    IPC, architettura, API, costrutto del codice non hanno assolutamente nulla a che vedere con il titolo dell’articolo, che riguarda il processo produttivo, ma se tu confronti due diversi prodotti che sfruttano paradigmi ben diversi, per vedere le differenze sul processo produttivo devi prima normalizzare ad un fattore comune, o diversamente fai confronti tra misure in piedi e metri.

    immaginavo che un articolo che avesse per titolo “introduzione ai (ma magari “sui”) processi produttivi” trattasse appunto di processi produttivi, ed invece leggo i soliti luoghi comuni da forum su quale scheda video ha la barretta piu’ lunga, come se il lavoro di qualsiasi chip potesse essere sintetizzato in quello di una scheda video.

    no, non sono un fanboy AMD, e non sono contro nvidia o Intel;
    sono contro la disinformazione che certa gente spaccia per articoli.
    io scrivo sui forum, non ho certo l’arroganza di scrivere un articolo informativo, quando non ho informazioni precise.

    Nessuno:
    “Mi limito a fare ipotesi basate su teorie comprovate riguardanti la produzione dei microprocessori relativi alle loro dimensioni….
    …Che mi portano a dire che Polaris 11 e GP107 hanno più o meno le stesse rese ma il GP107 le suona alla grande in prestazioni a Polaris 11 nonostante i tuoi “driver, API e codice in uso”.”

    stesse rese?
    quindi AMD e Samsung, per volere d’Nvidia, ti hanno svelato uno dei punti cardini delle produzioni industriali, tenuti gelosamente custoditi per non svelarli alla concorrenza?

    la tua ipotesi vale tanto quella di chiunque altro, con la differenza che qui c’è di mezzo la tecnologia e la logica:
    se per pari densità di transistors e pari processo produttivo, qual’e’ quello su glofo e samsung, a pari requisito richiesto (frequenza di 1ghz) uno ha un voltaggio e l’altro ne ha un’altro, significa solamente che i punto di resa che si vuole ottenere è ben diverso, e te lo indica anche il fatto che Nvidia produce 2 prodotti con il GP107, uno full e uno cut, la 1050 da 640 cuda core e la 1050 Ti con 768, proprio per migliorare la resa produttiva.
    Polaris 11 invece è nato già cut, con 896 SP, ed il miglioramento produttivo ha portato ad usare l’intero chip sulle 560, con 1024 SP.
    ma rimane comunque un solo chip per un solo prodotto finale.
    ora pensa che voltaggio dovresti applicare al peggior GP107 usato per una 1050 per farlo funzionare come una 1050 Ti, e forse capirai che gli 0.2V sono piu’ che necessari per farlo e che l’assorbimento generale puo’ portare anche al raddoppio del consumo totale.

    la frequenza è poi un parametro che decidi in progettazione.
    per ottenere un determinato valore devi considerare innumerevoli parametri.
    te lo indica la stessa Intel, che per riuscire ad aumentare la frequenza media dei kaby lake rispetto agli sky lake ha dovuto aumentare lo spessore del die, ponendo piu’ materiale tra transistors e superficie del die in modo da distribuire meglio il calore generato proprio sulla superficie, mitigando i punti caldi.
    e questo, se non lo intuisci, ha leso le rese produttive, perchè da un cilindro di silicio ottieni meno wafer da litografare se questi li devi fare piu’ spessi, quindi meno processori per singolo cilindro.

    stessa cosa per l’IPC.
    un maggior numero d’istruzioni calcolate per ciclo di clock, a parità di densità transistors (che polaris 11 e GP107 condividono) indica che stai sfruttando maggiormente i singoli transistors, e questo significa che abbrevi il tempo per smaltire il calore generato; ed è tacito che polaris 11 lavori quantomeno uguale a GP107 in quanto ottengono sovente le stesse prestazioni finali.
    prestazioni simili, frequenze diverse, significa che polaris 11 ha un IPC decisamente piu’ alto, anche in considerazione del fatto che GP107 è il 10% piu’ grande (ha il 10% di die in piu’, il 10% di transistors in piu’ e il PP è il medesimo).
    prestazioni che comunque l’architettura AMD ottiene lavorando significativamente di piu’, perchè genera 2.9TF teorici a 1.4 ghz per egualiare, su quel costrutto di codice, i 2.6 TF del GP107 quando questo lambisce 1.8Ghz.
    quindi il 10% piu’ piccolo con il 10% in piu’ del lavoro.

    e qui stiamo enunciando esclusivamente i diversi paradigmi di produzione di due produttori, perchè il PP è il medesimo;
    parliamo cioè di IPC, architettura e costrutto logico, ossia API, overwork driver ed espressamente tipologia di programmazione dei software.

    figurati se si devono inserire anche le differenze tra il PP 16nm TMSC e i 14nm GloFo.

    “1. A parità di dimensioni nvidia ha prestazioni migliori (fatto)”
    falso: GP107 è il 10% piu’ grande a pari PP e non supera polaris 11, soprattutto in DX12, e già solo questo contraddice la tua affermazione assolutistica.

    “2. A parità di consumi nvidia ha prestazioni nettamente migliori (da cui AMD assente nel mobile) (fatto)”
    che deriva sia da come consideri il parametro prestazionale (se ci si basa sui TF teorici nvidia usa chip ben piu’ grandi di AMD) e sia, soprattutto, dall’obbiettivo di resa produttiva, che, ti ripeto, nessuno conosce, ma ti rinfresco l’esempio di polaris 11 e GP107: ammettendo una resa per wafer identica (cosa che non è vera in quanto la resa dipende formalmente dal disegno del chip) nvidia è costretta a fare cernita sui die separandone la qualità e producendo un chip full ed uno cut e propone sul mercato schede dalle prestazioni ben differenti.
    per quanto concerne l’assenza sul mercato mobile di AMD, oltre ad essere falso anche questo (mac), c’è il particolare periodo che non concede ad AMD nemmeno di far fronte alle richieste di un segmento di mercato, quale il desktop, come puo’ permettersi di garantire produzione sufficiente agli OEM?
    quindi è una condizione derivata dal processo produttivo o da questioni che esulano del tutto il “come lo fai”?

    “3. A parità di costi (di produzione seguendo le regole razionali,. non quelle da fanboy che vuole AMD con rese del 99%) nvidia vince in termini di prestazioni e consumi. Regole più che confermate dai risultati finanziari di nvidia. (diciamo pure assunzione che trova conferma nei fatti)”
    i risultati finanziari non sono assolutamente correlati ai processi produttivi, ma a quanto il marketing di un’azienda lavora per promuovere il prodotto (ed nvidia si muove assai bene sia lato sviluppatori che lato marchette, il resto lo fanno appunto gente come te, che fa disinformazione partigiana).
    prestazionalmente puoi andare a rileggerti tutto quello scritto sopra e per i consumi è la stessa identica cosa; se devo mettere qualsiasi cosa che produco sul mercato, mi metto l’assicurazione che non dia problemi, anche se questo influisce su un aspetto che solo un produttore ritiene così vitale su un desktop (perchè 60-100W in piu’ di consumo non sono mai stati un problema, se non nello smalitre il calore in eccesso.. non certo di costi energetici).

    “4. A parità di tensione applicata nvidia raggiunge frequenze nettamente più alte di quelle AMD (cosa che era valida anche con TMSC e quindi è un problema di architettura, non di PP) (fatto)”
    …e la sola frequenza non significa proprio nulla, se non consideri anche l’IPC… anche il P4 sfoggiava frequenze assolute di rilievo con die giganteschi, ma a confronto degli athlon erano decisamente poco appetibili; mentre non è mai stato un problema di architettura, se tu ti vuoi convincere che un’architettura sfoggia il massimo rendimento solo quando il codice riesce a sfruttarla adeguatamente.
    AMD sono 6 anni che usa un’architettura che richiede un certo tipo di codice, molto frammentato rispetto a quello che veniene usato oggi (figuriamoci 6 anni fa).
    la scelta di saltare la progettazione di architetture che meglio si adattassero al tipo di programmazione del preciso periodo, cosa che nvidia invece fa puntualmente rendendo ogni generazione obsoleta, è stata dettata dalle scarse risorse economiche da poter dedicare al continuo sviluppo HW (AMD ha acquisito ATI, con tutte le complicazioni del caso).
    ha puntato direttamente ad un tipo di architettura altamente frazionata che porterà vantaggi quando si diffonderanno processori multicore e lo ha fatto perchè esite un limite prestazionale nell’esecuzione di un codice monothred e tutti lo conoscono: la frequenza dei chip.
    non la puoi aumentare all’infinito, quindi devi parallelizzare per ottenere prestazioni massime maggiori; e se frazioni l’esecuzione del codice sulla CPU devi frazionare anche quella della GPU.
    ad oggi anche le DX12 sono strette a quell’architettura (ma nei giochi; nel resto in cui si puo’ usare una GPU come coprocessore matematico è già cosi’ ed è evidente e sotto gli occhi di tutti).

    “5. A parità di frequenze l’architettura nvidia consuma molto di meno (fatto)”
    ti si è incantato il disco?

    ripeto:
    che menata di luoghi comuni che non hanno un filo logico e che comunque sono del tutto fuori tema con il titolo dell’articolo: introduzione sui processi produttivi.

    non dare a me del fanboy se poi sei tu, nei tuoi scritti, che esula dal discorso principale, effettua confronti settoriali senza considerare tutti i parametri che comporta (non di meno l’estremo sbilanciamento del mercato che hai considerato, dove chi comanda ne guida anche l’esecuzione) e mostra un’accentuata propensione ad elogiare tecnologie che proprio non hanno nulla per essere elogiate, in quanto reduci da costrutti a dir poco ancestrali, per questo settore merceologico.

    e, come sempre, si finisce tra gli ultimi degli ultimi.
    impara prima ad essere critico e poi a scrivere articoli (e quantomeno rimani nel tema assegnato).

  • # 10
    lucusta
     scrive: 

    Cesare, sai bene dove sbaglia e, appunto, non è la prima volta che sbaglia, facendo di tutta l’erba un fascio.

    se avesse solo sentore di come effettivamente si lavora in un industria leader del settore ed in piena concorrenza, almeno eviterebbe questi luoghi comuni, tipici dei forum.

    farebbe meglio a farsi un proprio sito in cui elogiare liberamente chi non ha meriti, ma alla quale gente di questo spessore li ha resi a gratis.
    lo intestasse bene, pero': Sito pro nvidia, che non sbaglia mai ed è la nostra santa salvatrice.

    per il confronto tra IBM e Intel non credo che sia facile normalizzarlo a fattor comune, e comunque sai meglio di me che il processo produttivo d’intel è ancora una spanna avanti a tutti (se vogliamo focalizzarlo su questo aspetto).

  • # 11
    lucusta
     scrive: 

    “Le tue rimangono soltanto chiacchiere del megafanboy AMD che sei, e da cui cerchi inutilmente di nasconderti (su hwupgrade: qui e su Bits & Chips non ti fai problemi, invece).”

    per prima cosa, quando m’insultano avrei il piacere almeno di comprendere l’insulto… ma comunque…
    sarà, ma io non sono così arrogante da scrivere articoli che possono essere demoliti dal primo fanboy frustrato e ignorante che passa e, se leggi bene, non mi pare di aver scritto cose illogiche e senza opportuna contestualizzazione, almeno se riesci a capire la differenza tra un esame critico e una presa di posizione.
    quindi sono io un fanboy AMD frustrato e ignorante, o l’articolo verte su punti fuori tema e palesemente contestabili?

    in realtà sono un tipo che s’inalbera non se gli toccono la sua marca preferita, ma quando vedo sproloqui senza senso logico, partigiani e senza un solo legame realistico… a quel punto intervengo, perchè se ci sono persone come me che cercano di metterci un minimo di ragione nel pensiero, ci sono tanti altri che prendono per oro colato menate di luoghi comuni senza un minimo di razionalità.

    io compro AMD solo perchè mi conviene (non ho mai acquistato un FX, ma ho piu’ di una APU);
    ho sempre acquistato di tutto, senza distinzione di marchio… (tranne acer e toshiba…ma perchè fanno prodotti discutibili)
    vuoi vedere quante CPU Intel ho? (si, ho collaborato anche io ai tuoi precedenti stipendi)
    o quante schede video nvidia ho? (approposito, 3DFX la dovrei considerare nvidia o no?)

    non confondere l’essere un cieco sostenitore di un marchio con l’essere razionale ed appassionato di tecnologia.
    sono due cose ben diverse.
    lo sò che ti vien difficile, visto che sei stato anni nel promuovere un marchio, ma non era quella la realtà dei fatti.

    su AMD non ci si puo’ sputare sopra come fanno molti fanboy Intel o Nvidia.
    ha sempre portato innovazione tecnologica e, spesso, prodotti innovativi, garantendo un minimo di concorrenza sul mercato (e lo stai vedendo anche ora, per l’ennesima volta).

    …comunque tutto questo non centra un piffero con la tecnologia dei processi produttivi.

  • # 12
    Cesare Di Mauro
     scrive: 

    Leggendo i tuoi commenti su hwupgrade ho avuto il sospetto che fossi leggermente simpatizzante per AMD, ma nulla di che.

    Poi, purtroppo, ho avuto modo di leggere certi tuoi commenti su Bits & Chips, causa un link che un utente aveva postato nel thread Aspettando Zen, e quindi mi sono reso conto che sei, invece, un fanatico di questa marca.

    Non capisco come tu faccia a mantenere un profilo basso, quasi neutrale, su hwupgrade, mentre a scatenarti e mostrare la tua vera faccia su B&C, perché io quando scrivo mantengo sempre lo stesso profilo ovunque vada. Comunque sono affari tuoi: a me è servito capire chi sei.

    Sul resto ti risponderà Nessuno, visto che finalmente hai risposto ai suoi punti.

  • # 13
    Cesare Di Mauro
     scrive: 

    Ho dovuto lasciare il computer al piccolo, per cui non ho potuto scrivere un paio di cose.

    Primo, io non ho promosso nessuna marca, se ti riferisci al mio periodo di permanenza a Intel, e ti sfido a dimostrare il contrario.
    Se, invece, ti riferivi a prima, sono stato anch’io un fanboy AMD fino a circa 7 anni fa, ma col tempo mi sono staccato completamente da questo fanatismo, grazie a un miglioramento del mio bagaglio culturale e a una maturazione naturale in ambito professionale, che mi ha portato ad affrontare le questioni tecniche in maniera esclusivamente professionale.

    Secondo, hai affermato che nVidia farebbe marchette, e questa è un’affermazione grave se non suffragata da prove.

  • # 14
    lucusta
     scrive: 

    per le marchette, c’e’ anche un preziario on line, basta che cerchi.
    non sono certo il primo a dirlo, e c’e’ chi ne ha ben donde da sparlarne, visto che faceva parte del ramo informazione.

    per quanto riguarda commenti su Zen, c’e’ poco da essere fanboy, e un progetto decisamente valido sotto ogni aspetto, soprattutto in rapporto quanto la stanno vendendo come street price, con il 1700 a 265 euro.
    ha avuto il merito di sbloccare un mercato congelato fin dalla crisi del 2012, in cui l’IT non ha fatto nessun investimento in R&D e produzione… quindi si, sono simpatizzante AMD, perchè oggi potrei acquistare una CPU a 265 euro che ha prestazioni nettamente superiori alla migliore offerta mainstream Intel, che ancora chiede 350 euro per un quadcore.
    Intel ha accusato il colpo, dovendo porvi rimedio con una certa lena, sennò perdeva gran parte dei suoi simpatizzanti.
    quindi Zen ha il merito di aver fatto entrare i quadcore nella fascia bassa del mercato, e non come CPU di punta del mainstream.
    lasciamo stare poi TR e la serie HEDT, che sono tutti ottimi processori, ma…su questo settore conta il prezzo, e il 1950x è inarrivabile per Intel, almeno oggi.

    per quanto riguarda la tua persona, non ti ho detto che promuovevi le CPU Intel, almeno nei commenti che ho letto sul forum di HWUPGRADE (ma ne eri sicuramente simpatizzante), e piu’ di una volta ne abbiamo valutato sia i pregi che i difetti in relazione alla concorrenza..
    rentiti conto che in quel forum c’e’ ancora chi sostiene che Zen sia una CPU fallita (e pure fallata), succube di tutto il marketing che c’e’ dietro (ivi compreso strutturare test delle review per far figurare meglio tizio o caio, e sai che è molto facile farlo… il difficile è produrre un test acritico ed imparziale).

    per il resto… abbiamo già ampiamente discusso (ed in piu’ occasioni… io, fortunatamente, sono riconoscibile perchè uso solo un alias su chat o forum, usinet o chi ce sia… da 25 anni).

  • # 15
    Nessuno
     scrive: 

    Come sospettavo, papiri di sciocchezze spacciate per verità, come ti ho già visto fare più volte. Purtroppo qui non sei su HW Upgrade, Chips&Bits o TomsHW dove ti ho visto scrivere le peggio cose (ma alla fine i 400W chi doveva usarli per rendere più del 1.3 di una GTX1080Ti?)

    @Cesare, prova a leggere i suoi commenti su TomsHW e se sopravvivi dalle risate poi torna pure qui con noi.

    @lucusta
    Cominciamo con il basilare: avresti annientato il mio articolo scrivendo quelle baggianate da fanboy?
    Allora cominciamo a veder quanto infantile sei nelle tue argomentazioni. D’altronde un fanboy è come un bambino che crede di poter spiegare come funziona il lancio dello Shuttle creandosi teorie e leggi tutte sue e mischiandole con un po’ di Pongo per mettere le pezze là dove non arriva con la logica le spaccia come verità che annienta tutte le altre teorie (o la realtà stessa). I miei nipoti sono stati uno spasso nel periodo della loro vita in cui raccontavano queste cose, per cui con te sono a mio agio.

    Partiamo da IPC, instructions per clock. Parli di IPC (teorici) di una intera GPU, che non ha nulla a che vedere con l’architettura che usa, ma solo da quante unità di calcolo ha attive.
    Secondo il tuo ragionamento per cui Polaris 11 sforna più TFLOPS teorici del GP107 anche il GP102 che ha molti più IPC (secondo tua descrizione) del GP107 è una GPU migliore di questa.
    Mi sembra che manchino un po’ di cosine di cui tenere conto (tipo lezione 1 di questo stesso articolo, le GPU sono dispositivi di calcolo che possono avere in teoria qualsiasi dimensione e consumo per raggiungere un arbitrario valore prestazionale… limitazione principale? Il costo).
    Il problema con tutti i microprocessori (CPU o GPU che siano) è che puoi solo calcolare “un” IPC teorico massimo (usando l’istruzione che impiega meno tempo e compie maggiori operazioni simultaneamente, ma da sola non produce certo lavoro utile) o uno reale relativo ad un certo lavoro svolto che comprende considerare come tutte le altre istruzioni e risorse di supporto al calcolo come banda, cache e memoria, ma su GPU anche TMU, ROP e geometry engine siano realmente efficaci. Comparare una GPU da centinaia di unità di calcolo (che necessitano anche di molte altre unità di calcolo per realizzare un lavoro utile) con il P4 monocore già dimostra che non hai ben in mente come questi dispositivi funzionano (in verità lo so che lo sai, ma il tuo fanboysmo ti ha fatto sbandare un pochino annebbiandoti la vista). Inolte qui stiamo parlando del lavoro a cui queste GPU sono dedicate: i videogiochi. Quando vedrò server HPC montare Polaris 10 e GP104 allora torneremo a parlare di prestazioni assolute e prestazioni su W (che in un server HPC sono più importanti di quelle assolute). I confronti tra Intel e IBM li trovi proprio quando li valuti per lo stesso scopo per cui vorresti usare o una o l’altra soluzione (in rete ne trovi alcuni). Comparare il GP107 con Polaris 11 è più che logico e valido essendo 2 GPU che vanno a fare lo stesso lavoro nello stesso mercato nella stessa fascia.
    Spennellato questo scarabocchio dalla lavagna delle (s)conoscenze, partiamo dai dati reali, non quelli che tu vuoi che siano:
    Polaris 11: 123mm^2
    GP107: 132mmq
    Differenza in dimensioni: 7% di Polaris 11.
    Differenza in prestazioni nei giochi 20%. (https://www.techspot.com/review/1430-radeon-rx-560-vs-geforce-gtx-1050/)
    Tu hai preso i dati di comparazione tra la 560 e la 1050, che è la versione castrata del chippetto. Il chippetto completo di nvidia va di più nonostante consumi meno (as said).

    La disquisizione sulla creazione di 2 linee diverse per un solo chip si chiama analisi di strategia e non analisi di processo produttivo. D’altronde Polaris 11 ha già problemi a stare dietro al GP107 che una versione castrata da vendere a costi ancora più bassi probabilmente lo rende completamente anti economico. Ma questo non lo so io come non lo sai tu. AMD ha semplicemente deciso che le versioni difettose vanno nel cestino della spazzatura (per ora, poi magari in futuro le tirerà fuori in un probabile ennesimo rebrand, in un modello per Apple o per il mercato cinese). E l’aumento della tensione non è certo quello che fa funzionare i chip difettosi (sebbene come ho detto nell’articolo aiuti ad avere un maggior numero di pezzi “deboli” che comunque funzionano rispettando i parametri (alti) necessari ad AMD per competere (non lo dici ma se ci pensi se competesse con frequenze minori, d’altronde in TFLOPS teorici è migliore, avrebbe sicuramente meno bisogno di questo approccio con le tensioni, ma l’architettura è questa e questo necessita per non restare sugli scaffali).
    Per Polaris 10 AMD ha 3 linee, per esempio (nvidia per il GP104 solo e sempre 2), quindi le rese non sono quelle che vuoi farci credere in questo caso.
    Io non ho parlato di strategia adottate dalle due aziende in questo articolo (ne ho parlato in quelli precedenti) ma se vogliamo parlarne anche qui parliamo dei margini che nvidia ottiene dai suoi prodotti rispetto a AMD. Quando ti ho detto “diciamo pure assunzione che trova conferma nei fatti” sottintendendo le trimestrali di nvidia e che da qualsiasi punto di vista si guardava comunque ci si trovava a vedere la stessa cosa, non ho mica parlato a caso: nvidia ha un margine migliore, ovvero il prezzo applicato da AMD sta molto più vicino a quello che è il costo di produzione, e questo è vero per tutti i chip, da quello più grande da 480mm^2 (con HBM2!) che riesce a malapena ad eguagliare quello della rivale da 314mm^2 (sempre una grande architettura questo GCN che non scala, perché non ne parli? Ma, non sei fanboy, sei un appassionato a cui non piace la disinformazione… la teoria dei 400W del GP102 era pura informazione, vero?) a quello minuscolo da 123mm^2 che prodotto con lo stesso PP della concorrenza soffre in prestazioni e consumi.
    Il che vuol dire che nvidia ha costi di produzione inferiori. Non importa se sia dovuto al PP di TMSC migliore (è AMD che ha scelto di smarcarsi), alla resa, alla architettura che funziona meglio e non dà tutti questi problemi che tu credi che dia. Non lo sappiamo. SAppiamo però i fatti da cui possiamo trarre qualche deduzione.
    Ti ricordo, semmai non lo avessi letto nelle puntate precedenti come aneddoto, che mentre AMD si gongolava della falsa comparazione tra il minuscolo Polaris 11 e GTX 950, aka GM106 castrato, nvidia stava sfornando già da tempo il GP100 (600mm^2 di GPU), primo chip della linea Pascal, quindi direi che problemi di produzione non sembra averne avuti (è la prima volta dopo Fermi che sforna il chip più grande prima degli altri). Comunque sia, a nvidia il suo chip costa meno di quello che AMD gli rifila come antagonista che a parità di prestazioni è sempre un chip più grande e più affamato di energia (più costi per AMD, più costi per gli AIB, più costi per l’utente).
    Nel confronto di GPU realizzate con PP TMSC vs PP GF (tipo Polaris 10 e GP104) le GPU AMD hanno il vantaggio di essere il 10% più piccole per PP più denso, quindi per fare i conti relativi alla architettura e non al PP, Vega con TMSC sarebbe 530mm^2 e Polaris 10 253mm^2. Se ancora parli di architettura pensata per andare meglio, future proof o qualsiasi altra sciocchezza che un vero fanboy può inventarsi per adeguare la realtà con tanto (ma tanto) Pongo, mi spiace, ma è chiaro a tutti l’architettura AMD va meglio SOLO quando è più grossa e consuma di più (lezione numero 1, te la ripeto, le GPU sono dispositivi di calcolo che possono avere teoricamente qualsiasi dimensione e consumo per raggiungere un determinato target di prestazioni.. limitazione? Il costo e infatti il bilancio di AMD dice che le sue GPU costano di più a parità di prestazioni, ma solo in DX12 con motore ottimizzato ad hoc, altrimenti non bastano né i mm^2 né i W in più a fare meglio).

    Tornando al discorso frequenza, IPC e Pentium 4, volevo farti notare che quando si fa un trade off tra prestazioni e consumi mettendo molte più unità di calcolo che girano a frequenza minore il vantaggio che si ottiene (o si dovrebbe ottenere se tutto è a posto) è l’efficienza termica. La strategia del P4 era pensata proprio a sfruttare l’opposto (trade off di costi): minore spazio, minore unità (= minori costi produttivi), maggiori consumi (fino a quando poi diventati non gestibili perché il vantaggio portato dai nuovi PP non è stato quello ipotizzato).
    Quando hai un prodotto che ha più unità di calcolo, usa più silicio (= maggiori costi, da teorie vere non inventate), gira a frequenza minore (quindi in teoria meno tensione e scarti) ma poi consuma più energia (e siamo a livello del limite di gestibilità anche qui) significa che hai un grave, gravissimo problema rispetto a chi ottiene le medesime prestazioni con chip più piccoli e che consumano molto meno. Non c’è teoria fanboystica che tenga. Il problema c’è, si chiama architettura e a meno di non essere Intel che sforna un PP migliore della concorrenza (tutta) che copre le magagne, se hai quell’handicap rimani secondo, e in una gara a 2 significa arrivare ultimo.
    E se avessi capito almeno la metà di quanto ho scritto nell’articolo capiresti che non è il PP la causa, ma l’uso esclusivo di GF può essere visto come un tentativo di trovare un rimedio smarcandosi dalla concorrenza visto che l’architettura a parità di PP “non ja fà”, perché questo tipo di problemi AMD li aveva anche quando usava TMSC (GCN 1.2 vs Maxwell).
    In una gara velica è quello che vedi quando l’inseguitore nonostante sia in scia continua a perdere terreno dal leader per problemi intrinseci alla barca non alle condizioni di gara che sono le medesime per entrambi, e quindi cambia il lato “di attacco al vento” uscendo dalla scia. Se il vento ruota a favore è il primo a beneficiarne con la rotta corretta verso il traguardo e può sperare di riavvicinarsi o superare quando l’avversario si ritrova a dover virare troppo avanti, se non lo fa, be’, arriverà sempre secondo (e ultimo).
    E qui abbiamo visto proprio questo: nonostante PP più denso (tale da portare 530mm^2 a 480), quindi riduzione dei costi di circa il 20% (secondo le regole che si insegnano nelle scuole, quelle inventate di sana pianta dai fanboy ancora devono essere prese in considerazione) AMD insegue in costi e performance. Ma fai sempre in tempo a scrivere un articolo su questo stesso sito che spieghi per filo e per segno come e perché il costo per mm^2 di AMD (più eventuale HBM2) sia inferiore a quello di nvidia tale per cui Vega da 480mm^2 con HBM2 castrato (aka Vega56) costi meno del GP104 castrato più GDDR5 (aka 1070) anche e va il 10% in più. E quindi sia un concorrente reale per nvidia (lezione numero uno da ripetere io l’hai capita?).
    La realtà è che a parità di dimensioni (= costi) l’architettura ancora non è livello della concorrenza. Non parliamo a parità di consumi! E la prova è nell’aumento dei prezzi tra Kepler e Maxwell, poi tra Maxwell e Pascal e quello che è ormai sicuro tra Pascal e Volta (il chip crescerà di dimensioni, la concorrenza è nulla completamente… perché quindi guadagnare di meno?).

    Puoi parlare di tutti le teorie sul tipo di programmazione necessaria per far andare meglio le GPU di AMD (che nel frattempo per recuperare terreno hanno perso anche loro i famigerati altri numeri dei conti DP anche se ci si ostina a dire che AMD ha una sola architettura per tutto… mah), ma non è questione in primis da argomento di processo produttivo e in secondo luogo non è prova di avere realizzato una architettura “future proof”; semplicemente quello che cerca di fare AMD (in parte riuscendoci al primo giro) è convogliare i programmatori a ottimizzare per la propria architettura (sfruttando la leva console), cosa che quando succedeva per nvidia era una cosa da carcere a vita per tutti. Oggi giochi come GTA 5 o Project Cars sono di parte (quindi da escludere dai bench), giochi come BF1 su Frostbyte di DICE o l’ottimizzazione del motore di Hitman (e poi Deus Ex) realizzati espressamente per l’architettura GCN AMD invece è “normale amministrazione”, permettendole di guadagnare “ben” il 10%. Se invece di fare ciò i programmatori ottimizzassero per nvidia vedresti quanto peggio ancora sarebbe l’architettura realizzata da AMD (perché starebbe indietro di ben più del 10%). Perché non è questione di “future proof”. E’ la vecchia diatriba se i motori debbano essere realizzati per una o per l’altra architettura e sappiamo (almeno io lo so, non so tu) che con le DX12 è molto più facile scrivere un motore che vada molto meglio con una rispetto all’altra e che i driver hanno poco spazio di manovra per correggere la cosa.

    Detto ciò, ora davvero ho esaurito il mio tempo libero da dedicarti.
    Se l’articolo non ti è piaciuto, mi spiace, me ne farò una ragione.
    Ma venire qui a darmi del fanboy perché ho descritto una situazione così come è rappresentata DAI NUMERI E DAI FATTI invece che per assurde teorie inventate oggi per ieri ma che dimentichiamo per il domani (come hai già dimostrato di fare in passato), mi sembra alquanto irrispettoso, e per tanto ti chiedo di tornare a scrivere i tuoi improbabili post basati su oniriche teorie in altri forum dove è più facile che trovi addetti che ti diano maggiore soddisfazione e puoi intrattenere con le risate folte schiere di gente più competente di te che legge quei forum 8anche se non vi partecipa, forse per vergogna).
    Oppure chiedi che ti venga pubblicato una articolo dove scrivi cose argomentate e documentate su fatti e teorie reali, non inventate la notte per far combaciare la realtà il giorno dopo. Il tempo degli epicicli è finito da un pezzo.
    Se ti impegni ce la puoi fare. Nel frattempo aspettiamo che nvidia ci dia qualche lume in più su Volta consumer, visto che ciò che è stato fatto per quello professional va oltre ogni cosa che era immaginabile.

  • # 16
    lucusta
     scrive: 

    ancora ci stai sbattendo la testa LastofUs.

    quello che dici non centra nulla con i processi produttivi.
    ne con un processo tecnologico basato sul silicio, ne su qualsiasi processo produttivo industriale.

    non hai minimamente scalfito il sunto del discorso: produrre bilanciando costo e impresa, per ottenere un prodotto da inserire nel mercato;
    e non un mercato generalizzato, ma il mercato che avra dinamiche concorrenziali e aspetti accessori (le così definite mode, quelle statistiche, pero’) e che oggi stimi per come questo sarà quando hai finito d’ingegnerizzare il prodotto e la sua produzione; prodotto che incominci a sviluppare ora e che finirai d’ingegnerizzare dopo anni.
    ed il tutto solo con la tecnologia che ti puoi permettere, che hai o che dovrai acquistare o sviluppare te stesso.

    quello che hai scritto non c’entra nulla; è solo per vedere chi ha la presunta barretta piu’ lunga.

    nello specifico, giusto per farti rendere conto, AMD non ha costruito un’architettura future proof;
    ha invece costruito un’architettura secondo le previsioni che lei stessa ha fatto sul futuro, la sua interpretazione di futuro, per sua propria concezione e le condizioni che aveva in quel momento.
    nessuno puo’ prevedere il futuro a breve termine, almeno su queste cose, perchè il mercato è concorrenziale e volubile, influito da centinaia di fattori, non ultimo il denaro che circola.
    è piu’ facile invece prevederlo nel lungo periodo, e tale ha fatto: le frequenze delle CPU non potranno salire all’infinito e la fame di potenza computazionale cresce sempre di piu’, quindi le CPU diverranno altamente parallelizzate e di conseguenza anche il codice che dovrà giraci sopra.
    non è un caso che AMD ha cercato di accaparrarsi le console, incipt del mercato videogiochi.
    probabilmente hanno pensato che se avessero imposto la propria architettura gli sviluppatori di videogiochi si sarebbero adeguati…
    certo non hanno fatto i conti con una crisi che ha tagliato le gambe, a qualsiasi mercato, perdurata 4 anni, e che ha disincentivato qualsiasi investimento in cose che non avrebbero portato denaro immediato (quindi ricerca e sviluppo).
    è per questo che oggi siamo ancora a 14nm con chip grandi come piastrelle del bagno (o si è stati costretti a fare CPU a moduli replicati).

    questo potevi scrivere… che il mercato è legato alla produzione e la produzione alla ricerca e sviluppo, che è legata a doppio filo agli investimenti, e quindi all’andamento del mercato.

    il resto te lo dico la prossima volta…
    parlare di tecnologia con te mi annoia, lo sai.

    PS:
    per dare un minimo di validità ai discorsi che hai fatto ci vogliono numeri veri; resa ottenuta e obbiettivo di resa prefissato in progettazione.
    senza quelli non puoi nemmeno partire sul discorso generale di un processo produttivo, figuriamoci confrontarli e senza normalizzare i parametri.

  • # 17
    Nesuno
     scrive: 

    Va be’, continua a vaneggiare per non scontrarti con la realtà.
    I numeri che ho portato sono quelli reali.
    Tu cerchi solo una scappatoia per ammorbidire la supposta ad AMD (senza per altro trovare il modo di trasformarla in una caramella).

    E dopo aver inutilmente parlato di strategie, investimenti e R&D di lungo periodo, cose cui cosa parlo negli articoli, ma tu evidentemente non li hai letti e vuoi solo scusanti, in un articolo che vuole solo confrontare il silicio prodotto, la conclusione è che quello che viene fuori dalle fabbriche di Nvidia OGGI, come 6 anni fa, costa meno e va di più. Tutti i dati portano a questa conclusione.
    Per il contrario sei tu che devi portare numeri veri e non i tuoi vaneggiamenti. Vai comincia a scrivere qualcosa dove nelle prime 2 righe metti un numero reale da cui cominciare un discorso serio.
    Finora, se non te ne sei accorto, non hai portato uno che sia un dato attendibile, un numero, un fatto. Solo pseudo-paroloni e confronti volutamente errati come il confronto tra Polari 11 e GP107 *(vedi nota sotto).
    Io nel mio articolo i numeri e i dati ce li ho messi. E li ho commentati. Tu stai solo vaneggiando, tanto che a puntuale richiesta di delucidazioni non rispondi e passi ad altro, e continuare con i tuoi post non fa altro che confermare come i fanboy frustrati non riescano a digerire in alcun modo la realtà (quando hanno le capacità per comprenderla, e non è sempre così come stai dimostrando) e necessitano scappatoie di fantasia in cui rifugiarsi.
    Non è su queste basi che intendo continuare il discorso.

    Per quanto riguarda Lastofus, mi sembra che sia uno di quelli che ti dà pan per focaccia in tutte le tue blaterazioni da fanboy. Ecco, continua con lui le tue inutili proteste al mondo che critica AMD, che sono dibattiti alquanto divertenti (sogni vs fatti). Lascia che qui ci sia la tranquillità di valutare la REALTA’ così come è e al massimo di obiettare ad una valutazione in maniera puntuale cosa che tu non hai fatto perché evidentemente non hai trovato una interpretazione migliore, che io pure ho richiesto nell’incipit dell’articolo perché mi piace lo scambio di idee, interpretazioni e punti di vista basati SUI FATTI, ma tu vuoi solo distruggere tutto il sistema di base per costruirne uno ad hoc utile solo a dimostrare quello che vuoi.

    Per un discorso serio riguardo a GCN, parti pure dalla questione che la versione a 64CU proprio non vuole sapere di scalare, risultato del lavoro di R&D in cui crisi e le altre sciocchezze che hai scritto non contano nulla; semplicemente l’architettura non scala nonostante i 10 anni da quando è stata pensata ad oggi e se non cambia non ci sarà alcuna possibilità per AMD di fare concorrenza a Nvidia nonostante le super ottimizzazioni che richiede ai programmatori per fare andare la sua architettura in maniera decente.
    Io partirò proprio da quello quando parlerò di Vega, la super GPU di AMD GCN based da 480mm^2 (equivalenti a 530mm^2 sullo stesso PP di Pascal) con HBM2 che ha richiesto (almeno) 24 mesi di sviluppo per avere le prestazioni di un chip da 314mm^2 e GDDR5X uscito sul mercato 15 mesi prima e pronto ad essere sostituito dalla nuova generazione 6 mesi dopo e per i confronti di aree e consumi farò riferimento a questo stesso articolo dove strategie, crisi di mercato, console, desideri e sogni non cambiano i numeri riportati che descrivono perfettamente lo stato dell’arte delle GPU sul mercato oggi. E ci sarà ancora qualcosina da dire riguardo alle modifiche dell’architettura che riflettono quelle di strategia (per la cui cosa ti invito a leggere le puntate precedenti sullo sviluppo delle architetture, dove magari trovi qualcosa di interessante che può aprirti la mente) e quello della strategia che cambia rispetto alle prestazioni ottenute (sono cose che vanno di pari passo, se non te ne fossi accorto in questi 25 anni in cui dici partecipare al mondo della tecnologia).

    Au revoir ad un tuo articolo sullo sviluppo di GCN visto dagli occhi di un fanboy. Sarebbe davvero interessante (e sicuramente super divertente). Visto che sembri così svelto a scrivere, probabilmente non ti occorrerà più di un paio di giorni. Lo aspetto. Non deludermi.

    * lo hai fatto apposta o davvero sei così confuso che credi che Polaris 11 vada meglio del GP107 e che competa in prestazioni/area o in prestazioni/W? Polari 11 avrebbe rese perfette perché esiste solo 1 variante sul mercato mentre riguardo a Polaris 10 che ne ha ben 3? Ah, no, lì nulla. Lanci sempre il sasso e poi non vai a fondo della questione perché capisci da solo a metà strada che le tue teorie sono fallate. E la questione che aumentare le tensioni permetta il 99% di resa è la storiella più divertente tra quelle raccontate dai bambini con il Pongo a tenere insieme il tutto. E sarei io il fanboy che racconta fandonie prezzolato da Nvidia. E mi ostino a perdere altro tempo con te.

  • # 18
    Cesare Di Mauro
     scrive: 

    @lucusta: alcune precisazioni su quello che hai scritto.

    Intel non ha aumentato lo spessore dei transistor passando da Skylake (14nm) a Kabylake (14+nm), ma la forma. Mesi fa tuttodigitale postò un’immagine che confrontava i due tipi di transistor.
    Ma nulla è dato da sapere delle rese, a parte che soltanto dopo più di un anno dall’introduzione di Broadwell, e quindi sostanzialmente con l’arrivo di Skylake, Intel ha finalmente smesso col bagno di sangue, ottenendo le rese che si aspettava. Di questo è circolata una notizia su hwupgrade.
    Mentre delle rese di Kabylake non si sa nulla, ma immagino che siano almeno quanto quelle di Skylake, visto che è cambiata, per l’appunto, la sola forma dei transistor.
    Se hai delle notizie diverse in merito, non hai che da postarle.

    Riguardo ad AMD, qui nessuno c’ha sputato sopra. L’autore del pezzo ha esposto ben precise, nonché ampiamente motivate, critiche ai suoi prodotti.
    Come ha criticato nVidia per il buco nell’acqua di Fermi, se hai avuto modo di leggere i suoi articoli. Ma in questo caso non ti ho sentito rinfacciargli di essere pro-AMD, e un hater di nVidia. Le critiche, a quanto pare, funzionano solo a senso unico: suscitano scandalo e indignazioni soltano se sono contro AMD.
    Inoltre il fatto che AMD abbia portato innovazione NON la esenta dall’essere criticata. Al pari di qualunque altra azienda, quando commette errori. Non mi pare di aver visto gente evitare critiche a Intel a causa del mega-flop di Pentium 4, o di Itanium. Anche qui, mi pare che le uniche critiche che danno fastidio siano esclusivamente quelle ad AMD, che a tuo dire dovrebbe essere sempre graziata.
    E no, AMD non ha SEMPRE portato innovazione tecnologica. Si vede che non conosci la sua storia.

    Per le marchette di cui hai accusato nVidia, aspetto ancora le tue prove, perché le parole da sole non bastano. Come al solito, l’onere della prova è a carico di espone una tesi: TU, in questo caso.

    Riguardo Zen, non capisco perché tu ne abbia parlato così tanto. Io NON l’ho tirato in ballo in nessun modo, e non capisco perché sei partito a ruota libera. Ho semplicemente affermato di aver letto i tuoi commenti su Bits & Chips quando qualcuno postò un link nel thread “Aspettando Zen”. Dunque Zen non c’entra proprio nulla.

    Riguardo me, in precedenza hai affermato testualmente che avrei promosso i prodotti Intel per anni. Questo è assolutamente falso, come già detto. Dopo ti sei corretto affermando che simpatizzassi per Intel, che è una cosa completamente diversa (e penso anche normale: se lavoro per Intel, almeno un po’ di simpatia per i suoi prodotti è scontata. Com’è scontato che adesso simpatizzi per BMW, visto che ci lavoro). Ma ciò non ha assolutamente nulla a che vedere coi miei post, che hanno affrontato le questioni sul piano strettamente tecnico, e in maniera professionale.
    Io sono un professionista che sa il lavoro che c’è dietro ad aziende come Intel, AMD, ARM, nVidia, Apple, ecc.. E ne ho pieno rispetto. Per questo ho affrontato le questioni in maniera tecnica e professionale, senza lasciarmi scadere in fanboyismi. Perché i fanboy sono ciecamente attaccati alla maglia, e non hanno la minima idea che anche nelle aziende concorrenti c’è chi si fa il mazzo per portare il pane a casa. Io no. E se c’è qualcuno che mi accusa di fanboyismo, o addirittura di promuovere una marca, LO DEVE DIMOSTRARE.

    Infine riguardo ai prodotti e alle architetture, il nocciolo della questione dovrebbe essere di una banalità disarmante: conta soltanto quello che un’azienda riesce a produrre per una determinata fascia di mercato. Quelle sulle architetture per il futuro et simila sono soltanto delle pippe mentali.
    AMD ha prodotto GCN, che però non s’è dimostrata particolarmente performante, e l’ha riproposta nelle sue varie declinazioni e revisioni.
    nVidia ha fatto lo stesso partendo da Fermi e facendo evolvere la sua nuova architettura (ed è quindi del tutto falso che la cambi come le mutande: ogni anno una nuova).
    Entrambe si scontrano sugli stessi segmenti di mercato, e finora quella che ha avuto la peggio è stata sostanzialmente AMD, mentre nVidia prese una gran botta con Fermi (ma dopo ha capitalizzato la nuova architettura introdotta).

    Una nota sul mercato console. AMD se l’è accaparrato soltanto perché era con l’acqua alla gola, e s’è accontenta dei bassissimi (rispetto alle GPU e CPU) margini pur di avere un po’ di ossigeno nelle sue casse, e sfruttando al contempo i soldi di Sony e Microsoft per far evolvere i suoi processori e le sue GPU.
    Ciò non ha nulla a che vedere con presunte previsioni sul lungo periodo.
    La cosa positiva è che, ovviamente, le sue GPU (e CPU) sarebbero diventate privilegiate agli occhi degli sviluppatori di videogiochi.

    @Nessuno: non ho mai letto TomsHW, e da quel che dici penso di aver fatto veramente bene. :)
    In tutta onestà non ho alcuna voglia di perdere di tempo a leggere chilometri di papiri scritti da fanboy. M’è bastato ciò che ho letto su Bits & Chips, e pure su HWUpgrade, dal quale però mi sono quasi del tutto staccato causa mancanza di tempo: troll e fanatici hanno tempo illimitato, ma io no.

    Non avevo capito la citazione di lucusta su LastofUs, ma dopo il tuo commento m’è chiaro.

  • # 19
    lucusta
     scrive: 

    Nessuno:”per ammorbidire la supposta ad AMD”

    è questo che sei…
    se ragioni sulla tecnologia e ci scrivi sopra dovresti essere come minimo superparte, e tu non lo sei mai stato.
    In piu’ non hai ragionato sulla tecnologia, ma ha chi ha la barretta piu’ lunga.

    non spacciare per rivisitazione tecnica quello che è solo il delirio di un appassionato di parte.

    “Io partirò proprio da quello quando parlerò di Vega, la super GPU di AMD GCN based da 480mm^2 (equivalenti a 530mm^2 sullo stesso PP di Pascal)”
    ma come li fai sti conti?
    Vega sfiora 12.5 miliardi di transistors;
    P100 è da 15.3 miliardi di transistors per 610mm^2
    viene da sola la proporzione:
    12.5*610/15.3=498mm^2

    quindi?
    ennesima buca presa nel non capire che quei processi, per quegli specifici disegni, non sono così distanti l’uno dall’altro?
    che c’e’ meno del 4% di differenza dimensionale qualora tu non voglia esagerare sulla densità di transistors?

    guarda.. fattele spiegare da Cesare certi presupposti, io mi sono annoiato di ripeterteli.

  • # 20
    lucusta
     scrive: 

    Cesare:
    Spessore del die… dichiarato dalla stessa Intel, e non possibile da ricavare da un’immagine… (scusa, dai..)
    per il discorso di rese, se non si conoscono quelle per wafer, non si puo’ stabilire nulla.
    la considerazione parte esclusivamente dal fatto che per fare un die piu’ spesso ti occorre un wafer piu’ spesso, e se fai wafer piu’ spessi ne ottieni di meno dallo stesso cilindro madre di silicio.
    quindi ottieni un numero inferiore di wafer per cilindro, quindi meno CPU per cilindro, tutto qui.
    punto.
    logica semplicistica, ma molto efficacie.

    “Riguardo ad AMD, qui nessuno c’ha sputato sopra. L’autore del pezzo ha esposto ben precise, nonché ampiamente motivate, critiche ai suoi prodotti.”
    ma… l’articolo non erano processi produttivi?
    ancora batti su questo punto?
    non puoi introdurre un discorso di pura teoria come quello di come s’imposta un processo produttivo reale se non introduci ben altri fattori che ho mensionato sopra.
    non è cosi’ che funziona, e dovresti saperlo anche tu, lavorando nella grande industria.
    nel tuo caso se non hai gente per finire un progetto assegnatoti (approposito, complimenti per il salto), ti devi arrangiare con quello che hai; se non hai personale competente o lo addestri, o lo acquisti, o semplicemente ti arrangi.
    ed il tuo ramo non implica la produzione di un prodotto reale, che segue le leggi della fisica reale, ma uno concettuale.
    quindi che critiche sollevi?
    ad un marketing incapace di penetrare nel mercato e produrre valore?
    a un reparto tecnico retto col nastro isolante che non ha fondi di ricerca per che non c’e’ valore prodotto?
    a concorrenza sleale (sancita) che ha eliminato gran parte di questo valore?
    dovresti diventare uno storico contemporaneo, non un analista di settore (figuriamoci un articolista)!!!

    “Per le marchette di cui hai accusato nVidia, aspetto ancora le tue prove, perché le parole da sole non bastano. Come al solito, l’onere della prova è a carico di espone una tesi: TU, in questo caso.”
    non lavoro nel campo dell’editorialia specializzata in HW, quindi di sicuro a me nvidia non ha dato nulla e non faccio accuse per parola di altri.
    chiedi a chi ci lavora (chiedi a fott… magari in privato si sbottona).

    “Riguardo Zen, non capisco perché tu ne abbia parlato così tanto. Io NON l’ho tirato in ballo in nessun modo, e non capisco perché sei partito a ruota libera. Ho semplicemente affermato di aver letto i tuoi commenti su Bits & Chips quando qualcuno postò un link nel thread “Aspettando Zen”. Dunque Zen non c’entra proprio nulla.”
    non mi sembra che 4 righe sia parlarne molto, ma è giustificato dall’input che hai dato; tra l’altro sarei curioso di capire razionalmente a cosa ti riferisci (aka: linka, che così mi rinfreschi la memoria).

    “Io sono un professionista che sa il lavoro che c’è dietro ad aziende come Intel, AMD, ARM, nVidia, Apple, ecc.. E ne ho pieno rispetto. Per questo ho affrontato le questioni in maniera tecnica e professionale, senza lasciarmi scadere in fanboyismi. Perché i fanboy sono ciecamente attaccati alla maglia, e non hanno la minima idea che anche nelle aziende concorrenti c’è chi si fa il mazzo per portare il pane a casa. Io no. E se c’è qualcuno che mi accusa di fanboyismo, o addirittura di promuovere una marca, LO DEVE DIMOSTRARE.”
    bhè, e la fai a me questa ramanzina?
    non sono io che sfrutto testate giornalistiche per sfogare la propria gioia d’essere un fan così affezionato.
    puoi cercare ovunque e noterai che, a richiesta, consiglio qualsiasi marchio, valutando sul pezzo e sulla concorrenza e sovente anche nvidia.
    difficile che vedi un mio commento (e specifico: COMMENTO non articolo) che non sia per rispondere ad una palese presa di posizione partigiana (e capita anche quando è palesemente a favore di AMD); facile che mi vedi rintuzzare risposte ai classici fanboy da forum, rincitrulliti dal marketing e da marchette giornalistiche.

    e a proposito: le Ti non arrivano a 400W, ma nemmeno a 2000mhz fisse, caro il mio Nessuno.
    arriverebbero a 400W (compreso consumo dei dispositivi di raffreddamento) se, a regime di temperatura, le potresti portare a 2ghz fisse e costanti.
    ma, anche qui, è un discorso molto piu’ lungo e ci ho provato a spigartelo, ma non sono così bravo quanto si creda… anche io mi fermo davanti all’impossibilità di spiegare le cose come stanno ad un fanboy sfegatato.

    “Una nota sul mercato console. AMD se l’è accaparrato soltanto perché era con l’acqua alla gola, e s’è accontenta dei bassissimi (rispetto alle GPU e CPU) margini pur di avere un po’ di ossigeno nelle sue casse, e sfruttando al contempo i soldi di Sony e Microsoft per far evolvere i suoi processori e le sue GPU.
    Ciò non ha nulla a che vedere con presunte previsioni sul lungo periodo.
    La cosa positiva è che, ovviamente, le sue GPU (e CPU) sarebbero diventate privilegiate agli occhi degli sviluppatori di videogiochi.”
    una critica semplicistica, la tua… molto comune nei forum.
    ma… hai mai lavorato come terzista nel campo produttivo?
    l’azienda per cui ho lavorato tanti anni era leader nel mercato mondiale per la produzione di specifici, e decisamente costosi, prodotti;
    producevamo, inscatolavamo, e distribuivamo questi prodotti sotto il nosto stesso marchio (in alcuni mercati in cui questo era conosciuto dal pubblico) e sotto quello di decine di concorrenti in centinaia di mercati (o vendevamo semplicemente il nostro bulk).
    il prezzo finale era piu’ o meno per tutti uguale.
    il rendimento maggiore lo avevamo, logicamente, con il nostro marchio, ma buono l’80% del prezzo degli altri marchi arrivava comunque nelle noste tasche ed era inutile introdurre il norsto prodotto con il nostro marchio in altri mercati in cui i nostri concorrenti spendevano parte del guadagno in marketing per darsi battaglia commerciale tra di loro (comprese pratiche anticoncorrenziali, mancette e via dicendo, e questa volta parlo di prove provate con sentenze in giudicato)…
    dove il marchio era prestente guadagnavamo di piu’, dove era assente non ci sprecavamo risorse, ma comunque la questione era una sola: producevamo come terzisti perchè non eravamo solo leader assoluti nella produzione, ma propriamente unici a produrre, potendo fare il buono ed il cattivo tempo, con netti vantaggi sul costo industriale dovuto alla cospicua quantità di produzione.
    alla domanda di conoscenti che mi chiedevano perchè non avessero mai visto il marchio della mia azienda, anche se io suggerivo che era (in quel ventennio) l’impianto di produzione piu’ grande al mondo per estensione e produzione di quel settore, la risposta era semplice: che usavano i nostri prodotti, ma non leggevano le didascalie del prodotto:
    venduto da…
    prodotto da…
    inutile spiegargli perchè conveniva per noi produrre anche per gli altri.

    quindi non giungere alla conclusione piu’ semplicistica della questione, perchè questo genere di questioni sono generalmente molto articolate e sfaccettate, composte da innumerevoli variabili ed una spiegazione semplicistica puo’ essere una mezza verità, ma anche una mezza stupidaggine.
    (e ti facevo piu’ scaltro, scusa se te lo scrivo).

    per il resto, cercate di curare gli argomenti e non chi ve li propone.
    la demolizione mediatica (con annessi insulti) con me non ha mai funzionato, anche se c’e’ chi ci prova ogni volta;
    inutile che continuiate su tale strada…. vi porterà solo a mostrarvi come persone poco propense al dialogo e, di solito, chi fa parte di queste persone non è molto interessante.
    rispondete argomentando sul punto, o state in silenzio.

  • # 21
    Nessuno
     scrive: 

    Quello che deve argomentare punto per punto sei tu, visto che nell’articolo ci sono numeri, tabelle e dati REALI = è la fotografia di quello che viene prodotto messo a confronto.
    I perché, i ma, i forse, ma potrebbe essere, se fosse, ovvero le giustificazioni a quello che è rappresentato da numeri inattaccabili (prova a demolirli se ne sei capace invece di parlare di cose che non c’entrano un bel niente!) li stai creando tu da buon fanboy (ah, quanto vi toglierei la libertà di commento, sarebbe per voi la tortura maggiore senza ombra di dubbio).

    Non hai capito una cosa che ti ripeto:
    chi è appassionato di tecnologia legge, guarda, studia, analizza (magari sbaglia anche) e cerca un perché alle cose partendo dai fatti (magari non in maniera accurata perché gli è sfuggito qualcosa, da cui l’invito in incipit ad indicarmi cosa, dove, come e quando).
    Il fanboy parte dalle proprie convinzioni e idee e comincia a creare le teorie affinché i numeri abbiano il senso che lui gli vuole dare.
    Infatti sei partito dicendo che senza i numeri delle rese non si può fare alcun discorso, cosa assurda, perché le rese sono una parte del discorso, non il principio e neanche la fine e soprattutto quelle che esse siano non cambiano i numeri di frequenze, voltaggi e consumi qui descritti e di certo, purtroppo per te, non migliorano le prestazioni di Vega nonostante quel popo’ di arsenale di tecnologie di cui dispone (che hanno un costo non indifferente, ma tu da fanboy fai finta che le rese alte per overvoltage* appianino tutto). Al massimo come stai cercando di fare tu dandole una fondamentale ma non reale importanza, crei giustificazioni e scusanti: pochi soldi, pochi ingegneri, poche risorse, pochi wafer, tutte cose che sono esenti dal discorso PP che proprio tu vuoi che venga osservato, ma che trovano cause storiche guarda caso trattate nelle puntate precedenti (che ti riassumo per evitare che travisi anche quello: bassi margini = niente soldi). In un discorso coerente, dove la colpa non è di un meteorite che ha colpito l’azienda decimandola di cervelli e risorse, ma di una scelta di sviluppo più che decennale che è stata discutibile sin dall’inizio e che ora porta a questi risultati, incarnati da Vega, la cui efficienza è in perfetta linea con i numeri che sono stati riportati in questo articolo per quanto riguarda l’energia e in quelli precedenti per le prestazioni assolute rispetto alle GPU della concorrenza. E tra parentesi, nessuno dei numeri descritti né prima né qui è lusinghiera dei risultati, e infatti vediamo cosa ne è di 4096 shader a 1600MHz con 480GB/s di banda ottenuta per costosa HBM2 con costoso e elaborato processo di montaggio, il tutto consumando la bellezza di 300W.
    Ah la coerenza di una serie di analisi che sui basano sui fatti e non sui desideri o nel tentativo di dare giustificazioni a questo o quello.
    E per dare ancora più senso alle analisi, anche questa volta il risultato finale è margine basso = pochi soldi per la prossima ricerca (per la quale si cercheranno nuove scuse, ah ma AMD non ha soldi, non ha risorse.. finché vende GPU che costano quasi come il GP100 al prezzo del GP104 di sicuro non farà mai soldi!!! Benedetto Ryzen che ha messo una pezza alla annosa perdita di soldi delle CPU che soffrivano dello stesso identico problema, così che forse per Navi un po’ più di soldini possono essere investi in R&D).

    Tu da buon fanboy sei partito con la teoria da te creata che tensioni alte = rese alte fino ad aumentarle al 99%. Deve essere che AMD ha trovato l’uovo di colombo che nessun altro ha scoperto. Che sciocchi!
    Per il resto, non hai ancora detto cosa non va nell’articolo ma ti sei solo lamentato per post e post del solo fatto che parla male di AMD quando in verità mette solo in chiaro quali sono i numeri che fanno funzionare i suoi prodotti (confrontati con quelli della concorrenza, che ahimè sono migliori) il che, come detto, è un modo per sapere dove siamo oggi per sapere dove andremo domani. E sia la “revisione” di Polaris che Vega sono pienamente nelle previsioni nonostante le dichiarazioni della dirigenza AMD (che ci ha invero preso in giro dai 2.5x di efficienza di Polaris e poi del Poor Volta, quello ovviamente da buon fanboy non lo dici mai… già tu sei solo per l’informazione corretta).
    Se i numeri qui descritti sono in accordo sia del presente che del futuro, significa che sono corretti. La teoria del perché siano quelli e non altri che desideri la lascio a te che da navigato fanboy puoi scrivere una bella storia fantasiosa a riguardo che vorrei leggere. Per cui scrivila, ti prego.

    Io nel frattempo mi limiterò ai fatti. As usual.
    E non mi stupirò di certo se le conclusioni che portano lasceranno con l’amaro in bocca i fanboy.

    E ora, davvero, saluti

  • # 22
    Nessuno
     scrive: 

    *per la questione overvoltage…
    mi viene il dubbio che il mocking Poor Volta(ge) fosse invece una indicazione che la questione delle tensioni sarebbero persino peggiorate per Vega invece che essere dirette alle prestazioni della concorrenza.

  • # 23
    lucusta
     scrive: 

    “Quello che deve argomentare punto per punto sei tu, visto che nell’articolo ci sono numeri, tabelle e dati REALI = è la fotografia di quello che viene prodotto messo a confronto.”…
    …”(prova a demolirli se ne sei capace invece di parlare di cose che non c’entrano un bel niente!)”.

    sono dati e tabelle di chi???? hahahah
    TomsHardware e techpowerup!
    non c’e’ bisogno di demolirli, lo fanno da soli.

    ogni sessione di test che fanno la svolgono sempre in modo differente dalla precedente, rendendo i dati assolutamente inconfrontabili, non imprecisi, ma proprio inconfrontabili, perchè partono da presupposti e condizioni differenti.
    fino a ieri Tomshw usava Metro per controllare i consumi in gioco, oggi usa TW3 sulla review della 56.
    prima usavano un 5960X overclockato a bomba, poi hanno detto che il 7700K a 4500mhz era il meglio, e la 56 l’hanno testata con un 6700K a frequenza default…

    non esiste una procedura delineata e acritica… che considerazioni ci vuoi tirare fuori da quei dati?

    o tu sei uno di quelli che pensa che realmente la bontà di una CPU appena uscita si puo’ giudicare da quanto fà in un gioco di 6 o 7 anni fa, era DX9 che a mala pena usa un paio di core, a 640×480??!
    o vogliamo parlare dei papiri che arrivano nelle redazioni che testano gli HW sul modo “consigliato” per testarlo, con tutti i software da usare e tutti i setting da impostare a dovere (PERCHE’ SENNO’ SI ARRABBIANO… anche seguire passo passo quelle gude è fare una bella marchetta).

    per poi leggere il primo pischelletto che ha studiato trattazione numerica dei dati analitici su topolino a sentenziare sul nulla di fatto.

    hai riportato rumenta, e ci hai congeniato discorsi assolutistici quando non erano neanche uno sguardo di sbiego della realtà, della vasta realtà.
    e ti ripeto:
    l’unica cosa esatta che hai messo sono le tabelline dei bios, perchè non si possono inventare di sana pianta senza essere poi smentiti.

    e, in questi post, ti stai manifestando non solo come di parte, ma proprio come un hater di un determinato marchio.
    buono o cattivo che sia si capisce immediatamente che meriti non glie ne darai mai, ma per partito preso… come il migliore dei fanboy…
    ciao ciao.

  • # 24
    lucusta
     scrive: 

    ed impara ad impaginare immagini in un html, che non si leggono.
    se devi trattare nuberi graficati o tabellati, permetti che si possano leggere.

  • # 25
    LastOfUs
     scrive: 

    Buongiorno,
    non volevo venire a infestare anche questo bel blog, anche perché ultimamente ho deciso di non postare più sui siti pieni di gente come lucusta che di informazione ne fanno davvero ben poca e scrivono solo per aumentare il proprio ego personale. Se l’utenza di quei forum ha il piacere di leggerlo e di votarlo (guardate chi lo vota per scoprire i fanboy AMD e il loro livello culturale), sono contento per loro. Tanto per quanto si sforzino la realtà rimane immune dai loro sogni, desideri e soprattutto occhiali distorsivi che danno mentire più a loro stessi che al resto dell’utenza meno sprovveduta.
    Il livello dei commenti è però sceso a tal punto che mi piacerebbe che si capisse da chi sono scritti. Diversamente da Nessuno io sono per la piena libertà di parola, che però valuto e giudico liberamente.
    Quindi non censurate lucusta, fate solo in modo che la stupidità di ciò che scrive sia portata a galla e non nascosta.

    Nessuno, non so quanto tu legga TomsHW dove ho partecipato lungamente proprio nel tentativo di ridimensionare personaggi come lucusta (sì, ho creduto presuntuosamente che si potesse fare come con ogni altra persona dotata di buon senso) che partono a scrivere papiri a ruota libera basati sul niente cosmico e che portano nel vuoto cosmico, senza una logica, un fatto a sostegno, un filo conduttore… l’importante per questo tizio è scrivere, scrivere e ancora scrivere, meglio se contro nVidia e a favore di AMD a prescindere, dando spazio alla propria fantasia e molto probabilmente facendo in modo così di scaricarsi di parte della frustrazione che gli sovviene ogni volta che guarda la realtà dei fatti che non combacia con i propri sogni.
    Dicevo, non so quanto hai seguito TomsHW negli ultimi anni, ma sia per te che per gli altri che leggono questo piccolo ma prezioso blog, vi posto le sue perle (o parte di esse, alcune sono andate perse come lacrime nella pioggia purtroppo, visto la quantità enorme di produzione in quasi tutti i thread dove scrive, che rende difficile ricordarsele tutte) così vi fate un’idea del personaggio contro cui stai cercando di avere un discorso razionale (poveri illusi.. “fuggite, sciocchi (cit.)”.

    De lucusta (capitolo I, e spero unico)

    Il mondo visto da lucusta in 8 semplici confronti che mi ricordo essere stati fatti in questi anni, più o meno in ordine cronologico (se non volete leggerli tutti, vi basterà il numero 7, la leggenda! E sappiate che è vero!!!):

    Nei dialoghi:
    L: lucusta
    M: me

    1. GPU della PS4 Pro
    L: La PS4 Pro verrà con una GPU discreta, anzi, sarà proprio il nuovo Polaris 10 la GPU aggiunta della PS4 Pro che userà anche lo stesso SoC della PS4 normale per risparmiare sullo sviluppo di un nuovo SoC.
    M: Ma, in verità Sony e MS hanno scelto le APU per un discorso di riduzione dei costi e una GPU discreta romperebbe pure la compatibilità SW oltre che richiedere di rifare tutto l’HW nuovamente per una GPU esterna
    L: No, non c’è modo che una GPU come Polaris 10 venga messa in un SoC, quindi l’unica alternativa è metterla esterna e con pochi euro rifare la motherboard.
    M: Ripeto, metterla esterna significa buttare l’investimento nelle APU che Sony ha fatto, tanto vale tornare a usare Intel e nvidia, che per altro non ti fa buttare il costo della GPU integrata nel SoC che dici verrà riciclato.
    E perdi la compatibilità con i giochio della PS4 normale, dato che la gestione delle due GPU è completamente diversa.
    L: Vedrai, il futuro mi darà ragione. I driver permetteranno di usare la GPU esterna come fosse quella interna.
    Realtà: La PS4 Pro viene con un SoC con GPU integrata della dimensione di Polaris 10 (ma con caratteristiche diverse, più avanzate). Sono ha creato un SoC ancora più grande per Scorpio, segno che l’investimento nelle APU non è ancora concluso.

    2. Il mondo dei controller di memoria secondo lucusta
    L: Il GP100 ha anche il memory controller per la GDDR5. E Polaris 10 avrà quello per l’HBM così dopo la versione per la fascia media avremo anche Polaris per la fascia alta.
    M: No, non c’è alcun senso nel mettere un controller di memoria aggiunto per coprire una fascia di mercato che al GP100 non serve (vedrai il GP102 di cui si vocifera sarà il GP100 per il mercato consumer) e Polaris 10 con MC per HBM non ha alcun senso, visto che sarebbe un bello spreco di spazio su un chip così piccolo e della banda extra che otterrebbe non se ne farebbe nulla
    L: nvidia non può permettersi di disegnare anche un chip grande per il mercato consumer, e quindi userà il GP100 castrato per la nuova Titan, come ha sempre fatto
    M: Il GP100 è una architettura completamente nuova e inefficiente per i compiti solo grafici avendo una zavorra di roba utile solo per il mercato HPC che su desktop non sarebbe usata
    L: Ribadisco che il GP102 non arriverà mai, e ci sarà una versione di Polaris per la fascia alta
    M: Ma se secondo AMD per Polaris 10 basta una banda da 256GB/s, mi spieghi a che serve averne una da 512GB/s (si supponeva che usasse HBM1 esattamente come Fiji) con il costo annesso del montaggio su interposer? Per andare come la 1070? L: …
    Realtà: Il GP100 non ha controller GDDR5(X) e Polaris 10 non solo non ha quello HBM, ma nemmeno quello adatto per GDDR5X.

    3. La realtà che brucia
    L: nvidia ha mentito sulla dimostrazione pubblica con la GTX1080 a 2GHz ad aria, il chip non può arrivare a quelle velocità senza consumare uno sproposito che il chip non potrebbe sopportare se non per pochissimi secondi.
    M: Ti faccio notare che stai parlando dell’architettura nvidia che a 28nm raggiunge i 1500MHz senza fondere con la 980Ti contro i poco più dei 1000MHz della Fury X che consuma di più nonostante l’HBM e una dimensione del chip uguale.
    L: Ma 2GHz non può arrivare neanche con la ventola al 100%
    M: A parte che la ventola era al 100% (probabilmente insieme a quelle del case), sembra che le frequenze ben oltre i 1900Mhz siano comuni a tutte le FE, quindi una versione selezionata potrebbe arrivare a 2GHz. Non vedo questa impossibilità categorica.
    L: No, non può (sottointendendo.. gnegnegne, AMD è più brava e fa di meglio e nVdia continua a mentire su quello che produce)
    Realtà: la versione reference di nvidia è limitata nei consumi (max 225W), le custom ovviamente no, e praticamente tutte queste raggiungono e superano i 2GHz. Possibile che nvidia abbia usato una versione FE con consumi permessi maggiori, ma visto che era una presentazione delle capacità della nuova GPU, non della versione reference della sua scheda (non sappiamo che versione con quale raffreddamento c’era nel case), ha mostrato in anteprima assoluta che andare oltre i 2GHz (senza fondere il chip) era possibile e infatti poi così è stato. AMD si deve essere spaventata e ha cominciato a dare più clock alla 480 in pre produzione, vedere più avanti.

    4. L’esistenza del GP102 scombussola lucusta
    L: Ho confrontato la fotografia del die del GP100 con quello del GP102, sovrapponendoli. Ho capito che il GP100 non ha solo 3584 shader come dice nvidia ma ne di più: secondo i miei calcoli circa 6000, che vuol dire che tra un po’ rilascerà la versione con più shader appena le rese lo permetteranno
    M: Scusa, come hai fatto il confronto per giungere a questa conclusione?
    L: Ho visto che il singolo CU del GP100 è molto più grande di quello del GP102.
    M: Ma questo è perché ci sono le unità FP64 aggiunte nell’architettura del GP100, e anche molta più cache.
    L: Balle, le unità FP64 si fanno mettendo insieme 2 unità FP32 e la cache non occupa tutto quello spazio.
    M: No. Quello è quello che fa AMD, nvidia ha sempre aggiunto le unità FP64 come unità separate.
    L: Stupidata, vorrebbe dire aumentare la dimensione del die del doppio per fare quello che si fa unendo le unità FP32. AMD è avanti in questo.
    M: No, al massimo raddoppi l’area relativa agli shader, non di tutto il die, e ha una sua logica, visto che le unità ottimizzate solo per il lavoro FP64 sono sicuramente più efficienti di 2 a 32bit unite. Serve anche la logica per unirle, che vuol dire che non c’è un vero raddoppio dello spazio, ma serve qualcosa di meno. Spazio che nvidia comunque si fa pagare nel mercato in cui vende queste GPU (dove AMD non c’è) ottenendo una migliore efficienza energetica, perché in quel mercato i consumi bassi hanno il loro perché.
    (interviene qualcuno che giustamente fa notare che unire 2 unità FP32 per ottenerne una FP64 non è banale come per le unità intere, visto che il significato dei singoli bit cambia da una dimensione all’altra, diversamente che per le unità intere, per cui la logica di unione non è così semplice e occupa spazio e corrente).
    L: Non capite, non si spreca spazio per questo tipo di unità quando se ne può fare a meno, verrebbe una GPU enorme che costerebbe un sacco per nulla
    M: Erm, guarda che nvidia lo fa da quando ha le unità FP64 nella sua architettura (G200) e da sempre le sue GPU con le unità FP64 sono molto grandi
    L: Gli ingegneri nvidia non sanno fare il loro lavoro, quelli AMD sono avanti.
    M: Ti faccio notare che l’idea di usare unità separate fa perdere un po’ di spazio (non il doppio) quando le vuoi aggiungere, ma viceversa fa risparmiare molto spazio nelle architetture dove questo tipo di calcolo non è previsto.
    L: … (silenzio, che le GPU senza capacità FP64 di nvidia siano sensibilmente più piccole di quelle AMD non gli era venuto in mente.. porca miseria agli ingegneri AMD che mettono la logica sulle GPU dove non servono quei calcoli!)
    L: Comunque vedrai che usciranno versioni del GP100 con più shader, come è solita fare nvidia per fregare l’utente.
    Realtà: il GP100 ha 3840 unità di calcolo, ma nvidia disabilita 4 SM (che sono di 64 shader su questa architettura). La disabilitazione delle unità SM non ha nulla a che fare con lo spazio in più “scoperto” da lucusta. Non esiste sul mercato il GP100 con più di 3584 shaders attivi e ora è uscito Volta (che ha davvero 5120 shader), quindi non c’è speranza che arriverà neanche in futuro.

    5. lucusta fulminato sulla via del GP102
    L: Il GP102 non avrà mai le prestazioni 1.3x del GM200. Quest’ultimo può essere overcloccato a 1500MHz, mentre il GP102 non arriverà mai ai 2GHz necessari per avere 1.3x di prestazioni.
    M: Ma, a 2GHz può arrivarci se messo a liquido come il GM200 a 1500MHz
    L: Non può, a 1800Mhz consumerebbe già 400W con picchi di 450W. A 2GHz non arriverà mai, non può dissipare quel calore neanche a liquido.
    M: 400W a 1800MHz quando ne consuma (forse) 250 a 1600MHz?
    L: Sì, consumerà il 40% in più. Il consumo non è lineare.
    M: Vero che non è lineare, ma stiamo sempre parlando di architettura nvidia, non AMD già tirata al limite. Facciamo due conti: 1800/1600 = 1.125. Mettiamo che il consumo sia quadratico rispetto alla frequenza: 1.125^2 = 1.26. Se a 1600Mhz consuma 250W, a 1800MHz non ne consumerà più di 250W*1.26 = 316W. Watt più, watt meno.
    L: A 1800Mhz consumerà almeno 400W con picchi di 450. Impossibile per il chip sostenere quei consumi se non a liquido, e niente 2GHz (segue dimostrazione rigorosamente matematica della cosa)
    M: Non scrivere dimostrazioni basate sul nulla (come il 40% di consumi in più) che poi ti penti e ti tocca rigirare la frittata per cercare di aver ragione
    Realtà: schede custom con GP102 ad aria a 2GHz esistono e consumano.. rulli di tamburi… circa 320W
    L: Si ma i picchi…
    M: I picchi non sono i consumi e a nessuno frega nulla di questi, tanto che se guardi i picchi una RX580 arriva a 300W (e tu non hai mai detto nulla sui picchi di questa GPU).
    L: (cambio di rotta inevitabile) I 2GHz non sono sostenibili ad aria. Ci vai solo per i primi 30 secondi e poi vai in throttling
    M: A parte che i bench sono fatti con schede calde in loop, ma se anche così fosse, la frequenza a cui si porta il chip sfortunato con la dissipazione scarsa che non regge i 2GHz è comunque ben superiore ai 1900MHz. E non consuma comunque 400W con picchi da 450W come hai detto e voluto dimostrare.
    L: Visto che i 2GHz sono impossibili?
    M: facepalm

    6. Gli effetti degli stupefacenti…
    M: Polaris 11 è una delusione tremenda. AMD ha mostrato che consumava uno sputo e invece non è così. E il GP107 lo randella per bene consumando pochissimo, persino sotto la necessità di un connettore ausiliario. Questo Polaris 11 non andrà su nessun portatile così come è messo, anche se nato per quello.
    L: Polaris 11 va più piano, ma è meglio che sia così, perché con la 1050Ti come si vede dai benchmark, raggiungi frequenze lontane dai 60FPS e quindi hai un sacco di throttling (inteso tearing, ma è lucusta, le parole hanno un senso figurato) sullo schermo
    M: non ho risposto. Non mi sembrava il caso di dargli un’ennesima bastonata mentre era evidentemente sotto stupefacenti o gli effetti dell’alcool, tanto che qui ha detto che Polaris 11 è più veloce… si vede che era davvero con i neuroni alterati da non ricordare nulla.
    Realtà: da nessuna parte una scheda più lenta è considerabile migliore di una più veloce perché meglio si avvicina al limite della frequenza di sincronismo del monitor. A lucusta deve essere sfuggito che una scheda più veloce ha diversi vantaggi, tipo poter usare impostazioni grafiche più alte per avere le stesse prestazioni della scheda lenta o avere meno cali di frame nelle scene più concitate, quindi usando i vsync (se il tearing è questo gran problema) una scheda più veloce permette di avere i 60FPS in maniera più solida e costante. La sola idea di difendere in quel modo un prodotto AMD inferiore alla controparte nvidia vi fa capire a che livello di frustrazione può arrivare e cosa è in grado di inventarsi per far combaciare la realtà ai propri desideri.

    7. La chicca universale che rimarrà nella storia:
    Dovete sapere che lucusta si vanta di lavorare in un laboratorio dove esegue misure di precisione con strumentazione professionale del valore di svariate migliaia se non di decine di migliaia di euro, che ha risolto diverse magagne al suo datore di lavoro, che è un professionista riconosciuto per le sue capacità e che sa fare il suo lavoro di tecnico di laboratorio dopo aver studiato chimica (un indirizzo scientifico, per chi se lo chiedesse). Io non ho la possibilità di verificare quanto dice, quindi mi attengo a quel che mi interessa e lo valuto per quel che scrive sul forum che seguo da un po’ di tempo.
    Evento: presentazione della RX480, gettata fuori di fretta e furia (anche se per lucusta chi è corsa a fare il rilascio è stata nvidia che ha fatto un paper launch di Pascal, del paper launch di Vega durato mesi e mesi non dice nulla, colui che dice di essere contro la disinformazione).
    M: La scheda reference della RX480 è una schifezza assoluta. Ha poche fasi rispetto ai consumi reali della scheda. Che a quanto pare AMD non voleva che fossero così alti oltre quello promesso minore di 150W e addirittura fuori specifica PCI con l’assorbimento oltre i 5.5A dal connettore PCIe (le frequenze di Pascal a 2GHz devono averla fatta cagare sotto e non poco, e quindi ha dato su un po’ alla manetta delle frequenze).
    L: Ma che vuoi che siano pochi W oltre il limite. Mica brucia qualcosa
    M: Vero, ma presentare una scheda che è fuori specifica non è che migliori l’immagine dell’azienda. E’ una scheda reference, dovrebbe essere costruita con i criteri di rispetto delle regole, quantomeno. Le reference nvidia non saranno le top in performance ma sono signore schede, costruite con tutti i crismi.
    L: Tranne quelle di legno. Ma non ha nessuna importanza che consumi 10W in più. Credi che la motherboard bruci?
    M: No, ma AMD ha fatto 2 cose che non doveva: sforare i limiti della specifica (il bollino di certificazione dovrebbe essere tolto dalla confezione) e non ha mantenuto (che strano) la sua promessa di stare sotto i 150W.
    (speculazione da parte mia, l’accenno al fatto che nvidia fa schede reference migliori deve aver innescato una miccia nella testa di lucusta)
    L: Ma questo perché gli ingegneri AMD hanno avuto poco tempo. Se fossi stato io avrei sicuramente fatto meglio di loro. Pulsando le correnti tra i due canali avrei migliorato notevolmente l’efficienza dell’alimentazione
    Calano 30 secondi di silenzio in me. Leggo. Rileggo. Controllo il mio tasso alcolico.. chissà che i neuroni non mi stiano facendo leggere qualcosa che non esiste… ma no, sto bevendo ColaCola liscia, non CubaLibre… Ha davvero scritto così? Fammelo rileggere un’altra volta… E sì, il tizio ha davvero mostrato quelli che sono i suoi limiti: impara (o legge) le cose al momento (grande Google!) e non le ha mai ragionate per integrarle con il resto della sua conoscenza.
    A nessuno che sappia il minimo di base di come funzionano le leggi della fisica sarebbe venuto in mente di scrivere una cosa del genere. Sono quelle cose che uno non le pensa perché sono contro le leggi base, quelle che non solo hai studiato (io di sicuro, lui non so), ma ti sono permeate nella conoscenza in maniera quasi naturale. Sono quasi istintive, come quando vedi un oggetto rotolare fuori dal tavolo e istintivamente metti la mano sotto il bordo di questo, non sospesa in aria sopra, perché sai che l’oggetto cadrà, non salirà. Ma lo fai istintivamente, non hai il tempo di pensare alla costante di Newton per calcolare la distanza a cui sarà l’oggetto nei 50ms dopo aver lasciato il tavolo prima che tu lo raggiunga, perché inconsciamente lo sai già quale è l’effetto della mancanza di un sostegno. Qui è uguale. Con l’aggravante che non è una battuta detta al volo mentre si parla di cui te ne penti 2 secondi dopo ammettendo di aver pensato ad una “cagata pazzesca (cit)”. No. Era in forma scritta, con tutto il tempo per pensarci. E vabbè, dice uno, preso dalla foga, dalla frustrazione per l’ennesimo flop di AMD, condito con una presentazione che è pure peggio di quella della 290X, con il desiderio che già vedeva la 480 andare a ridosso della 1070 e obbligare nvidia a ridimensionarsi, la fretta di voler rintuzzare qualsiasi commento negativo su AMD dopo mille promesse che appare sul web… ci sta, dai. Troppa delusione e frustrazione possono portare a questo.
    Quindi mi aspettavo che dopo avergli fatto notare che Ohm si stava rivoltando nella tomba avrebbe risposto con: oppss, ho detto una sciocchezza, era meglio mettere un paio di fasi un più collegate ad un connettore a 6pin ulteriore (di cui AMD aveva già previsto l’uso sulla scheda presentata, ma che per tagliare il prezzo per cercare almeno di rispettare la promessa dei $200 non aveva montato).
    Ma no, cosa vado a pensare, io sciocco plebeo, ignorante e presuntuoso che conosce le leggi di Ohm! Quanto detto sulle correnti pulsate non basta, perché per dare credito alla sua nuova teoria sull’efficienza migliorabile (con buona pace di Ohm e tutta una serie di teorie sui consumi, riscaldamenti, dissipazioni, la legge di 4^ elementare calore generato = I^2*R) cosa fa? Mi posta un articolo dimostrativo (secondo lui) dove si parla di nanotubi, pieno zeppo di formule, equazioni, integrali.. avrà pensato.. ho scritto una vaccata, ma LastOfUs è un demente, ora gli mando questo articoletto che ho appena scoperto sul web che parla di roba che pulsa, è pieno di matematica che non può comprendere, vedrai che mi salvo e se chiede gli sparo un altro papiro sui calcoli integrali che lo faccio svenire all’istante.
    Fondo del barile toccato, non si può che risalire. O almeno così credevo.
    Per inciso, la realtà dice che a causa del mancato intervento divino di lucusta sulla efficienza della scheda, la 480 reference è e rimane una scheda di m3rda, tanto che AMD per la 580 non si è nemmeno preoccupata a rilasciare una reference che le sarebbe costato troppo lavoro per rifarne una nuova da zero, visto che la 480 non è strata pensata per gestire i 200 e più W della miracolosa revisione di Polaris 10 (che come ha ben ricordato Nessuno, è solo OC e W in più, come lo fu la 7970GHz edition o la 390X, tutte toppe che sono ben descritte in questo articolo come procedure di emergenza quando non hai altra possibilità).

    8. Last but not least (e non LastOfUs), la nuova moda dell’IA sposata da nvidia (mii, che invidia!)
    Premessa: nvidia ha trasformato in poco tempo il suo SoC nato per il mobile in una sorta di Frankenstein ottimizzato (per quanto possa esserlo una GPU) per i calcoli di Deep Learning, nuova “moda scientifica” che si sta facendo strada creando un nuovo mercato. nvidia ci vuole essere ed è lì a cercare di dimostrare al mercato che i suoi prodotti sono validi, tanto che alla fine fa accordi con quasi tutto il mondo automotive per usare il suo HW per la creazione di quelle IA che dovrebbero portare alla guida autonoma.
    Sarà questa cosa che nvidia c’è sempre mentre AMD no e quando arriva arriva dopo con possibilità nulla di guadagno (al massimo regala tecnologie per sembrare “etica” quando invece lo fa semplicemente per rovinare il mercato alla concorrenza ormai avanti di un giro) che ha fato scattare una nuova molla nella testa del nostro lucusta, che ricordo essere esperto tecnico di analisi di laboratorio con cui fa certificazioni importanti (mi viene il subbio che lavori nella farmaceutica.. poveri noi) su cui mette la firma personalmente! Niente di meno, tenetene conto.
    L: L’HW di nvidia per la guida autonoma è poco più di un giocattolo perché non è in grado di fare quello per cui è venduto
    M: Scusa, ma se così fosse come è possible che le più grandi aziende costruttrici di auto ne stiano facendo incetta per creare i loro algoritmi di guida autonoma?
    L: Perché nvidia li sta ingannando.
    (da sottolineare il fatto che l’informazione per lucusta è parlare male di nvidia a costo di sottointendere o esplicitamente dire che il resto del mondo è deficiente).
    M: Quindi sottointendi che in Toyota, Ford, Tesla ci sia gente che non capisce nulla e si stia bevendo tutte le possibili fandonie che nvidia racconta loro?
    L: Sì, quando se ne accorgeranno vedrai che l’HW nvidia non avrà futuro e passeranno ad usare altro, altro che quella cosa che consuma 200W ed è spacciata come HW ottimizzato
    (forse spera che nel futuro AMD arrivi con la sua soluzione HW migliore… del supporto SW allo sviluppo, ecchisene, due librerie Open Source metteranno una pezza alla cosa come AMD ha sempre fatto)
    M: Mi sembra strana questa cosa, visto che nvidia sviluppa e propone il suo HW già da qualche annetto e non mi sembra esista HW in grado di fare quello che fa quello nvidia, tipo analizzare le immagini provenienti da 12 telecamere diverse in contemporanea. Puoi dirmi se qualcuno altro realizza qualcosa di simile?
    (Ovviamente non risponde perché non sapeva che l’HW nvidia non è solo 2 SoC e 2 GPU messe insieme ma è un HW che fa molto di più e i 200W non sono solo per GPGPU)
    L: E’ così invece e te lo dimostro subito (io che so la matematica e quindi posso creare la teoria che ti spiega perché l’HW di nvidia fa schifo).
    Segue una lunghissima dimostrazione che l’HW nvidia non è in grado di rispondere in tempi brevi agli eventi, richiedendo anche un decimo di secondo, che vuol dire almeno 1,5 metri percorsi a 60 all’ora, troppi per garantire la sicurezza, per cui non può essere usato per la guida autonoma. Conclusione della dimostrazione, l’HW nvidia è una bufala e le case automobilistiche si stanno facendo infinocchiare (o implicitamente che se avessero assunto lucusta nel loro reparto di R&D starebbero usando HW migliore già da tempo, oltre ovviamente a farlo consumare meno pulsando la corrente).
    Eccerto, pensando che i numeri e i calcoli mi spaventino (essendo lui uno dei pochi al mondo in grado di fare 2 divisioni e 2 moltiplicazioni dopo aver fatto qualche assunto, come in numero di operazioni necessarie perché gli algoritmi prendano una decisione) lucusta è quasi sicuro che mi farò abbindolare dalla sua arguzia e spaventare dalla profondità dei suoi inarrivabili calcoli.
    Purtroppo per lui mi bastano 5 secondi per vedere che il nostro professore ha sbagliato nettamente a calcolare quanto dura un ns (nanosecondo, miliardesimo di secondo). E che tutta la sua teoria è sbagliata almeno di 2 ordini di grandezza (in eccesso ovviamente). Potrebbe mai lucusta creare una teoria ad hoc da lui inventata in cui l’HW nvidia si comporta 100 volte meglio che nella realtà? Sia mai, l’appassionato dell’informazione e nemico giurato della disinformazione come ha pure scritto qui si basa su fatti e numeri reali per dedurre le sue teorie, non il contrario. Cha abbia ammesso l’errore è già una cosa (forse dopo la doppia figuraccia della corrente pulsata ci ha pensato 2 volte a cercare il corner) ma rimane il fatto che il signore adora creare teorie sue proprie per fare in modo che i risultati siano quelli che lui vuole che siano.

    Detto tutto ciò, direi che non ha senso per voi perdere tempo a cercare di fargli dire qualcosa si intelligente. Ormai si è perso. Esiste solo l’architettura magica di AMD che nel futuro (ah, il futuro, quanto ne sa lui del futuro e quanto è bravo a prevederlo!) prenderà il sopravvento sulla vecchia, obsoleta, lenta e priva delle moderne caratteristiche necessarie per le nuove API architettura nvidia che già vede incrinarsi la sua leadership incontrastata e i suoi risultati finanziari al semplice grido di “Le DX12 ci renderanno liberi, morte a nvidia e alle sue architetture obsolete! W AMD e alla sua architettura superiore usata persino (e ripeto persino) nelle console!”. Aggiungerei per concludere:
    #poorvolta

    Seguono i titoli coda con ringraziamento particolare a lucusta che come attore comico sembra quasi vero

    End of LastOfUs

  • # 26
    LastOfUs
     scrive: 

    Opss, è scappato un , non si può correggere?

    Leggo ora l’ultimo post.
    Come volevasi dimostrare quando messo alle strette esce tutta la tua inefficacia nell’argomentare prendendo mele e confrontandole con le pere.
    Siccome nell’articolo non compare una sola volta la parola FPS, mi spieghi che c’entra il fatto che abbiano cambiato i giochi dei test?

    Rispondi, troll buffone che non sei altro che imperversi nei forum con tante parole e niente fatti:
    1. i consumi di AMD sono o non sono descritti a modo in questo articolo? Se no, dove sta l’errore?
    2. consumi di AMD sono o non sono dovuti a un OC estremo dell’architettura necessario per fare i modo che quella schifezza di GCN versione ennesima non sia completamente asfaltato da Pascal dopo esserlo stato da Maxwell?
    3. il problema non è nell’architettura se sullo stesso PP nvidia consuma meno, clocca più alto pur applicando tensioni inferiori?
    4. AMD ha mentito o meno sull’efficienza di Polaris? Ha preso per i culo il mercato facendo credere in primis che Vega era pronto a inizio anno e con prestazioni ben diverse da quelle scialbe con cui poi si è presentato 8 mesi dopo?
    5. il paper launch era di Pascal (sul quale tanto hai tentato di sparlare) o è questa cosa che neanche AMD sa in che mercato mettere e a che prezzi visto che non sa nemmeno quanti ne riesce a sfornare?
    6. si può avere il dubbio che AMD non abbia nessun interesse a sfornare Vega nel mercato consumer per via degli enormi costi e dei margini molto probabilmente negativi che ha?
    7. quando AMD sfornerà qualcosa di realmente concorrente non solo per svendita ma anche tecnicamente valido?

    Bla bla bla, al tuo solito, il test non vale, non hanno usato la mia strumentazione professionale che costa un botto ma che non so usare ma dico di averla così faccio il figo, il processore è diverso, il gioco è diverso.. ma chi caxxo se ne frega?
    L’articolo usa altri parametri, altri finalità, usa come base quegli stessi grafici che tu dici che non si possono contraffare (per tua sfortuna) che parlano chiaro e senza Nessuno che te li descriveva eri ancora a pensare che dipendono se sono eseguiti con Metro o TW3 (anzi, no, nemmeno dopo la sua spiegazione hai capito qualcosa). Ma per te è tutto falso è tutto da rivedere.. ueee, ueeee, AMD non può essere messa così male, ueeee, ci deve essere un errore, ci deve essere e se non c’è lo creo io, io che sono lucusta e ho il mondo dell’analisi nelle mie mani come l’ho dimostrato più volte, vedersi il post precedente!
    I pischelli sono gli altri che si sbattono a scrivere articoli con fonti e analisi descritte molto bene, dove le presunzioni sono descritte e non date come verità assoluta (AMD ha le rese del 99%! Non lo sai che alzando la tensione tutti i difetti del silicio spariscono? Se lo potessi alzare ancora di più puoi trasformare un GP104 in un GP100! Ma non puoi purtroppo, il transistor schiatta prima, ma è vero.. lo dico io che sono lucusta! Leggi il post della mia storia dove viene detto quanto sono bravo ad analizzare la realtà!).

    Ma datti una calmata e torna sulla Terra che ti stai davvero rendendo più che ridicolo. Più AMD è scesa in basso più tu sei peggiorato nel cercare di difenderla. E anche qui hai dato una bella prova del tuo livello culturale pari a zero (con aumento di aggressività e diminuzione di educazione), anche se credi di farti passare per qualcuno che sa (ma a quanto pare non dice perché alla fine non dici mai cosa non va e perché puntualmente, ti piace rompere tutto il giocattolo e creartene uno tutto tuo).
    Quasi sposo l’idea di Nessuno di toglierti la possibilità di replica che sei un insulto all’intelligenza umana.

    Addio mio caro ignorante. Il tempo da dedicarti è finito. E’ accertato che sei un cr3tino patentato e che qualsiasi cosa tu dica o voglia far credere non cambia il fatto che AMD svenderà nuovamente la sua m3rda per i prossimi 18 mesi almeno lasciando nvidia di fare il bello e il cattivo tempo per un altra generazione.
    Grazie AMD, grazie GCN. E grazie a te, che sei stato uno spasso fino a quando non sei sceso sotto il livello di credibilità di un criceto (da laboratorio, ahahah).
    E’ ora di voltare pagina. Altrimenti rimaniamo invischiati in questo pantano in cui AMD si trascina che è durato fin troppo.

  • # 27
    LastOfUs
     scrive: 

    E’ scappato un .

  • # 28
    LastOfUs
     scrive: 

    E vabbe’, un /b, ci siamo capiti ;)
    Cancella pure questi ultimi due post se vuoi

  • # 29
    Cesare Di Mauro
     scrive: 

    Il tag di grassetto penso di averlo sistemato (immagino volessi evidenziare soltanto quella frase), ma per il resto non ho capito cos’avrei dovuto correggere (anche perché mi sembra che il contenuto non ne risenta).
    Al limite fai sapere di preciso cosa vorresti cambiare.

  • # 30
    Cesare Di Mauro
     scrive: 

    @lucusta: ti quoto, così è più facile capire chi dice cosa, e abbinare meglio le risposte.

    Cesare:
    Spessore del die… dichiarato dalla stessa Intel, e non possibile da ricavare da un’immagine… (scusa, dai..)

    Non mi risultano dichiarazioni di Intel. Potresti riportartele, cortesemente?

    per il discorso di rese, se non si conoscono quelle per wafer, non si puo’ stabilire nulla.
    la considerazione parte esclusivamente dal fatto che per fare un die piu’ spesso ti occorre un wafer piu’ spesso, e se fai wafer piu’ spessi ne ottieni di meno dallo stesso cilindro madre di silicio.
    quindi ottieni un numero inferiore di wafer per cilindro, quindi meno CPU per cilindro, tutto qui.
    punto.
    logica semplicistica, ma molto efficacie.

    Chiaro, ma vedi sopra: a me non risulta nessuna dichiarazione di Intel in merito allo spessore dei die.
    Mentre è stato pubblicato (e tuttodigitale l’ha riportato) il cambiamento dai 14nm ai 14+nm, che riguarda la forma dei transistor. In mancanza di ulteriori dati, io mi attengo soltanto a questo.

    quindi che critiche sollevi?
    ad un marketing incapace di penetrare nel mercato e produrre valore?

    Se il marketing non funziona si cambia: non si continua a fargli pubblicare mirabolanti slide che poi si rivelano fake. Se non è cambiato, vuol dire che stava bene alla dirigenza AMD.

    a un reparto tecnico retto col nastro isolante che non ha fondi di ricerca per che non c’e’ valore prodotto?

    I fondi li ha dilapidati AMD, ed è e rimane un problema suo. Le altre aziende, anche piccole, riescono a fare ricerca.

    a concorrenza sleale (sancita) che ha eliminato gran parte di questo valore?
    dovresti diventare uno storico contemporaneo, non un analista di settore (figuriamoci un articolista)!!!

    Di questo se n’è parlato ampiamente nel thread “Aspettando Zen”, dove Antonio (“Piedone”), che NON è certo un fanboy Intel, ha snocciolato dati per inquadrare la situazione storica. A cui ho fornito anch’io il mio contributo con link a news di HWupgrade.
    La tua affermazione che AMD abbia perso addirittura gran parte del valore a causa della concorrenza sleale di Intel cozza violentemente contro la suddetta ricostruzione (che t’invito a cercare e ricostruire. Al limite chiedi ad Antonio, che saprà fornirti non poco materiale), nonché il bagno di sangue che le è costato acquisire Ati (operazione dolorosissima che ha finito di pagare soltanto qualche anno fa).

    non lavoro nel campo dell’editorialia specializzata in HW, quindi di sicuro a me nvidia non ha dato nulla e non faccio accuse per parola di altri.

    Invece è proprio quello che hai fatto prima: accuse di marchette. E adesso, a fronte della mia richiesta di fonti in merito, te ne esci che non sai nulla. Tanto basta per giudicare.

    chiedi a chi ci lavora (chiedi a fott… magari in privato si sbottona).

    Non chiedo nulla a uno dei peggiori fanatici integralisti AMD, e in ogni caso l’onere della prova non è mio ma tuo: sei TU che hai accusato nVidia di marchette, e pertanto sei soltanto tu a dover fornire le prove. Io mi limito/erò a vagliarle, se dovessi fornirle.

    non mi sembra che 4 righe sia parlarne molto, ma è giustificato dall’input che hai dato;

    Non sono 4 righe, e ribadisco che non c’entravano assolutamente nulla.

    E’ come se ti dicessi che la ricetta della Parmigiana la potresti trovare nel thread “Aspettando Zen”, e tu cominciassi a parlare di Zen…

    .tra l’altro sarei curioso di capire razionalmente a cosa ti riferisci (aka: linka, che così mi rinfreschi la memoria).

    “Aspettando Zen” è un thread gigantesco, e richiederebbe non poco tempo andare a pescare il link giusto al thread su Bits & Chips al quale mi riferivo.

    bhè, e la fai a me questa ramanzina?

    Direi di sì, visto che sei stato TU ad accusarmi di promuovere l’azienda per cui ho lavorato.

    una critica semplicistica, la tua… molto comune nei forum.
    ma… hai mai lavorato come terzista nel campo produttivo?
    […]
    inutile spiegargli perchè conveniva per noi produrre anche per gli altri.

    quindi non giungere alla conclusione piu’ semplicistica della questione, perchè questo genere di questioni sono generalmente molto articolate e sfaccettate, composte da innumerevoli variabili ed una spiegazione semplicistica puo’ essere una mezza verità, ma anche una mezza stupidaggine.
    (e ti facevo piu’ scaltro, scusa se te lo scrivo).

    Hai scritto un mega-pippotto che alla fine non dice nulla per contrastare ciò che avevo scritto, mentre ne approfitti per lanciare una battutina avvelenata sulla mia intelligenza.

    Finalmente ho avuto un po’ di tempo per fare qualche ricerca, ed eccoti le prove di quello che avevo scritto:
    https://www.extremetech.com/gaming/150892-nvidia-gave-amd-ps4-because-console-margins-are-terrible/2
    http://techreport.com/news/25527/thanks-to-consoles-amd-posts-first-profit-in-over-a-year
    https://www.geek.com/games/each-ps4-sale-makes-more-profit-for-amd-than-sony-but-how-much-1577855/

    Da notare i margini di gran lunga più bassi per le console rispetto a quelli usuali per CPU o GPU.

    per il resto, cercate di curare gli argomenti e non chi ve li propone.
    la demolizione mediatica (con annessi insulti) con me non ha mai funzionato, anche se c’e’ chi ci prova ogni volta;
    inutile che continuiate su tale strada…. vi porterà solo a mostrarvi come persone poco propense al dialogo e, di solito, chi fa parte di queste persone non è molto interessante.
    rispondete argomentando sul punto, o state in silenzio.

    In silenzio deve starci chi racconta frottole per puro fanboyismo.

    Sul resto non rispondo perché l’hanno già fatto ampiamente Nessuno e LastOfUs. E concordo in particolare su quest’ultimo riguardo al tuo atteggiamento incivile, provocatorio, e sprezzante, segno abbastanza chiaro di chi non è più in grado di sostenere alcuna discussione.

  • # 31
    lucusta
     scrive: 

    LastOfUs, hai tolto la maschera?
    incominci con lo shitstorm, visto che è l’unica cosa che riesci a fare?

    1) PS4
    era possibile e conveniente, e ad oltre un anno prima della presentazione dell’HW si facevano diverse ipotesi.
    PS: il dialogo l’hai del tutto inventato.

    2) controler.
    quindi un GP104 sotto ad una 1070 è diverso da un GP104 sotto ad una 1080, perchè, per il tuo discorso sono controller diversi.
    le GDDR5 hanno datarate a 4 fasi, le GDDR5x lo hanno ad 8, ma stranamente il controller, lo stesso controller, riesce a gestire RAM con datarate, logica di controllo e voltaggi completamente diversi.
    a, no, giusto… ne hanno messi tutti e due i tipi, sapendo che li dovevano sfruttare con diverse tipologie di RAM.
    se questo è possibile tra GDDR5 e GDDR5x è cosi’ strano che possa esserlo anche con HBM?
    d’altronde abbiamo comunque segnali, voltaggio e datarate da gestire.
    per un bus da 256 bit per x8 datarete a me portano 2048 bit.
    uno stack HBM1 sono 1024 bit di bus a x2 datarate…
    se invece che un demux x8 ne uso 4 con datarate x2 ottengo 1024 bit x2… thò un bus per HBM1…

    3. La realtà che brucia
    L: nvidia ha mentito sulla dimostrazione pubblica con la GTX1080 a 2GHz ad aria, il chip non può arrivare a quelle velocità senza consumare uno sproposito che il chip non potrebbe sopportare se non per pochissimi secondi.
    No.
    nvidia ha presentato la 1080 FE a 2167mhz. ma manco la più agguerrita custom con alimentazione modificata ti regge quel clock COSTANTEMENTE, addirittura oggi con l’affinamento del processo.
    fuffa da fanboy.
    marketing che puo’ abbindolare solo quelli come te.
    dammi una FE che tiene costantemente, raffreddata a temperatura ambiente e non con aria a -30°C, i 2167mhz è ti dico che avevi ragione.
    per raggiungere i 2150mhz le migliori custom adottano sistemi di raffreddamento che sono piu’ grandi, piu’ ventilati e comunque non con 180W.
    https://www.tweaktown.com/reviews/7776/zotac-geforce-gtx-1080-amp-extreme-fastest/index9.html
    e, come puoi notare, una GTX titan X a default, in questa lista, sta a 315W, power limit della titan 250W, mentre la 1080 della zotac stà a 320W, ossia 255W di consumo senza ancora aver messo mano all’overclock; la Zotac, in queste condizioni, non supera i 1950mhz… a 2167mhz c’e’ il mare! per prendere quei 200mhz sopra, a regime di temperatura e con prestazioni costanti nel tempo, dovresti dargli 320W.
    https://www.techpowerup.com/reviews/Zotac/GeForce_GTX_1080_Amp_Extreme/27.html
    299W di consumo sostenuto contro i 186W delle FE;
    https://www.techpowerup.com/reviews/Zotac/GeForce_GTX_1080_Amp_Extreme/32.html
    massimo overclock sostenibile 2132mhz.
    ed il consumo in massimo overclock, questo stupido sito, non te lo indica, come non ti indica le effettive frequenze sotto cotto un certo computo.
    4 valori, frequenza, temperatura, consumo e prestazioni ottenibili, legati a doppio nodo tra di loro.
    ed ora spiegami tu come hanno fatto a portare in presentazione una FE a 2167mhz con 225W massimo (180W+25% di power limit) quando schede che hanno il doppio della possibilità di smaltire il calore
    non ce la fanno e comunque, con un overclock inferiore al massimo, che a sua volta è inferiore a quello della FE in presentazione, stanno a 299W.

    “Non vedo questa impossibilità categorica.”

    io la vedo, soprattutto con una FE (a meno di non mettersi nella situazione migliore: aria ambientale da polo nord, massimo raffreddamento e basso carico computazionale, oltretutto momentaneo e a scheda fredda… ergo: marketing della piu’ bassa lega).

    4)
    un FP64, GP10B, nvidia ha la possibilità di computare in 2xFP32, 4xFP16.
    se avessero usato il GP100 avrebbero avuto la capacità di computazione di ben 7680 GP10A (ma a frequenze molto piu’ conservative).
    avrebbero pero’ dato al mondo consumer una GPU con capacità FP64, cosa che ad nvidia proprio non va giù.
    nemmeno alla Quadro P6000 hanno dato tale prerogativa, limitando ad un solo cuda core GP10B per SM (con capacità di 1 FP64 per SM (quindi 28 attivi, 30 sulle titan XP e quindi x4 FP16)
    il resto sono tue scuse, visto che sulla switch, HW consumer, necessitavano di FP16 ed hanno usato GP10B.
    se non hai capacità mentali per capire perchè e come possa essere possibile, non prendertela con me.

    5)
    “M: Ma, a 2GHz può arrivarci se messo a liquido come il GM200 a 1500MHz”
    No.
    ci riprovi ogni volta a mangiarti quello che hai scritto (la prima volta e non dopo correzione postuma).
    avevi scritto che avrebbero fatto minimo 2Ghz a aria, e continui, e con la FE e nel limite dei 250W del power limit.
    ad oggi non ci arrivi nemmeno con le custom a +25% di power limit, cercando di stare sotto i 70°.
    lo fai raffreddando a liquido e mantenendo le temperature SOTTO I 50°C.
    con un raffreddamento ad aria nemmeno con 400W che la fai.

    6) totale invenzione.

    7)
    no, ti sbagli.
    lavoro con strumentazione dal costo di svariate centinaia di miliaia di euro.
    MS LC, MS GC, NMR, XRAY, scattering laser e cosi’ via.
    mentre per la questione del high frequency rectifier e delle implicazioni sul rendimento ti ho rimandato piu’ e piu’ volte verso letture che avrebbero dovuto farti capire perchè.
    risultato dello shitstrom di tomshw (sito in cui hanno ottima strumentazione complessiva, ma inadeguata per misurare adeguatamente quel tipo di frequenze, con indicazioni precise, e da datasheet del produttore della strumentazione, è stato scritto perchè inadeguata)?
    nuovi driver che hanno limitato sì i picchi sul PCIe, ma che hanno portato a consumi generali piu’ alti e prestazioni inferiori, per mancanza di potenza dovuta alla perdita di efficienza.
    in quel modo hanno perso il 4-5% di efficienza sull’alimentazione.

    approposito, inutile che ti faccio notare che gli alimentatori non funzionano a 60Hz, ma che stanno progressivamente rettificando, proporzionando e distribuendo l’alimentazione a frequenze sempre piu’ alte al proprio interno, proprio per migliorare l’efficienza.

    in piu’ ci sono particolari presupposti per cui un conduttore elettrico a spessore ridotto è piu’ efficiente rispetto ad un conduttore cilindrico, a pari area di sezione…
    chiediti perchè si è passati dai transistors 2D ai FinFit, e perchè si cerca sempre piu’ di sfinare la pinna ed alzarla, cosa che ha fatto intel sul 14nm+ e che ha costretto Intel ad avere un die piu’ spesso.

    8)
    fattelo spiegare da Cesare.

    in tutto questo ti sei dimenticato i tuoi soliti insulti, attacchi alla persona e tutto il resto che dimostra quello che sei nella realtà, come da vero shitstomer che di solito fai quando chiuque ti contraddice (oltre al fatto di modificare i post quando puoi).

    PS: Cesare, non trovo il riferimento su Intel dell’inspessimento del die dei Kaby rispetto agli Sky… nell’ultimo IDF ha solo parlato di aumento della lunghezza delle pinne, inferiore spessore e altri fattori inerenti al transistors, per migliorare l’isolamento dalle correnti di leakage, ma i confronti non li ha ne qualificati ne tantomeno quantificati.
    ha parlato ben poco del 14nm+.
    a quanto sapevo i wafer Intel sono da 775micron di spessore, ma subiscono diverse lavorazioni dopo il taglio (tra cui la lappatura).
    quindi effettivamente non saprei dirti se il die di un kaby è piu’ spesso per affinamenti dovuti a lavorazioni successive, ci sia una diversa metallurgia nelle fasi di lavorazione, o derivi da wafer piu’ spessi in partenza…
    Avevo letto che comunque Intel lasciava piu’ spazio nel substrato di silicio dalle basi delle pinne.
    credo lo faccia per ottenere una migliore diffusione del calore, cercando di evitare punti caldi.
    mi riprometto di tornare sul punto.

    ciao ciao…

  • # 32
    lucusta
     scrive: 

    ah… non rispondo piu’.
    al massimo cerco Cesare, ma su altri luoghi, per la dimensione del die di Kaby, e non per conquistare il punto, solo per conversare di tecnologia.

    il resto, ultimo degli ultimi, te lo potrai prendere la prossima volta, quando tirerai fuori l’ennesima campagna denigratoria contro tizio o caio e sfacciatamente pro nvidia, che, poraccia, non centra nulla se attira nuvoli di troll che la elogiano per meriti che non ha…
    ha i suoi pregi, ma non è oro quello che fa… non è re Mida, è solo tecnologia applicata.
    (certo, dopo che fai marketing di un certo tipo, è logico che ti ritrovi circondata da tipi fatti dalla stessa materia).

    ah, approposito… AMD doveva fallire e svendersi nel 2015 a detta tua…. uguale uguale a quanto è successo.

  • # 33
    Cesare Di Mauro
     scrive: 

    Il tuo precedente commento era finito nello spam a causa dei link. L’ho recuperato e pubblicato.

    Riguardo al punto 8, ha ragione LastOfUs. Come sai, da quest’anno lavoro nell’ambito dell’automotive, per cui mi documento costantemente sulle novità in quest’ambito.
    Alla BMW abbiamo una partnership con Intel e Mobileye (che è stata acquisita qualche mese fa proprio da Intel), a cui recentemente si è aggiunta FIA se non erro, per cui utilizziamo la sua piattaforma.

    Ma in ambito automotive nVidia ha già da tempo lavorato e mette a disposizione la sua piattaforma, che è stata già adottata da alcuni produttori di auto (fra cui Tesla, che ha abbondato Mobileye dopo il famoso incidente mortale avvenuto lo scorso anno).

    Quindi certamente nVidia è un player autorevole in ambito automotive, come lo è pure in quello deep learning, che è destinato ad assumere un ruolo sempre più rilevante. Infatti per le sue prossime declinazioni di Xeon Phi, Intel introdurrà istruzioni apposite per gestire dati in formato FP16 e per i pattern delle tipiche operazioni eseguite in quest’ambito.

    D’altra parte non è un mistero che nVidia e Intel concorrano negli stessi, remunerativi, settori. E sono entrambi abbastanza apprezzati.
    All’appello manca soltanto AMD, ma al momento non è interessata, o non ha abbastanza risorse per entrare in questi mercati.

    Riguardo al 14+nm, non ho trovato riferimenti allo spessore del die. Mentre le “pinne” dei transistor si vede chiaramente che hanno una forma più regolare, che gli consente di trasmettere meglio la corrente.
    Altro non ho visto.

    Comunque direi di calmarci un po’ tutti perché non mi piace la deriva che stanno prendendo i commenti. Questo sito è nato ed ha fatto la sua fortuna per il focus sulla tecnologia, spesso entrando molto nei dettagli, e non ha certo bisogno di gente che s’insulta per aumentare gli accesso.
    Quindi invito TUTTI a proseguire in ambito puramente tecnico, se avete ancora qualcosa da dire. Non costringetemi a editare i commenti, perché NON amo la censura. Penso che siate abbastanza adulti e dovresti essere perfettamente in grado di argomentare senza scadere sul piano personale.
    Grazie

  • # 34
    Csavoi
     scrive: 

    Volevo solo ringraziarvi per questo thread che ho trovato molto interessante per gli ottimi contenuti tecnici (e a volte anche per i contenuti sociali/umani).

    Ad essere sincero, dato il mio profilo culturale, mi trovo istintivamente a patteggiare per Davide e non per Golia, e sapendo quanto sia presente la corruzione nella nostra società, ritengo naturale che sia più “facile” sentire odore di “parteggianeria prezzolata” quando si parla bene del più forte NVIDIA/INTEL/Golia, che quando si parla (sempre in modo prezzolato) del più debole AMD/Davide.

    Come sempre la verità spesso sta nel mezzo, e ringrazio soprattutto Nessuno, LastofUS, Lucusta e Cesare per il tempo che hanno dedicato al forum, arricchendo sotto molti punti di vista un articolo che, anche se ben scritto, aveva, forse per necessità editoriali, sorvolato e/o trascurato qualche “dettaglio”.

    Come persona “esterna” posso solo dirvi che continuerò a seguire con piacere i vostri dibattiti, nella speranza, e prendetela come una critica bonaria, che riusciate sempre più a condividere le vostre idee (anche scontrandovi con veemenza) ma senza “scadere” in attacchi “personali” e/o offese più o meno gratuite.

    Un saluto a tutti voi, Csavoi.

  • # 35
    +benito+
     scrive: 

    Vi ringrazio sia per l’articolo, ma soprattutto per la bella discussione. Da molto tempo non seguivo più un contrasto forumistico e dopo esserne stari fuori qualche anno…beh, si vedono le cose con un altro occhio.
    Alla fine:
    – non ho avuto quasi nessuna informazione su “un processo produttivo”
    – ho capito che le informazioni circolanti sono minime e insufficienti a descrivere “un processo produttivo”
    – l’unico modo per descrivere “un processo produttivo” a chi non lavora direttamente nelle aziende coinvolte è analizzare la curva che mette in correlazione la frequenza operativa, il numero di transistor che switchano ed il consumo di energia.

    Parlando di “processo produttivo”, chiedo cose:

    Nel momento in cui viene realizzato fisicamente un circuito esso, per funzionare, cosa deve fare? Immagino che il chip venga alimentato con una tensione X, che è la DDP a cavallo di tutti (o parte?) dei transistor. Poi le centinaia di pin corrispondono a altrettante linee elettriche con un’altra DDP. Nel momento in cui vado ad eseguire un’operazione, applico una DDP ad una sequenza di pin e misuro se passa o se non passa corrente? Se passa i circuiti hanno operato in modo da restituirmi un 1 e se non passa i circuiti hanno operato in modo da restituirmi uno 0?

    Il consumo è legato alla minima corrente necessaria a percorrere tutti i transistor tra il pin in tensione e il pin di terra? Se sì, cosa influenza questa corrente (es. capacità dei condensatori inseriti nel circuito, resistenza delle connessioni metalliche tra i transistor, boh?)

    Il transistor è un interruttore con una tensione di comando ed una corrente di attraversamento, giusto? La tensione di comando dovrebbe, se ho ben capito, corrispondere alla tensione di alimentazione comunemente discussa. Il processo produttivo come la influenza? Ridurre la dimensione del transistor porta a una minore tensione necessaria a determinare la resistenza elettrica al passaggio della corrente di attraversamento mi pare.

    Qual’è la principale fonte di consumo del chip? La corrente che scorre trasversamlmente a causa della resistenza non infinita del transistor che lavora ad una tensione X o la corrente che deve percorrere il circuito per scaricare o meno a massa ed essere “letta” a livello dei piedini? La prima delle due può essere letta direttamente misurando l’assorbimento della linea di alimentazione dei transistor? E la seconda può essere letta per determinare quali siano eventualmente le porzioni di circuito meno efficienti (leggi: corrente necessaria a portare a massa il piedino X / numero di transistor attraversati da quella corrente)?

    Ne avrei altre ma se riuscirete a chiarirmi le idee su queste, beh, avrete già fatto un lavoro che io non farei senza essere retribuito.

  • # 36
    Nesuno
     scrive: 

    Huh,
    un sacco di domande… e un po’ di assunzioni errate.
    Non sarà facile spiegarsi, ma ci proverò. Non potrò sicuramente soddisfare tutta la tua curiosità, dato che ho poco tempo.
    Quello che non comprendi dalla mia spiegazione, o per maggiori approfondimenti, puoi trovarlo su Wikipedia. Io ti do solo una infarinata, così almeno conosci gli argomenti da approfondire.

    Vi ringrazio sia per l’articolo, ma soprattutto per la bella discussione. Da molto tempo non seguivo più un contrasto forumistico e dopo esserne stari fuori qualche anno…beh, si vedono le cose con un altro occhio.
    Alla fine:
    – non ho avuto quasi nessuna informazione su “un processo produttivo”
    – ho capito che le informazioni circolanti sono minime e insufficienti a descrivere “un processo produttivo”
    – l’unico modo per descrivere “un processo produttivo” a chi non lavora direttamente nelle aziende coinvolte è analizzare la curva che mette in correlazione la frequenza operativa, il numero di transistor che switchano ed il consumo di energia.

    In verità la descrizione di un processo produttivo è una cosa molto molto complicata.
    Qui se ne valutano solo alcuni risultati (relazione tra frequenza e consumi o la densità), ma dietro c’è molta più roba tecnica di cui parlare. E i dettagli sono solo conosciuti (e comprensibili) agli addetti ai lavori.

    Parlando di “processo produttivo”, chiedo cose:

    Nel momento in cui viene realizzato fisicamente un circuito esso, per funzionare, cosa deve fare? Immagino che il chip venga alimentato con una tensione X, che è la DDP a cavallo di tutti (o parte?) dei transistor. Poi le centinaia di pin corrispondono a altrettante linee elettriche con un’altra DDP. Nel momento in cui vado ad eseguire un’operazione, applico una DDP ad una sequenza di pin e misuro se passa o se non passa corrente? Se passa i circuiti hanno operato in modo da restituirmi un 1 e se non passa i circuiti hanno operato in modo da restituirmi uno 0?

    Non so se ho capito la domanda, ma ci provo.
    Un chip ha più parti alimentate in maniera indipendente. Che lavorano anche a tensioni diverse (I/O piuttosto che logica dei core per esempio). Per far eseguire un’operazione al chip serve mettere in piedi un sistema che non applichi solo la tensione a qualche pin, ma che usi anche i bus di comunicazione (pensa per esempio a come ottenere le istruzioni da eseguire) e segua una serie di passi predefiniti (es: metto informazioni in cache, avvio sequenza di boot del chip, il quale prenderà le istruzioni e tenterà di eseguirle: già questi semplici passi verificano se la parte base del chip funziona (cache, core, I/O etc..). In maniera più approfondita, per sapere se un chip funziona o meno vengono testati tutte le sue componenti con sequenze che siano deterministiche e che hanno il massimo impatto nell’uso di risorse, in modo da vedere se tutto quello coinvolto durante il test funzioni a dovere.

    Il consumo è legato alla minima corrente necessaria a percorrere tutti i transistor tra il pin in tensione e il pin di terra? Se sì, cosa influenza questa corrente (es. capacità dei condensatori inseriti nel circuito, resistenza delle connessioni metalliche tra i transistor, boh?)

    Diciamo semplicisticamente di sì, il consumo dipende da quanta corrente attraversa il circuito da VDD a GND. Come e quanta corrente è necessaria per far funzionare il circuito invece è qualcosa di più complesso da calcolare.
    Tutta l’energia che viene consumata da circuito è per il 99% calore (il resto è emissione elettromagnetica, ovvero onde a più alta frequenza rispetto all’infrarosso). L’unico lavoro meccanico è quello di dilatazione e di elettromigrazione (spostamento degli atomi dei conduttori che alla lunga si usurano, tanto più in fretta tanto più tensione e calore è applicato al circuito).

    Provo a fare una spiegazione semplice di come funzionano i transistor all’interno di un circuito.
    Partiamo da fatto che ci sono diversi tipo di transistor, e quelli usati nei circuiti sono transistor MOS-FET che usano un particolare principio di funzionamento, l’effetto di campo: in un modello ideale un transistor MOS-FET ha consumo minimo mentre è chiuso (fa passare corrente, livello logico ON) e zero quando è aperto (livello logico OFF). Nella pratica invece esso consuma corrente in tutti i suoi stati: anche quando è aperto (OFF) c’è sempre un po’ di corrente che lo attraversa comunque (corrente di leakage) e lo scalda.
    Quando è chiuso (passa corrente nel suo canale, quindi ON) la resistenza interna non è zero, e quindi scalda (molto più di quando è aperto, ovviamente, visto che la corrente che lo attraversa è maggiore). Per limitare la corrente che lo attraversa (e diminuire l’effetto Joule, P = I^2*R) bisognerebbe usare una resistenza esterna, che a sua volta però scalderebbe.
    Per ridurre la corrente dispersa in calore si usa una configurazione denominata C-MOS, in cui si accoppiano 2 transistor che lavorano in maniera speculare uno in serie all’altro. Quando il primo è chiuso, il secondo è aperto (fungendo come resistenza infinita in cui teoricamente non passa nessuna corrente) e viceversa.
    Per farla semplice, hai due interruttori uno dopo l’altro: quando applichi una tensione il primo si accende mentre il secondo di spegne, se togli tensione, il primo si apre mentre si chiude il secondo. In questo modo hai la possibilità di avere un segnale logico (tensione di alimentazione o ground) sprecando meno corrente possible.
    Ricordando che più corrente scorre, maggiore è l’effetto Joule quando passa attraverso le resistenze (che non sono annullabili del tutto).

    Fin qui sembra tutto bello. Il problema è che durante il passaggio da uno stato all’altro, i due transistor accoppiati non sono perfettamente in uno stato opposto uno all’altro (serve del tempo finito per la transizione), ma per una frazione di tempo stanno entrambi nello stato chiuso (ovvero la corrente passa per il loro canale). Avendo entrambi i transistor in questo stato significa che vi è un maggior passaggio di corrente tra il “filo di tensione” (collegato all’ingresso del primo transistor) e quello di ground (collegato all’uscita del secondo).
    Inoltre modificare il campo elettrico nel canale interno richiede l’accumulo e la dispersione di cariche elettriche (come in un condensatore) che è altra “corrente che viene consumata” dal processo di switching.
    Siccome abbiamo transistor che switchano a frequenze altissime, significa che ogni secondo questo stato in cui i due transistor disperdono più energia è una parte importante, ed è il motivo per cui i consumi seguono in maniera lineare la frequenza (fino alla necessità di cambiare tensione di alimentazione).

    Il transistor è un interruttore con una tensione di comando ed una corrente di attraversamento, giusto? La tensione di comando dovrebbe, se ho ben capito, corrispondere alla tensione di alimentazione comunemente discussa. Il processo produttivo come la influenza? Ridurre la dimensione del transistor porta a una minore tensione necessaria a determinare la resistenza elettrica al passaggio della corrente di attraversamento mi pare.

    La tensione di alimentazione di un transistor dipende da due cose principalmente:
    1. da quanto è grande il canale in cui passa la corrente (più grande, maggiore tensione necessaria, vedi effetto di campo)
    2. quanto veloce vuoi farlo switchare da ON a OFF. Più è alta la tensione più velocemente avviene questo passaggio
    La resistenza interna invece non diminuisce alla diminuzione delle dimensioni (anzi, da qui la creazione dei FinFet).
    La diminuzione dei consumi quando si rimpicciolisce un transistor è conseguenza del fatto che la tensione di alimentazione è minore: secondo la semplice relazione: P = I^2*R, dove P è l’energia dissipata nell’unità di tempo quando una corrente I passa per una resistenza R, e considerando che I=V/R, la relazione può essere scritta anche P = V^2/R, si vede che al diminuire della tensione di alimentazione le energie disperse sono quadraticamente inferiori (o i consumi aumentano quadraticamente all’aumentare delle tensione). Il cambio della tensione di alimentazione è ciò che portai consumi a non essere più lineari con la frequenza.
    Ecco perché, come abbiamo visto nell’articolo, determinare quale sia la tensione di alimentazione delle GPU è importante per capire quale vantaggio il PP permette di ottenere (oltre a quello della densità).

    Qual’è la principale fonte di consumo del chip? La corrente che scorre trasversamlmente a causa della resistenza non infinita del transistor che lavora ad una tensione X o la corrente che deve percorrere il circuito per scaricare o meno a massa ed essere “letta” a livello dei piedini? La prima delle due può essere letta direttamente misurando l’assorbimento della linea di alimentazione dei transistor? E la seconda può essere letta per determinare quali siano eventualmente le porzioni di circuito meno efficienti (leggi: corrente necessaria a portare a massa il piedino X / numero di transistor attraversati da quella corrente)?

    Tutto il consumo è corrente che passa attraverso qualche tipo di resistenza. Essendo i circuiti integrati fatti per la maggior parte di transistor, è ovvio che la maggior parte del consumo è dovuto alla resistenza interna del transistor.
    Sono quindi 3 sono le correnti principali disperse, di 2 tipo diversi: statiche e dinamiche. Le prime ci sono sempre e comunque a qualsiasi frequenza. Le seconde dipendono dalla velocità di commutazione e dal numero di volte che viene fatto commutare il transistor.
    1. corrente di leakage (statica), che è la corrente che passa nel transistor anche quando è spento (canale aperto, stato OFF) e avendo 2 transistor accoppiati a stato opposto, significa che si ha sempre una piccola quantità di corrente che passa da VDD a GND passando per le resistenze interne.
    2. corrente di carica e scarica (dinamica) necessaria per modificare il campo elettrico responsabile della commutazione della resistenza del canale del transistor.
    3. corrente di corto-circuito (dinamica) che è forse la più importante, che è quella dispersa quando i due transistor accoppiati sono entrambi in posizione ON mentre passano nello stato uno opposto all’altro.

    Tutte queste correnti hanno cause diverse (anche dovute alla diminuzione del transistor) e ogni PP si impegna a cercare di contenerle il più possibile: minore è la corrente dispersa, minore è il consumo, il calore e quindi in poche parole maggiori sono le prestazioni raggiungibili (e quindi milgiore e pià prezioso diventa il PP).

    Ho cercato di spiegarti tutto a livello logico con solo 1 formula matematica base. Non sono entrato nel merito di come è fatto fisicamente un transistor (gate, source, drain) e come effettivamente funzioni se non descrivendoti sommariamente il principio dell’effetto di campo elettrico. Trovi tutto ben spiegato e di facile comprensione su Wikipedia. Da lì puoi inoltrarti quanto più a fondo vuoi, fino ad arrivare agli effetti quantistici che stanno diventando sempre più importanti man mano che le dimensioni dei transistor diminuiscono (sono per esempio la causa maggiore delle correnti statiche disperse).
    Da queste semplici suggerimenti, puoi ora cercare di capire perché tutti i PP avanzati sono passati al così detto FinFet, che cosa è, quali problemi risolve, quali ne crea etc.. etc..
    Buono studio ;)

  • # 37
    Nesuno
     scrive: 

    La diminuzione dei consumi quando si rimpicciolisce un transistor è conseguenza del fatto che la tensione di alimentazione è minore:

    Volevo solo chiarire questo punto che forse non ho spiegato benissimo: rimpicciolendo il transistor, per ottenere una determinata frequenza, mettiamo 1GHz, è necessaria sempre meno tensione visto che il transistor più piccolo commuterà a quella frequenza necessitando meno tensione rispetto ad un transistor più grande. Questo in linea teorica.
    Ovviamente la dimensione del transistor è importante per i consumi, ma lo sono anche altre variabili, come il tipo di materiali usati, sia per la parte semiconduttiva (silicio o germanio) che per gli isolanti, la forma del transistor (FinFet vs planar per esempio), la densità (transistor troppo vicini si disturbano e necessitano tensioni di alimentazione maggiori per rimanere stabili) e altre mille variabili che qui non abbiamo considerato. E tramite queste mille variabili diverse si costruiscono PP con numeri fantasiosi (tipo TMSC con i suoi 20nm, poi 16nmFF e ora 12FF).
    E la sola dimensione non basta, come abbiamo visto quando abbiamo paragonato il 16nmFF di TMSC contro i 14nm più densi (e quindi con transistor più piccoli ma che si disturbano) di Samsung: il primo consuma meno del secondo. Il secondo fa risparmiare silicio e quindi nel costo di produzione.

  • # 38
    sbaffo
     scrive: 

    scusate il ritardo, ho una questione non chiara, correggetemi dove sbaglio:
    -premesso che il pp 14nm di Globel Foundries è in licenza da Samsung, quindi li considero uguali,
    -perciò le frequenze, le tensioni e i consumi (efficienza) dei SINGOLI transistor dovrebbero essere identici,
    -com’è possibile che un’architettura (disposizione logica dei trasistor) influenzi così tanto le tensioni/frequenze da dare risultati così diversi tra Amd e nVidia? Non sto parlando di prestazioni/ipc ma solo dei grafici nell’articolo, nè del cosumo totale che dipende anche dalla dimensione del chip/numero di transistor totali.
    Ricordo che ai tempi dei Pentum 4 si diceva che la lunghezza della pipeline influenzava le frequenze, ma non ho mai capito perchè. Succede qualcosa del genere anche nelle gpu?

  • # 39
    Nessuno
     scrive: 

    Non sto parlando di prestazioni/ipc ma solo dei grafici nell’articolo, nè del cosumo totale che dipende anche dalla dimensione del chip/numero di transistor totali.

    Ciao,
    non c’è ritardo per queste cose. Non bastano gli anni a far capire le persone cosa voglia dire “costruire una architettura competitiva”, figuriamoci qualche settimana per qualche dubbio come il tuo.
    Se leggi qualche sito o commenti nei forum ti spaventi a leggere che c’è ancora chi continua a sostenere che una scheda da 484mmq con HBM2 e 230W di consumo che va quanto una da 314mmq, GDDR5 e 150W, che a occhio e croce costa la metà a produrla, sia un prodotto che dimostra che “AMD ha realizzato qualcosa che la riporta nel mercato delle GPU di fascia alta”. Così competitiva che la concorrenza ha subito dopo dichiarato che non ha alcuna fretta a rilasciare Volta visto che Pascal fa il suo lavoro (sotto intendendo che sarà ancora redditizia a lungo).

    L’articolo qui scritto era proprio incentrato su questo argomento, ovvero la comparazione tra PP e relativi risultati pratici con le GPU prodotte.
    Che il PP Samsung e GF sia perfettamente lo stesso non è detto. Serve lavoro, esperienza e anche definire i costi di produzione per “tunare” il PP. Comunque anche l’articolo è basato sull’idea che le differenze tra i 14nm di Samsung e GF non siano abissali (e le tensioni applicate lo confermano).
    La differenza tra le GPU AMD/nVidia sta proprio nell’architettura.
    Il nuovi PP, come abbiamo visto, non ha cambiato di molto la situazione, ma anche quando AMD e nVidia producevano sullo stesso PP di TMSC i risultati erano questi: AMD minori frequenze e maggiori consumi e sopratutto maggiore uso di silicio per avere le stese prestazioni (e la presenza del calcolo FP64 si è dimostrata non essere la causa).

    Cominciamo col dire che la disposizione dei transistor è importante. Da notate che nel circuito integrato non tutti i transistor sono uguali (cioè sono prodotti al massimo della nanometria possibile).
    L’uso di transistor particolari in punti critici del circuito rispetto ad usarne altri può portare a differenze importanti: nVidia ad esempio ha dovuto fare una modifica di questo genere quando ha revisionato il GF100 (Fermi, montato sulle GTX480, caldo e con rese orribili a quanto so sa) per creare il GF110 (montato sulle GTX580). E’ diminuito il consumo e aumentato la frequenza allo stesso tempo con qualche millimetro quadrato di costo che ha comunque permesso di alzare la resa.
    La densità conta, perché transistor troppo vicini si “danno fastidio” e solo l’aumento di tensione (= maggiore consumo) aiuta a stabilizzare il loro comportamento (oppure li si distanzia pagando in area di silicio oppure si diminuisce la frequenza con perdita di prestazioni). Inoltre transistor molto vicini che girano ad alta frequenza producono hotspot che richiedono maggiore tensione per lavorare alla stessa frequenza man mano che la temperatura del silicio sale (che al salire della temperatura diventa “più isolante” che conduttivo). Se si fanno meno densi, l’area di dissipazione aumenta e la temperatura dell’hotspot scende (e paghi di più per il silicio usato).
    L’architettura, insieme al layout scelto per implementarla sono quindi componenti molto importanti del risultato, che vanno oltre alla “bontà” del PP. E non è una cosa che scrivo io “perché sono anti AMD” come ha ipotizzato qualcuno prima, che crede che non parlare delle difficoltà oggettive di AMD serva a rendere il prodotto migliore. Lo si è già visto in passato con numerosi esempi e GCN è stata la cosa che più ha messo in luce questa cosa essendo una architettura che sin dal principio ha mostrato di non essere stata “pensata bene” (almeno non quanto ottenuto dalla concorrenza che è poi quello che possiamo valutare, perchP nessuno di noi guardando un solo prodotto sa se è buono o meno. Non lo sanno nemmeno quelli che lo hanno creato, perché buono o meno dipende solo ed esclusivamente da quanto fanno gli altri).

    nVidia è dal G80 che produce una architettura che funziona ad alte frequenze. Gli shader del G80 (anno 2006, prodotti a 90nm) giravano fino a 2,5 volte la frequenza del resto della GPU. Quindi nelle vecchie GTX8800 a 600MHz già c’erano shader che giravano a frequenze superiori ai 1.5Ghz, che è per esempio la velocità cui girano gli shader di AMD oggi. Quindi nVidia da almeno 10 anni progetta ALU in grado di girare ad alta frequenza ed ha continuato ad affinarle anche quando con Kepler ha allineato la velocità del core con quella degli shader (compensando con un aumento di 3 volte il numero di shader del G200 dove giravano al doppio). AMD ha invece sempre adottato un approccio opposto, dove preferiva un numero maggiore di ALU a frequenza minore per ottenere le stesse prestazioni.
    Con GCN, dove le ALU sono diventate grandi rispetto a all’architettura Terascale (che nonostante i tentativi di sistemazione negli anni il GPGU proprio non ne voleva sapere di eseguirlo in maniera decente), le cose sono diventate un po’ più complicate per AMD. Innanzi tutto i PP sono migliorati al punto che le alte frequenze sono diventate più che possibili (con il giusto layout) mentre il costo per millimetro quadro non è sceso di molto (non le ho riportate nell’articolo, ma ci sono delle slide di nVidia dove si mostra che da Kepler in poi il costo per mmq è rimasto quasi invariato con i processi produttivi seguenti). Il che significa che lo sviluppo tecnologico ha favorito nVidia e il suo approccio alle alte frequenze rispetto alla maggiore integrazione. Per costi e prestazioni, le architetture nVidia (che non sono un rifacimento completo ogni volta, ma una raffinazione più o meno pesante della precedente e fanno tutte capo a quel “mostruoso” G80) si sono quindi trovate con un percorso di crescita più favorevole mentre AMD che ha puntato su una architettura diametralmente opposta è stata svantaggiata. Fosse successo come con il Pentium4, dove l’innalzamento delle frequenza non sarebbe stato così facile, forse oggi avremmo una situazione diversa. Ma in verità credere che non fosse stato possibile salire almeno del 30% ad ogni step era un po’ sperare in una eventualità remotissima, al limite di scommettere su un passo falso piuttosto che su un vero miglioramento dei PP.

    La lunghezza della pipeline conta nella determinazione delle frequenze utilizzabili perché definisce “quanto lavoro” (in termini molto semplicistici) ogni stadio deve fare per preparare il dato per lo stadio successivo. Ovviamente meno è il lavoro, prima si finisce a farlo.
    Pensa ad una catena di montaggio dove bisogna assemblare una macchina partendo dai singoli pezzi. Se la catena è a un solo stadio significa che l’operaio deve montare tutti i pezzi da solo e quindi ci metterà tot tempo (e lo spazio sarà grande e complicato da gestire con l’approvvigionamento di tutti i pezzi che deve essere costante). Se dividi l’operazione in due parti, in modo che i tempi teorici di lavorazione siano più o meno uguali, due operai potranno metterci la metà del tempo a montare le loro parti, quindi il primo operaio ci metterà tot/2 a montare i suoi pezzi e passerà il prodotto all’operaio successivo che monterà i suoi pezzi in tot/2. Nel tempo tot ci sono stati 2 passaggi (o due cicli di clock).
    Se fai la catena di 4 passi, il clock diventa 4 volte maggiore (ogni operaio impiegherà 1/4 di tot a montare i pezzi). Alla fine in teoria ci metteresti lo stesso tempo tot per montare l’auto, ma ogni tot/numero di stadi hai una nuova auto in uscita invece che una ogni tot. Ogni stadio fa meno lavoro e richiede meno risorse per eseguirlo semplificando la complessità della circuiteria. Alla fine invece che un mega stadio che fa tutto e richiede tanto tempo per farlo, tanti stadi (almeno 4) semplificano notevolmente l’esecuzione delle istruzioni, permettono latenze inferiori e quindi frequenze maggiori.
    Quindi, ti chiederai, perché non una pipeline lunga 100 stadi? O 1000? Perché, come per ogni cosa, ci sono vantaggi e svantaggi.
    Uno dei problemi è riuscire a dividere il lavoro in modo che ogni passo richieda lo stesso tempo di tutti gli altri: essendo una catena, il tempo minimo di avanzamento è determinato dallo stadio più lento. Se non riesco a dividere il lavoro di questo stadio in sotto lavori più veloci, è inutile scomporre altri passi che già sono più veloci e quindi ho raggiunto il massimo numero di stadi della mia pipeline.
    Dividere uno stadio in due parti porta ad usare più silicio perché necessita di nuovi collegamenti da e verso gli stadi vicini, nuovi registri intermedi, magari anche il collegamento a bus esterni se lo stadio serve a recuperare dati dalle varie parti della chip etc.. Quindi di fa un compromesso tra spazio usato e velocità raggiunta.
    Un altro problema importante sono la gestione dei salti condizionati: la pipeline è un tubo in cui si caricano le istruzioni una dietro l’altra e dall’ingresso all’uscita ci sono in esecuzione un numero di istruzioni pari al numero di stadi della pipeline. Da quando inizia prendere in carico un’istruzione a quando ne hai il risultato passano un numero di cicli di clock pari alla lunghezza della pipeline. Metti che hai una istruzione che valuta se devi saltare ad eseguire un pezzo di codice diverso da quello immediatamente successivo (che è già normalmente stato caricato nella pipeline dopo l’istruzione di valutazione del salto come ogni altra istruzione del flusso di esecuzione del codice): nel momento in cui sai se è vero o meno che il codice da eseguire è quello quell’altro hai già preso in carico tot numero di istruzioni seguenti che nel caso di salto ad altra parte significa che vanno gettate via (flush della pipeline) e si riparte dalla nuova istruzione con la pipeline completamente svuotata vanificando il lavoro svolto (tempo ed energia)e la segmentazione della pipeline (spazio). Praticamente hai gettato un numero di cicli pari a quello della lunghezza della pipeline. Se i salti sono frequenti e positivi molte volte, la maggior parte del tempo la perdi a eseguire parte di istruzioni il cui risultato non vedrà mai la luce. Ecco perché nelle CPU odierne (che comunque hanno pipeline abbastanza lunghe) c’è un buon dispendio di transistor per cercare di prevedere quale è l’esito del salto PRIMA che l’istruzione effettiva esca dalla pipeline con il risultato reale (che è quello poi da seguire). La predizione decide se far seguire all’istruzione di check di salto le istruzioni seguenti o quelle dove il salto arriverebbe in caso positivo. Se si riesce a fare in modo che la predizione funziona almeno più del 50% delle volte (che è il risultato che otterresti scegliendo a caso), il numero di cicli buttati per un salto si riduce a zero. Un’altra tecnica (più dispendiosa, richiede due unità di esecuzione uguali e attive che consumano transistor, W e ancora più spazio) è eseguire entrambi i rami di codice e poi prendere i risultati solo del ramo corretto.
    Ecco quindi perché la lunghezza della pipeline è importante per le frequenze e perché non sempre si sceglie di farle lunghe o persino lunghissime.

    A tutto questo si deve aggiungere il tipo di istruzioni che si vuole eseguire. Ci sono vari modi per codificare una ISA (Instruction Set Architecture) ognuna con vantaggi e svantaggi (pensa alle classiche definizioni di RISC e CISC) e quindi HW e linguaggio devono andare a braccetto. Se fai una ISA altamente complessa, difficile che si possa realizzare efficientemente con pipeline lunghe. E se hai limitazioni di tipo commerciale che ti impediscono di cambiarla per mantenere la compatibilità con codice vecchio, allora la modifica della tua architettura non è così semplice anche se conosci un metodo migliore per fare qualcosa ma ti è impossibile realizzarlo per evitare che il codice vecchio giri peggio su questo nuovo HW e il codice pensato per il nuovo HW venga eseguito male con l’architettura vecchia.

    Spero che questa spiegazione sia stata comprensibile.

  • # 40
    sbaffo
     scrive: 

    ok, grazie.
    Il motivo per cui le pipeline lunghe sono inefficenti come ipc lo conoscevo, le missed predictions.
    Riassumendo invece il discorso pipeline lunghe=alte frequenze pare che dipenda deill’accumulo di transistor in stadi grossi e complessi, quindi densità, disturbi e calore. In pratica si formano degli hotspot che obbligano a calare le frequenze. Non basterebbe distanziarli un po’? :D Ok, il silicio costa.

    In effetti anche il fatto che i chip nvidia abbiano al loro interno parti a frequenze più che doppie di altre, fatte tutte con lo stesso pp evidentemente, indica che la disposizione dei transistor è fondamentale (o che i transistor non sono tutti uguali anche nell’ambito dello stesso pp, ma una differenza così grande pare eccessive).

  • # 41
    Nessuno
     scrive: 

    Non confondere la varianza tra le dimensioni dei transistor e la dimensione necessaria (e voluta).
    Se vuoi produrre un transistor di una determinata dimensione esiste una varianza statistica su quanto effettivamente questo sarà grande. Per esempio se lo vuoi di tot nanometri vi sarà una funzione che dice quanta probabilità hai che in realtà esca di tot + o – nm.
    La dimensione del transistor però lo definisce l’ingegnere che fa il layout. E non è scritto da nessuna parte che i transistor prodotti da un determinato PP siano necessariamente tutti della dimensione minima (più o meno la varianza) che il PP è in grado di creare.
    Si possono volere transistor piccoli e veloci per alcune parti di computazione (quindi più piccoli e veloci possibili) e grandi e lenti per altre parti magari di maggiore assorbimento (tipo gli I/O).

    Per la questione dello stadio grande e complesso, non è la densità dei transistor il problema, è la “quantità di lavoro”. Uno stadio che deve fare più lavori contemporaneamente deve sincronizzare i segnali con tutti i sotto lavori e i segnali saranno più lenti a raggiungere la destinazione.
    Per esempio, mettiamo che per fare un determinato lavoro un segnale deve attraversare 1000 porte logiche. Ci impiegherà tot tempo per per fare questo e il clock massimo che puoi applicare allo stadio che implementa questo lavoro è definito dal ritardo minimo necessario perché il segnale vada dalla prima porta logica all’ultima (esempio, 2 nanosecondi per porta, x 1000 porte = 2 micro secondi ovvero frequenza massima 1000000/2 = 500KHz).
    Se riesci a dividere il lavoro in 10 parti ognuna fatta da 100 porte, il ritardo minimo diviene 1/10 e quindi (in teoria) puoi usare una frequenza 10 volte più veloce (5MHz).
    Il lavoro totale impiegherà sempre l’attraversamento di 1000 porte (èiù in realtà tutte q

  • # 42
    Nessuno
     scrive: 

    Ah, mi è partita la risposta prima che finissi…
    Finisco:
    Il lavoro totale impiegherà sempre l’attraversamento di 1000 porte (più in realtà tutte quelle necessarie per la divisione del lavoro in sotto lavori) ma il vantaggi è che ognuno di questi sotto lavori andrà in parallelo agli altri, così invece che necessitare 2 microsecondi per avere un risultato usando un solo stadio grande e lento, andando 10 volte la frequenza e usando una pipeline di 10 stadi hai un risultato ogni 200ns (2 micro secondi / 10, più in realtà l’overhead necessario per divider il lavoro che non è una operazione gratuita).

  • # 43
    Nick
     scrive: 

    Ho una domanda per nessuno.
    So che è un po’ fuori contesto, ma spero di avere comunque una risposta visto che sull’argomento risulti preparato

    Quando all’università studia Dispositivi Elettronici, dove si parlava di processi di produzione, come sono realizzati i wafers etc, ci venne detto che con le tecnologie del tempo (parlo del secolo scorso ~95) il silicio avrebbe presto raggiunto il suo limite di frequenza massima (2GHz se ricordo bene) e che per salire ancora in frequenza si sarebbe dovuto passare alla Arseniuro di gallio (GaAs).
    Chiaramente l’evoluzione dei processi produttivi ha spostato il limite e il Silicio è ancora una tecnologia più che attuale.
    La mia domanda È che fine ha fatto l’idea di usare il GaAs per i chip, è una tecnologia ormai “morta” o è solo in stand-by in attesa che i limiti del Silicio si facciano sentire?

  • # 44
    Nessuno
     scrive: 

    I limiti che ti sono stati insegnati per il Silicio sono quelli teorici estrapolati dalle conoscenze (e materiali) usati al tempo. E’ ovvio che le centinaia di miliardi di dollari spesi in questi anni sono serviti a qualcosa, e non credo che chi li ha fatti abbia voglia di buttare tutto per qualcosa che comunque rimane già di base più costoso da produrre rispetto al semplice abbondante Silicio.
    Non so esattamente quali problemi tecnici comporti passare dall’uso del Silicio all’Arseniuro di Gallio , ma sicuramente ci sono implicazioni economiche commerciali che vanno ben oltre la semplice sostituzione di un materiale con l’altro.

    Da oltre 40 anni si usa il Silicio per creare i circuiti integrati e da 40 anni si investe nel risolvere il problemi che ogni shrinking inevitabilmente propone. Non so a che livello di integrazione sono arrivati con il GaAs, sappiamo che oggi con il silicio siamo intorno ai 25 milioni di transistor per mm^2 e si costruiscono chip fino a 800mm^2 che assorbono oltre i 300A con questa tecnologia. Non ho idea se con il GaAS sia possibile né quanti e quali investimenti siano necessari.

    Pensa solo a quanto tempo è stato necessario per passare dalla litografia ad immersione che è usata da 10 anni (e pensata negli anni ’80) a quella EUV (di cui si parla da 20 anni) che tutti dicono avrà notevoli vantaggi (a parte i consumi). Nonostante questo i tempi di adozione di qualcosa che è fuori dagli investimenti già fatti (che sono stati ingenti) sono lunghissimi.
    Credo che se domani si trovasse il modo di fare wafer di Grafene (il mitico materiale di cui tutti parlano ma su cui gli investimenti sono quasi nulli) probabilmente nessuno delle grandi case lo adotterebbe in tempi rapidi perché vorrebbe dire buttare una strada certa tracciata da 40 anni di esperienza per buttarsi in qualcosa di nuovo e diverso (in cui altri potrebbero entrare non necessitando più la storia pregressa). Quindi credo che fino a che con il Silicio si possa continuare a migliorare prestazioni, diminuire i costi di fabbricazione o permettere di fare prodotti che altrimenti non si potrebbero realizzare, non ci sarà alcun motivo di cambiare.
    Ipotizzando (mia personale speculazione guardando il mercato degli ultimi anni) nel prossimo futuro che il silicio dedicato alla computazione sarà una frazione di quello dedicato invece alla realizzazione delle memorie (flash, NAND, Xpoint o quant’altro verrà realizzato nel futuro prossimo che andrà a soppiantare gli HDD) credo che gli investimenti tesi a realizzare circuiti con prestazioni (e quindi consumi) saranno sempre minori.
    Lo abbiamo già visto, e lo vediamo tutt’ora, con TMSC e Samsung che preferiscono sviluppare PP per i sistemi low power, dato che sono quello che più si vende che a sua volta deriva dal fatto che la potenza computazionale oggi raggiunta soddisfa un buon 90% della domanda.
    Pensando poi che nel futuro i chip ibridi costituiti da die separati (come Ryzen di AMD) saranno la norma, la corsa a creare circuiti sempre più piccoli e avanzati (e affamati di energia) credo che rallenterà parecchio. Saranno circuiti usati solo in nicchie di mercati particolari i cui costi difficilmente giustificheranno investimenti tali da poter essere ammortizzati in tempi brevi.
    La vita del silicio come base per l’integrazione di transistor è ancora lunga.

    (Poi magari mi sbaglio e domani si faranno chip sulla plastica dal costo irrisorio e potenze computazionali 100x quelle che abbiamo oggi, ma sarebbe un altro universo rispetto a quello in cui viviamo oggi :D)

  • # 45
    sbaffo
     scrive: 

    @nessuno
    non so cosa intendim er porte logiche, e forse mi mancano totalmente le basi per poter capire il tuo discorso. Credevo che le uniche porte fossero i transistor, e che uno stadio non significasse un solo ciclo di clock. Comunque mi basta così, gli hotspot mi piacevano a sufficienza :)).

    Invece passando alle architetture Intel, mi chiado come è possibile che i core M abbiano prestazioni simili ai core i con consumimdi 4W/6W cioè un decimo degli “i”… che gli i siano fatti al risparmio ok, ma dieci volte l’efficienza mi pare troppo, a parità di pp e progetto simile. Gli arm sono ancora più parchi con frequenze simili, ma almeno sono un’architettura diversa.

    E infine la domada da un milione di dollari :) : perché qui non si accede col il login del forum di hwup?

  • # 46
    Nick
     scrive: 

    @nessuno
    grazie per la risposta.
    Ragionandoci quello che hai scritto è molto sensato, quasi da farmi sentire stupido per non averci pensato da solo.

    Aspetto con ansia nuovi articoli e complimenti,m sono veramente ben scritti e soprattutto facile da leggere, dire che riusciresti a farti capire anche da chi non ha mai visto/studiato queste cose

  • # 47
    Nessuno
     scrive: 

    @sbaffo
    Un transistor singolo fa ben poco se non accendersi o spegnersi “a caso” se visto da solo.
    Le porte logiche sono un insieme di transistor che hanno una funzione logica più precisa di quella offerta da un transistor: per fare qualche esempio, pensa alla matematica booleana con i suoi operatori OR, AND, XOR, NOT etc… Una porta logica è un insieme di transistor che permette di accettare più segnali di ingresso e di dare come risultato un segnale singolo che risponde alla logica della porta (eseguendo quindi una o più delle operazioni sopra elencate).
    L’esecuzione di una funzione logica necessita quindi che il segnale attraversi più transistor e una sola porta logica non è sufficiente per eseguire funzioni più complesse. Quindi, come detto, per eseguire una operazione magari il segnale deve passare attraverso 10,100,1000 transistor, ognuno generante del ritardo. Più ritardo = più tempo per il segnale per stabilizzarsi = meno frequenza possibile.

    @Nick
    grazie
    Non so davvero se e quando arriverà un altro articolo.
    Ci sarebbero ancora degli argomenti interessanti da affrontare come l’evoluzione dei chip multi die potranno avere impatto nel futuro, ma il tempo è tiranno ultimamente.

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.