Disclaimer: l’autore di questo pezzo lavora per una parte chiamata in causa dall’articolo che commenta, ma si esprime a titolo puramente personale.
In ogni campo dell’informazione ci sono testate che si contraddistinguono per vari gradienti di accuratezza, dalla notizia approfondita e meditata a quella più urlata e spesso basata su infondate voci di corridoio.
Nel campo dei semiconduttori Semiaccurate è una delle testate più controverse. Molti di noi lo leggono avidamente per rallegrare un po’ le lunghe e grigie giornate passate a scrivere Verilog. Come regola, personalmente non incoraggio questo genere di speculazioni semplicemente ignorandole, ma dopo che il nostro Cesare mi ha fatto notare questo recente articolo, ho capito di non potermi esimere da un commento.
Il problema dell’articolo in questione, è che sembra che sia scritto da uno che sa di quel che parla, ed è certamente in grado di convincere chi non abbia esperienza nel settore; in realtà si tratta di un’unica sequenza di fatti distorti o ahimè semplicemente inventati. Per questo motivo farò un’eccezione e ribatterò alle affermazioni più divertenti e clamorose presenti nell’articolo. Lo farò ovviamente utilizzando informazioni di pubblico dominio.
“The short story is this; the CPU is under-performing badly, missed internal clock targets, and costs too much to be financially viable.”
Fino a che non usciranno i primi test di terze parti (entro un paio di settimane, probabilmente, visto che il Transformer Prime dovrebbe uscire il primo dicembre) tutto quello che sappiamo è che Tegra3 ha il doppio di core di Tegra2 e una frequenza del 30% superiore, cioè una potenza teorica di picco di 2.6x quella del Tegra2. Aggiungendo le unità vettoriali NEON, abbiamo una potenza complessiva superiore a 5x quella di Tegra2. Perché questo sia “under-performing badly” è un mistero che solo Charlie conosce.
Quanto al costo, basta dire questo: Tegra3 ha un’area di circa 90mm^2, mentre l’Apple A5 ha un’area di circa 120mm^2, cioè il 33% in più. Visto che il costo è proporzionale all’area, e che la resa peggiora più che linearmente con la dimensione, il perché Tegra3 sia troppo costoso mentre un A5 non lo sia è un altro mistero.
“The biggest thing we missed is the so called fifth core, and that is where many of the problems lie, not to mention the costs.”
Il quinto core riduce di molto la potenza consumata in idle e occupa qualche percento in più dell’area del die. Diciamo che non sembra un grave problema.
“Several ARM vendors have done this, and the results are quite a bit better than Tegra 2′s power numbers, a whole lot better in fact. Intel and AMD do this in addition to HUGS, and the power levels they achieve are quite notable. Which way did Nvidia go for Tegra 3? Well, neither, they built a Frankenstein chip that trades die size, leakage, performance, yield, and cost for idle power savings. The trade-off is time to market.”
In effetti il livello di potenza raggiunto da Intel e AMD è “alquanto notevole”, talmente tanto che se mettessimo un loro processore dentro un tablet, questo fonderebbe. Quanto ai “compromessi”, avere più potenza di calcolo e minore consumo medio al costo di un qualche percento di area in più è un’ottima scelta di design che qualsiasi ingegnere farebbe senza esitazioni.
Da un diverso punto di vista, questi sono i numeri mostrati da Anand. Il Transformer Prime è più sottile e più leggero sia del Transformer che dell’iPad 2: questo sarebbe impossibile da ottenere se Tegra3 consumasse davvero cosi’ tanto (perché avrebbe bisogno di più batteria e di un dissipatore più grosso).
“The first “sort of” is the performance, you will take a big hit on the transfer from the LP core to the G cores”
NVidia ha rilasciato un video in cui mostra il funzionamento del Companion Core insieme agli altri 4 core ad alte prestazioni. Avete visto come scattava tutto passando da una app all’altra? No? Neanch’io :)
Per passare da un core all’altro bastano pochi millisecondi, il che significa che è possibile effettuare il passaggio prima ancora che il frame corrente abbia finito di renderizzare (a 60 Hz di refresh viene mostrato un frame ogni 16.67 ms), cioè è impossibile accorgersene.
“According to numbers shown to SemiAccurate, basically every upcoming competitor beats Tegra 3, most by wide margins.”
Cioè chip che verranno dopo Tegra3 avranno prestazioni superiori? Accidenti! Azzarderò anch’io una predizione del genere: predico che l’anno prossimo Intel farà uscire un processore più potente di quelli di adesso, e fra 2 anni uno ancora più potente! Ho vinto qualche cosa?
“Numbers seen by SemiAccurate show a dual core Qualcomm Krait SoC absolutely destroying a 1.5GHz Tegra 3”
Proviamolo a chiederlo a HTC: loro non hanno mai usato un Tegra2 ma solo chip Qualcomm perchè Qualcomm è azionista di HTC (qui , ottavo paragrafo, appena sopra la seconda immagine). Per lo stesso motivo HTC ha anche accesso alle informazioni sui nuovi chip Qualcomm prima di tutti gli altri… e a questo giro HPC ha deciso di lanciare il loro nuovo smartphone di punta, nonchè un tablet, con Tegra3 dentro. Diciamo che in HTC non la pensano come Charlie, e io tendo a credere a loro :)
“The first big problem is masks, the big skeleton in the 40LPG closet is masks, you need two sets. In order to do a 40LPG chip, you need a set of 40G masks, and a partial set of 40LP masks, and you have to swap them out for each step of the process that is applicable. The 5-10% number may be true for what TSMC adds to the bill to make up for increased tool time and their added costs, but what about the rest? Conveniently left out of the official Nvidia ‘not leaked from us’ numbers are the mask costs, likely adding $1M or more to the tab, lowered yield, clock speed headaches, and many other niggling production issues.”
Questo è completamente inventato. Servono solo poche maschere in più da aggiungere al processo, non “due set”, e quelle costano qualche centinaio di migliaia di dollari. Considerando che NVidia prevede di fatturare tra i 500 milioni e 1 miliardo di dollari con Tegra3, non credo che sia un grave problema.
I problemi di clock sono poi l’invenzione più divertente: il quinto core è fatto apposta per girare con un clock più basso (per risparmiare potenza, ricordate?) quindi è più facile da sintetizzare rispetto a tutto il resto perché i timing sono meno stretti.
“the rumors of problems there have been curiously denied through backchannels, but the reasons that Nvidia dumped most if not all of their early 28nm capacity are not worth Nvidia addressing.”
Infatti è meglio non parlarne, visto che non sa neanche lui che cosa questa frase dovrebbe significare.
Il processo a 28nm è molto più maturo del 40nm allo stesso stadio di sviluppo e infatti i wafer con su Kepler stanno sfornando molto bene, con buone rese. Un’altra delle solite invenzioni di Charlie.
Ad ogni modo, secondo i rumor il Trasformer Prime dovrebbe uscire il primo dicembre, quindi manca molto poco ad avere delle recensioni di terze parti e capire cosa questo chip è davvero in grado di fare.
Ahah ancora una volta un ottimo articolo, complimenti per la tua competenza (anche se sei di parte, ovviamente :) ). dopo la “sviolinata”, posso farti una domanda completamente off topic? sono uno studente di Ingegneria Elettronica a Bologna (ultimo anno della magistrale) e vorrei qualche consiglio per il futuro… ho letto il tuo curriculum ed è di quelli che fanno venire “salivazione incontrollata”: praticamente hai fatto tutto quello che piacerebbe fare a me! la domanda è semplice: esistono buone opportunità per lavorare in un ambito come quello in Europa? sono molto restio per motivi familiari ad abbandonare il vecchio continente, anche se non avrei alcun problema a fare trasferte di breve durata. quali consigli puoi dare ad uno studente? la mia idea personale, almeno per ora, è di farmi le ossa con un dottorato di ricerca, poi vedremo… ti ringrazio già da ora per la risposta :)
ciao, complimenti per l’articolo, e rispecchia a pieno il mio punto di vista, e cioe’ che la blogosfera, oltre l’informazione libera, ha portato un sacco di disinformazione, e da diritto a troppi, che non ne avrebbero, in merito a parlare di cio’ che vogliono, mostrando quasi autorita’, autorita’ che puo’ sembrare tale, solo a persone ancora piu’ incompetenti… ma il tutto diviene poi sempre piu’ potente…
ma comunque, a parte questo, vorrei farti una domanda riguardante l’ambito tegra2…
ora veniamo ad un OT :P
ho letto in giro che ci sono problemi con i moduli del kernel del tegra2 relativi ad alcuni telefoni (nel mio caso lg dual), prettamente l’accelerazione grafica delle interfacce…inclusa in android ICS il che mi sembra strano, i prodotti nvidia, accelerano le interfacce opengl, sotto linux, da anni, ma cmq, mettiamo che questa sia inclusa solo in un branch di kernel…
addirittura si dice che le case costruttrici (lg in questo caso), debbano pagare nvidia per avere i moduli aggiornati… ti sembra possibile questa cosa? a me pare strano che facciano pagare un aggiornamento di moduli kernel ad un oem che gli ha piazzato svariate piattaforme hardware, etc…
perche’ a sto punto, se cosi’ fosse, gia’ ci sono migliaia di utenti sfiduciati da tegra2, e dai casini che ci sono stati con vari telefoni e tablet… ma se la voce che gira, è vera, allora, ne perderebbe ancora di piu’ in facciata nvidia…
dato che sei nel campo, magari puoi avere qualche risposta in piu’ delle “voci di corridoio” che girano…
Personalmente penso che sia più che altro un problema di chi magari usualmente compila da sé Android e/o smanetta con le “ROM” modificate.
nVidia ha da sempre tenuto chiusi i sorgenti dei suoi driver, fornendo soltanto i binari, e questo per qualunque sistema operativo / kernel.
Il problema più grosso rimane Linux, che non ha ABI / API stabili, per cui in caso di cambiamenti al kernel è possibile che i driver (binari) non siano più compatibili e richiedano una ricompilazione o magari qualche correzione.
Questo perché Linux reclama “compatibilità a livello di sorgenti”, mentre ciò non si verifica con altri s.o. che offrono agli sviluppatori API / ABI abbastanza stabili (se cambiano, in genere è perché cambia il driver model, ad esempio).
Non vedo, in questa situazione, perché si dovrebbe dare la colpa a nVidia, che è un’azienda che vuole “semplicemente” (e scusate se è poco) tutelare le proprietà intellettuali in suo possesso.
Riguardo all’articolo di Semiaccurate, sono molto contento che sia stata fatta luce, perché questi signori approfittano della buona fede e delle scarse o nulle conoscenze in materia da parte di chi legge, per propinare argomentazioni e fatti discutibili, quanto non del tutto falsi.
Cascarci, insomma, è facilissimo. Con la conseguenza che un’azienda si vede, sostanzialmente, diffamata con una cattiva pubblicità che può avere anche ripercussioni non da poco (ho anche letto di gente che, letta questa bufala, hanno scritto di non comprare prodotti attesi con Tegra 3, aspettando di vedere soluzioni della concorrenza).
Da lettore che rientra in questa categoria (non mi occupo di questa materia) mi sono sentito raggirato e offeso.
Ringrazio, quindi, il nostro “Pleg” per aver fatto chiarezza in merito, con fatti e argomentazioni che prescindono dall’essere parte in causa.
posso andare un pò OT? ma perché google non approfitta di questa marea di consensi (e conseguente utilizzo delle case produttrici) verso Tegra3 e non lancia un nexus tab? con l’eccezione di samsung, che potrebbe usare un exynos autoprodotto, praticamente tutte le altre case da htc a Lenovo fino ad asus hanno già annunciato di voler adottare il nuovo chip nVidia: con l’uscita di ICS non è un’ottima occasione per evitare la frammentazione anche fra i tablet?
Non riesco a capire perché lasciano il mercato praticamente libero ad Apple, quando in poche mosse potrebbero tirare su una concorrenza imponente (basta vedere amazon quanti consensi ha raccolto con il kindle fire)..
@ Arunax
Ciao, si’ in Europa qualcosa c’e’ nel campo Computer e Computer Grafica. I primi che mi vengono in mente sono ARM e Imagination Technologies, che dovrebbero essere tutti e due dalle parti di Londra. Inoltre, aziende americane hanno dei centri di ricerca o progettazione qui e la’ in Europa, ad esempio NVidia deve avere un centro in Germania da qualche parte. Intel ha parecchia roba nell’Europa dell’est (ma soprattutto software), e so che hanno un centro di ricerca su architetture per server e HPC (Xeon, Knights Corner) a Barcellona — quello potrebbe essere moolto interessante :)
Se ti piace la Francia, so che a Grenoble e Sophia Antipolis ci sono un po’ di aziende interessanti (non so darti dettagli perche’ invece io in Francia non ci andrei mai :)
Accedere direttamente a quei centri/aziende puo’ essere difficile. Passare prima per un dottorato puo’ aiutare, ma assicurati che il tuo professore abbia:
* soldi :) se non riceve finanziamenti, tu sei nei guai :)
* connessioni con aziende / centri di ricerca, quello e’ il modo piu’ facile per conoscere gente interessante e cominciare a muoversi in giro
Anche essere “in zona” aiuta ovviamente molto (ad es. se andassi a fare il dottorato in posti come Imperial College London o Cambridge, accedere alle aziende inglesi di cui sopra potrebbe essere molto piu’ facile).
Per fare un esempio, conosco un italiano che adesso lavora alla Intel a Santa Clara, lui ha fatto il dottorato al Politecnico di Milano con la Sami (www.elet.polimi.it/people/sami) e poi e’ andato appunto in Intel a Barcellona e poi si e’ trasferito alla sede centrale. Io invece ho optato per l’emigrazione diretta :) ma e’ questione di gusti.
@ caffeine
Non conosco quel problema, non lavoro al software, ma sono abbastanza sorpreso. Da quello che so, Google rilascia la sua roba via git, noi facciamo il pull appena e’ disponibile, applichiamo le nostre patch e il nostro software e facciamo il push sui repository dei nostri clienti (ad esempio, per ICS sono bastate 3 ore da quando Google l’ha rilasciato a quando noi abbiamo spedito la nostra roba ai clienti).
Se invece parli di chi compila da se’, vale quello che ha detto Cesare: tutti i sorgenti sono chiusi, e la cosa non cambiera’. Rilasciare i sorgenti dei driver e dello stack software sarebbe come rilasciare i sorgenti Verilog dei nostri chip :)
@ Ventresca
Non ho ben capito cosa intendi, stai dicendo che dovrebbero scegliere un solo chip e forzare tutti a usare quello? Mi sembra una pessima idea, uno dei vantaggi di Android e’ proprio che ogni produttore puo’ scegliere il chip che vuole, ottimizzato per il mercato che vuole coprire. Comunque, se dovessero farlo, sceglierebbero probabilmente un chip Qualcomm e non NVidia o TI, visto che Qualcomm ha di gran lunga il maggior numero di design win la’ fuori (senza contare che, al momento, e’ l’unica compagnia capace di mettere *tutto* su un singolo chip: CPU, GPU, e comunicazione radio). Inoltre, potrebbe essere uan cattiva mossa per Google vincolarsi ad un singolo produttore di chip; meglio avere 2 o 3 produttori grossi e lasciarli scannare tra loro, metterli in concorrenza per spingerli a produrre chip sempre piu’ potenti con prezzi piu’ aggressivi.
Quanto al “lasciano il mercato praticamente libero ad Apple” ti riferisci ai tablet? Perche’ negli smartphone ormai Android ha una quota di mercato 2 o 3 volte superiore a quella di Apple. E’ possibile che nei prossimi anni la situazione evolva in quella direzione anche per i tablet.
ovviamente mi riferisco al mercato tablet, per i telefoni sono perfettamente al corrente della situazione. Quello che vedo è che con i tablet mancano le app vere e proprie, che invece sugli smartphone sono diffuse nonostante la frammentazione: non dico di imporre un chip ai produttori, ma creare un tablet nexus, che detti le linee guida in termini di risoluzione e potenza (che sui telefoni nexus è sempre leggermente inferiore a quella della concorrenza, proprio perché non si propongono sul mercato come top di gamma in termini di prestazioni ma come telefoni che garantiscono compatibilità con le app e supporto in termini di aggiornamenti) per gli sviluppatori di app, secondo me potrebbe essere una mossa vincente e capace di smuovere il mercato.
Sono sicuro che Cesare apprezzerebbe, avere hardware unico e API stabili :)
@Pleg
Per quanto mi riguarda non è tanto questione di gusti (amo molto l’Italia ma personalmente non avrei problemi ad abitare da qualunque parte del mondo – ad esempio adesso sono in Olanda) quanto di “ambizioni familiari” che non si conciliano molto bene con una vita così lontano in via definitiva, e almeno per quanto mi riguarda hanno la priorità.
Per quanto riguarda il dottorato, pensavo di continuare a Bologna e viaggiare un po’ per l’Europa durante il dottorato (è obbligatorio) – soprattutto perché conosco già alcuni docenti e un po’ di idee su con chi lavorare! Poi si vedrà :) In ogni caso grazie per le dritte preziose! :)
Tornando in topic, vorrei solo aggiungere che anche se le prestazioni raggiunte da altre soluzioni fossero superiori, un consumo di potenza inferiore è a mio parere un obiettivo molto più urgente per gli smartphone… speriamo di vedere presto qualche benchmark di dispositivi con Tegra 3 per verificare quanto l’introduzione del quinto core riesce ad abbattere i consumi. Così sulla carta a me sembra un’eccellente idea!
Lo è.
@Ventresca: le linee guida ci sono. A partire da Honeycomb, esiste un apposito profilo per i tablet Android che definisce anche la risoluzione (oltre ad altre caratteristiche “minime”).
Se mancano le applicazioni specifiche per i tablet è perché risulta difficile investire in un mercato che rappresenta una piccola frazione di quello degli smartphone, a cui si deve aggiungere il fatto che l’utente Android è abituato al “tutto gratis”, mentre quello Apple ha circa 1 ordine di grandezza maggior propensione a spendere (ed è il motivo per cui, nonostante la diffusione nettamente inferiore, i 3/4 del mercato sono di Apple).
iPad fa eccezione perché vende tantissimo (rispetto agli altri tablet) e il suo pubblico è più abituato a spendere, appunto.
Mettiti nei panni di uno sviluppatore che ha bisogno di portare il pane a casa, e capirai subito quale mercato è più appetibile e su quale è meglio puntare.
@Pleg. Senza dubbio, ma l’hardware unico ormai è un retaggio del passato: non è più proponibile. Non soltanto perché oggi accedere direttamente all’hardware è praticamente impossibile (voglio vedere il folle che si mette a smanettare sui registri di Tegra 3, a parte i tuoi colleghi :D), ma perché l’astrazione ha portato giustamente a farne a meno, migliorando di gran lunga la produttività e, quindi, il time-to-market.
Molto meglio avere delle specifiche uniche o comunque fortemente vincolanti, in modo da garantire, appunto, quella stabilità tanto cara agli sviluppatori. ;)
credo che, attingere all’hardware non sia la strada maestra vista la complessità delle architetture di oggi, ma avere un’unico HAL a cui appoggiarsi come ha fatto IBM con i suoi sistemi power7 in cui l’hardware non si tocca per niente e tutto si basa sull’HAL OS compreso:)
ma oggi si raggiunge il paradosso di avere PIU’ STRATI DI ASTRAZIONE POGGIATI L’UNO SOPRA L’ALTRO…questo è un grave problema che l’industria del software deve affrontare….
in questo la soluzione itanium aveva messo le basi per un’architettura hal software che potesse essere definitiva per i programmatori ma forse all’epoca i tempi non erano maturi.
@homero: non ti seguo… il sistema di Hardware Abstraction c’è ovviamente anche su Linux, ma programmare applicazioni grafiche su questo strato è semi-impossibile. E’ assolutamente normale, necessario e auspicabile avere più strati di astrazione. Non vedo come Power7 o Itanium possano fare la differenza.
O sono io che ho capito male il tuo discorso oppure hai fatto un po’ di confusione…
Ciao Pleg,
come al solito Semi-Accurate si rivela troppo critico nei confronti di Nvidia.
Direi che un’analisi molto migliore di Kal-El e delle scelte di Nvidia (es: processo misto G e LPG) si trova su RealWorldTech a questo indirizzo: http://www.realworldtech.com/page.cfm?ArticleID=RWT100511155012
Dico la mia: in linea generale, su un table / smartphone preferirei di gran lunga un dual-core ad alta frequenza / efficienza che un quad-core. In questo modo anche le applicazioni non particolarmente multi-threaded mostrerebbero un aumento di prestazioni non trascurabile.
Tuttavia, da un punto di vista di time-to-market, l’approccio di Nvidia è sicuramente sensato: utilizzando il processo @40nm e mettendo una pezza ai consumi eccessivi di Tegra2 tramite un core A9 a basso consumo, può presentare nel breve periodo (anzi, ormai ci siamo) un prodotto più che competitivo, prima degli altri. Nel futuro non proprio lontano, però, i SoC di TI e Qualcomm @ 28nm (basati su A15 e Krait, rispettivamente) potrebbero risultare preferibili.
Ovviamente però Nvidia non starà a guardare ;)
Vedremo, sono molto curioso…
Ciao. :)
Spingere sulle frequenze, però, può essere pericoloso, perché il consumo aumenta più che linearmente (se non ricordo male) e si fanno sentire le correnti di leakage.
Inoltre per aumentare la frequenza in genere si aumenta anche la lunghezza delle pipeline, che implica un decadimento prestazionale.
P.S. Da programmatore preferisco anch’io avere prestazioni più elevate in “single-thread”.
C’è anche da dire che il modello di funzionamento Android premia particolarmente le soluzioni multicore (almeno nella sua ultima incarnazione, prima aveva diverse limitazioni). Le applicazioni sono infatti spezzettate in vari thread, e con tutti i servizi che girano in background anche molti core a bassa frequenza si fanno sentire.
Raramente una applicazione Android necessita di molta potenza bruta, infatti il decoding e l’encoding audio/video sono spesso accelerati da hardware specifico e le applicazioni tipiche sono veramente poco esigenti (adesso, in futuro non sarà più così ovviamente).
PS: ho citato Android, ma anche Windows Phone è organizzato in modo simile (anche se attualmente non supporta il multicore, ma il multithreading è particolarmente incoraggiato). La potenza bruta servirà in futuro, quando ARM sarà abbastanza prestante per reggere il carico di lavoro attualmente ricoperto da soluzioni x86 di fascia medio-bassa, e quando queste soluzioni inizieranno a spuntare in prodotti subnotebook e similari.
Grazie del link, shodanshok.
Anche quell’autore parla di un ~2ms per fare lo switch tra i core; concordo cun lui nel ritenerlo molto elevato (non so perche’ serva cosi’ tanto tempo), ma come dicevo e’ comunque circa un decimo del tempo epr frame, quindi in genere riesci a completare lo switch prima di aver finito di renderizzare il frame corrente, e quindi dovrebbe essere invisibile all’utente.
Quanto all’area, lui parla di 2.5-4mm^2 per core, ma a me sembra un po’ tanto — io credo sia poco piu’ di 2mm^2 (ma prendilo con le pinze).
Per il discorso multithread, se le applicazioni possono essere spalmate bene su piu’ core, piu’ core a frequenza piu’ bassa sono meglio di un core a frequenza piu’ alta (il consumo aumenta circa col cubo della frequenza). Ovviamente, molte non lo sono :)
@ Pleg
In effetti 2 ms di latenza sono parecchi, soprattutto perchè complicano parecchio il lavoro dello scheduler interno della CPU: considerando la notevole lentezza dello switch, il SoC tenterà uno switch verso il processore a basso consumo solo quando è già passato diverso tempo (sempre parlando di ms) di idle. D’altro canto, lo switch verso i core ad alte prestazioni dovrebbe essere più aggressivo, proprio per non penalizzare inutilmente le prestazioni. Dubito quindi che in un gioco che gira a 60 fps il SoC tenti regolarmente lo switch verso il core a basso consumo.
Infatti, in ambito gaming Nvidia non indica miglioramenti dell’autonomia particolarmente consistenti: http://www.hwupgrade.it/articoli/telefonia/3031/tegra-3-il-nuovo-soc-targato-nvidia_4.html
Ovviamente, abbassare il consumo (anche di poco) e raddoppiare le performance è un ottimo risultato!
Riguardo alle dimensioni del silicio, ARM indica, per il processo TSMC 40G, circa 4-6 mm2 per core: http://www.arm.com/products/processors/cortex-a/cortex-a9.php
Tuttavia Nvidia, forte della sua esperienza, potrebbe aver ottimizzato significativamente il layout, diminuendone le dimensioni. Comunque, dopo aver visto quello che ha fatto Apple con l’A5 (SoC di 122 mm2, praticamente come un Athlon XP Barton!), direi che le dimensioni di Tegra3 (stimate intorno agli 80mm2), non rappresentino nessun problema.
Un ultimo appunto riguardo al rapporto frequenza/consumi: come saprai (molto) meglio di me, fino a che non è necessario intervenire sul vcore, alzare la frequenza incide “solo” linearmente sul consumo. Ecco perchè un processore dual core @ 2.5 GHz può dare consumi simili a un quad-core @ 1.3 GHz, a patto di raggiungere tale frequenza senza un significativo aumento del vcore. Il che non è affatto facile… ;)
Ciao. :)
Di sicuro c’e’ isteresi nel meccanismo di switch per evitare di switchare troppo spesso. Credo anch’io che sia tarato in modo da mantenere sempre le massime prestazioni ad es. durante il gaming.
Riguardo ai 2ms, anche nel white paper (disponibile qui: http://www.nvidia.com/object/white-papers.html ) non viene detto molto, solamente: “Internal simulations show that the total switching time, including the time to switch cores within the chip and the time to stabilize the voltage rails (of the core that is turned on), is less than 2 milliseconds (ms) and this delay is not perceptible to end users.”
Mi viene il dubbio che i 2 millisecondi includano anche il tempo necessario a *decidere* se fare lo switch o no (l’isteresi di cui sopra). In questo caso il tempo e’ piu’ che giustificato, si vuole aspettare un po’ per vedere se il carico di lavoro richiesto rimane alto per abbastanza tempo prima di far partire i core ad alte prestazioni. Mi sembra poco, ma non saprei proprio se e’ ragionevole o no.
I numeri di area riportati sul sito sono abbastanza strani: in 65nm da’ 1.5mm^2 senza cache, in 40nm da’ tra i 4.6 e i 6.7mm^2, includendo tutta la logica di testing (DFT) e manufacturing (DFM), am mi sembra comunque tanto, come fa ad essere 4 volte di piu’ di un processo piu’ vecchio?? Mi viene il dubbio che i numeri a 40nm includano anche la cache L2, anche se mi sembra strano. Nel dubbio, per ora mantengo la mia versione :) cioe’ circa 2mm^2 per core, senza cache.
Vero quello che dici sul consumo. Per chiarire un po’ per chi ha meno conoscenze di hardware:
* la potenza si divide in 3 componenti principali: potenza dinamica, short-circuit e leakage; le prima due sono presenti solo quando il circuito commuta, la terza sempre
* la potenza dinamica e’ proporzionale a (V^2 * f), cioe’ al quadrato della tensione di alimentazione e linearmente con la frequenza; questa e’ grossomodo valido anche per la potenza di short-circuit (nel momento in cui una porta logica commuta, per un breve istante sia i transistori pMOS che gli nMOS sono accesi, e quindi hai un “corto circuito” tra le alimentazioni)
* la potenza di leakage va con (V * I_leak), cioe’ direttamente con la tensione di alimentazione e con la corrente di leakage (che dipende dal processo e dal numero di transistor, cioe’ grossomodo dall’area)
Quindi, come dice shodanshok, se si riesce ad aumentare la frequenza senza aumentare la tensione, allora l’aumento di consuma di potenza e’ lineare con la frequenza; se invece bisogna aumentare la tensione per riuscire a “tenere” la nuova frequenza, allora e’ piu’ che lineare (se per aumentare di 1% la frequenza bisogna aumentare dell’1% anche la tensione, allora l’aumento di potenza e’ “cubico”)
Riguardo alle dimensioni sul silicio, anche a me le stime di ARM sembrano molto conservative. In ogni caso, sul loro sito si legge:
“Area for single core processor does not include NEON™ or Floating Point Units. Benchmarks were measured with 64 Entry TLB, and 32KB I-Cache and 32KB D-Cache.
Area for dual-core multi-processor includes SCU / GIC and supporting logic. Both cores included NEON Engine support, 128 entry TLB, 32K I-Cache and 32KB D-Cache.”
Ecco perché le stime del processore single core @ 65nm sono minori do quelle per il dual core @ 40nm: il primo include molte cose on meno…
Ciao. :)
Per farvi grasse, ma proprio grasse, risate, leggetevi tutti gli articoli che Charlie, il direttore del sito SemiAccurate, ha scritto riguardo a Fermi.
Per trovarli facilmente basta che nello spazio di ricerca del sito scriviate Fermi Review. Cominciate a leggere da quelli più vecchi, dove si fa una pseudo analisi delle caratteristiche del chip prima che fosse presentato.
Il chip a Dicembre, per Charlie era grande, grosso, rotto, non manifatturabile e in nessun modo riparabile. In Marzo è uscito il GF100 che consumava un botto ma aveva prestazioni ben oltre quelle che Charlie credeva potesse avere (inferiori a quelle delle GPU AMD), in Luglio è uscito il GF104 (aka GTX460) su cui Charlie non ha dovuto inventarsi altre castronerie per farla apparire peggiore di quel che in verità era, a Settembre alla presentazione del GF110, dove i problemi di consumo erano stati praticamente risolti permettendo di aumentare ulteriormente le prestazioni consumando meno, Charlie non ha scritto una sola parola, essendosi probabilmente accorto che 12 mesi di invettive contro nvidia e le continue “leccate” verso AMD si erano dissolte come neve al sole.
Successivamente, accortosi che in nvidia il loro lavoro lo sanno fare sicuramente meglio di quel che crede (e voleva far credere) è passato non più a criticare l’azienda in toto, ma solo la dirigenza, esprimendo i propri complimenti agli ingegneri che però sono come bandiere al vento, dato che la dirigenza continua a cambiare i piani da un trimestre all’altro.
Non so cosa abbia Charli contro nvidia (e credo nessuno lo sappia) ma la sua visione della realtà è davvero distorta. Io capisco vedere con favore una parte piuttosto che l’altra, ma non in questo modo estremo, dove ogni c@gata fatta da AMD è l’apoteosi della rivoluzione, ogni azione condotta da nvidia (che sia positiva o meno per l’azienda, il mercato o il progresso) è vista come una sciagura per l’umanità intera.
Oh non temere, sta facendo la stessa cosa con Kepler :)
Solo che mentre Fermi era effettivamente molto in ritardo e con parecchie magagne, Kepler e’ un buon chip, con buoni consumi, e quasi in orario :) quindi se ne sta inventando di ancora piu’ grosse per cercare di screditarlo prima ancora che sia uscito un bench.
Non ho intenzione di scrivere un altro articolo, perche’ come dicevo prima preferisco ignorare certi ciarlatani, ma se vuoi farti delle grasse ghignate ti suggerisco questo: ieri e’ uscito il nuovo charlie-delirio, salva il link e vallo a rileggere tra 6 mesi, quando ormai Kepler sara’ uscito e recensito e disponibile in quantita’. E godi nel vedere come ogni singola riga dell'”articolo” sia una patetica balla :)
No so. Spero sia pagato molto bene per dire quelle cose, perché arrivare a ridicolizzarsi in pubblico in quella maniera è davvero incredibile.
Be’, sì, più che lui, la mandria di persone che lo seguono e lo difendono è incredibile. Possibile che siano tutti suoi alter ego, ma certi commenti lasciano davvero a bocca aperta.
Posso credere che qualcuno ci caschi credendolo maggiormente informato del resto del mercato. Ma quando per 2 anni spari sciocchezze a manetta nello stesso tempo in cui i fatti ti danno torto marcio, non posso credere che vi sia gente che non se ne accorge e continui a ritenerlo un guru del mercato.
Dimenticavo… cosa ci puoi dire di più sul nuovo chip? :)
Niente :)
Pero’ posso dirti che la roadmap “leaked” e’ tutta sballata. Ad esempio, non dovrai aspettare fino al 2013 — esce tutto nel 2012 :)