di  -  martedì 27 maggio 2008

Fin da quando esiste Intel, il mercato CPU non è esattamente facile da scalare. Lo sanno bene AMD, Transmeta e anche VIA, le ultime due pur concorrendo in settori d’impiego totalmente differenti.

La novità di questi giorni è che – come HWU aveva indovinato più di un mese fa – anche nVidia entra in partita, con una linea di prodotti dal naming scoppiettante: Tegra, in versione APX 2500 e CSX 600/650, il primo con consumo ridotto all’osso, il secondo mirato a prodotti di fascia UMPC/subnotebook. Entrambe le soluzioni si avvarranno dell’integrazione della GPU, seguendo un trend evolutivo ormai consolidato.

Le caratteristiche, gentilmente raccontateci dall’inossidabile Charlie Demerjian, sembrano interessanti:

– CPU basata sull’architettura ARM11, package size di 144 mm2

– codifica/decodifica video (H.264, MPEG4, VC1-WMV9) a 720p a 14Mb/sec

– supporto per le più recenti features grafiche, tra cui AA, AF, OpenGL ES 2.0

– a una frequenza di 700/800 Mhz, il CSX è in grado di riprodurre filmati a 1080p a 24fps con un consumo inferiore a 3w

– compatibilità con Windows CE

Dicevamo di Intel, che dopo aver riconquistato la corona delle performance assolute e performance per watt con Core, si trova a fronteggiare una situazione non proprio comoda nel settore ultramobile. La crescente domanda di dispositivi embedded, smartphone e sistemi ultraportatili ha infatti gonfiato un segmento in cui Intel insegue ancora ARM, leader con milioni di CPU installate nei più svariati dispositivi portatili/embedded.

La risposta Intel si chiama Atom, e rispetto ad ARM ha il vantaggio/svantaggio di essere basato su architettura x86. Il vantaggio consiste nella compatibilità con un parco software enorme, tra cui un certo OS chiamato Windows. Lo svantaggio è che la ISA x86 impone ancora dei tradeoff in termini di complessità del design, che condizionano negativamente l’efficienza energetica, campo in cui ARM eccelle, grazie ad un’architettura RISC molto più semplice e snella.

Naturale dunque che nVidia, col suo peso e la sua esperienza nella progettazione di chip, reclami la propria fetta in un settore in forte crescita, non ancora dominato da un titano come Intel. Altrettanto comprensibile la scelta di seguire ARM piuttosto che x86: la prima architettura ha già mostrato il suo valore nel settore ultramobile, conquistando una quota di mercato maggioritaria; al contrario x86 entra nel settore grazie ad uno sforzo “pioneristico” di Intel, ed ha una strada molto in salita per contrastare lo strapotere di ARM.

D’altro canto la licenza per l’uso dell’architettura ARM – ARM non produce CPU ma concede in licenza la propria proprietà intellettuale – erode i margini dei produttori di questi chip. Starà a nVidia adesso fare la differenza, facendo valere sulla concorrenza le sinergie rese possibili da suo enorme know-how nella progettazione di GPU e chipset (e magari le competenze di Ageia in campo PPU).

Una cosa è certa: con AMD che ha incorporato ATi, Intel che prepara Larrabee e nVidia che entra nel settore CPU, il mercato dei processori cambierà faccia nel prossimo decennio.

8 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    Fx
     scrive: 

    Personalmente reputo che l’articolo sia minato da un errore di fondo: considerare l’atom in competizione diretta con gli arm.

    mi spiego. intel con atom non ha mai avuto (per lo meno per adesso) l’ambizione di realizzare una cpu destinata a cellulari, piccoli PDA, ipod o cose del genere; per questi non devo certo ricordare io all’autore che intel produce gli xscale che guarda caso sono… degli arm.

    le argomentazioni che avallano questa tesi sono molteplici, a partire dai clock, sicuramente dal TDP ma ancora di più dalle dimensioni fisiche. l’atom di per sè difatti sarà anche piccolo ma per tanto così nel mio cellulare ci sta anche, con un package adeguato, un core 2: il problema è che gli arm e gli altri processori destinati a quel segmento di mercato tendono ad essere dei “system on chip”, mentre all’atom serve un chipset esterno per poter vivere.

    un’altra argomentazione forte è la banale osservazione del mercato: basta vedere dove finiscono gli arm e dove finiscono gli atom. non esiste una tipologia di dispositivo in cui si parli di usare un atom al posto di un arm, e viceversa non c’è niente popolato da x86 sul quale si pensa di usare invece arm. molto concretamente l’atom è l’anello di congiunzione tra dove arrivano gli xscale (ergo gli arm) e dove partono gli x86.

    non so se si è fatto caso che ultimamente c’è stata una sorta di rivoluzione nel mercato pc che si chiama EEE (ha anche altri nomi). bene, per quella tipologia di impiego non c’era un processore adatto. gli xscale erano troppo poco e i più sfigati x86 erano troppo, tant’è che tra quelli esistenti s’è preso quello più scarso e lo si è reso ancora più scarso per adattarlo. non solo. quanti celeron m e quanti atom ci stanno nello stesso wafer? un atom ha 47 milioni di transistor, un celeron m 353 144 milioni.

    ecco allora che si chiude il cerchio: nel mercato è nata una nuova esigenza, e intel ha fatto il suo lavoro, l’ha soddisfatta garantendosi margini operativi decisamente più interessanti (riducendo grossomodo a 1 / 3 secco i costi, mica cazzi).

    non a caso asus s’è affrettata, appena uscito l’atom, a cambiare cpu.

    mi sembra insomma lampante quale ambizione e quale fetta di mercato (peraltro attualmente parzialmente scoperta, che mi risulti c’è – in modo molto timido – solo amd con i geode) intel voglia occupare con atom; e di impieghi in sovrapposizione all’arm anche sforzandomi continuo a non vederne.

    per inciso, davvero nulla avrebbe vietato ad asus di usare un arm, un eee che nasce con linux non avrebbe avuto problemi di sorta se non proprio quelli legati alla limitatezza intrinseca degli arm per quel tipo di impiego (proprio perchè sono pensati per una dimensione più piccola per la quale vanno benissimo).

    concludo aggiungendo che non mi trovo così d’accordo nemmeno con le valutazioni dell’autore dell’articolo su ars technica, al di là della forzatura del confronto tra due cose diverse anche le valutazioni tecniche sul costo (in termini energetici) dell’unità di decode delle istruzioni x86 non mi trova assolutamente d’accordo. è un po’ come prendere una vw lupo e una bmw x5 e dire che quest’ultima consuma di più perchè ha le gomme più large. si, anche, ma caspita prima delle gomme alza gli occhi e guarda ad esempio pesi e motore. allo stesso modo ci si sofferma a lungo sulla questione cisc / risc quando non ci si chiede una volta per l’appunto se intel avesse davvero l’ambizione di fare concorrenza ai suoi stessi xscale piuttosto che coprire una fetta di mercato strategica; e – cigliegina sulla torta – non c’è nessuna valutazione davvero concreta sul perchè dovrebbe consumare così di più.

    mi spiego: cosa consuma in una cpu? i transistor. poi certo, consumano a seconda di quel che li fai fare; possiamo dire in modo approssimativo che un transitor di cache l2 consuma di meno di un transistor dell’unità che si occupa dei calcoli con gli interi. mettiamo da parte la cache e prendiamo il layout dell’atom ( http://arstechnica.com/news.ars/post/20080205-small-wonder-inside-intels-silverthorne-ultramobile-cpu.html )… l’unità fetch&decode è UNA PARTE del front-end cluster, il quale contiene anche altre cose tra cui la cache l1 (che si riconosce facilmente); e l’unità fetch&decode non è tutta deputata alla traduzione delle istruzioni cisc in micro-op (senza il fetch non fai niente)… allora, ponendo anche che metà (inverosimilmente troppo) del front-end cluster sia destinata al decode delle istruzioni x86, fatte le dovute proporzioni con il resto del die (cache l2 esclusa) comunque rimaniamo approssimativamente intorno al 5% dei transistor (e d’altro canto per un’unità di questo tipo cosa ci si aspetta? che servano decine di milioni di transistor?)…

    certo, ci sono una serie di considerazioni da fare per cui al 5% in più di transistor in questo caso può corrispondere un dispendio energetico più alto del 5%; può essere il 10, sopra faccio fatica a crederci, poniamo esageratamente un 20; il punto è che non cambia la sostanza. il cuore risc dell’atom consuma comunque molto di più di qualsiasi arm per il semplice motivo che è fatto per fare altro. tutto il resto sono le solite menate dei supernerd puristi per ribadire la presunta superiorità dei risc (mi riferisco ovviamente all’autore dell’articolo di ars technica).

  • # 2
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Fx
    “Personalmente reputo che l’articolo sia minato da un errore di fondo: considerare l’atom in competizione diretta con gli arm.
    mi spiego. intel con atom non ha mai avuto (per lo meno per adesso) l’ambizione di realizzare una cpu destinata a cellulari, piccoli PDA, ipod o cose del genere”

    In effetti l’architettura ARM è molto ampia e spalmata su una serie di prodotti però non vedo l’errore di fondo: ho parlato di ARM11, che è in effetti la sottoarchitettura ARM su cui è basato il Nokia n95, l’iPhone (che a Intel interesserebbe equipaggiare con Atom) e altri device di potenza simile.

    Inoltre Intel con i suoi xScale gioca “fuori casa”, perché l’architettura ARM la prende in licenza, mentre su x86 non deve pagare licenze a nessuno.

    ” un po’ come prendere una vw lupo e una bmw x5 e dire che quest’ultima consuma di più perchè ha le gomme più large”

    Questa mi sa che non l’ho capita. Io non sono un progettista di CPU, ma alla prova dei fatti i processori x86 odierni (dal PPro in poi) hanno dei nuclei RISC e delle unità che smontano le istruzioni CISC a pezzetti. Tutta la circuiteria coinvolta in queste operazioni ha un impatto energetico rispetto a un processore RISC nativo.

    Infine, per quel che so di architettura CPU, sono un supernerd del RISC anch’io… :-)
    La ISA x86 è nata negli anni ’70 e da allora ha subito solo estensioni (fpu, MMX, SSE, 3dnow etc). Le istruzioni del 1978 sono ancora lì, in buona parte inutilizzate perché le stesse funzioni vengono riassunte dalle unità specializzate integrate nella CPU stessa (le estensioni).
    Per quel poco che può valere in un discorso centrato sul mercato consumer, non è un caso che l’architettura Power occupi saldamente le prime due posizioni della Top500.

  • # 3
    Lanfi
     scrive: 

    Alessio complimenti per il tuo articolo e Fx complimenti per il tuo post!

    Io chiaramente ne so infinitamente meno di voi ma voglio dire anche io la mia XD…

    In primis vedo favorevolmente l’entrata di Nvidia nel settore cpu. Certo, sorge spontaneo qualche dubbio sulle loro possibilità di successo in un settore coperto già bene da via e tra poco anche da Intel con atom.

    Per quanto riguarda la scelta dell’architettura…mi pare che abbiano fatto una buona scelta sia intel che nvidia. Mi spiego meglio: intel ha deciso di svilluppare x86, come si diceva nell’articolo ciò la rende compatibile con un parco software impressionante (tra cui i 3 più comuni sistemi operativi). Gli svantaggi sono tutti dal punto di vista energetico…ma con atom l’esigenza energetica è presa da intel per la prima volta in ALTA considerazione. Inoltre intel ha (a dir poco) molta esperienza su questa architettura e ci crede praticamente per tutte le sue linee di prodotti. Penso che punteranno a ridurre i consumi energetici attraverso la miniaturizzazione….è da anni che continuano su questa linea.

    Nvidia a fronte di questa situzione entrando nel settore delle cpu “mobile” cosa poteva fare? Cercare di combattere intel con le sue stesse armi (x86)? Credo che sarebbe stato un suicidio…così ha tentato la carta ARM. Che potrebbe essere una buona mossa (visti i pregi di questa architettura) solo se sarà un architettura usata su certi modelli di hardware (un futuro i phone ad es. anche se credo che iphone si indirizzerà su x86) talmente vasto da convincere i produttori software a svillupare programmi per questo tipo di processore.

  • # 4
    Profano
     scrive: 

    Vorrei inserirmi sul discorso che Nvidia/Arm è un Soc, e Atom no.
    Bhè, tra un anno circa usciranno i nuovi Atom,i Pineview, che saranno Soc.
    Quindi Intel è interessata a competere eccome…
    GLi equilibri per me si sposteranno sul criterio di chi avrà il miglior rapporto tra capacità computazionale/(consumi energetici*prezzo).
    In merito alla bontà del prodotto, a naso mi sa che Nvidia/Arm sapranno respingere molto bene le invasioni di campo di Intel… anche se mi sa che Intel cercherà di puntare su un vantaggio competitivo di prezzo…

  • # 5
    Fx
     scrive: 

    Lanfi: grazie =)

    Profano: certo, ne facevo cenno nel mio intervento, l’architettura arm tende ad essere usata in chip soc mentre l’atom ha bisogno di un chipset esterno (che tra l’altro è decisamente importante a livello di dimensioni e anche di consumi, se lo rapportiamo a quanto consuma l’atom in sè)…

    Alessio: “In effetti l’architettura ARM è molto ampia e spalmata su una serie di prodotti però non vedo l’errore di fondo: ho parlato di ARM11, che è in effetti la sottoarchitettura ARM su cui è basato il Nokia n95, l’iPhone (che a Intel interesserebbe equipaggiare con Atom) e altri device di potenza simile.”

    l’errore di fondo è che tra un ARM11 e un Atom c’è un abisso, a livello di consumi, di dimensioni, di implementazioni possibili. mi sembra di spiegarlo in modo sufficientemente esaustivo nel 3° e 4° paragrafo del mio intervento precedente. l’idea di usare l’atom nell’iphone può esistere solo nei rumors; al di là delle dimensioni fisiche e della complessità (già un cellulare di quella generazione è zeppo di roba, un atom più il chipset più tutte le interconnessioni come ce le metti?), ma anche a livello energetico assolutamente non ci siamo.

    “Inoltre Intel con i suoi xScale gioca “fuori casa”, perché l’architettura ARM la prende in licenza, mentre su x86 non deve pagare licenze a nessuno.”

    poi come mi hanno fatto notare intel ha venduto il suo comparto che si occupa di xscale alla marvell =)

    “Questa mi sa che non l’ho capita. Io non sono un progettista di CPU, ma alla prova dei fatti i processori x86 odierni (dal PPro in poi) hanno dei nuclei RISC e delle unità che smontano le istruzioni CISC a pezzetti. Tutta la circuiteria coinvolta in queste operazioni ha un impatto energetico rispetto a un processore RISC nativo.”

    e fino a qui ci siamo. ho dedicato la seconda metà del mio post ad argomentare perchè l’impatto che questa circuiteria ha è del tutto trascurabile rispetto. con la mia frase “è come confrontare una lupo con una X5 e dire che quest’ultima consuma di più perchè ha le gomme più large” intendo dire che si, c’è anche quel fattore, ma prima ce ne sono di molto più importanti. nel caso specifico a nessuno viene in mente che se l’atom consuma di più è perchè “magari” consuma di più proprio la cpu vera e propria? una cpu progettata e concepita per finire in PC a basso costo ovviamente ha come priorità muovere un sistema operativo (linux o xp che sia) e applicazioni “come in un pc vero”, quindi gioco forza deve avere delle capacità necessarie sufficienti per fare questo (su tutti i livelli, dalle istruzioni per secondo alla banda sul sistema alla cache e così via). e una cpu così concepita può far concorrenza in un ambito in cui domina, giustamente, una cpu concepita per quell’altro ambito? ovviamente no, e andare a cercare la responsabilità nel vecchio set di istruzioni CISC mi sa tanto ripeto di nerdata purista.

    “Infine, per quel che so di architettura CPU, sono un supernerd del RISC anch’io… :-)
    La ISA x86 è nata negli anni ‘70 e da allora ha subito solo estensioni (fpu, MMX, SSE, 3dnow etc). Le istruzioni del 1978 sono ancora lì, in buona parte inutilizzate perché le stesse funzioni vengono riassunte dalle unità specializzate integrate nella CPU stessa (le estensioni).”

    allora… a livello di pulizia posso esser d’accordo, è pensabile sostituire l’attuale ISA con una più moderna. questo:
    1) non significa che necessariamente debba esser RISC
    2) non significa che l’attuale ISA rappresenti un collo di bottiglia

    quello che voglio dire col secondo punto è che le istruzioni macchina sono fondamentalmente quelle. non è che un ISA moderna ha istruzioni che so di load e store o di operazioni sugli interi diverse da quelle che sono quelle x86. tant’è che anche ISA più moderne fanno ricorso ad estensioni quando devono implementare funzionalità aggiuntive (e mi sembra anche ovvio): ad esempio altivec per i powerpc. l’evoluzione è nel linguaggi di programmazione ad alto livello, per cui oggi il livello di astrazione dal layer macchina ha fatto passi notevolissimi in avanti rispetto ad un tempo; il progresso è che io oggi posso fare operazioni complesse con poco sforzo (dall’elaborazione di stringhe alla grafica 3d), non un’ISA più o meno pulita: questa è solo una sega mentale.

    e poi, come ricordava qualcuno, non è che le altre ISA non abbiano le loro schifezze…

    “Per quel poco che può valere in un discorso centrato sul mercato consumer, non è un caso che l’architettura Power occupi saldamente le prime due posizioni della Top500.”

    beh, certo, l’x86 è un’architettura che spazia dal sub-pc al server di fascia medio-bassa, poi ci sono itanium e POWER… però anche qui è da notare che il delta di performance tra gli x86 e i processoroni da mainframe continua ad assottigliarsi; anzi, in alcuni ambiti vede i processorini consumer prevalere, cosa che storicamente non s’è vista mai (fai qualche ricerca sul sito della SPEC sul CPU2006 con “POWER6″ e “Core 2″ come processori… dimmi come vanno ad es. sugli interi, e guarda in relazione alle frequenze di lavoro). questa mi sembra una plateale dimostrazione di come le questioni su set di istruzioni / architettura degli x86 siano solamente questioni da puristi ma che hanno molto poco di concreto. non a caso l’architettura più pulita, quella delle cpu AMD, è anche quella meno performante (anche nel rapporto performance / watt)… e alla fine quel che conta è questo, il risultato: meglio 50 watt di consumo in meno, maggiori performance e più pulizia nell’aria che respiro che più pulizia nel set di istruzioni o nell’architettura del processore che sta dentro al tuo computer.

  • # 6
    Quanto paghereste per un Eee Box? - Appunti Digitali
     scrive: 

    […] il chip recentemente annunciato da nVidia dichiari di poter gestire la decodifica 1080p a 24fps, sono fiducioso che miglioramenti nel chipset […]

  • # 7
    figo
     scrive: 

    Forza Intel abbasso Nvidia (scherzi a parte fanno ridere i processore Nvidia hanno frequenze assurde)io sn fan Ati-Intel però ho rispetto delle ottime gpu Nvidia e se conviene le compro pure però sti arm nn mi piacciono molto…

  • # 8
    NVIDIA Tegra: preludio di un successo? - I - Appunti Digitali
     scrive: 

    […] ufficialmente la sua nuova architettura denominata Tegra: è vero, ne abbiamo già parlato qui ma oggi abbiamo una scusa per ritornare sull’argomento. Sono infatti trapelati ulteriori […]

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.