Qualche giorno fa è comparsa su Reuters una strana e intrigante notizia a proposito di Intel, secondo la quale il colosso californiano potrebbe cominciare a produrre processori non-Intel. Leggendo la notizia si capisce che le cose non stanno esattamente così — ma come stanno allora? Qual è il significato di questo annuncio, a chi si rivolge, e cosa potremmo aspettarci in futuro?
Dopo un iniziale sbalordimento, e un po’ di riflessione, la cosa ha cominciato ad avere senso — anzi, ad essere perfettamente logica. Credo che questa decisione sia la fava con cui Intel cerca di prendere due piccioni: il dominio assoluto di ARM nel segmento tablet e smartphone, e il costo stratosferico delle nuove linee produttive.
Best actor in the mobile market, and the winner is…
ARM. Il segmento smartphone e tablet, rilanciato da Apple con iPhone e iPad, è il dominio incontrastato della piccola casa britannica. Ci sono molti produttori, ma tutti usano core ARM standard (Tegra2/3, OMAP4 e Apple5 usano A9, Tegra4 e OMAP5 useranno A15) o core sviluppati in proprio basati su ISA ARM (Qualcomm con Snapdragon /Krait, NVidia con Denver).
Atom ha prestazioni superiori a tutti questi ma ha consumi troppo elevati per entrare in quel mercato, oltre che prestazioni grafiche troppo scadenti. Intel ne è ben conscia e infatti ha recentemente premuto l’acceleratore sul suo programma ultra-mobile, passando da una architettura ogni 5 anni ad una all’anno e allineando il processo produttivo a quello più sofisticato usato per i “fratelli maggiori” della famiglia Core.
E’ anche possibile che il recente abbandono del capo del settore ultra-mobile sia legato al fatto che Intel ha completamente perso la prima ondata della rivoluzione mobile.
A parità di processo produttivo i processori ARM vincono nettamente la gara dei consumi (a basse prestazioni), ma Intel ha dalla sua un’arma molto potente: è, da parecchi anni, un nodo litografico avanti rispetto al resto del mondo. Un Atom in tecnologia più raffinata potrebbe cancellare il vantaggio architetturale di ARM e aprire la strada al dominio Intel anche nel segmento mobile.
Questo potrebbe andare bene per la maggior parte dei produttori, ma non per, ad esempio, Apple. Apple è l’unica a progettare l’intero ecosistema da sè, dal processore al tablet al sistema operativo. Apple potrebbe non essere interessata a comprare una soluzione Atom “made in Intel” a scatola chiusa: uno dei vantaggi di ARM, oltre ai consumi, è che è possibile comprare solo il core sotto forma di “macro” e istanziarlo all’interno del proprio design, accoppiandolo a qualsiasi altro componente si voglia (GPU, periferiche, eccetera). Questa possibilità di personalizzazione è un grosso punto di forza; Intel potrebbe replicarla e poi rilanciare con la sua capacità produttiva: “se compri il nostro core Atom puoi usarlo per costruirti il tuo System-on-Chip, e poi ti fabbrichiamo l’intero SoC nel processo più avanzato del mondo”.
Questa è decisamente una proposta allettante. Se funzionasse, Intel potrebbe portare la sua architettura anche nello spazio mobile tramite o i suoi propri SoC, o mettendo i propri core dentro i SoC degli altri. Un doppio fronte di attacco che potrebbe mettere ARM in seria difficoltà.
Naturalmente, Intel non vuole trasformarsi in una TSMC qualsiasi e mettersi a produrre i chip di chiunque: ha un vantaggio tecnologico enorme e non ha alcun interesse a condividerlo con nessuno. Citando dall’articolo della Reuters:
“Then you get into the middle ground of ‘I don’t want it to be a IA core, I want it to be my own custom-designed core,’ and then you are only getting the manufacturing margin, (and) that would be a much more in-depth discussion and analysis.”
che si traduce in italiano con “ci mettemo a produrre CPU dei nostri concorrenti dopo che sarà congelato l’inferno” :)
Non vedremo quindi, purtroppo, un Bulldozer a 22nm l’anno prossimo, nè una GPU NVidia Maxwell a 14nm nel 2014.
To Fab or not to Fab, questo è il problema
Le Fab costano tanto.
Scusate, ho sbagliato: volevo dire che costano TANTO.
Una Fab moderna, con processo sotto i 40nm e wafer da 300mm2, ha un costo di costruzione di qualche miliardo di dollari (indicativamente da 2 a 7, a seconda della dimensione), più qualche centinaio di milioni l’anno per mantenerla in attività (solo la bolletta della luce sono svariate decine di milioni). Per essere competitiva deve sfornare una quantità enorme di wafer — e quindi di chip. E’ interessante fare un paio di rapidi conti per avere un ordine di grandezza; prendiamo come esempio Intel e le sue Fab più recenti (32nm) con cui produce i Sandy Bridge:
- una Fab produce qualche decina di migliaia di wafer al mese (non ho trovato numeri per le Fab Intel, ma in genere viaggiano tra i 20mila e i 60mila)
- Intel ha circa 3 Fab con processo a 32nm e wafer da 300mm, che si traduce in un 100-200mila wafer al mese, cioè 1-2 milioni l’anno (1 milione di quei wafer sono 71mila metri quadrati! insieme a tutte le altre Fab che ha, Intel potrebbe arrivare intorno al chilometro quadrato di silicio cristallino lavorato all’anno!)
- su un wafer da 300mm ci stanno qualcosa come 300 chip da 200mm2 (che è l’area di un Sandy Bridge a 4 core)
Totale: una mezza miliardata di CPU l’anno, solo con le Fab nuove!
La domanda sorge spontanea: a chi li vendiamo questi chip? Una volta messe nel conto tutte le altre Fab con processi produttivi più vecchi, e anche considerando che Intel produce non solo CPU ma anche GPU integrate, chipset, moduli wifi eccetera… ci sono solo 7 miliardi di persone al mondo, e forse meno di 2 miliardi che possono partecipare a questo festino ad alta tecnologia.
Con i prezzi astronomici che hanno, le Fab non possono restare inattive: devono lavorare giorno e notte e devono saturare le linee. Come fare? Non è un mistero che AMD non ce l’ha fatta più, pochi anni fa: non riuscendo a saturare le sue Fab coi propri prodotti ha dovuto scorporarle in GlobalFoundries in modo da produrre chip per clienti terzi e mantenere le linee sempre piene. Anche STMicroelectronics ha pian piano iniziato a chiudere Fab, e gli altri grossi player non le hanno nemmeno mai avute (NVidia, Qualcomm).
Intel è rimasta monolitica, con le Fab più efficienti del mondo e il processo produttivo più avanzato. Ma fino a quando? Risposta: fino a… ieri. Già a fine dell’anno scorso c’erano state le prime avvisaglie, quando Intel ha cominciato a produrre chip per aziende non in competizione diretta (FPGA).
E ora, questo annuncio. Credo che Intel stia cominciando a sentire la pressione della gestione di Fab così grosse e costose. Produrre SSD potrebbe essere un modo di consumare un po’ di quei milioni di wafer, ma gli SSD hanno margini di guadagno molto più bassi rispetto alle CPU. Per continuare a mantenere le linee piene di prodotti redditizi, Intel deve riempirle con altre CPU. Piccole. Mobili. Anche a costo di vendere solo il core e lasciare agli altri la possibilità di metterci intorno il proprio SoC.
Il segmento smartphone e tablet, inventato da Apple con iPhone e iPad
dopo aver letto questa riga, l’autore ha perso per me tutta la credibilità che aveva
@Unrealizer
Ah, giusto…
correggiamo: “il segmento dei processori mobile inventato da Apple con il Newton”
scusate vorrei sapere su che basi scrivere che atom ha prestazioni superiori, potreste linkare qualche bench… ma poi riferito a cosa, ai calcoli in virgola mobile, a cosa? Nella esperienza di tutti i giorni atom a 1,6ghz non riesce a mantenere fluido un fullhd, mentre il mio tablettino cinese da 150€ con un arm da 1ghz si
@marco: quello dipende dal fatto che (probabilmente) il tuo tablet ha al suo interno un chip dedicato (o porzione del soc) alla decompressione hw dei flussi video. Nell’atom la decodifica è tutta software, per questo soffre contro un tegra2 (ad esempio)
Sarebbe una grossa rivoluzione… TSMC e Global Foundries hanno parecchio da temere, mi sa! Il processo di Intel è il più avanzato, sono avanti di due tre anni nella litografia e anche in altri aspetti del processo (ad esempio il famoso “transistor 3D”). La notizia potrebbe anche non essere vera, ma per quanto tempo Intel riuscirà a saturare le proprie fab con i suoi prodotti? Specie se non riesce a conquistare mercato nel mobile… per me è solo questione di tempo!!!
quindi l’atom non batte l’ARM come potenza di calcolo in quello specifico ambito, ma in tutto il resto, nei calcoli general purpose, dove si evince questa sua superiorità?? Ci sono dei test? Li cerco da un pezzo, grazie!
grazie e complimenti per l’articolo chiarissimo!
“Il segmento smartphone e tablet, inventato da Apple”
Il segmento smartphone non è stato inventato da Apple, esisteva già da anni e neanche tanto piccolo. A ben vedere nemmeno quello dei tablet, che sebbene di scarso rilievo esisteva già prima dell’iPad.
La frase è quantomai infelice, sembra lì ad accendere flame…
“ARM. Il segmento smartphone e tablet, inventato da Apple con iPhone e iPad”
Anch’io non capisco il senso di questa affermazione dato che i processori Arm venivano usati su palmari e smartphone ben prima dell’iPhone. Esistevano anche tablet Arm da 10″ prima dell’iPad.
@phabio76
“il segmento dei processori mobile inventato da Apple con il Newton”
Esistevano processori mobili e dispositivi mobili (pure touchscreen) anche prima del Newton. Semmai Apple è stata una delle prime aziende o forse la prima a usare un Arm per un dispositivo mobile.
Non credo che intendesse “inventato” in senso letterale: è innegabile che prima dell’iPad nessuno considerasse i tablet, mentre ora sono la moda del momento (che non mi tange).
Più in topic, invece, davvero si hanno quelle rese dai wafer a 32nm? Pensavo che lo yeld fosse attorno al 30% (ovvero poco più di un centinaio di chip funzionanti da un wafer).
Non mi tornano i conti del numero di processori che Intel sfornerebbe.. mezzo miliardo di pezzi di CPU con l’ultima tecnologia produttiva? Credo che Intel venda un numero di CPU pari ad un decimo o poco più del valore calcolato. E buona parte sono Atom costruiti con tecnologia più vecchia.
E comunque il problema di AMD non è certamente stato quello di non riuscire a mantenere occupate al 100% le proprie linee di produzione. Al tempo dell’Athlon 64 non riusciva a sfornarne a sufficienza rispetto alle richieste del mercato. Più che altro è che gli ingenti investimenti richiesti per ammodernare le fabbriche devono essere compensate da volumi altissimi (e quindi la fabbrica deve avere efficienza altissima) ma sopratutto i prezzi del venduto devono essere in grado di coprire i costi di R&D. Cosa che i prodotti AMD non fanno da anni e quindi non ha potuto permettersi il mantenimento delle fabbriche proprie.
La mossa di Intel è più che comprensibile. Peccato che c’è un ordine di grandezza tra i consumi di un SoC Atom e uno ARM e che quindi neanche con 2 processi produttivi di differenza riuscirebbe a coprire il gap.
Contando che il core di un Atom è grande il doppio di un ARM Coretx-A9 dual core, viene difficile pensare che nel breve Intel possa uscire con una soluzione che sia in grado di competere con ARM per efficienza. E i quad core ARM sono dietro l’angolo.
@ tutti
Il verbo è stato cambiato in “rilanciato”. È chiaro il senso dell’affermazione nell’ambito di un articolo che ha ben altro scopo. Non facciamo troppo i farmacisti please :-)
Ottima analisi :-)
@ Marco
Grazie per aver capito il senso di “inventato”, intendevo ovviamente come successo commerciale. Meglio comunque cambiarlo con “rilanciato”.
Per le rese, non conosco i numeri precisi ma a naso direi molto superiori al 30% — direi almeno il 50%, con punte dell’80% (dipende anche dalla superficie, un chip da 50mm2 puo’ avere rese molto maggiori di un chip da 500mm2).
@ Nessuno
Il conto per le CPU era proprio per dimostrare che c’e’ una capacita’ produttiva enorme, che e’ difficile sfruttare al 100%.
Per AMD: se non riuscivano a coprire i costi di R&D, che differenza fa se hanno fab o no? O ce la fai, o chiudi.
Non credo ci sia un ordine di grandezza di differenza nei consumi (anche se vedere ieri il Winpad 120W con la ventola mi ha fatto un certo ribrezzo :) quello che mi “preoccupa” e’ che se davvero Intel riesce a far uscire gli Atom a 14nm nel 2014, mentre il resto del mondo sara’ a 28nm e andando verso i 22, credo che il vantaggio litografico sia sufficiente da rendere Atom molto competitivo.
Per quanto possano valere, ecco un po’ di link a benchmark:
http://caxapa.ru/thumbs/229665/armcortexa8vsintelatomarchitecturalandbe.pdf
http://www.eeejournal.com/2010/05/benchmarks-atom-vs-ipad-a4-vs-iphone.html
http://www.brightsideofnews.com/news/2011/5/19/the-coming-war-arm-versus-x86.aspx?pageid=0
Da prendere con le pinze.
Il dato che emerge è di prestazioni mediamente superiori a favore degli Atom, con quelle in virgola mobile che sono scandalosamente scarse per gli ARM.
Per cui sarà vero che il core è più piccolo e consuma meno, ma… rende meno (MOLTO meno per l’FPU).
Per cui sarà vero che il core è più piccolo e consuma meno, ma… rende meno (MOLTO meno per l’FPU).
Ho letto il PDF linkato, quello dove viene comparato un Cortex-A8 con un Atom N330. Il divario tra le capacità di calcolo in virgola mobile è davvero elevato, ma spiegabile nel fatto che ARM non ha una FPU ma solo una unità di calcolo in virgola mobile vettoriale ancora non particolarmente efficiente.
Per tutti gli altri confronti, bisogna però tenere in considerazione diverse cose che non i sembrano siano state evidenziate nel documento stesso:
– in MHz siamo 1.6GHZ x L’Atom vs 600MHz x ARM
– in consumi siamo 8W (medi) vs 1.5W (max)
– in numero di core siamo 2 vs 1 (sempre che abbiano disabilitato l’HT dell’Atom, ma non ho letto nulla a riguardo)
– in processo di produzione siamo 45nm vs 65nm
Il confronto, come detto, va preso con le pinze perchè da solo una generica indicazione delle performance. Inoltre viene pure detto che i numeri che si ricavano dall’eseguibile ARM sono solo il 66% di quello che in realtà si dovrebbe ottenere secondo le misure fatte da ARM stessa.
Indipendentemente da questo, ciò che ne risulta è che un processore ARM che possa raggiungere una frequenza decente (come i supposti 2.5GHz degli A15) ha più o meno le stesse prestazioni di un x86 consumando molto ma molto meno pur essendo un PP indietro.
Non credo proprio che la capacità di lavorazione di Intel sia di quelle dimensioni. Sarebbe sciocco per loro stessi averne costruite così tante nel caso.
La differenza è che i costi di R&D erano enormi proprio per via delle Fab. Bisogna investire nell’aggiornamento delle Fab ogni 18 mesi se si vuole mantenere il passo con la concorrenza. E come hai specificato, i costi sono enormi, per cui liberarsi delle Fab e dei relativi costi di R&D porta ad avere costi molto più bassi. Poi quanto questo si ripercuota sui costi finali dei prodotti non lo so (non è che GlobalFoundries faccia gli stessi investimenti senza farli pagare ai propri clienti, comunque, ma probabilmente ha una efficienza maggiore).
Quello che stai prospettando è un mercato dove Intel si mantiene competitiva solo grazie ad ingenti (e ingenti lo sono) investimenti nel processo produttivo mentre il resto del mondo si accontenta di usare processi produttivi meno costosi. E’ una cosa che può funzionare solo per breve periodo, perché alla lunga i costi da sostenere per questa politica sono troppi anche per Intel stessa. E’ come in una gara di corsa automobilistica dove uno conduce per avere il NOS sempre attivo. Prima o poi finisce e gli altri lo sorpasseranno senza particolari problemi.
E comunque due PP di vantaggio ancora non bastano ad Atom per raggiungere l’efficienza energetica degli ARM.
@ Nessuno:
nella recensione dell’iPad2 (che monta 2 Cortex A9), Anand indica chiaramente che un netbook Atom renderizza delle complesse pagine internet in modo sensibilmente più veloce. Considerando che l’iPad gira con un software “ad hoc”, mentre un netbook deve fare i conti con l’intero stack WindowsXP / 7, la cosa è abbastanza indicativa del fatto che le prestazioni di Atom sono assolutamente adeguate per competere con i Cortex A8 / A9.
Parlando di prestazioni, non è vero che l’A8 non ha l’FPU, il punto è che quest’ultima non è pipelinizzata. Per questo le prestazioni FPU sono così basse. Per lo meno, però, l’A8 include _sempre_ il modulo NEON. L’A9 ha una situazione inversa: ha l’FPU pipelinizzata ma il modulo NEON è opzionale. Inoltre, in campo FPU gli ARM restano molto indietro rispetto ad Intel in quanto:
– l’FPU standard non supporta il denormaling dei numero molto piccoli, ma implementa la politica del “flush to zero” (in alcune condizioni inaccettabile)
– il modulo NEON è a soli 64 bit, contro i 128 dell’Atom (fa eccezione lo Snapdragon, con modulo a 128 bit).
Discorso consumi: gli ARM qui spadroneggiano, è vero, ma solo se raffrontati a un Atom “desktop”. Se paragonati a un Atom serie Moorestown, i consumi diventano assolutamente simili a quelli di un A8 (e le prestazioni restano comunque superiori).
Il vero, enorme vantaggio degli ARM è che questi ultimi sono dei SoC di tutto rispetto e molto completi, mentre Atom (fino ad ora) era solo un processore. Questo significa che uno smarphone ARM può davvero essere realizzato con un solo chip (anche la flash può essere integrata con sistema MCP), mentre per usare un Atom Moorestown devi integrare almeno 3 chip (spesso 4 o 5). Una cosa improponibile per i produttori di telefonini…
Ciao.
MPR online riporta i risultati al Coremark 1.0 relativizzati al Mhz.
I valori del bench/consumi sono i seguenti :
Atom 3.19/0.56mw (Usando entrambi i Thread)
Cortex A9 2.88/0.40mw
MIPS74K 2.55/0.43mw
L’atom è in-order, gli altri sono Out of Order.
nella recensione dell’iPad2 (che monta 2 Cortex A9), Anand indica chiaramente che un netbook Atom renderizza delle complesse pagine internet in modo sensibilmente più veloce. Considerando che l’iPad gira con un software “ad hoc”, mentre un netbook deve fare i conti con l’intero stack WindowsXP / 7, la cosa è abbastanza indicativa del fatto che le prestazioni di Atom sono assolutamente adeguate per competere con i Cortex A8 / A9.
Dipende anche dal motore di rendering utilizzato. Se facciamo un confronto con i browser per desktop e ipotizziamo che Apple usi qualcosa di simile a quello che usa per Safari, direi che il problema per il Tablet non è solo del processore. Il confronto non è poi così banale come sembra: Windows e le sue applicazioni sono ottimizzati da anni per lo sfruttamento di almeno 2 CPU. iOS (come Android) vedono un dual CPU per la prima volta. Il broswer sarà stato aggiornato per sfruttare le nuove risorse? e iOS (che è nato per non dover fare neppure il multitasking preemptive?)
Atom e Cortex-A9 hanno più o meno la stessa capacità di calcolo. Ma il SoC ARM consuma una frazione rispetto ad Atom. Le dimensioni (e quindi i consumi) derivanti dalla soluzione Atom, come hai ben fatto notare, mettono la proposta Intel fuori mercato. E per ora, nessuno smartphone o Tablet che sia è usato per fare delle rendering farm, per cui l’uso delle FPU è limitato e non impatta sulle prestazioni che l’utenza necessita nelle applicazioni di tutti i giorni.
Poi, nessuno considera la cosa, e molti ignorano MIPS, ma quest’ultima ha la licenza per una tecnologia di emulazione x86 che non è per niente male in quanto ad efficienza. Ne deriva che è possibile nel futuro vedere processori a basso consumo che siano in grado di eseguire applicazioni x86 senza montare un processore Intel.
Quando la velocità di tali processori lo consentirà, sarà un’altra gatta da pelare per Intel.
Scusate, non ho fatto il quoting corretto nel messaggi precedente.
per restare in tema di confronto delle prestazioni che poi mi sembra il punto chiave della discussione propongo questo video http://www.youtube.com/watch?v=W4W6lVQl3QA&feature=player_embedded#at=127 anche se di parte mi sembra indicativo delle prestazioni reali ovvero quelle percepite dall’utente con quelle teoriche. Da sinistra atom 1,6ghz a destra cortex A9 a 500mhz, stesso sistema operativo (ubuntu) stesso browser (chrome) stesse pagine caricate
@ Nessuno
Parlando di s.o. / browser, direi che la piattaforma iOS è decisamente più snella dell’intero stack di Windows XP / 7. Inoltre, essendo basato sul WebKit, Safari ha ottime prestazioni nel rendering web (in modo particolare quando rapportato a IE 8, notoriamente piuttosto lento).
Questo implica che nel codice general purpose, un Atom è se la cava molto bene anche in confronto a una soluzione dual Cortex A9, il che non mi sembra poco.
Poi su SoC, consumi & ecosistema la pensiamo allo stesso modo: finchè Intel non creerà un SoC che sia _davvero_ un system on chip, la vedo dura.
Sono d’accordo anche su MIPS, sicuramente un’architettura molto valida e che, soprattutto, ha già dimostrato di saper aggredire una fascia prestazionale medio-alta (una volta erano usati nelle workstation SGI, oggi gli Octeon sono molto usati nei firewall/router avanzati di fascia alta).
Ciao.
Che iOS sia più snello di Windows non vi sono dubbi. Credo che anche l’elefante più obeso del pianeta in confronto a Windows possa sembrare un fuscello.
Ma la questione è: il SW di Apple, sia OS che browser, sono ottimizzati al meglio per usare entrambi i core a disposizione? Ripeto, questa è la prima esperienza che le applicazioni ARM fanno con sistemi multi core. Mi meraviglierei delle qualità di sviluppo di Apple se sia iOS (nato senza multitasking preemptive) che il browser fossero già stati aggiornati ad un supporto completo al multithreading.
Cmq, il link di marco è eloquente. Un dual core Cortex-A9 a 500MHz tiene testa ad un Atom dual core a 1.6GHz. E il recensore dice pure che la scheda di valutazione ARM non ha acceleratore grafico.
Io la vedo all’opposto: è il SoC ARM a tenere testa ad una soluzione Atom (entrambi dual core) con il primo che consuma molto meno del secondo. E con una potenzialità di sviluppo enorme, rispetto al già “grasso” Atom.
Io vedo Intel tra 2 fuochi. Da un lato i consumi che non riesce ad abbassare. Dall’altro le prestazioni che tra un po’ si vedrà costretta a rettificare per poter tenere testa agli ARM quad core. Al raggiungimento degli stessi consumi di un Atom, i processori ARM saranno nettamente più veloci di questo. Ma Intel non può costruire un processore potente a sufficienza e che consumi poco e che costi ancora meno senza intaccare il resto della gamma dei propri processori. Sarebbe un presa in giro. E un pericolo per la propria linea di produzione (un sacco di silicio verrebbe usato per queste soluzioni invece di quelle a maggior guadagno).
Apple ha Grand Central Dispatch per la gestione del multi-thread. iOS va su processori x86 multicore da anni, non e’ certo roba nuova per loro.
Il video e’ interessante ma non molto significativo — le pagine non sembrano eccessivamente complesse da renderizzare, e cmq all’inizio del video la soluzione ARM ci mette circa il doppio del tempo a renderizzare le pagine. Non sapendo se ha acceleratori javascript etc. e’ difficile trarre conclusioni.
Cmq ora stanno arrivando i primi tablet con Atom, appena ne esce qualcuno con Android sara’ finalmente possibile fare un confronto 1:1 (stesso OS, stesse applciazioni, si potra’ vedere come vanno e quanto consumano questi tablet Atom — sicuramente di piu’, ma quanto di piu’?).
Cmq queste soluzioni non sono minimamente in concorrenza con processori da desktop — c’e’ 1–2 ordini di grandezza di differenza riguardo alle prestazioni, e su desktop i consumi contano poco (specie se poi per giocare ci metti una scheda video da 250W :)
Esagera, 2 ordini di grandezza. Manco che il più veloce i7 di Intel andasse 100 volte più veloce di un Atom.
Il rapporto tra il processore più veloce e quello più lento è di un solo ordine di grandezza. Ma lo è anche lo spazio occupato sul die e i consumi.
E’ ovvio che queste microscopiche CPU ARM non possono reggere il confronto con integrati che hanno 10 volte il numero di transistor e consumano 2 ordini di grandezza di più (questo sì, purtroppo per noi). Ma ARM è intenzionata a uscire dalla nicchia dell’ultra mobile e quindi vederemo come si evolverà la questione.
Quello che dovrebbe essere chiaro è che oggi si sta comparando un chip fatto per cellulari con uno nato per netbook, e il primo va come il secondo consumando una frazione. Nel futuro esisteranno soluzioni più potenti da reggere il confronto con il meglio per desktop di Intel? Non lo sappiamo, priobabilmente no, vista la complessità necessaria, ma il primo confronto è interessante e lascia aperte tante (ma davvero tante) porte.
Pensiamo solo al progetto Denver di nvidia e quali novità potrà portare nel mondo informatico se avrà successo.
@ Nessuno
Il fatto che _un core_ Atom vada meglio di _due core_ Cortex A9 a mio avviso implica che, a livello architetturale del core, Atom sia significativamente più performante. E l’attuale Atom è un chip del 2008, realizzato senza troppi sforzi tramite un approccio di tipo “sea of FUBS”: http://www.anandtech.com/show/2493/13
(in pratica, un approccio simile a quello “macro” utilizzato da ARM).
E’ vero, l’A9 consuma di meno. Ma questo dipende da fattori che non sono legati solamente all’architettura o al set di istruzioni in se per se. Alcuni importanti fattori che comportano un maggior consumo lato Atom sono:
– IGP integrato che, pur essendo piuttosto lento, consuma (relativamente) molto;
– l’utilizzo di transistors più votati alla velocità che al risparmio energetico.
Intel ha già mostrato che un Atom con core grafico PowerVR e costruzione mista con transistors low-power (LP) dove realmente necessario permette al suo core di arrivare ai livelli di consumo dei corrispettivi ARM: http://techreport.com/articles.x/18866/1
Il vero tallone di Achille di Atom è che manca un SoC che sia davvero un system on a chip: per quanto Moorestown sia competitivo a livello di peformance e consumi, il fatto che ha bisogno di altri chip di contorno (fino a 4!) lo rende di fatto inadatto a essere integrato in uno smartphone.
E’ questo che intel si propone di correggere con le prossime iterazioni di Atom, oltre che di aumentarne le performance.
Ciao.
Vorrei farti notare che i confronti qui riportati sono tra Coretx A9 dual core e Atom dual core (e forse anche con hyperthreading attivo). Quindi sono confronti alla pari, a meno della frequenza (uno va più del triplo dell’altro, ma sappiamo da un bel pezzo che la frequenza non è più indice di misura della potenza di calcolo nei confronti tra architetture diverse).
Inoltre l’Atom usato per il confronto con il coretx A8 è quello vecchio che non integra nessun chip grafico ma ha 2 core, mentre il SoC ARM era mono core.
I confronti fatti sono tutti con PP diversi tra i due concorrenti, dove Intel è sempre una generazione avanti (non che sia un male se iNtel se lo può permettere, ma dimostra ancora che l’efficienza è ottenuta per via costruttiva invece che architetturale, e i miei dubbi sono proprio sulla limitata possibilità di Intel nel tempo di mantenere questo vantaggio).
Fai sempre i confronti tra una semplice CPU e un SoC completo. I consumi dell’Atom sono sempre un ordine di grandezza superiori a quelli del semplice Cortex-A9, mentre sono comparabili (anche se ancora superiori) a quello di un intero SoC ARM. Aggiungi i consumi di tutti gli altri componenti esterni (che se anche fossero integrati consumerebbero comunque la stessa quantità di energia) e quelli che ancora mancano alla soluzione Intel per avere le stesse funzionalità dei prodotti ARM e solo ad allora tiriamo le somme.
Intel può fare tutte le migliorie che vuole. Quando Intel riuscirà a integrare 260M di transistor (dimensione del SoC Tegra 2) in un SoC e fargli fare tutto quello che ora fanno i SoC ARM (che non sono solo 2 core non plus ultra, ma hanno anche altri core ARM minori integrati per svolgere diverse altre funzioni e molto altro ancora) allora si vedrà un confronto che avrà un senso nei numeri e nelle funzionalità.
L’arrivo di Intel a questa integrazione non arriverà prima di un anno, forse anche più, giusto il tempo per ARM di uscire con ritrovati come Tegra 3 (e forse anche il 4), i nuovi OMAP di TI e l’A6 di Apple e quindi invadere il mercato con le proprie soluzioni. A quel punto per Intel non ci sarà il problema di avvicinarsi all’efficienza ARM per avere un prodotto competitivo, sarà necessario che la superi perché i costruttori cambino completamente il modello di business su cui avranno investito fino ad allora (dicesi fornitori, accordi, alleanze, investimenti nello sviluppo SW, progettazione HW…).
Io dico, ma è solo un pensiero personale, che neanche con il processo di produzione di vantaggio e questi fantomatici transistor 3D (che dovrebbero far risparmiare il 20% di energia, mica dimezzarla o robe simili) Intel arriverà ad impensierire la concorrenza che avanza come una Formula 1. E se aspetta ancora un po’ e permette alla concorrenza di usare anche lei soluzioni simili come i transistor 3D e PP più raffinati, allora i propri vantaggi si assottiglieranno e saranno, come si dice in forbito gergo tecnico, volatili per diabetici.
Ciao,
io mi riferivo a un confronto fra iPad2 (dual cortex A9 @ 1.0 GHz) e a un normale netbook Atom single core (~1.6GHz). Riporto il testo originale:
“Alongside multitasking is the performance problem. With the original iPad even deleting several emails at a time was a bit choppy, and web page rendering performance needed tons of work. As always Apple does its best to hide the limitations of the platform but I must point out that even the iPad 2 with a pair of ARM Cortex A9s has lower CPU performance than a netbook with a single core Atom. The fact that you can’t really tell most of the time is a testament to Apple’s software engineering, but it doesn’t change reality.”
Questo commento indica chiaramente che l’esperienza d’uso sul web fornita da un Atom (che fa girare l’intero stack WindowsXp/7, al contrario dell’ARM che fa girare iOS) è superiore a quella di un dual cortex A9, il che non mi sembra poco. Architetturalmente, quindi, non si può negare che Atom sia valido, nonostante sia una CPU del 2008 e realizzata con pochissimi investimenti (rispetto alle altre CPU sfornate da Intel).
Discorso consumi: non voglio paragonare un SoC a un semplice core. Anzi, è proprio per questo essere “solo una CPU” che Atom non ha avuto successo. Ma analizzando per un attimo proprio la sola CPU, è evidente che i consumi relativamente elevati non siano dovuti tanto all’architettura in se, quanto ai fattori indicati qualche commento sopra. Nel momento in cui Intel ha usato transitor LP e grafica PowerVR in una logica più votata al risparmio di energia (clock più o meno dimezzati), ha ridotto moltissimo (se non azzerato) la differenza di consumi rispetto alla concorrenza ARM.
A mio avviso l’unico motivo per cui Atom non è stato adottato è proprio perchè _non è_ un SoC. E’ per questo che anche in futuro Intel avrà le sue difficoltà, almeno finchè non realizzerà un SoC vero e proprio, possibilmente con grafica PowerVR.
Poi non voglio togliere nulla ad ARM, che nel passaggio A8-A9 è migliorata moltissimo (da 1 core in-order a 2 core out-of-order), ma pensare che, nel giro di pochi anni, questa possa andare a competere a livello prestazionale anche con le più semplici architettura IA32 desktop (Celeron e AthlonII), senza avvicinarsi ai consumi di queste ultime, mi pare utopistico…
Comunque, come diceva Pleg, fra poco usciranno i tablet Android+Atom, e avremo tutti una visione più chiara della cosa (anche se penso che non useranno Moorestown ma le “solite” versioni netbook/nettop).
Ciao.