di  -  mercoledì 11 gennaio 2012

L’insistenza mostrata da Intel sul tema Ultrabook mi dà l’occasione di riaprire il tormentone sul passaggio del Mac ad ARM. Non credo infatti di esagerare – si veda la reazione di Jobs ad Android – quando penso che ad Apple dia molto fastidio l’insistenza di un partner nello spingere prodotti concorrenti (nonché esteticamente molto, molto simili) ai suoi.

In effetti, se c’è stata una parola d’ordine del CES fino ad oggi, questa è ultrabook. È vero, i prodotti visti finora non fanno gridare al miracolo né come prezzi né come design, ma è evidente l’impegno di Intel e dei suoi partner verso una ulteriore riduzione di dimensioni e prezzi del PC.

L’insistenza sul segmento ultrabook trova giustificazione in due fattori: il più intuitivo è il successo di Macbook Air, un prodotto partito da una nicchia e divenuto, col fondamentale contributo dell’abbassamento di prezzo degli SSD, una se non la colonna portante del mondo Mac. C’è poi la sfida posta da iPad, un dispositivo che ha (ri)aperto e occupato quasi totalmente il segmento tablet, lasciando ai competitor le briciole, arrivando perfino a erodere quote del mercato notebook.

L’insistenza su ultrabook è dunque per i produttori un tentativo – dopo la generazione di prodotti CULV qualche anno fa – di rivitalizzare specifiche e margini del notebook, un oggetto su cui sono abituati a competere. Ed è per Intel quanto per i produttori, un modo di riportare la partita sul campo di casa, il caro vecchio PC, viste le difficoltà a competere nel segmento tablet – con la parziale eccezione di Samsung.

Tornando al punto, c’è da scommettere che nei corridoi di Cupertino nessuno sia contento dell’enfasi con cui vengono spinti gli ultrabook, e che si stiano valutando rappresaglie. Il punto è che con una AMD non competitiva, particolarmente nel settore CPU mobile, l’unico cambio di rotta minimamente plausibile porterebbe verso ARM.

Ma in quali tempi e modi? Certo, con un segmento desktop il cui peso relativo è in costante contrazione, sembra facile prevedere un passaggio in massa della gamma portatili ad ARM. A partire proprio da quel Macbook Air che tanto beneficerebbe di qualche ora in più di autonomia – un sistema così compatto ispira una mobilità maggiore di quella già elevata che oggi è in grado di offrire.

In più l’architettura a 64 bit ARM v8 è in arrivo, ed oltre alla capacità di indirizzare quantitativi di memoria superiori ai 4GB lascia intravedere significativi incrementi prestazionali.

Tutto a posto quindi? Non proprio. Come Cesare ben descrive in un pezzo di qualche mese fa, esistono problemi notevolissimi in un simile cambio di architettura, particolarmente legati all’inerzia dell’ecosistema software che ruota attorno al Macintosh. Inoltre è impensabile che la prossima architettura ARM possa anche solo avvicinare le nude prestazioni di calcolo dell’ultima generazione di CPU Intel, e Mac OS X, particolarmente nelle ultime versioni, non è certo parco di risorse.

Ma proviamo per un attimo a cambiare punto di vista: per Intel Apple è un cliente di serie A, e non sarebbe certo nel suo interesse scontentarla. Potrebbe l’insistenza del colosso di Santa Clara su ultrabook derivare da una decisione già presa da Apple?

In effetti, pur al netto di tutte le considerazioni sulla complessità della transizione, il controllo completo che ha Apple sulla piattaforma Mac rende una “sterzata” senz’altro meno problematica di quella che, per esempio, dovrà compiere Microsoft con Windows 8. Inoltre Apple ha acquisito competenze per la personalizzazione di CPU ARM, ed è già molto avanti nello sviluppo di un OS nato su ARM, iOS, che con Mac OS X ha le fondamenta in comune. Da non trascurare poi i passi fatti dalla GUI dell’ultima iterazione di OS X verso iOS.

Insomma, di qui a un anno gli elementi per un colpo di scena ci sono tutti, e a ben guardare è più probabile che sia Intel a subire la leva di Apple che viceversa: da un lato Chipzilla (definizione coniata dal mitico Mike Magee) non può rinunciare a un cliente del volume di Apple (a cui ha spesso concesso CPU in anteprima), dall’altro non è ancora pronta a competere con ARM nei segmenti più “caldi” del mercato.

Dal canto suo Apple ha negli ultimi anni riscritto più volte l’agenda di tutta l’industria (Intel compresa), ed è in fondo da Cupertino che è partita l’ondata di nuovi device che ha messo ARM sugli scudi – in questo accelerando la tabella di marcia di Intel verso il mobile.

42 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    Davide Costantini
     scrive: 

    Il tuo post è molto interessante Alessio. Non credo che una transizione del genere possa avvenire entro l’anno mentre per lo stesso termine potremmo assistere alla presentazione di un eventual successore di Medfield che, secondo AnandTech (http://www.anandtech.com/show/5365/intels-medfield-atom-z2460-arrive-for-smartphones) se la cava bene.

    Chiaramente ci possiamo basare solo sulle dichiarazioni del produttore che sono di parte. Però se Intel si dimostrasse competitiva come sembra, fugando i dubbi riguardanti x86 in ambito mobile, Apple si arrischierebbe a mollare Intel per i suoi Mac più “mobile”? Del tutto non può perché i prodotti di gamma più elevata hanno bisogno di CPU più performanti.

    Le crescenti prestazioni delle unità ARM, unite al cambiamento nel paradigma del computing personale, hanno convinto Microsoft a compilare Windows anche per ARM. E’ prevedibile che in qualche momento la Apple faccia lo stesso senza però dimenticare la casa di Santa Clara. Sul lato chip si inizia sempre più a vedere la tanto acclamata competizione fra ARM ed Intel, dalla guerra fredda a quella “vera”. A seconda dei posizionamenti ci saranno prodotti relativamente competitivi ma credo che ne’ Microsoft ne’ Apple prenderanno una decisione netta. A mio avviso non conviene.

    E AMD? -.-‘

  • # 2
    gennaro tangari
     scrive: 

    Mah, il mio MacBook Air da 11″ 1.4Ghz è decisamente scarso in termini di prestazioni. Non voglio immaginare le prestazioni di un ipotetico computer con CPU ARM (paragonabili alle attuali).

  • # 3
    Cesare Di Mauro
     scrive: 

    Intel nei consumi non riuscirà a raggiungere ARM, se non grazie al vantaggio del processo produttivo più innovativo che adotta qualche anno prima degli altri. Ma la pacchia è destinata a finire fra qualche anno, quando si raggiungeranno i limiti fisici del silicio.
    Per cui da qui ad allora dovrà pensare seriamente a una soluzione definitiva per la sua ISA / famiglia di processori.

    ARM non riuscirà mai a raggiungere le prestazioni di Intel, a causa della sua architettura RISC (anche se si tratta di una buona ISA RISC). Al momento un ARM out-of-order prende mazzate persino da un Atom in-order.

    Difficile conciliare le due cose, insomma.

    Comunque Apple ha la forza del marchio. Alla fine può anche infischiarsene delle prestazioni sui modelli top di gamma, e scatenare i suoi genii del marketing che riusciranno sicuramente a “risolvere il problema” con qualche trovata.

    Specialmente dopo le acquisizioni effettuate in ambito CPU, il futuro lo vedo sempre più ARM-oriented per Apple.

    La cartina al tornasole al momento è rappresentata dalle partnership messe in piedi anche con la concorrenza per la produzione dei suoi SoC ARM. Apple dipende da Samsung, c’è poco da fare.

    Quando se ne sbarazzerà, affidandosi soltanto a una fonderia come TSMC o GlobalFoundries, sarà il primo segnale del grande cambiamento che arriverà…

  • # 4
    Sisko212
     scrive: 

    Difficile fare previsioni, almeno a breve termine.
    Certo è che Apple non è per nulla nuova a repentini cambiamenti di rotta.
    Solitamente però, quando Apple decideva di cambiare hardware, ha sempre inserito nel s.o. la possibilità, via emulazione, di far girare il vecchio software, che non era mai esageratamente lento (complice anche l’hardware più performante).
    La via dell’emulazione però, nel caso di adozione di cpu ARM, sembra però una strada poco percorribile perchè le prestazioni renderebbero il vecchio software, troppo lento e quindi inusabile.
    Forse nel caso dei notebook il problema non è così importante, se la maggior parte del software usato in quell’ambito, venisse da subito portato in Arm.
    Mentre nel caso dei MacPro, dove effettivamente il software è più eterogeneo, si potrebbe risolvere la cosa, fornendoli di una scheda con cpu intel… l’inverso di quello fù fatto a suo tempo con il Quadra 950, che montanto il motorola 68040, fu fatta uscire una scheda che montava i PowerPC per far girare i software nuovi che uscivano per quell’architettura.

  • # 5
    Alessio Di Domizio (Autore del post)
     scrive: 

    Devo dire la verità, l’i7 nel mio portatile è per il 99% del tempo in idle. Qualunque applicazione svolga nel normale flusso di lavoro non occupa più del 10%. Credo che, appoggiando tutto l’appoggiabile alla GPU, in alcune giornate di lavoro potrei fare tranquillamente a meno di un i7 a favore di un ARM.

    Particolarmente dopo essermi liberato dell’iPad un sistema formato Macbook Air ARM based, con un’autonomia di 12+ ore reali (quello attuale da 11″ ne fa 5 se va bene) lo comprerei al volo, non per sostituire il mio computer principale quanto per affiancarlo.

    Nel medio termine poi l’accesso a funzioni pesanti come una macchina virtuale si potrebbe anche remotizzare, alleggerendo il problema dell’impossibilità di emulare l’architettura precedente.

  • # 6
    Davide Costantini
     scrive: 

    Condivido il tuo pensiero Alessio ma con lo stato attuale delle cose rinunceresti a molto. Un Medfield single core con HT è più performante di un SoC ARM-based. Un ATOM desktop è più potente ed è dual core.

    Detto fra noi non è una CPU appagante. Quanto potrà dare un ARM A-15? In termini prestazionali non credo possa andare oltre a Brazos. Ma forse sono pessimista.

    Alla fine avresti un netbook con più autonomia. Non mi eccita molto il prodotto. C’è però da dire che i sistemi operativi mobile hanno evidenziato come bastino molte meno risorse (e scaricare nel bidone Flash) per garantire un’esperienza eccellente. La Apple ha un’offerta spiccatamente orientata ai consumer e la tendenza è in crescita. Farà il passo di rinunciare al suo business storico? Se lo farà, il salto ad ARM sarà inevitabile. E sicuramente si otrà fornire una decente esperienza con gli A-15 e i suoi successori.

    Però se vuole accontentare una fetta che sta diventando sempre meno importante ma che sicuro vale ancora diversi miliardi in cifre assolute, beh deve tenersi stretta Intel.

  • # 7
    Marco
     scrive: 

    @Davide
    “Un Medfield single core con HT è più performante di un SoC ARM-based”

    Beh, non siamo così pessimisti. Da vari benchmark che ho visto in giro le prestazioni di un A9 dual core @1GHz sono più o meno equivalenti ad un Atom dual core @1.6GHz. Ci sono picchi di eccellenza e test dove effettivamente prende le bastonate, ma in media mi sembra che ci siamo.

  • # 8
    Davide Costantini
     scrive: 

    Parli di Medfield? Perché dualcore?

  • # 9
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Davide
    Secondo in un ecosistema chiuso come Apple me si può fare molto meglio di un netbook a parità di potenza di calcolo a disposizione sfruttando a fondo la GPU. Non avrai comunque una macchina idonea a fare conversioni video o elaborazione di file RAW, ma perlomeno hai un tradeoff credibile fra potenza di calcolo e autonomia, che non impatta sulla fruibilità della GUI.

    Aggiungi anche che un gingillo del genere costerebbe anche considerevolmente meno di un Air basato su i5.

  • # 10
    Davide Costantini
     scrive: 

    Non hai torto, sicuramente sarebbe più performante di un netbook dei giorni nostri. Però a questo punto la segmentazione diventa complessa.

    Un Mac Book Air con ARM sarebbe meno performante, magari meno costoso, della versione attuale (o presumibilmente di un’alternativa Intel al momento dell’uscita). Avrebbe la tastiera. Dovrebbe scendere a compromessi con gli applicativi per guadagnare batteria. Quindi? Un iPad con la tastiera? Che fa girare Mac OS X ma non alla stessa maniera dei fratelli maggiori?

    Poi su una macchina non necessariamente “always on” come uno smartphone, la batteria conta un po’ meno. E Intel sta facendo i suoi passi in avanti.

    Sono abbastanza convinto che Apple presto o tardi metterà il piede in due scarpe come Microsoft. Ma non mollerà Intel del tutto a meno non deciderà di sacrificare il suo business storico.

    Certo di 108 miliardi di dollari, il 73 per cento è iOS. Sappiamo dove conviene stare a Cupertino. Ma sappiamo anche che concentrarsi e tagliare tutti i rami meno redditizi svilisce la marca, crea malcontento e chiude ad eventuali possibilità (anche se i PC sono evidentemente in parabola discendente). E in fine di conti i Mac sono gli unici “personal computer” che ancora hanno appeal, anzi sono in crescita.

    Per concludere, per me la questione è così: Apple introdurrà un Mac Book Air con ARM? Possibile. Non so se sarà un vero e proprio Mac, così come lo immaginiamo ora. Ma da qui ad almeno 3 anni ci scommetto che Intel sarà ancora lì. Il paragone con Samsung non sta in piedi perché lo chaebol è si un fornitore ma anche il principale avversario in campo smartphone. Che Intel dovesse saturare le fabbriche con la concorrenza Apple l’ha sempre saputo e sono convinto che i rapporti siano migliori.

  • # 11
    Davide Costantini
     scrive: 

    Aggiungo un paio di cosette – odio non poter editare i commenti :), dimentico sempre qualcosa. Nella sua battaglia con Samsung, Apple è potenzialmente attaccata sulla fetta più grossa di ricavi, appunto l’universo iOS che vale oltre 70 miliardi di dollari. Un motivo per arrabbiarsi quando il tuo fornitore tira fuori terminali con una GUI del tutto simile alla tua, un packaging identico e come motto per la pubblicità usa Smartly Different (e non dimentichiamo il Super Bowl). Samsung ha puntato la casa di Cupertino e la seconda ha risposto molto violentemente.

    Intel non compete direttamente con nessun produttore di computer e cerca solo di stimolare la domanda complessiva per sfruttare a pieno le sue costosissime fabbriche. I suoi obiettivi sono molto più inoffensivi dal punto di vista di Tim Cook. Per questo non credo che stia spingendo l’Apple a mollarli: se verranno abbandonati sarà solo per convenienza tecnologica e commerciale.

    Per quanto riguarda il Mac Book Air con ARM, mi sembra più attraente un equivalente Windows. Se devo avere una tastiera ma non poter usare Photoshop, avere l’esperienza di Mac OS X con meno software e meno potenza, trovo più interessante poter godere di Office e di una buona fetta dell’ecosistema Windows. Ma questa è un’altra storia.

  • # 12
    phabio76
     scrive: 

    Molto interessante, tutte osservazioni condivisibili, tranne una a mio parere: il fatto che AMD non abbia una cpu competitiva per un ultraportatile.
    Il Fusion Zacate (AMD e-350) che ho avuto modo di mettere alla frusta in vari ambiti e una cpu mooolto più potente di un Atom dual core e consuma anche meno. Senza contare che la grafica integrata è veramente di buon livello, superiore anche ai Sandy Bridge.

  • # 13
    Alex
     scrive: 

    Ma se parliamo solo del problema dei consumi a questo punto non sarebbe più vantaggioso investire sulla capacità delle batterie? Almeno per Apple non ci sarebbe il problema del cambio della piattaforma hw/sw in toto.

  • # 14
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ 13
    Se un raddoppio della durata delle batterie fosse una strada percorribile nel breve termine Intel molto prima di Apple tirerebbe un sospiro di sollievo.
    Ovvio che consumo e capacità delle batterie siano due facce della stessa medaglia, ma oggi il passaggio ad ARM oggi presenta un tradeoff ben delimitato, mentre nuove tecnologie in ambito batterie sono comunque di là da venire, e non si sa quanto di là. E non puoi stendere la tua roadmap di prodotto lasciando un’incognita così rilevante.

  • # 15
    Marco
     scrive: 

    @Davide

    Atom dual core generico. Fra le varie iterazioni le prestazioni (velocistiche) del core di Atom sono rimaste pressoché invariate.
    Ad esempio qui:

    http://www.phoronix.com/scan.php?page=article&item=compulab_trimslice&num=3

    viene confrontato un piccolo nettop con Tegra2 e degli Atom N270 e Z530 (Silverthorne e Diamondville).

    Comunque di Medfield se non erro è prevista anche una versione dual core. Da quest’anno tutti gli ARM di fascia alta avranno almeno 4 core: non mi stupirei che fossero più veloci del Core2Duo di un Macbook Air 2010 ma con un TDP << 1W.

  • # 16
    Cesare Di Mauro
     scrive: 

    Gli Atom non possono cambiare più di tanto: sono in-order dual-issue. Intel dovrebbe cambiare radicalmente architettura con l’out-of-order, aumentando però i consumi, e non è nelle sue intenzioni.

    Anche da questi test, comunque, è evidente che non hanno proprio nulla da invidiare agli ARM out-of-order e, anzi, tante volte gli rifilano sonore legnate.

    Se poi andiamo a vedere le prestazioni di un vecchio Pentiu-M single core e single thread ma out-of-order, beh, il confronto con gli ARM è a dir poco imbarazzante. Ed è vecchiume, appunto.

    Quello che gli ARM possono sfruttare sicuramente è il vantaggio di poter impacchettare molti più core a costi e consumi contenuti rispetto agli x86. Per cui da questo punto di vista hanno un futuro.

    Sulle pure prestazioni velocistiche di un singolo core/thread gli x86 rimarranno comunque avanti, perché l’architettura CISC, per quanto “orribile” sia l’ISA (io continuo ad adorare i Motorola 68000), permetterà sempre di poter eseguire più lavoro “utile” (e in meno spazio).

  • # 17
    Davide Costantini
     scrive: 

    Senza dimenticare che in campo “personal computing” avere più di due core aiuta poco e più di quattro è praticamente uno spreco di silicio. Se non parliamo di macchine da produzione professionale.

    E all’aumentare della complessità dei core, il divario energetico si assottiglia. Non credo proprio che ARM possa fornire le prestazioni di un i5 con meno di 1W, ne ora ne fra un due anni credo.

  • # 18
    Davide Costantini
     scrive: 

    Senza dimenticare che in campo “personal computing” avere più di due core aiuta poco e più di quattro è praticamente uno spreco di silicio. Se non parliamo di macchine da produzione professionale. Anche in campo server un sistema “massive multi core” non lavora bene in tutti i task.

    E all’aumentare della complessità dei core, il divario energetico si assottiglia. Non credo proprio che ARM possa fornire le prestazioni di un i5 con meno di 1W, ne ora ne fra un due anni credo. Probabilmente manco fra 3.

    I test sono interessanti, ma aspetto di vedere dei benchmark dii Medfield. Se Intel è riusita a convincere alcuni produttori ad adottare i suoi SoC vuole dire che il divario di performance e di consumi è accettabile. Probabilmente questa prima generazione non sarà molto eccitante, tecnologicamente parlando, ma non sfrutta neanche il processo 22nm trigate. Ricordate il primo Tegra? Non fu un granché ma NVIDIA ha subito raddrizzato il tiro. Secondo me Intel farà lo stesso sebbene non credo affatto che raggiungerà una quota maggioritaria di mercato.

  • # 19
    Alessio Di Domizio (Autore del post)
     scrive: 

    Le nude prestazioni del core ARM in un sistema chiuso come sarebbe il MB air andrebbero comunque messe in prospettiva. Certo, m’interesserebbe capire quali prestazioni ci si potrebbe attendere da ARM in contesti di virtualizzazione, un dettaglio non da poco nel mondo Mac ma ancor più nel momento in cui si mira alla stanza server.

  • # 20
    Cesare Di Mauro
     scrive: 

    Servirebbe qualche test anche in quest’ambito, in effetti.

    @Davide: non mi aspetto particolari cambiamenti da Medfield, per quanto già detto sugli Atom.

  • # 21
    Davide Costantini
     scrive: 

    Si certo Cesare, gli ATOM sono sostanzialmente la stessa minestra da alcuni anni.

    I bench di Anand lo fanno apparire competitivo, vuoi per HT che sopperisce parzialmente all’assenza del secondo core, vuoi per le buone frequenze alle quali gira. Se i consumi sono bassi come Intel sostiene è una piattaforma decente. Naturalmente i produttori non si strapperanno i capelli per passare. Non ora sicuramente.

  • # 22
    Roberto
     scrive: 

    @Alessio
    “Particolarmente dopo essermi liberato dell’iPad un sistema formato Macbook Air ARM based, con un’autonomia di 12+ ore reali (quello attuale da 11″ ne fa 5 se va bene) lo comprerei al volo”

    E un Transformer con tastiera? Altro che 12 ore, arriva anche a 16 e con tastiera e mouse sei a cavallo. Poi quando hai finito di lavorare lo stacchi dalla dock e hai il tuo iPad, ma più intelligente e meno limitato…

  • # 23
    Uebmaestro
     scrive: 

    Mi sembra che nessuno abbia messo in conto un’altra variabile, quindi eccomi: abbiamo considerato il lato software?

  • # 24
    Cesare Di Mauro
     scrive: 

    Ne avevo parlato nel mio articolo. Se lo ripeschi (Alessio ha fornito il link nel suo pezzo) trovi le mie considerazioni sull’argomento. ;)

  • # 25
    Davide Costantini
     scrive: 

    Condivido con voi l’articolo completo di Anand: http://www.anandtech.com/show/5365/intels-medfield-atom-z2460-arrive-for-smartphones

    Credo possa essere interessante. Non l’ho ancora letto, è abbastanza lungo :)

  • # 26
    pleg
     scrive: 

    L’articolo e’ interessante, ma quelli che chiami i “bench di Anand” sono in realta’ i bench di Intel, che Anand ha riportato, quindi da prendere con pinzoni molto lunghi :) D’altro canto, al CES dell’anno scorso NVidia aveva presentato Tegra3 che andava piu’ veloce di un Core2Duo, no? :)

    Bisognera’ aspettare che escano e vengano benchati in modo indipendente. Se uscissero ora sarebbero molto competitivi; se escono tra 6 mesi, Qualcomm dovrebbe aver gia’ fuori Krait dual-core in 28nm e a naso direi che quelli saranno piu’ veloci di Medfield; se escono a fine anno, alla festa di saranno uniti pure TI e NVidia con OMAP5 e Tegra3.5 (tutti a 28nm, e Tegra3.5 sara’ un quad-A15), e Medfield sara’ poco papabile.

    C’e’ da dire pero’ che se Anand ha ragione il chip e’ molto piccolo (~60mm^2): gli altri credo si stiano allinenando verso i ~100mm^2, quindi un Medfield dual-core potrebbe essere assai potente.

  • # 27
    Davide Costantini
     scrive: 

    Se vai a vedere il primo commento in alto, ho precisato la stessa cosa – che i test sono di parte. Aspettiamo con ansia le prove indipendenti.

    Però ci sono alcuni segnali che trovo incoraggianti: a) Intel ha delle design win; b) hanno mostrato uno “reference design smartphone”; c) la SGX540 lavora a 100MHz in più della concorrenza, certo avrebbero potuto usare la 543/544, ma se la casa di Santa Clara stesse tiratissima con i consumi non avrebbe alzato il clock. Pleg tu sei esperto in questo campo e mi piacerebbe sapere cosa ne pensi.

    Tornando alle considerazioni di Alessio, mi sovviene una domanda. Anche se Intel fosse meno competitiva sul rapporto consumi/prestazioni, data la minore rilevanza dell’autonomia su un Mac Book Air e dato il comunque consistente passo in avanti – secondo quanto affermato da Alessio sopra nei commenti – ad equipaggiarlo con un Medfield, conviene passare ad ARM e costringere a ricompilare il software?

    La mia opinione è no, se ci si deve limitare solo a quel prodotto. Sempre tornando ai discorsi di cui sopra, ARM sta diventando sempre più interessante e anche Microsoft ha messo il piede in due scarpe. Per cui in ottica prospettica ha senso fare il salto, nel modo meno brutale possibile.

    Tutto IHMO ovviamente :)

  • # 28
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Davide

    Tornando alle considerazioni di Alessio, mi sovviene una domanda. Anche se Intel fosse meno competitiva sul rapporto consumi/prestazioni, data la minore rilevanza dell’autonomia su un Mac Book Air…

    Ocio perché a mio avviso il formatto compatto “ispira” una maggiore autonomia, non rende l’autonomia meno rilevante.

  • # 29
    Cesare Di Mauro
     scrive: 

    @pleg: ha stupito anche me la dimensione del chip. Mi sarei aspettato una superficie ben più ampia. Evidentemente l’integrazione di sempre più roba, unita all’uso di processi produttivi sempre migliori, porta a ridurre il peso della sezione di decodifica degli Atom, che è l’unico tallone d’Achille che quest’architettura si porta dietro da quando è nata.

    Con questi numeri penso che Intel possa anche pensare di potenziare un po’ la sua architettura per migliorare le prestazioni. Aggiungere qualche altra unità di unità di esecuzione intera e/o AGU potrebbe aiutare a limitare la contesa di quelle esistenti fra i due thread, migliorando le prestazioni complessive. Una soluzione come quella di AMD con Bulldozer sarebbe ancora meglio, con le parti intere “sdoppiate” (e totalmente indipendenti in fase d’esecuzione, lasciando condiviso il decoder) e quella in virgola mobile / SIMD condivisa, ma non so quanto potrebbe incidere sui consumi.

    Intel in ogni caso deve cominciare seriamente a pensarci, perché A15 rappresenterà un netto miglioramento rispetto a quanto adesso offrono gli ARM, e rimanere con la stessa architettura (in-order e dual-issue non è certo il massimo a livello prestazionale) le lascerebbe un fianco scoperto, che poi è anche quello su cui ha puntato finora.

  • # 30
    pleg
     scrive: 

    @ Davide

    Scusa, non avevo visto bene il primo commento.
    Finche’ non avremo test indipendenti e comprensivi e’ difficile a dirsi: se Medfield consuma poco (allineato con le soluzioni concorrenti, insomma) allora direi che hanno in effetti potuto spendere un po’ di power budget in piu’ sulla GPU e quindi permettersi di alzarne la frequenza. Se invece i consumi fossero piu’ alti, direi che sono stati costretti ad alzare la frequenza della GPU per migliorare le prestazioni, a scapito dei consumi. Nel primo caso, significa che hanno spazio di manovra per andare con un dual-core e avere a quel punto un prodotto con prestazioni davvero elevate.

    @ Cesare

    Io non mi preoccuperei dell’area addizionale necessaria a gestire l’ISA piu’ complessa; e’ probabile che la CPU sia meno del 10% dell’area del SoC (per Tegra3 dovrebbe essere cosi’, e quello di core ne ha 5), quindi se anche aumenti di qualche percento l’area della CPU per la logica di decidifica, e’ un’area davvero irrisoria. L’unico vero problema secondo me dell’ISA piu’ complessa e’ che hai bisogno di spezzare il decoder su piu’ stadi, quindi aumenti la profondita’ della pipeline e in particolare del front-end, che e’ male perche’ e’ la’ che vai a pagare la penalita’ di branch misprediction (e quindi hai bisogno di predittori piu’ accurati, che consumano di piu’, ecc.)

    Onestamente dopo aver visto Bulldozer non sono cosi’ convinto che sia un’idea cosi’ brillante avere due cluster interi per cluster floating point, mi aspettavo molto di piu’. Vedremo.

    Il vero vantaggio di Intel, cioe’ il processo produttivo, immagino arrivera’ l’anno prossimo: Medfield e’ in 32nm ma i 28nm di Qualcomm sono vicini; ma se davvero Intel passera’ a 22nm nel 2013 e a 14nm nel 2014… beh TSMC avra’ ancora i 28nm nel 2013 e passera’ ai 20nm nel 2014 (si spera), quindi Intel avra’ un nodo di vantaggio rispetto a tutti gli altri, coem ce l’ha contro AMD, e non ci sara’ molto da ridere…

  • # 31
    Cesare Di Mauro
     scrive: 

    Infatti è indiscutibile la forza di Intel da questo punto di vista, ma sappiamo che non durerà molto.

    Riguardo a Bulldozer, come sai da un primo entusiasmo sono passato a una forte delusione una volta che sono stati resi pubblici i dettagli dell’implementazione e, soprattutto, i benchmark, ma paragonata ad Atom mi sembra che la situazione sia di gran lunga superiore a livello prestazionale.

    Certo, l’ideale da questo punto di vista sarebbe avere dei core “puri”, come la concorrenza. Il Tegra 3 che hai citato ne ha addirittura 5 racchiusi in un’area molto piccola.

    Sono assolutamente d’accordo sulla sezione di decodifica e sulle problematiche che comporta. C’è da lavorare molto a riguardo. O:-)

  • # 32
    Davide Costantini
     scrive: 

    @ Alessio
    Certo, dal formato compatto ci si aspetta consumi inferiori e l’autonomia adeguata per utilizzarlo “fuori porta”. Converrai con me che su uno smartphone 1 ora in più di autonomia sia molto più importante che su un ipotetico Mac Book Air da 12+ ore. L’utilità marginale decresce. A quel punto conviene passare ad ARM? Rimango dell’idea che il vantaggio non sia nel caso specifico ma nel prepararsi – di fatto portando gli sviluppatori a compilare per ARM – all’eventualità futura di sfruttare la casa inglese in una porzione più rilevante di prodotti o ad unificare gli ecosistemi ultramobile e tradizionale.

    Infine ho un altro spunto. Correggimi se sbaglio, ma gli Air sono il 28% di vendite di Mac. Se la Mela invece di introdurre un nuovo prodotto sostituisse l’attuale (passare brutalmente da Intel ad ARM su quella linea) non pensi che avrebbe un impatto non proprio amabile sui ricavi? Fin quando non verrebbe compilato una certa porzione di applicativi l’appeal sarebbe alquanto limitato.

    @Cesare
    I limiti del silicio non sono poi vicinissimi. Alla fine chi può dire quale sarà il nuovo paradigma? Mi sembra difficile predire come possa cambiare il mercato allo stato attuale.

  • # 33
    pleg
     scrive: 

    Anch’io credo che al momento gli ARM disponibili non abbiano le prestazioni necessarie ad alimentare un MBA. Penso che si dovra’ aspettare roba di classe Denver (o gli equivalenti di Qualcomm e TI, che non conosco), sempre che regga l’hype :) cioe’ dalle parti del 2014-2015…

    Il silicio ci durera’ fino a fine di questa decade, poi chissa’ :)

  • # 34
    biffuz
     scrive: 

    A nessuno viene in mente che già da Snow Leopard la Apple usa LLVM? Se aggiungiamo il salvataggio degli stati delle applicazioni introdotto con Lion, mi risulta abbastanza semplice, a questo punto, immaginare un sistema ibrido ARM + x86: a batteria funziona principalmente con ARM, ma quando attacchiamo l’alimentatore il SO salva gli stati dei programmi in esecuzione, li ricompila e li rilancia sull’x86.
    Poi mettiamoci anche Grand Central Dispatch, ed ecco che possiamo usare entrambi i processori. E anche la GPU, se abbiamo usato OpenCL.

    E per la maggior parte degli sviluppatori, il tutto si risolverà con poche modifiche al proprio codice.

    Non so voi ma io sbaverei sopra una cosa così.

  • # 35
    Cesare Di Mauro
     scrive: 

    LLVM per cosa lo usa, per generare eseguibili basati ormai sul solo IL? Oppure i FAT binary adesso includono ANCHE l’IL di LLVM?

    Se non c’è nessuna delle due, allora l’unica soluzione è rappresentata da un compilatore JIT basato su LLVM (come è stato fatto nel progetto Unladen Swallow di Google per introdurre il JIT in CPython), che mi pare in linea con quanto farà Intel col codice ARM “nativo” di Android, ma non rappresenta certo la soluzione ottimale (dal punto di vista prestazionale).

    @pleg: francamente pensavo che i limiti del silicio sarebbero arrivati molto prima. Quasi 8 anni rimangono un vantaggio tecnologico enorme che Intel potrà sfruttare, anche se c’è l’incognita dei costi degli impianti, che già sono diventati improponibili (infatti è uno dei motivi per cui Intel s’è buttata negli SSD: cercare di monetizzare la resa dei suoi impianti per ammortizzarne le spese).

  • # 36
    pleg
     scrive: 

    In realta’ non so dive siano i “limiti fisici”, e non conosco nessuno che lo sappia :)

    Secondo l’ultimo rapporto dell’ITRS
    http://www.itrs.net/Links/2011ITRS/2011Chapters/2011Lithography.pdf
    (pagina 16) scenderemo sotto i 10nm per il 2020 (quelli sono i numeri della DRAM, il nodo standard per processori/GPU che viene usato di solito e’ piu’ piccolo).

  • # 37
    Cesare Di Mauro
     scrive: 

    http://news.cnet.com/2100-1008-5112061.html

    Gli atomi hanno una loro “dimensione”, inoltre più si riducono quelle dei transistor, più si fanno sentire gli effetti della meccanica quantistica e in particolare l’effetto tunnel.

    Riguardo alla litografia, invece, dovrebbe esistere qualche limite di natura ottica, che possa a sua volta creare problemi.

    Per cui non credo che ci si possa spingere all’infinito nella miniaturizzazione dei transistor.

    Dovremo trovare un’altra strada diversa che sfrutti la meccanica quantistica, ma anche qui ci sarà sempre un limite oltre il quale non si potrà “scendere”.

  • # 38
    StupidoFlanders
     scrive: 

    My 2 cents: qualche anno fa avevo un vecchio portatile con centrino, una delle prime generazioni, praticamente un P3.
    Avevo ridotto il voltaggio e il clock era sui 900MHz.
    Stabilissimo, freschissimo, praticamente le ventole non andavano mai.
    Ci girava XP, ci girava decentemente praticamente tutto il software che uso allora lo uso oggi (sviluppo, office, disegno, un minimo di videoclip just for fun, qualche macchina virtuale con Linux su VMWare, e anche parecchio MAME ;) ), sennonchè oggi faccio molte più cose via web con browser che millantano prestazioni n volte supriori ad ogni upgrade e quindi a rigor di logica dovrei aver bisogno di prestazioni ancora minori in locale.

    Ora, mi è perfettamente chiaro che se faccio simulazione numerica pesante o gioco a Crisys o a Frogger :) il mio attuale i7 gli fa mangiare assolutamente la polvere, e anche un Atom entry level, ma il punto è che ci facevo tutto quello che faccio oggi con l’i7.
    Non nel senso in cui lo facevo con il GEM sull’Atari: intendo dire che ci facevo le stesse cose su un sistema che potrei usare sull’hardware di oggi, sullo stesso software che uso tuttora (e che ad ogni versione mi ricorda quanto sia diventato più veloce…).
    Anche con un Celeron 400MHz Mendocino e un P2 350MHz Deschutes non me la cavavo male con W2K e buona parte dei software che uso oggi (sicuramente ci facevo molte più cose di quelle che i manager per cui preparo gli iPad e i Galaxy faranno mai con i loro giocattolini) ma qui sto parlando di una pressochè perfetta identità d’uso *e di mezzi* con ciò che faccio oggi.
    Nessun bisogno di migrare a una nuova piattaforma. Nessun nuovo asm da imparare a sfruttare al meglio. Nessun bisogno di fare esperienza sul programmare nuovi os che girano su una nuova architettura.

    Mi rifiuto di pensare alla irrisoria quantità di energia che consumerebbe una architettura x86 in grado di dare le stesse prestazioni sviluppata con le tecnologie attuali.
    E comunque sarebbe enormemente più veloce con SSD (al posto di un 4200RPM) e RAM almeno alla pari di quelle che stanno negli smartphone di oggi: anche ai vecchi tempi non era certo la CPU il maggior collo di bottiglia nelle attività di tutti i giorni!
    E se Intel e AMD avessero investito in quel segmento quanto hanno investito per il settore desktop, altro che Atom!

    In sintesi, i due centesimi: la mancanza di x86 nel settore ultramobile dipende non da limiti tecnici ma dalla miopia e avidità delle scelte commerciali.
    Diciamocelo, nessuno che non legga regolarmente testate di IT ha mai sentito nominare un UMPC, vederne uno è più difficile che fotografare lo Jeti e comunque meglio così perchè erano delle orribili cineserie.
    La politica di prezzi per i processori *ULV sarebbe un complimento definirla folle: se non spingi un prodotto per avere una economia di scala come pensi di ridurre i costi di produzione?
    Non un propdotto fatto e finito spinto sul mercato come ha fatto Apple, con molti meno mezzi dei vendor che occupano il restante 90% del mercato.
    Evoluzioni come il touch, gli accelerometri, l’uso della cam come il Wii, integrazione con GSM e 3g completamente ignorate, e adesso Ballmer che pensa di recuperare il passo giustapponendo un tema del desktop in HTML5 per fare cose già possibili con ActiveDesktop, quando quello che servirebbe è un sistema che alla faccia dell’antitrust (che sa di programmazione quanto un tronista di greco antico) integri (e metta a disposizione delle sue API di sistema, non del suo desktop manager dei minipony) almeno l’hardware che c’è su un qualsiasi smartphone attuale anzichè credere di girare ancora su un PC AT.

    Ben venga una netta rottura col passato se questo vuole dire togliere colli di bottiglia come l’HD meccanico e mettere a disposizione del sistema un parco hw moderno.
    E che il sistema ne prenda atto e metta tutto quanto a disposizione dei programmatori (accelerometri, GPS, 3g… non solo per fare qualche App da Store: paura della concorrenza M$?), senza drivers di terze parti che non vanno mai e che sono scritti per costringere all’aggiornamento appena cambia una virgola sul dispositivo.

  • # 39
    Cesare Di Mauro
     scrive: 

    Il complottismo non è il massimo…

    Comunque il problema di x86 con mobile et similia è stato già affrontato:

    http://www.appuntidigitali.it/4375/arm-vs-intel-i-cut-the-power/
    http://www.appuntidigitali.it/5393/la-guerra-dellisa-x86-limpatto-su-decoder-compilatori-e-implicazioni-varie/

    Per il resto è ovvio che più funzionalità devono mettere a disposizione i sistemi informatici, più potenza di calcolo è richiesta.
    Se col MAME sul P3 a 900Mhz non ti gira Frogger, devi passare a qualcosa di più prestante, magari un i7. O:-)

  • # 40
    StupidoFlanders
     scrive: 

    Niente complottismo per carità, solo l’amara constatazione che con poche (relativamente al resto dell’industria) risorse Apple è riuscita a rilsciare dei prodotti che hanno fatto scuola grazie all’integrazione tra scelte riguardanti l’hardware, il software e il design.
    Non amo Apple, ma lo dico perchè (abbastanza poco sorprendentemente, dato che ha/aveva un buon management, ed è una sola azienda, non un assortimento di competitor che provano a pungnalarsi vicendevolmente le spalle) ha saputo remare nella stessa direzione (cosa che a volte non succede nemmeno all’interno della stessa azienda…) e raggiungere dei risultati che il pubblico compra e la concorrenza insegue.
    Con risorse enormemente suprtiori il resto dell’industria ha continuato e continua per un decennio a sfornare anonimi plasticoni, centinaia di modelli e devi fare i salti mortali per trovare qualcosa, magari solo di fascia alta, che abbia quello che 10 anni fa era il modem e la porta USB (intendo dire, il minimo comun denominatrore dell’hardware moderno): accelerometro, GPS, 3g, videocamera/fotocamera decente (stile iPhone).
    Un’assortimento terra terra che costa poco ai produttori e che consente una esperienza d’uso completamente diversa, quella per cui un portatile NON rimpazza uno smartphone o tablet nemmeno se peso e energia non sono un problema (cioè nel 90% dei casi, non siamo mica nel Borneo come vogliono farci credere alla ARM!).
    Non parliamo poi di avere un sistema che sfrutti questo assortimento hardware out of the box… mi ricorda il periodo di 98 in cui dovevi fare i salti mortali per avere i driver per fare andare roba USB o i modem (l’equivalente di allora del “must have”).
    Non è complotto, è estrema miopia, solo questo giustifica la scrittura di Vista/7 come sistemi desktop puri, quando all’epoca CE aveva già perso quote di mercato come una pecora che provi a volare e XP per tablet era poco più che un mero esercizio accademico.
    Questa mancanza di coordinazione tra l’ecosistema hardware e quello software Windows/office, che ha rilasciato solide fondamenta per un sistema desktop ma ha saltato a piè pari l’opportunità di un sistema più leggero e modulare che fosse in grado di essere credibile nel settore mobile e ultramobile (cosa che si tenta oggi con 8), è avvenuta proprio in tempo (è ironico) per ammazzare l’UMPC su cui i produttori di hardware contavano per evitare che il settore mobile fosse cannibalizzato da piattaforme sviluppate per non-x86 sempre più smart e potenti, come effettivamente è avvenuto con iOS e Android.
    Lo stesso svarione è arrivato proprio in tempo per impedire lo sviluppo dei netbook, prima via gli ssd, poi non ci pensiamo nemmeno a 3g/GSM ecc come dotazione minima comune perchè tanto XP, Vista e 7 non san che farsene.
    E così i netbook non sono diventati quello che potevano ma semplice sinonimo di portatili scadenti con dischi lenti e schermi a bassa definizione, tranne poche lodevoli eccezioni che comunque non venderanno mai come gli Air o i Tablet perchè out of the box l’ecosistema software che ci gira sopra più che a usare l’harware che caratterizza l’ultramobilità del 2012 pensa a creare ribbon sempre più rimpinzati di iconcine, e i vendor ci mettono di loro riempiendo le macchine di trashware…
    E mentre i netbook si scavavano la loro piccola nicchia, innoqua e ben distinta da quella dei veri terminali ultramobili come tablet e smartphone, gli UMPC sparivano.
    Quest’anno con 8 l’ecosistema Win86 ci riprova, dopo che la direzione presa dallo sviluppo di Vista ha fatto perdere 5 anni ai costruttori di hardware x86 mobile, abortire due ottimi concept (UMPC e netbook) e li costringe ora a buttarsi in un mercato ormai saturo quando avrebbero potuto partire per primi.
    Il punto? Voglio solo dire che erano messi meglio 5 anni fa, e avrebbero fatto meglio a provarci allora. Ora probabilissimamente ce la faranno a sfondare, ma gli costerà un sacco di più in tempo e investimenti.
    E tutti sanno che di questo ringrazieranno Microsoft, per questo gli uni si organizzano per coreggiare Andorid, iOs e papabili alternative, gli altri si attrezzano a far andare una sia pur minima parvenza di Windows su ARM.
    Già la mancanza di idee chiare e coordinazione reciproca ha fatto questo bel danno, spero nel futuro la cosa non peggiori, perchè i ritardi li paghiamo noi utenti in termini di prodotti peggiori e costi maggiori… i.e. tutto l’RD speso per gli UMPC lo paghiamo su ogni pezzo acquistato, mica fanno beneficenza, il bilancio deve tronare… e se non torna, meno venditori, meno concorrenza, e ancora peggio per noi!

  • # 41
    pleg
     scrive: 

    @ Cesare

    I transistor *sono* oggetti quantistici :) anche quello grande come il palmo di una mano che Shockley fece funzionare nel natale del ’47. Quindi non c’e’ nessun “più si fanno sentire gli effetti della meccanica quantistica”, perche’ solo la MQ riesce a spiegare come funzionano.

    I “limiti fisici” non si bene dove siano, perche’ sono gia’ stati raggiunti — e superati, piu’ volte :) All’inizio degli anni ’80 si pensava non si potesse piu’ scalare la dimensione dei transistor (“sotto il micron! impossibile!” :) , poi e’ arrivano Dennard e ha spiegato come fare.

    Poi si pensava che non si potesse scendere sotto i ~200nm, perche’ quella e’ la lunghezza d’onda della luce ultravioletta usata per le maschere, e la diffrazione limita la risoluzione che possiamo ottenere sul wafer. Pero’ la MQ ci permette di calcolare *esattamente* come la luce diffrae e interagisce con la materia, e quindi oggi possiamo ottenere feature a 22nm usando sempre luce a 200nm.

    Quello che voglio dire e’ che certo ci sara’ un momento in cui non si potra’ piu’ fare un transistor piu’ piccolo usando la stessa tecnologia, ma non e’ ancora chiaro dove stia quel punto. Ad esempio, l’Extreme UltraViolet dovrebbe liberarci di quel vincolo ottico di cui sopra, se solo riuscissimo a farlo funzionare. E invece di maschere avremo magari specchi costruiti atomo per atomo, perche’ il quarzo e’ opaco al profondo ultravioletto e quindi non puoi piu’ costruire lenti :) e quindi andremo avanti ancora un po’…

    Quindi, per questo decennio dovremmo avere ancora abbastanza trucchi per andare avanti. Per il prossimo non lo so :)

  • # 42
    Cesare Di Mauro
     scrive: 

    OK, afferrato. :)

    @StupidoFlanders: a mio avviso è stato un problema di marketing. Apple ha saputo dominare da questo punto vista, e da nicchia elitaria è diventata un gigante… popolare. Uno status symbol.

    Non è questione di mancanza di soluzioni. Il già citato Windows CE era ed è di gran lunga migliore come piattaforma mobile rispetto alle altre, anche moderne.

    Microsoft non l’ha saputo valorizzare costruendogli un ecosistema adeguato, come invece ha fatto Apple con iOS, che affonda comunque le sue radici su… OS X.

    Non è stato certo Vista il problema, come non lo è 7 né lo sarà 8. Sono s.o. orientati al desktop, è vero, ed è giusto che sia così.

    Con l’ultimo il confine sarà notevolmente più assottigliato, perché strategicamente Microsoft vuole avere una soluzione “unica” per tutti i settori di mercato in cui opera. Il tempo, comunque, non gioca a suo favore: avrebbe dovuto pensarci molto prima; vedremo se riuscirà lo stesso a sfondare o comunque ritagliarsi una buona fetta di mercato.

    Windows Phone 7 è, invece, un prodotto tagliato su misura, come lo era il buon vecchio CE.

    Android? Non ne parliamo nemmeno… Hanno preso un pachiderma (Linux) confezionandolo in versione mobile. E c’è gente che grida al miracolo… -_-

    Alla fine, ripeto, è tutta una questione di marketing: c’è chi s’è saputo muovere presto e vendersi meglio degli altri. Tanto di cappello, nulla da dire.

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.