di  -  mercoledì 23 marzo 2011

Si dice che il 2011 sia l’anno delle CPU con GPU integrata e concordo pienamente con questa previsione in quanto se già nel 2010 queste soluzioni hanno rappresentato il 39% del mercato delle CPU per notebook, è più che ragionevole presumere che tali sistemi siano destinati a diffondersi a macchia d’olio.

Anche se per l’utente finale non cambia molto rispetto alle precedenti soluzioni che prevedevano chipset con grafica integrata, quella delle CPU con GPU integrata è un’evoluzione destinata a smuovere notevolmente non solo il mercato dei microprocessori, ma anche quello dei chipset e delle schede video.

Analizziamo in particolare la situazione dei tre grandi colossi nel mercato delle GPU: Intel, AMD e NVIDIA.

La prima in base alle ultime informazioni disponibili detiene ben il 52,5% del mercato delle GPU, una percentuale che non deve sorprendere più di tanto in quanto, quando si parla di GPU, ci si riferisce all’intero mercato dei processori grafici, compresi quelli presenti nei chipset e nelle CPU. Queste due ultime categorie in termini numerici rappresentano buona parte di questo mercato, relegando le GPU su schede video ad una nicchia.

Intel ha da sempre beneficiato di questa conformazione del mercato delle GPU ed è per questo motivo che, nonostante le prestazioni delle sue soluzioni grafiche siano tradizionalmente sotto la media, detiene la quota di maggioranza.

Con l’introduzione nel 2010 delle CPU con GPU integrata e dei nuovi processori Sandy Bridge, è presumibile che la situazione per Intel sia destinata a restare simile a quella attuale e, quindi, nel complesso ottima: la società, infatti, ha evidentemente investito molto negli ultimi anni in questo tipo di soluzioni e sta dimostrando di essere tecnologicamente sulla cresta dell’onda.

Se Intel è contenta, AMD probabilmente lo è ancora di più in quanto avere CPU con GPU integrata non può che favorirla dal punto di vista della competitività dei propri prodotti. Infatti, grazie agli ottimi core Radeon della sua divisione grafica, AMD potrà vantare quest’anno un ventaglio di prodotti il cui equilibrio tra potenza di elaborazione della CPU e GPU sarà quasi certamente migliore rispetto a quanto sia in grado di offrire Intel. A conferma della bontà di questi prodotti ci sono gli ottimi dati dell’adozione delle soluzioni Zacate ed Ontario da parte dei produttori di motherboard, notebook e netbook.

Si tratta probabilmente di un periodo che AMD stava attendendo fin dall’epoca dell’acquisizione di ATI Technologies, mossa che nonostante lo scetticismo di molti all’epoca, oggi assume evidentemente un significato strategico di enorme valore: se AMD non avesse acquisito ATI, oggi non avrebbe le competenze per poter realizzare le sue soluzioni Fusion. Un discorso analogo potrebbe essere fatto anche per quanto concerne ATI: che fine avrebbe fatto l’azienda canadese se oggi non facesse parte di AMD? La risposta la ritroviamo essenzialmente nella situazione di NVIDIA.

NVIDIA negli ultimi due anni ha radicalmente cambiato il suo approccio al mercato. Un tempo NVIDIA era essenzialmente e quasi esclusivamente l’azienda produttrice delle GPU GeForce e dei chipset nForce. Alla luce della piega presa dal mercato delle GPU integrate, oggi NVIDIA ha cambiato volto: i chipset nForce sono destinati a diventare ben presto un nostalgico ricordo, mentre i suoi sforzi sono stati ridirezionati verso il mercato dei System-On-Chip (SoC) ARM con Tegra e del mercato server e workstation con Tesla e, in futuro, Denver. Resta una sua presenza di spessore nel mercato delle GPU discrete, anche se per queste ultime probabilmente svanirà il segmento low-end, quello delle schede video economiche, fagocitato dalle CPU con GPU integrata.

C’è da chiedersi se, assumendo per vere le voci che davano qualche tempo fa NVIDIA interessata all’acquisizione di VIA, l’azienda di Santa Clara non avesse fatto meglio a perseguire la strada delle CPU x86 invece di addentrarsi nell’affollato mondo dei SoC ARM. E’ difficile dire quale dei due mercati sarebbe stato tecnologicamente e commercialmente più impegnativo, ma è indubbio il fatto che la scelta effettuata rappresenti un punto interrogativo tanto sul piano della competitività dei prodotti Tegra e Denver, quanto sul piano della concorrenza visto che NVIDIA deve oggi misurarsi con colossi del settore contro i quali non ha mai avuto a che fare prima: Texas Instrument, Samsung, Qualcomm, Apple, ecc…

Un elemento è certo: la strada delle CPU con GPU integrata ha di fatto tagliato fuori NVIDIA dal mercato delle soluzioni integrate e low-end, e non mi sorprenderebbe pertanto assistere ad una contrazione del suo market share in questi settori. Quanto questo influenzerà complessivamente le sue finanze è difficile dirlo, ma l’aggressività con la quale questa ormai storica azienda di GPU sta attaccando il mercato dei SoC mi fa personalmente ritenere che anche in questo caso, come del resto è quasi sempre accaduto quando è entrata in nuovi mercati, NVIDIA avrà successo.

22 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    Griso
     scrive: 

    Mi pare che all’epoca delle voci di acquisizioni di VIA da parte di nVidia si disse che comunque la licenza x86 non sarebbe stata trasferibile, ricordo bene ?

  • # 2
    Nessuno
     scrive: 

    Credo che nvidia si sia preparata per tempo a questa cosa.
    Che CPU e GPU dovessero essere venduti insieme era ormai cosa risaputa proprio quando AMD ha acquisito ATI.
    nvidia nel frattempo ha fatto le sue mosse. Infatti ha investito ingentemente nell’uso delle GPU al di fuori del semplice mercato casalingo dei videogiochi.
    Oggi è praticamente monopolista del mercato professionale delle schede video e ancor di più di quello nuovo, da lei creato, dell’HPC.
    Visti i numeri dei propri bilanci, dove la maggior parte degli utili (non del fatturato) viene dal mercato professionale, è possibile stimare che il proprio fatturato scenderà, ma in maniera molto minore (se mai dovesse farlo) scenderà l’utile.

    Se si parla di quote di mercato, è ovvio che i numeri di nvidia scenderanno, e anche parecchio, quando le soluzioni low end saranno completamente rimpiazzate dalle GPU integrate. Ma se parliamo di fatturati/profitti direi che questa cosa non sarà a vantaggio della sua concorrente principale, AMD, dato che anche per lei una soluzione GPU integrata venduta in più equivale ad una scheda discreta venduta in meno, e non credo che il ricavo su una scheda discreta sia basso quanto quello che si può ottenere da una soluzione integrata.
    Per Intel invece la soluzione CPU+GPU non cambia molto, dato che non fa schede discrete e il fatto di avere la GPU nei propri chipset (di cui ormai è unica produttrice) o nella CPU poco cambia a livello di costi/valore aggiunto.

    Quello di cui non bisogna illudersi, però, è che queste soluzioni integrate siano comparabili con quelle discrete. Con la questione che AMD sta investendo nell’uso di uno standard come OpenCL per aiutare la CPU a fare calcoli complessi, e quindi in teoria per mostrare un punto di forza rispetto alla concorrenza, per avere dei vantaggi tangibili servono schede di potenza ben maggiore di quelle che stanno per essere integrate.
    E per quando potenti saranno le schede integrate, man mano che il processo produttivo scende, non si arriverà mai a eguagliare la potenza di calcolo delle schede discrete (che a loro volta beneficiano della riduzione di PP).

  • # 3
    Cesare Di Mauro
     scrive: 

    Ci sono un paio di aspetti molto importanti che non hai considerato.

    Il primo riguarda il fatto che avere CPU e GPU nello stesso package o, ancora meglio, nello stesso pezzo di silicio significa che roba come il PCI-Express per trasferire i dati bidirezionalmente sarà un recordo del passato, visto che sarà possibile farlo a velocità impensabili prima.

    Il secondo è che man mano che la tecnologia avanza sarà possibile integrare sempre più stream processor nella GPU, portando le prestazioni di quest’ultima a livelli notevoli. Non v’è dubbio che una GPU discreta potrà avere la possibilità di integrarne di più, ma il divario potrebbe essere rappresentato esclusivamente dalle soluzioni high-end, mentre il resto se lo spartiranno CPU + GPU integrate.

  • # 4
    densou
     scrive: 

    ma non è sbagliato definire i Fusion come CPU+GPU a differenza dei Sandy Bridge in quanto le APU sono dedicate e consolidate nel processore !?

    Dovreste vedere come in vari forum [anche internazionali] certi supponenti nerd/geek quotono ed infamano chi associa tale addizione a Fusion lol

  • # 5
    Alex
     scrive: 

    Ho dei dubbi che CPU+GPU nello stesso package possa avere nel breve periodo dei benefici in termini di prestazioni. Il punto è che in una scheda video la parte da leone non la fa solo la GPU ma anche le RAM che devono essere estremamente performanti per poter reggere la capacità di accedere ai dati e di elaborazione delle GPU. Che fine farà questa memoria? Non credo che finirà nello stesso package insieme alla CPU e la GPU. Molto probabilmente vedremo un aumento non indifferente della quantità e della qualità delle memorie montate sulla scheda madri per poter continuare a stare al passo con le attuali schede video. Senza poi contare che sulle GPU la possibilità di aggiungere altri transistor per aumentare la capacità di elaborazione è ancora grande mentre su CPU i transistor possono ancora una volta servire solo per aumentare la cache. Quindi vedo la GPU un pò costipata insieme alla CPU in questo contesto. Insomma la transizione è iniziata ma da qui a dire che la strada è tracciata secondo me è ancora molto presto.

  • # 6
    phabio76
     scrive: 

    Per restare alla domanda,
    CPU con GPU integrata: un pericolo per NVIDIA?
    Considerando la strada che ha scelto di prendere nVidia, assolutamente no. L’unica soluzione che ne esce ulteriormente bastonata è ION che ormai aveva fatto il suo tempo ma che ultimamente aveva ripreso un po’ di vigore grazie alle cpu intel CULV montate su alcune mobo mini-itx.
    Visto all’opera l’AMD fusion e350 che offre prestazioni paragonabili a costi e consumi inferiori, a preoccuparsi dovrebbe essere Intel che ancora propina quella ciofeca di Atom.

  • # 7
    Al
     scrive: 

    Parto dalla domanda del titolo.

    Il pericolo c’è per tutte le schede di fascia bassa (quelle da 30-40$ tanto per intenderci) sia per Nvidia che per ATI.

    Ovviamente Nvidia è quella che ha più da perderci, visto che già a perso il mercato dei chipset, mentre ATI recupera in parte con AMD.

    Nota: ATI perde comunque perchè vende GPU anche per PC/Notebook dotati di processore Intel.

    Ma il guaio maggiore di tutto ciò è che vi saranno ripercussioni anche sul prezzi delle schede di fascia medio-alta in quanto quelle di fascia bassa infatti prendono quantitativamente la fetta più grande delle consegne .

    Lo sviluppo di un core grafico infatti costa molto ma l’investimento necessario viene ammortizzato in larga parte dalle schede di fascia bassa. Senza di esse tutti i soldi spesi per lo sviluppo andranno a ricadere sulla fascia media ed alta.

    Prevedo dunque sia un aumento dei prezzi che un rallentamento nello sviluppo delle GPU.

    Che dire, c’è solo da sperare che Intel continui a fare delle GPU ciofeca ….

  • # 8
    pleg
     scrive: 

    Secondo me scegliere ARM al posto di x86 e’ l’unica cosa che avesse senso. E’ vero che deve scontrarsi contro produttori di SoC storici e giganti come Qualcomm e TI… ma oggi come oggi ce l’ha fatta :) la sorpresa del CES 2011 e’ stata Tegra2, non OMAP4 ne’ Krait.

    Andare contro Intel sarebbe stato un puro suicidio, AMD ha decenni di esperienza su x86 e non e’ mai riuscita a superare il 20% di quota di mercato. NVidia avrebbe fatto sicuramente molto peggio di cosi’. Invece si trova i buona posizione in un mercato che sta crescendo rapidamente.

  • # 9
    shodanshok
     scrive: 

    Ciao,
    secondo me Al ha centrato il punto.

    Il vero pericolo, per Nvidia, non è la ipotetica diminuzione del fatturato a causa della “perdita” della fascia bassa. Il vero problema è che se scende il numero di GPU vendute, i costi di progettazione, sviluppo e produzione dovranno necessariamente essere ammortizzati sulle GPU rimanenti, cioè quelle di fascia medio/alta.

    Col tempo, mano a mano che le GPU integrate aumenteranno di potenza, la fascia media sarà lentamente fagocitata e quindi resterà solo quella alta ad ammortizzare i costi di cui sopra.
    Posto un link interessante che esprime bene il concetto: http://perilsofparallel.blogspot.com/2010/08/nvidia-based-cheap-supercomputing.html

    E’ per questo che Nvidia deve cercare altre strade, e quella dei dispositivi embedded su base ARM sembra la strada giusta anche per me. Insomma, chi vivrà, vedra…

    Ciao.

  • # 10
    Driver Genius
     scrive: 

    Ciao, anch’io ero curioso di questa cosa, e quando ho preso il pc nuovo qualche mese fa, con in i5 750 ho fatto alcuni benchmark solo con la gpu integrata e altri con una ATI HD 4670, quindi una scheda sui 75 euro di fascia media, be il risultato a favore della ATI era netto, quindi secondo per l’integrata può andare solo per PC che fanno lavori da ufficio e per vedere film, ma per giocare no.

  • # 11
    pleg
     scrive: 

    Vero, infatti NVidia ha in programma di integrare GPU derivate da Kepler (opportunamente “dimagrite”) dentro le prossime generazioni di Tegra. Questo in un certo senso “recupera” la fascia bassa, riuscendo a riutilizzare il know-how e le spese di R&D e spalmarle su milionate di dispositivi mobile con GPU molto piccole. E comunque ne ha bisogno, visto i recenti benchmark di iPad2 vs Xoom :)

  • # 12
    cataflic
     scrive: 

    a me sembra il solito disco rotto del progresso delle cpu nei rispettivi campi…..aumentano le prestazioni fino ad un livello comunemente accettato——>integrate ; poi dopo un po’ il mercato richiede molta potenza in più per fare qualcosa di nuovo—–>discrete…poi dopo un po’ si arriva di nuovo ad un plateau—->integrate…blablablabla..
    mi meraviglio di come ci si stupisca sempre delle stesse cose….(alla faccia del coprocessore matematico!)

  • # 13
    marco
     scrive: 

    forse il problema più che di Nvidia è degli utenti che si ritovano obbligati o quasi a comprare computer con gpu itel che a definirle pessime e orrende è fargli un complimento …..

  • # 14
    Jena Plisskin
     scrive: 

    @Driver Genius: suppongo che l’integrata usata sia quella Intel nel Sandy Bridge. Considera che il modello di punta della serie Llano di AMD avrà 400 Stream Processor identici alla 5670. Non si sanno ancora le frequenze, comunque considerando è il primo passo c’è da ben sperare per il futuro :-)

  • # 15
    Nessuno
     scrive: 

    @ Cesare Di Mauro

    Come è già stato detto mettere CPU e GPU sullo stesso die non aiuta molto le performance globali. Se è possibile aumentare la velocità di trasferimento dei dati da CPU verso al GPU, viceversa non si riesce ad avere la stessa banda passante di memoria delle schede discrete.
    La GPU integrata è, secondo me, un passo indietro. Se ci si limita a mettere una GPU della potenza di quelle inserite nei vecchi chipset, e quindi con finalità limitate, allora ha un senso. Ma tentare di metterci GPU mediamente potenti non ha senso. Bisogna mettere sulla motherboard anche la memoria grafica dedicata (e non costa poco) e dissipatori decenti.
    Sono tutti componenti che uno paga comunque anche se poi decide di piazzarsi una HD6970 o una GTX580 perchè capisce che con la grafica integrata, anche se ha 400 o 800 SP non vai da nessuna parte.
    Basta vedere cosa è necessario avere per far girare 4 effetti DX11. Se non si ha una scheda più che decente è inutile dire che si ha il supporto DX11. Tanto non lo si potrà sfruttare. E nel momento in cui le GPU integrate raggiungeranno la potenza necessaria per far girare le DX11 decentemente si sarà un ordine di grandezza più veloci con le discrete (e quindi ci saranno altre funzioni che le integrate non riusciranno a fare).

    Il mondo dei PC compatibili è stato particolare, rispetto ai vecchi home computer particolare proprio per le sue capacità di espandersi un pezzo alla volta. Ora invece si tenta di tornare ai tempi dell’Amiga in cui si comprava una scheda con montato su tutto il necessario. Il che, come detto, va bene per PC di fascia bassa dove anche le vecchie GPU nel chipset andavano alla grande, mentre per un PC di fascia media il fatto di avere dei componenti di un certo valore fissati su una motherboard non ha molto senso. A meno ddi non sposare le politica di Intel, ad ogni generazione una motherboard nuova.

    Per quanto riguarda nvidia contro i “colossi” Texas Intruments, Samsung e gli altri, nvidia non è certo un moscerino in termini di capacità di ricerca e sviluppo. Infatti il suo maggiore punto di forza è la capacità di creare nuovi prodotti ogni pochi mesi, cosa che i “colossi” sopra menzionati non riescono a fare (o comunque non hanno fatto fino a ieri). Vorrei ricordare che Tegra 2 è in produzione da più di un anno e l’unica cosa che gli ha impedito di essere già diventato il monopolista del mercato mobile è stata semplicemente la mancanza di un sistema operativo come Android che fosse adatto al mercato.
    Dall’uscita di Android 3.0 credo che si vedrà chi sarà in grado di tenere il passo dello sviluppo di nvidia che ha già portato diverse novità nel mondo dei SOC ARM e probabilmente altre ne porterà, non fermandosi a “incollare” nello stesso die l’ultima architettura ARM e una GPU fatta da terze parti come fanno i concorrenti.

  • # 16
    LMC
     scrive: 

    Secondo me nvidia ha un grosso vantaggio sulle concorrenti in ambito arm. E’ abituata al competitivissimo mercato pc, le tempistiche in campo mobile sono sempre state molto rilassate, solo in questo periodo c’e’ un certo movimento.

    Saluto

  • # 17
    Raffaele Fanizzi (Autore del post)
     scrive: 

    Ad oggi il vantaggio in termini di grafica per NVIDIA non esiste per quanto riguarda il mondo ARM:
    http://www.anandtech.com/show/4225/the-ipad-2-review/5

    L’Apple A5 con la GPU PowerVR SGX 543MP2 è notevolmente superiore. Vedremo cosa accadrà con Tegra 3.

  • # 18
    Nessuno
     scrive: 

    [quote]L’Apple A5 con la GPU PowerVR SGX 543MP2 è notevolmente superiore. Vedremo cosa accadrà con Tegra 3.[/quote]
    Guarda quanto tempo è passato da quando la precedente versione della GPU è stata messa sul mercato. Se i tempi di sviluppo dei PowerVR rimangono quelli nvidia fa in tempo a farne 2 di SOC con grafica nuova prima che la successiva versione la possa nuovamente superare (forse).
    Considera che le GPU di PowerVR sono state vendute a mazzi durante questo periodo, mentre nvidia ha cominciato giusto ieri con un progetto vecchio di un anno che quando presentato non aveva un rivale degno di nota (né un prodotto valido che lo sfruttasse e la versione precedente di Tegra è stata venduta solo in mercati diversi da quello mobile ->= poco ritorno = poco investimento nella versione futura).
    Significa, che quando Tegra 2 sarà finalmente disponibile alle masse in tutti i prodotti che oggi lo usano saranno passati 2 anni dalla sua progettazione. Stiamo dicendo che la concorrenza è arrivata a superare Tegra 2 oltre 1 anno e mezzo dopo la sua presentazione. Con le successive versioni non accadrà certo che il SOC rimarrà nel cassetto fino all’arrivo di un prodotto capace di sfruttarlo ma sarà messo subito sul mercato.

    E poi non è solo questione di “quanta potenza”. Siamo sinceri, non avrebbe alcun senso mettere un qualcosa potente come una GTX580 su uno smartphone/tablet anche se consumasse 1W. nvidia ha il vantaggio di fare tutto il SOC, CPU+GPU e non, come già detto, di poter solo incollare insieme tecnologie altrui. Inoltre, cosa da non sottovalutare assolutamente, nvidia investe notevolmente nello sviluppo SW su suoi prodotti. Nessun altro, nè Samsung, né tantomeno Texas Instruments, o Imagination Technologies o ST micro fanno altrettanto. Non per caso nvidia è il partner di riferimento per lo sviluppo di Android 3.0, non gli altri colossi.

    Sono questi ultimi che si devono preoccupare del ritmo che gli imporrà nvidia e del supporto che questa avrà dalla comunità.

    E’ solo il mio pensiero, ovviamente.

  • # 19
    degac
     scrive: 

    Non vorrei dire una castroneria, ma che Nvidia sia brava nelle GPU per PC è una cosa, che sia altrettanto brava nel farlo anche per il settore ultra-mobile è tutto (ancora) da dimostrare.
    Uno, per il fatto che deve produrre una GPU potente E ad alto risparmio (cosa che su PC non è/era necessaria fino a pochi anni fa…)
    Due, c’è sempre il discorso prezzo/prestazioni.

    Faccendo riferimento al link relativo a Ipad2-Xoom, Tegra2 le prende sulle gengive. Facile parlare di Tegra3, ma considera che è tutta una catena: Nvidia produce il SOC, lo presenta agli OEM che hanno i loro tempi e ovviamente si aspettano un certo risultato. Se e quando cominciano la produzione gli OEM sperano in un ritorno, non aspettano certo Tegra3, Tegra4 (in verità lo aspettano per la ‘prossima’ sfornata… ma bisogna sempre considerare il mercato e vedere se è disposto a spendere 300-500 euro all’anno per avere il ‘nuovo’ SOC… su PC cambi scheda, con un tab la vedo dura! – e non tutti sono Apple…) [non è per criticare Apple, è per dimostrare che Apple è stata la prima a immettere sul mercato un pad, gli altri tutti pronti a copiare…. ma solo dopo un anno sono arrivati con Samsung Galaxy Tab (fuori prezzo) e Xoom (prezzo e prestazioni a sfavore)….]
    E ovviamente sul mercato non esiste solo Nvidia… e anche Nvidia ha i suoi ‘tempi’.

    Tornando in tema con l’articolo: CPU+GPU integrata, sono un pericolo per Nvidia?
    Si, nel lungo termine.

    Il fatto che Nvidia abbia un nuovo mercato (ARM-like tablet) non significa che tutto il mondo si sposterà su ARM. Sono due mercati diversi, e credo difficilmente che si vedrà un ‘desktop’ con ARM.
    X86 (nel bene e nel male) la farà da padrone: anzi, probabilmente l’integrazione x86+GPU permetterà di affidare alla GPU sempre più istruzioni (al limite virtualizzando alcune vecchie istruzioni x86 sulle ALU/SIMD) e forse si arriverà ad una ISA-x86 destinata solo alla logica (magari puro 64bit), pulita, eliminando il ‘vecchio’.
    Si è già assistito alla ‘perdita’ delle istruzioni MMX e 3dNow! (se non erro) in quanto implementabili in maniera differente e/o non più usate dal software.
    Paraddossalmente la ‘politica’ di ARM (quella di buttare la generazione precedente se questa non porta a benefici/prestazioni – dimenticandosi della retrocompatibilità) potrebbe spingere x86 a fare altrettanto (e non sarebbe affatto male!)

    Poi, è altrettanto ovvio che ARM spingerà su nuovi mercato (il famoso internet delle cose richiederà pur sempre una CPU per funzionare, anche la più sfigata…) e sia Intel che AMD hanno già dimostrato di poter creare soluzioni x86 a basso consumo, paragonabili forse ad ARM.

    In tutto questo panorama l’unica a rimaner fuori è proprio Nvidia: senza licenza x86 (a meno che la CPU made in China non ‘esca’ al di fuori della terra di mezzo…) si fa poco.

  • # 20
    alicella
     scrive: 

    Detto da AI “Nota: ATI perde comunque perchè vende GPU anche per PC/Notebook dotati di processore Intel.”

    Non capisco. Se ATI vende GPU non perde di sicuro. Se vende GPU per computer con CPU Intel, vende, meglio che non vendere e far produrre computer con tutto Intel onboard dove ATI/AMD non becca un quattrino, come accade per i notebook all Intel spesso inferiori nel comparto grafico rispetto alle controparti con all AMD o CPU Intel/GPU AMD.

  • # 21
    Nessuno
     scrive: 

    Intel che AMD hanno già dimostrato di poter creare soluzioni x86 a basso consumo, paragonabili forse ad ARM.

    No, siamo un ordine di grandezza sopra come consumi.

    Se e quando cominciano la produzione gli OEM sperano in un ritorno, non aspettano certo Tegra3, Tegra4 (in verità lo aspettano per la ‘prossima’ sfornata… ma bisogna sempre considerare il mercato e vedere se è disposto a spendere 300-500 euro all’anno per avere il ‘nuovo’ SOC… su PC cambi scheda, con un tab la vedo dura! – e non tutti sono Apple…)

    Discorso poco sensato. Tegra 2 è adottato vecchio perché è stato richiesto lo sviluppo di prodotti e SW capaci di sfruttarne la capacità. L’anomalia è stata lì. nvidia ha fatto qualcosa di più potente di quello che il mercato era in grado di usare. Prima di Tegra 2 si andava con chip mono core da 600Mhz e schede integrate che a malapena arrivano a decodificare i 720p. Più di un anno e mezzo fa (quindi prima del A4 di Apple) Tegra 2 era già pronto ma nessuno aveva un prodotto per usarlo.
    Dopo quasi 2 anni Tegra2 sta per arrivare sul mercato in massa e ovviamente la concorrenza mica è stata a dormire nel frattempo (credo che si sia spaventata non poco comunque, visto il notevole progresso che ha dovuta fare per rimanere competitiva).
    Per i prossimi rilasci offerta del prodotto e sua adozione saranno uguali per tutti i prodotti, sia nvidia che ha atteso che il Tegra2 fosse finalmente usato prima di proporre qualcosa di nuovo, sia per i concorrenti. Lo sviluppo di questi prodotti è continua (come per esempio lo è per i notebook) per cui ogni produttore prenderà quello che di meglio c’è sul mercato nel momento della progettazione o si affiderà alla partnership con qualche produttore per garantire una certa continuità ai propri prodotti.

    Non dimentichiamo poi la capacità di nvidia di progettare per l’ultimo processo produttivo disponibile che le garantisce un certo vantaggio prestazionale. Infine, non ultimo, nvidia ha la licenza per creare nuovi processori indipendentemente da ARM e quindi non deve affidarsi alla progettazione di terzi per avere nuove soluzioni.
    Lo scontro non sarà quindi solo nel numero di poligoni renderizzabili dalla GPU.

  • # 22
    Raffaele Fanizzi (Autore del post)
     scrive: 

    Prima del A4 di Apple, sempre Apple ha utilizzato un SoC Samsung per l’iPhone 3GS che comunque integrava una GPU PowerVR SGX (non ricordo bene il modello) per la quale non era un problema la decodifica a 720p.

    Secondo me non tieni conto dei diversi tempi di adozione delle GPU in ambito embedded. Questo tempo è per buona parte indipendente dalla volontà dei produttori di SoC e dipende per buona parte dal fatto che non stiamo parlando di GPU che si progettano, le fai compatibili con DirectX e OpenGL, le metti su una scheda video PCI Express e la distribuisci. Il mercato PC è predisposto per l’espandibilità e si utilizzano infatti connessioni standard lato hardware e API standard lato software, con essenzialmente un solo OS da supportare appieno.

    Nel mercato embedded è come se dovessi fare una CPU con GPU integrata ogni volta e non esiste l’update market (cioè l’equivalente di chi cambia la scheda video dei PC), ma per arrivare sul mercato una nuova GPU la devi integrare in un SoC, farla compatibile con i vari OS mobile di turno (e non è come per i PC solo una questione di driver perché aggiorni l’intero OS ogni volta), trovare un produttore di smartphone che lo vuole adottare, integrare nella sua piattaforma (e per Android la situazione non è per nulla standardizzata) e farne un prodotto.

    NVIDIA spingerà sicuramente e darà una smossa al mercato, ma secondo me la velocità di aggiornamento (inteso come adozione del mercato) di queste soluzioni non sarà mai come quella delle GPU per PC e notebook. Quindi si può spingere fino ad un certo punto.

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.