Sono parecchi mesi che non faccio una riflessione sul mercato delle schede video il che è singolare per una rubrica che si chiama “Multimedia e Dintorni” e questa volta penso di aver trovato proprio il momento giusto per discuterne.
In questi ultimi sei mesi la situazione in questo particolare mercato è stata in continuo fermento. Da un lato, infatti, abbiamo ATI, divisione grafica di AMD, che ha presentato nell’ormai lontano Settembre 2009 con la Radeon HD 5870 il capostipite della famiglia di schede video Radeon HD 5000 e che nel corso di questi mesi ha avuto tutto il tempo di differenziare la propria offerta al fine di coprire ogni fascia di mercato e in mercati diversi (desktop, notebook e workstation).
In contrapposizione a questa situazione di superiorità in cui ATI non si ritrovava da parecchi anni, troviamo NVIDIA la cui situazione è difficile descrivere. I fatti sono che l’azienda di Santa Clara non ha proposto una valida alternativa all’intero ventaglio di offerta rappresentato dalle schede Radeon HD 5000 fino all’introduzione del tanto chiacchierato chip Fermi.
Quest’ultimo è arrivato nel Marzo 2010, sei mesi dopo la proposta ATI, e se dal punto di vista tecnologico è riuscito a rappresentare un’alternativa alla fascia alta di AMD, in termini prestazionali, benché sia competitivo, ci si aspettava di più considerando non solo il ritardo sulla concorrenza, ma anche che il suo secondo utilizzo potrebbe essere quello di scalda vivande visti gli elevati consumi e la conseguente cospicua dissipazione termica.
Il problema per NVIDIA tuttavia non è quello di aver partorito un prodotto poco competitivo, ma di aver fatto una scelta, quella di puntare su un’architettura monolitica che integra oltre 3 miliardi di transistor e le cui basi progettuali sono state realizzate probabilmente pensando più al mercato del GPGPU computing, che non a quello della computer graphics.
Tale scelta si ripercuote non solo con la nascita di un chip, GF100, dalle rese produttive certamente inferiori a quelle della controparte GPU ATI RV870, ma di una linea di prodotto che essenzialmente non c’è. Solo recentemente, dopo altri 4 mesi dalla presentazione di Fermi, NVIDIA ha commercializzato GF104, una sorta di GF100 ridimensionato e revisionato per coprire la fascia medio-alta del mercato ed ottenere rese produttive migliori.
Nel complesso a soli due mesi dal primo compleanno delle Radeon HD 5000, NVIDIA copre due segmenti di mercato con prodotti DirectX 11 compliant, mentre ATI li copre tutti avendo presentato anche le GPU RV840, RV830 e RV810.
Il risultato di quanto che vi ho raccontato fino ad ora è ciò che mi spinge a definire come particolarmente fortunato l’attuale periodo per ATI. Rispetto al medesimo periodo dell’anno scorso, infatti, la divisione grafica di AMD ha registrato un incremento dell’87% nelle vendite delle GPU.
Questo importante dato si riversa nel raggiungimento di un altrettanto importante traguardo: secondo le stime di Mercury Research, azienda specializzata nelle ricerche di mercato, AMD ha superato NVIDIA nel mercato delle GPU per schede video (escluso quindi il settore integrato e notebook) raggiungendo il 51% dello share. Inoltre anche nel mercato complessivo della grafica, includendo anche i chip integrati e per notebook, AMD ha superato NVIDIA arrivando al 24,5% contro il 19,8% (il restante share è in mano ad Intel).
Le buone notizie per AMD, tuttavia, non finiscono qui. Recentemente Apple ha annunciato la nuova generazione di iMac e Mac Pro e indovinate un po? Tutti i nuovi modelli montano esclusivamente chip grafici AMD, dalla Radeon HD 4670, l’unica scheda non DirectX 11 del lotto, alla Radeon HD 5870 abbinabile nel Mac Pro a ben due processori Intel Westmere con sei core, passando per le Radeon HD 5670 e HD 5750.
La scelta strategica di NVIDIA di puntare su un approccio architetturale più votato al GPGPU computing, che non al tradizionale settore grafico, dati alla mano, non ha pagato, non tanto per la qualità dei prodotti sfornati, ma piuttosto per i ritardi e la conseguente assenza da tutti i segmenti di mercato con nuove GPU.
In conclusione, mentre NVIDIA avverte i suoi azionisti di vendite sotto le aspettative e si accinge presumibilmente a colmare il gap, ATI può lavorare serenamente alla sua prossima generazione di prodotti prevista per la fine dell’anno. Speriamo che al prossimo round la situazione si riequilibri: a causa dell’assenza di un reale concorrente, sono mesi che non si vedono ribassi dei prezzi significativi per le schede Radeon HD 5000.
Meglio che Ati non lavori serenamente,se ha un piccolo vantaggio,deve continuare a lavorare sodo per mantenerlo
quel che è giusto è giusto. La serie 5000 è un piccolo capolavoro, potente, parca e dal costo non esagerato (anche se ora ati se la gode mantenendo invariati i prezzi della fascia alta..)
Che dire… Ati ha gradualmente aumentato la qualità dei suoi prodotti da quando si trova in Amd, mantre Nvidia, spiazzata nel mercato chipset (che ha totalmente perso) e in ritardo in quello Gpu se la vede davvero male (specie se la concorrenza rimarrà agguerrita per la prossima o le prossime 2 generazioni di gpu).
Che sia ora di una riorganizzazione?
Per come la vedo io Nvidia non soffre di un male momentaneo, ma per una serie di scelte sbagliate che ora ne pregiudicano il successo. Amd/Ati ha già avuto il suo momento buio. Nvidia probabilmente lo sta avendo adesso. Il fatto di aver portato avanti un’architettura vecchia ed obsoleta per 2,5 generazioni ora si fa sentire. Fino a quando Ati era sola e non aveva la forza commerciale di Amd ci si poteva pure stare. Ora il gioco è cambiato. E’ ora che cambi anche Nvidia.
Sbaglio o per fine anno dovrebbe uscire la serie 6000? :D
Anche io sono legato ad ATi (ho quasi sempre avuto schede video ATi), però c’è da dire che la nuova GTX460 si trova a 180€ e rappresenterà un best-seller secondo me.
Vedremo con la nuova serie 6000 :D.
Visto che il mercato delle schede video se lo giocano Ati e Nvidia mi auguro che nvidia impari dai suoi errori e si rimbocchi le maniche, la sana concorrenza fa sempre bene, soprattutto ai prezzi.
Il piano di Ati di ridurre i consumi/riscaldamento senza puntare solo ed esclusivamente sulla potenza e’ stata un’idea vincente a mio parere, soprattutto se si pensa al mercato home che difficilmente dispone di sale condizionate o mega sistemi di raffreddamento.
Ati ha fatto anche un ottimo lavoro per quanto riguarda i propri driver, soprattutto in supporto al crossfirex.
mah, le 5850 costano più oggi che al lancio, ed è passato quasi un anno, alla faccia del comportamento corretto… ATI è arrivata prima offrendo un buon prodotto, Fermi è sicuramente un progetto che darà il meglio di sè al prossimo die shrink, tuttavia questa generazione di schede condivide di per sè una comune inutilità dato che di titoli davvero Dx11 nemmeno l’ombra. Anzi c’è chi ancora cerca di vedere titoli davvero Dx10 perchè pare di essere ancora nel 2003 con le Dx9.
..concordo con giulio…nvidia ha “smarrito la rotta” da un bel po’…poi la lite con microsoft, creatrice dello standard direct x, di certo non aiuta..a tal proposito, noto, leggendo, che la stessa mossa infelice ke a suo tempo, con la prima xbox, scateno’ appunto gli attriti con la microsoft, la sta riproponendo con sony (continua a vendere ad oltre 50 dollari la sua gpu per il ps3)…nintendo ha da tempo abbracciato ati e defalcato tegra per il nuovo ds…con apple, leggendo questa stessa news, il futuro è nero….non lo so…ma qualcuno tra i capoccia laggiu’ deve fare qualcosa…altrimenti la vedo male
Secondo me è una situazione che nvidia si aspettava da tempo.
L’acquisizione di ati da parte di amd ha de facto creato un polo fortissimo in ambito desktop: a tendere vedremo gpu ati integrate nei processori amd, proprio come intel; nvidia è semplicemente tagliata fuori da questo tipo di mercato, non essendo proprietaria di licenze x86. Infatti si può vedere come il suo impegno verso mercati emergenti (telefonini, palmari etc etc) sia forte: a mio modo di vedere è il modo che nvidia ha trovato per tamponare le difficoltà sempre maggiori che troverà in ambito desktop.
Ciao ciao
Sul fronte GPU, dopo aver toccato il fondo con la 2900 nel 2007, ATI ha risollevato la testa con la serie 3000, con un ottimo rapporto qualità/prezzo, bissato il successo con la serie 4000 e tornata anche a primeggiare nella fascia alta con la serie 5000.
Nel frattempo l’importanza di chip grafici discreti è scemata ai minimi termini, la nicchia dei videogiocatori PC è sempre più nicchia.
Ormai si punta su soluzioni integrate (nel chipset e nella cpu) e nVidia è tagliata fuori. ION2 è l’ultimo tentativo di ritagliarsi uno spazio in un mercato che non le appartiene più.
La fantomatica cpu x86 in cantiere era una bufala, la fusione con VIA pure. O si da una svegliata sul fronte mobile o fa la fine di 3dfx, S3 e Matrox.
“e dire che allora…” (come disse il buon? Mr. Goodkat)
Nvidia ha provocato la morte di marchi storici nel campo delle schede video (per carità, niente di male… competenza e risorse perlopiù oltre a qualche mossa commerciale discutibile) finendo per trovarsi contrapposta solo ATI e ora se non si da una svegliata rischia di fare la stessa fine di tutti i marchi che ha acquisito e di cui ha decretato la fine.
Per carità, non credo siano così alla frutta, non credo che domani chiuderanno baracca… in fondo di risorse probabilmente ne hanno ancora, hanno perso la leadership per lo share, ma per un 1% e come ATI stessa ha dimostrato con un pò di pazienza e proposte valide si può benissimo riacquistare sia la fiducia che le quote di share perse, però…
Hanno dormito sugli allori per troppo tempo, il g80 era un’ottimo chip ma continuare ad usarlo con evoluzioni minime per tre generazioni e con infiniti rebranding suona un pochino di presa in giro, anche perchè l’architettura monolitica mostra evidentemente i suoi limiti man mano che cresce e questo avrebbero dovuto saperlo fin dall’inizio. Mi verrebbe quasi da chiedermi come abbiano impiegato il tempo e le risorse della ricerca in questi ultimi anni, ma al dilà di considerazioni amare non posso che sperare che torni sulla retta via e sia dia una bella svegliata tornando ad offrire prodotti competitivi che un mercato monopolistico non piace a nessuno se non al protagonista.
Vorrei portare il mio piccolo e personale contributo sulla questione.
Il settore video PC duro e puro lo vedo un mercato sempre più di nicchia, a fronte di una quantità sempre maggiore di console vendute.
La soluzione integrata diventerà quella predominante in futuro, in virtù di una sempre minore richiesta di alte prestazioni sui pc, perchè le applicazioni office e multimediali sono e saranno sempre più quelle predominanti.
A questo punto, una società come Nvidia che fa solo schede video non ha molte strade in cui evolversi e hanno deciso di puntare molto sul discorso GPGPU, secondo me a ragione. Ho usato CUDA e conosco diversi progetti che si basano totalmente su questo framework, straordinario, che permette la costruzione e la simulzione real-time di motori fisici, di modelli matematici molto complessi.
Ora, so che questo è un settore di nicchia, ma il settore dei server ad elevate prestazioni è un mercato in cui girano molti fondi e sicuramente in forte espansione (grazie anche alla disponibilità proprio di strumenti come quelli creati da Nvidia).
In sostanza, Nvidia sta scegliendo la strada che le farà “meno male”, in virtù delle evoluzioni del mercato.
P.S.: secondo voi, un’integrazione ARM-Nvidia è poi così fantasiosa? :Q___
è la prima volta nella storia che il volume di vendite di amd/ati supera quello di nvidia, vero?
@KoD
L’integrazione Arm-Nvidia esiste già ed il chip si chiama Tegra.
Se poi per integrazione intendi una fusione tra le due società quella è fanta-economia, ma storicamente Nvidia non è mai riuscita a fondersi con nessuno. Si narra che quando Intel si interessò all’acquisto di Nvidia Hen Hsung (CEO ed azionista di Nvidia) arrivò a chiedere di diventare anche CEO della stessa Intel. … un bell’EGO, non c’è che dire!
@ v2
Ati esiste da prima di Nvidia, e nella seconda metà degli anni 80 ATI era più forte, ma allora c’erano anche S3, Matrox, 3dFX, per nominare le maggiori.
Sinceramente ho acquistato una Nvidia perchè per me Ati rimane sempre inferiore ad Nvidia in termine di prestazioni e stabilità di drivers ecc. Spero che Nvidia ritorni al vertice.
con questi chiari di luna l’unica mossa sensata per Nvidia e vantaggiosa per Intel sarebbe una fusione.. o meglio un accorpamento della prima da parte della seconda.. se aspetta ancora un pò se la prende per un tozzo di pane.
rispondetemi sinceramente e motivate la risposta se possibile. c’è la probabilità che nvidia chiuda i battenti?
Il mercato pc-game è alla fine, sopravviveranno solo titoli da giocare on-line con abbonamento tipo wow, la potenza grafica richiesta non sarà certamente elevata, visto che più del 50% dei pc sono portatili con video Intel.
Alla lunga (3-5 anni) più probabile che ati sopravviva solo con schede integrate (fusion) e nvidia con soluzioni GPGPU cha hanno forti ricavi.
Le schede video come le intendevamo fino ad oggi, credo siano al capolinea.
La scelta strategica di Nvidia di cominciare già da ora a lavorare per il futuro non la vedo tanto sbagliata.
Nvidia è fabless, progetta solo le schede e rivende i progetti a terzi, se per un periodo vende poco, non deve accollarsi i costi di fonderie e linee di assemblaggio del prodotto.
@ anonimo
“Nvidia è fabless, progetta solo le schede e rivende i progetti a terzi”
NVidia progetta solo chip e vende questi; non vende progetti, e non produce schede (se non per il mercato HPC).
D’accordo sul resto :)
Spero che ATI/AMD abbia ora il tempo di poter impegnarsi nello sfornare una degna “PPU” e possiamo dire “bye bye” ai forni ambulanti nvidia…
nvidia ha investito gli ultimi anni a sviluppare il progetto Fermi mentre evolveva per quanto possibile il G80.
Oggi tutti parlano di “chip monolitico”, enorme, caldo, ma ai suoi tempi il G80 non era certo diverso e diventato veramente un gioiello solo con la versione G92. Quello che non si dice è che quando il progetto Fermi nacque le prospettive erano di avere i 40 nm un anno prima di quanto avvenuto, e quindi anche i 32/28nm. Invece i 40nm hanno tardato portando problemi al G200 e il ritardo dei 28nm ha portato problemi a Fermi che sarebbe dovuto nascere a 28nm, non 40.
Inutile poi disquisire sulle evoluzioni apportate al G80 definendole “minime”. Non è che ATI abbai fatto molto di più con il progetti R600. Oggi abbiamo quasi la stessa architettura moltiplicata n volte per via dei vantaggi degli shrinking. Talmente è stato avanzato lo sviluppo dell’RV800 (serie 5000) che lo stesso direttore della ricerca ha ammesso che il chip è stato progettato e prodotto in meno di 18 mesi. Siamo quindi di fronte a due situazioni diverse: da una parte una architettura che è arrivata al capolinea e che quindi gode di tutte le ottimizzazioni possibili che si sono prodotte nell’arco dell’intero sviluppo del chip; dall’altra una architettura completamente nuova che mostra uno strappo rispetto al passato, al quale evidentemente non si adegua in maniera ottimale come il suo predecessore. Basta vedere i benchmark delle schede Fermi con giochi DX9 dove con anche il doppio degli shader non vanno tanto meglio di una 285. Giocano un ruolo anche i driver che devono essere riscritti da zero per la nuova architettura. Cosa che ATI dovrà fare nel futuro… e allora auguri visti i pregressi.
Quello che manca sono i giochi veri che possano sfruttare queste nuove architetture. Per il poco che si è visto il Fermi ha una pista e mezza all’RV870 con le DX11. Ma di giochi veramente DX11 non vi è nemmeno l’ombra. Tanto che se uno rinuncia ai quei 3 effetti in croce che cucciano risorse e impattano zero sul risultato, una qualsiasi scheda della vecchia generazione è ancora in grado di reggere completamente il carico di lavoro richiesto.
Inoltre non dimentichiamo che nvidia ha più volte mostrato che i 2/3 dei propri guadagni li fa nel campo professionale (dove è quasi monopolista con un rapporto di vendite di 9 a 1) e quindi potrebbe avere tutte le carte in regola per mollare il mercato desktop nel momento in cui questo subisse un ridimensionamento dovuto all’uso delle schede integrate nei chip di AMD e Intel. nvidia ha investito in mercati professionali da tempo, dove offre prodotti di qualità e certificati, mentre ATI latita su tutti gli investimenti che non siano direttamente connessi all’integrazione di transistor nei propri chip. Non vi è una sola tecnologia SW a supporto delle schede video sviluppata da ATI.
Le due aziende sono diverse e hanno strategie diverse e per ora si sovrappongono “solo” nel mercato delle schede discrete per PC. Che tra l’altro è l’unico mercato per una delle due contendenti.
Spero sia chiaro che Fermi non è nato per far girare Crysis a 100FPS, diversamente dall’RV870.
@Nessuno
Ogni prodotto deve essere progettato e deve uscire con l’obiettivo di essere competitivo nel momento in cui arriva sul mercato e non con l’auspicio che con la futura generazione di videogiochi DX11 sarà più veloce della concorrenza. Se NVIDIA ha fatto un discorso simile, ma non credo proprio, ha completamente sbagliato perché Fermi è arrivato in ritardo e quando usciranno giochi realmente DX11, sia ATI che probabilmente NVIDIA stessa avranno fatto uscire una nuova generazione di schede video e quest’ultime certamente andranno molto meglio di Fermi con le DX11.
Riguardo al problema del processo produttivo, beh questo lo ha avuto anche ATI con TSMC e anzi ne avrebbero venduti molti di più di RV870 se non avessero avuto questi problemi.
Hai ragione tu nel dire che anche G80 era un grosso chip monolitico, ma contrariamente a Fermi, G80 non è arrivato in ritardo sul mercato e ha dato vita in tempi competitivi rispetto ad ATI ad un intero ventaglio di offerte anche per la fascia mainstream di mercato. Per Fermi si è visto poco e nulla e, in ogni caso, l’architettura l’hanno dovuta rivedere nella cache e nella distribuzione degli stream processor con GF104.
Il discorso dei mercati non lo condivido sia perché ATI è la divisione grafica di AMD che, se è per questo, sta in molti più mercati di NVIDIA. Secondo perché NVIDIA da sempre è nel mercato delle GPU per i videogames e il GPGPU computing è un qualcosa di ancora acerbo e che è nato da pochi anni. Di certo non si può minimizzare una riduzione delle vendite in ambito gaming dicendo “ma tanto stanno nel mercato professionale e GPGPU”, visto che il mercato gaming è quello in cui è nata, per il quale ha acquistato 3dfx e nel quale è stata leader tanto tempo.
Quando uno si mette a fare un progetto nuovo come il Fermi e sa che ci vogliono almeno 3 anni per concluderlo non può certo sapere quali sono i problemi che andranno in contro le fabbriche. Ricordiamoci che lo sviluppo di Fermi è cominciato quando è stato messo sul mercato il G80, ovvero molto prima della crisi e tutto quello che ha comportato.
Il problema di ATI è stato solo di tipo “resa produttiva”, ma il chip è stato fatto per essere costruito a 40nm. Studio effettuato 18 mesi prima della messa in produzione, diverso da farlo 36 mesi prima o più. Il ritardo di Fermi è stato proprio per riuscire ad adattarlo ad un processo produttivo che evidentemente non è quello per cui è stato pensato.
Se si vuole trovare una colpa in tutto questo è il fatto che nvidia ha tentato un passo troppo lungo per i suoi partner che non sono riusciti a rispettare le tabelle di marcia preventivate (come l’ingresso in produzione dei 40nm all’inizio del 2008 e dei 28 nm per il 2010).
ATI invece che ha fatto passi fa formica non ha avuto gli stessi problemi e ha ottimizzato ulteriormente la sua vecchia tecnologia.
Sul mercato oggi sono presenti delle schede video inutili. Sia la serie 5000 che Fermi non hanno alcuna ragione di esistere per mancanza di SW che le sfrutti. Però, se è come dici tu che nei mesi prossimi usciranno prodotti in grado di fare uso delle caratteristiche delle nuove DX11, bisogna vedere chi a quel punto avrà capitalizzato meglio la situazione. nvidia si ritroverà con una tecnologia da ottimizzare (oggi i problemi sono anche a livello di ottimizzazione driver che non “rendono” come i vecchi ultra collaudati), e che oggi già mostra notevole potenziale, mentre ATI con una totalmente nuova (si spera) dato che quella proposta arranca già con le nuove feature (e non è colpa del numero ormai spropositato di shader a disposizione).
Ritornando al G80, solo con lo shrink a 65nm e l’ulteriore ottimizzazione della architettura sono nate tutte le schede che hanno monopolizzato il mercato negli anni seguenti. Ai tempi ATI era in alto mare e la cosa è passata quasi inosservata perchè il G80 aveva fatto una impressione terribile rispetto alle ciofeche presentate dalla concorrenza. Oggi la situazione non è più quella (la concorrenza ha schede decisamente migliori) ma la storia non mi pare molto differente.
Eppure non sembra che neanche gli addetti ai lavori riescano a distaccarsi dai grafici relativi ai benchmark nei giochi DX9.
Fermi non è un chip nato per far girare questi giochi. O almeno, non solo. Apre la via a strade mai guardate prima e dimostra che queste sono percorribili.
ATI è parte di AMD ma non vuol dire nulla. Nel campo grafico, ATI fa schede solo per il mercato consumer e quelle che propone nel mercato professionale, a torto o ragione, sono snobbate (vendono 1/9 di quello che fa nvidia). nvidia è già un passo oltre avendo creato il mercato degli HPC tramite GPU. E offre tecnologie certificate (proprie o no non fa differenza, ha un prodotto HW sul mercato e i SW di supporto per farlo fruttare a differenza della concorrenza).
AMD crea i chip e poi si aspetta che siano prodotti di terze parti a usarle. Sarà che forse proprio perchè AMD ha interessi anche nel comparto CPU che il fatto che le GPU possano cannibalizzare tale mercato non è strategicamente una scelta che sia sostenibile (la coperta diverrebbe corta da una parte o dall’altra).
@ Nessuno
Spero proprio che sia come dici :)
Cmq:
“nvidia ha più volte mostrato che i 2/3 dei propri guadagni li fa nel campo professionale (dove è quasi monopolista con un rapporto di vendite di 9 a 1) e quindi potrebbe avere tutte le carte in regola per mollare il mercato desktop nel momento in cui questo subisse un ridimensionamento dovuto all’uso delle schede integrate nei chip di AMD e Intel”
non e’ ancora vero (purtroppo). NVidia fa ancora la maggior parte del suo fatturato nel campo gaming. Sta cercando disperatamente di staccarsene (per i motivi che spieghi) con due progetti: HPC (con Fermi e con le prossime architetture) e mobile (con Tegra2). NVidia ha speso un sacco su entrambi, ma ancora non hanno pagato. Se pagheranno, allora si’ potra’ allontanarsi da un mercato (quello delle schede discrete per gamers) che nel futuro prospetta sempre meno guadagni.
I numeri mostrati da nvidia dicono che 2/3 del proprio utile viene dal mondo delle schede professionali. Il fatturato in quel campo è minore ma l’utile è decisamente più alto, tanto da superare quello del mercato desktop dove il numero di schede vendute è enormemente più alto. Ha la possibilità di diminuire il proprio fatturato e aumentare i propri guadagni se dovesse concentrarsi esclusivamente nel campo professionale.
Ricordo che nvidia sta cercando, a quanto pare in maniera positiva, ad introdurre le proprie tecnologie nei mercati ad alto ritorno economico, come nelle apparecchiature medicali.
Il mercato ovviamente evolverà verso l’oblio delle fasce basse cannibalizzate dalle integrate. Per nvidia il mercato desktop vale fino a quando c’è margine per lo sviluppo e la commercializzazione di chip fatti ad hoc per le varie fasce. Alla fine, come detto, se il mercato si restringerà troppo, rimarrà solo con le soluzioni high-end (dove ancora fa la differenza) che usa nel mercato professionale. E perderà poco del proprio business (forse solo “il nome” per i videogiocatori di PC che sono in via di estinzione, comunque). Non scordiamoci che la vertenza conto Intel e il divieto dello sviluppo di chipset per Nehalem è ancora aperta e se si risolvesse a favore di nvidia non so con quali conseguenze per Intel che ne ha fermato lo sviluppo (e i relativi guadagni) per diversi anni. Con la possibilità per nvidia di trovare una nuova nicchia contro le integrate di ATI (dove ovviamente Intel da sola non ha possibilità di combattere).
Comunque, tanto investe ATI nei mercati paralleli a quello desktop che non ha una soluzione SOC. E il problema è ancora AMD. Nei dispositivi a basso consumo di x86 non se ne sente proprio il bisogno e AMD in teoria dovrebbe produrre qualcosa con la tecnologia ATI ma basato su ARM come il Tegra. Cosa ovviamente non “intelligente” da un punto di vista di marketing della divisione computing dell’azienda, che incredibilmente già latita a trovare un concorrente per l’Atom, anche se la divisione grafica con tale SOC ne guadagnerebbe sicuramente.
Le scelte di mercato sono quindi diverse per entrambe le aziende. Dire che mantenere la direzione seguita fino ad ora è la strada migliore non è proprio una certezza. Il mercato si sta evolvendo e non certo nel verso di favorire le schede discrete per PC. Che è il core business di ATI. D’altronde si è anche evoluto a chiudere la strada per le integrate a nvidia che ha sviato verso altri promettenti lidi dove la concorrenza non può arrivare. A meno di rivoluzioni interne che non mi sembra di vedere all’orizzonte.
Infine una piccola considerazione: AMD ha fatto una fatica incredibile questo trimestre a fare utile (se escludiamo la spesa straordinaria per GF) pur avendo venduto una quantità di schede rispetto alla concorrenza che non è mai riuscita a vendere prima. Ci si chiede quanto è “stabile” la situazione economica dell’azienda nel momento in cui questo periodo d’oro (che non durerà certo in eterno) verrà meno.
@ nessuno
Ma dove hai letto la notizia che amd ha fatto fatica a fare utili?
Forse non ti sei accorto che ha rilevato obligazioni in scadanze per l’anno prosimmo.
;)
@ares17
Forse non ti sei accorto che l’azienda ha 5 miliardi di debiti da coprire, quindi non deve macinare utili, deve fare soldi a palate in questi periodi d’oro in cui si trova.
Una mano enorme è venuto dal “contributo” di 1,2 miliardi da parte di Intel, ma il resto del debito deve essere appianato con gli utili che deve fare nei prossimi anni.
Non ho visto da nessuna parte dove sono le spese per le obbligazioni acquistate, ma l’utile operativo è di “soli” 125 milioni di dollari. Che è una inezia visti i numeri di vendita che hanno proclamato. Numeri che in questo trimestre sono addirittura maggiori che nel precedente ma hanno portato meno introiti (prima erano 182 milioni con un fatturato minore), segno che la parabola è già in discesa riguardo al miglior prezzo applicabile ai propri prodotti.
Non è che volessi fare una disquisizione economica sul bilancio AMD. Dico solo che se con questi numeri da record fa questi bilanci da fame, non si può certo sperare che le cose migliorino nel momento in cui le cifre di vendita diminuiranno o come sta già avvenendo, i prezzi non saranno più così gonfiabili.
AMD rilevato obbligazioni in scadenze per l’anno prossimo grazie ai soldi incassai da intel per le note vicende di concorrenza sleale.
Nvidia ora rientra in gioco nel redditizio settore dei chipset grazie alla sentenza della FTC contraria ad Intel.
Le obbligazioni (dette anche debiti) che AMD ha rilevato lo ha fatto appunto con il “contributo” straordinario di Intel, non con i soldi di questo trimestre. E’ stato un aiuto decisamente importante, ma non sufficiente.
Ripeto, se con i numeri di vendita fatti e i prezzi che ha potuto tenere grazie al vantaggio di cui ha goduto in questi mesi ha un utile operativo di soli 125 milioni di dollari (di cui SOLO 33 dalla parte del settore grafico, cioè una nullità) direi che il futuro non è roseo per l’azienda.
Almeno io la vedo così. Con la mole dei debiti che si ritrova o spera in un nuovo regalo da parte degli Arabi oppure tra 20 anni a questo ritmo non avrà ancora appianato i conti.
Le obbligazioni che AMD ha rilevato lo ha fatto appunto con il “contributo” straordinario di Intel, non con i soldi di questo trimestre. E’ stato un aiuto decisamente importante, ma non sufficiente.
Ripeto, se con i numeri di vendita fatti e i prezzi che ha potuto tenere grazie al vantaggio di cui ha goduto in questi mesi ha un utile operativo di soli 125 milioni di dollari (di cui SOLO 33 dalla parte del settore grafico, cioè una nullità) direi che il futuro non è roseo per l’azienda.
Almeno io la vedo così. Con la mole dei debiti che si ritrova o spera in un nuovo regalo da parte degli Arabi oppure tra 20 anni a questo ritmo non avrà ancora appianato i conti.
C’è stato un problema con i commenti, scusate.
Il secondo doveva essere riguardo alle cifre riportare per AMD e nvidia nella voce ricerca del bilancio trimestrale.
nvidia segna 218 milioni, AMD (non ATI, ma l’intera azienda CPU+GPU) 371, in aumento rispetto al trimestre precedente ma in netto calo rispetto al trimestre di un anno fa (425).
Ma AMD non sta creando i nuovi prodotti basati su Fusion, Buldozer, Southern e Nothern Island e il concorrente dell’Atom?
E la voce R&D diminuisce di valore?
Sarà forse una conseguenza di quello che da altre parti si legge, cioè dell’emorragia di persone in AMD? (che indirettamente migliora anche i bilanci?)
@ anonimo
Ormai il reparto chipset di nvidia e’ stato ucciso e non credo che tornera’ piu’…
> Il mercato pc-game è alla fine, sopravviveranno solo titoli
> da giocare on-line con abbonamento tipo wow,
> la potenza grafica richiesta non sarà certamente elevata,
> visto che più del 50% dei pc sono portatili con video Intel.
Imho dovresti rivedere un po’ le tue affermazioni, visto che il mercato videoludico legato alla piattaforma “pc” è tutt’altro che morente; lo dimostrano i dati di vendita di prodotti come Starcraft 2, Battlefield Bad Company 2 e altri, per non parlare delle scelte di alcuni produttori (es reintroduzione dei server dedicati nella serie Call of Duty).
A questo aggiungi i MMORPG e i dati di vendite di piattaforme di DD (es Steam).
Insomma, è dai tempi dei primi Pentium che si va predicando la morte del pc come piattaforma di gioco, e nonostante tutte le pressioni (es stampa specilizzata e publisher, allineati e compatti da anni per screditare il pc, perfino le riviste specializzate sui videogiochi per pc…) il pc sforna ancora dati di vendita eccellenti.
Come la mettiamo?
Il gioco su PC è morente. Non è estinto, ma è morente da tempo. Ormai si sfornano solo FPS, dopo il meritato successo di Half-life.
Non c’è più quella produzione di titoli di una volta, tanto che ci sono voluti 12 anni per avere il seguito di un gioco stra-pluri-acclamato come StarCraft. La nuova versione è pure basata sulle DX9. Tutto ciò a dimostrazione che lo sviluppo per titoli per (solo) PC è ragionato e l’intento è quello di raggiungere il maggior numero di giocatori, anche quelli che usano portatili con schede integrate Intel.
Avrei voluto vedere il successo di tale titolo se fosse stato basato su un motore di ultima generazione che girava solo su schede DX11.
Starcraft è una eccezione nel mondo dei videogiochi. E’ stato uno degli (se non lo) strategico migliore mai realizzato, ed è ovvio che su console gli strategici proprio non possono avere successo e per interfaccia e per tipo di gioco che richiede qualche neurone in più rispetto a sparare a qualsiasi pixel in movimento sullo schermo.
Per il resto, elenca i giochi degli ultimi 2 anni che siano stati sviluppati SOLO per PC. E soprattutto, elenca i titoli che usano in maniera esaustiva le tecnologie messe a disposizione dalle schede video dopo le DX9. Per esaustiva non intendo 2 effetti in croce che neanche si vedono. Intendo avere un motore di gioco scritto appositamente per e con tali caratteristiche.
E’ ovvio che il mercato dei videogiochi per PC è subalterno a quello delle console. Solo se la generazione futura di questi botoli introdurranno delle innovazioni a livello grafico allora la grafica dei giochi si alzerà di livello. E’ più che ovvio che i soldi spesi per la serie HD5xxx di ATI o la GTX4xx di nvidia per giocare non hanno alcun senso. E difficilmente vedo un senso anche per il futuro, dato che le integrate, con prestazioni ridicole rispetto alle discrete, saranno la maggioranza delle schede a disposizione del mercato videogiochi per PC.
Il mercato desktop delle schede discrete di fascia bassa è destinato a morire in breve tempo (un paio d’anni forse) e l’affannarsi a saturare tale mercato non sembra avere più senso ormai.
Nel mercato pro nvidia non ha rivali, vedi cuda contro opencl che è rimasta notevolmente indietro nello sviluppo. Nel mercato realtime nvidia è molto più avanzata e il futuro le darà ragione.