di  -  mercoledì 14 ottobre 2009

Con il lancio delle nuove architetture dx11, Ati sembra aver acquisito un consistente vantaggio sulla storica rivale ribaltando, di fatto, la situazione che si era venuta a determinare non più tardi di un paio di anni fa. Oggi come allora, sui forum di tutto il mondo si moltiplicano gli interventi di utenti che parlano di difficoltà o addirittura di crisi; e se ieri era la divisione grafica di AMD prossima a chiudere i battenti, oggi sembra sia nVidia pronta ad abbandonare il mercato dei chip grafici. Appare3 evidente che Ati è tutt’altro che fallita e, anzi, sembra godere di buona salute. Ma qual è lo stato di salute di nVidia e quanto l’attuale situazione è paragonabile, seppur a parti invertite, a quella di due anni fa?

Per cercare di rispondere a questi interrogativi si deve necessariamente fare qualche passo indietro, poichè l’attuale situazione è frutto di un insieme di fattori, tra cui le scelte progettuali, l’acquisizione di Ati da parte di AMD e, non ultimo, l’annunciato ingresso di Intel nel mondo delle GPU ad alte prestazioni e del GPGPU.

Per avere un quadro completo bisogna risalire all’epoca della transizione tra 2D e 3D, quando il mercato consumer era dominato, a livello numerico, dalle soluzioni proposte da S3, Matrox era, nell’immaginario collettivo, sinonimo di qualità 2D inarrivabile e dire “accelerazione 3D” equivaleva a dire “3dfx“.

In questo variegato mondo, nella seconda metà degli anni ’90, si inizia ad affacciare una piccola realtà che avrebbe portato non pochi sconvolgimenti: il suo nome era nVidia e la sua ambizione, non apertamente dichiarata, ma fin troppo palese, era quella di spodestare proprio 3dfx come regina del 3D.  Già con le serie TnT e TnT2, nel giro di qualche anno, nVidia era riuscita a ritagliarsi un ruolo di primo piano e, approfittando di una serie di circostanze favorevoli, stava iniziando a soppiantare S3 come principale fornitore di chip a terze parti. In questo era risultata avvantaggiata dal fatto che società come ATi, ad esempio, pur mettendo sul mercato prodotti validi e completi, era limitata dal fatto che i suoi chip andavano ad equipaggiare solo VGA da essa stessa prodotte.

Lo stesso dicasi di Matrox che, per questa ragione, non vide un’ampia diffusiane dei suoi chip neppure quando questi erano realmente competitvi: si pensi ad esempio, al G400 in versione MAX. Inoltre, molti altri protagonisti del mercato di allora, erano rimasti spiazzati dalla transizione dal 2D al 3D. In questo contesto, si inserisce nVidia che, sull’onda del successo derivante dall’aver tirato fuori alcuni validi prodotti e grazie a ciò, al vantaggio derivante dall’aver iniziato a conquistare importanti quote di mercato, decide di adottare una strategia che, nel giro di pochi anni, imporrà una drammatica selezione nel mercato dei chip grafici che avrà come conseguenza quella di ridurre il numero dei competitor ai soli che si possono permettere ingenti investimenti nei settori di R&D: un nuovo chip o il refresh di una precedente architettura ogni sei mesi.

A nVidia va, dunque, il grosso merito di aver dato una scossa all’ambiente un po’ troppo stagnante in cui si dibattevano i progettisti ed i produttori dei chip 2D only. Il risultato è sotto gli occhi di tutti, ma vale la pena di fare un piccolo riassunto: la prima vittima è stata proprio S3 che si è vista sottrarre il “quasi monopolio” del mercato consumer di fascia media e bassa.

La manovra è riuscita anche grazie al fatto che, al pari di S3, nVidia risultava essere fabless non solo per la realizzazione dei chip grafici ma anche per quella delle VGA. Altra vittima illustre, per tacere delle varie Tseng Labs o Number Nine, è stata Matrox che, al pari di ATi, si faceva in casa le proprie VGA. Incapace di sostenere un ritmo così serrato, Matrox abbandona gradualmente il campo e, anche quando tira fuori prodotti di buon livello, all’altezza della concorrenza, non viene adeguatamente “premiata” dal mercato. Infine, la stessa 3dfx, al termine di una strenua battaglia e anche a causa di scelte sbagliate, come quella di decidere di iniziare a prodursi le proprie VGA secondo uno schema che si stava rivelando perdente, esce di scena.

Ma forse, quest’ultima decisione fu dettata dalla necessità di mantenere a determinati livelli le vendite anche se, grazie al boom delle soluzioni combinate 2D/3D, la richiesta di soluzioni 3D only si andava drammaticamente riducendo.

Così, per qualche anno e, in particolare, dal 1998 al 2000, nVidia si trova a fare da traino nel settore, spalleggiata anche da Microsoft che intendeva spingere l’adozione delle sue DirectX come standard di gioco.

Si arriva, così, a fine millennio, con una situazione ben delineata: le decine di produttori e progettisti di chip grafici e vga si sono ridotti drasticamente con nVidia, 3dfx e ATi a contendersi il mercato delle GPU discrete, Intel a fare da padrona in quello delle integrate e altri produttori come Matrox, S3, SIS, ecc, ridotti al ruolo di comprimari.

L’acquisizione di 3dfx da parte di nVidia, facilitata da una serie di scelte poco oculate da parte della prima, riduce ulteriormente il mercato delle GPU di fascia alta a due soli competitor. Si è parlato a lungo degli errori o presunti tali commessi da 3dfx, primo tra tutti quello di volersi produrre le VGA in casa. Resta da stabilire se questi sbagli siano stati tutti realmente tali o se, invece, il produttore americano è stato, in qualche modo, costretto ad operare scelte “suicide”. Bisogna tener conto di un fattore importante: finchè il mercato era diviso in due tra VGA 2D e acceleratori grafici, 3dfx aveva letteralmente il monopolio del 3D.

Quando, proprio sotto la spinta di nVidia seguita a ruota da ATi i chip combinati 2D/3D sono diventati competitivi con gli acceleratori grafici, questi ultimi sono divenuti un inutile orpello, per di più costoso, necessario solo a far girare quei titoli che facevano uso esclusivo delle GLIDE. Questo ha costretto 3dfx a ripensare le proprie strategie ad abbandonare la produzione di acceleratori 3D only.

Il mercato, a quel punto, era già saturo di chip marchiati nVidia che, nel frattempo, aveva preso il posto di S3 come fornitore “principe” degli assemblatori di VGA e si trattava di prodotti competitivi, al contrario delle Virge e delle Trio. Ritagliarsi un proprio spazio in questo contesto era tutt’altro che semplice e, per di più, 3dfx non aveva le risorse economiche per competere con colossi come ATi e nVidia. La strada del “fai da te”, di conseguenza, sarà sembrata, a qualcuno, l’unica percorribile.

Sparita di scena 3dfx, nVidia si trova a dover fronteggiare un avversario ben più pericoloso: ATi ha le risorse economiche per tenerle testa e, nel corso degli anni, ha fatto anche una serie di acquisizioni che le hanno permesso di avere il know how necessario per competere ad alto livello. Il primo chip canadese in grado di tener testa alle GPU nVidia è R100, per l’epoca, un concentrato di tecnologie e innovazioni addirittura fin troppo premature.

Infatti, se da un lato nVidia, prima tra tutte in grado di capire l’importanza dell’aumento del parallelismo computazionale, privilegia l’approccio “brute force” con l’aumento delle pipeline di rendering, dall’altro ATi sfrutta alcune feature, come l’hyper-z, atto a rimuovere le superfici nascoste, la keyframe interpolation o il vertex skinning, atti a migliorare la fluidità delle animazioni facciali e a limare le imperfezioni geometriche.

Nello stesso periodo, si affaccia all’orizonte una nuova “minaccia” per la casa di Santa Clara: PowerVR che forte delle epsrienze maturate con i chip in ambito console, tira fuori un’architettura che, con sole due pipeline di rendering dotate ciascuna di una sola TMU (occorre ricordare che R100 è una 2×3 e NV15 una 4×2) tiene testa, a livello prestazionale, a Radeon e Geforce, grazie ad una soluzione per la rimozione dei poligoni nascosti ancora più efficiente di quella proposta da ATi e nota come Tile Based Rendering.

Al pari del Radeon e contrariamente a quanto avviene sulle Geforce, il Kyro effettua i calcoli interni sempre a 32 bit (8 petr canale di tipo Integer, da non confondere con gli attuali fp32) e, all’occorrenza, scala a 16 bit solo nella parte terminale della pipeline. Per questo motivo, mentre i chip nVidia manifestano un boost prestazionale passando da 32 a 16 bit, quelli ATi o PowerVR (ma anche Matrox, mentre i 3dfx lavorano a 24 bit) subiscono incrementi di lieve entità.

Il Kyro ed il Kyro II restano, però, esperimenti isolati e questa fase segna, dunque, l’ascesa di ATi e il tramonto definitivo di 3dfx, il cui ultimo prodotto, il VSA-100, manca di motore T&L e non riesce, neppure in versione dual, a competere con Radeon e Geforce 2, pur avendo un’ottima qualità d’immagine e la miglior implementazione dell’Antialiasing del lotto.

Il T&L di tipo fixed function, però era stato solo il preludio a quella che sarà la rivoluzione successiva: si arriva, dunque, al 2001 con le DirectX8 e gli shader programmabili; ancora una volta nVidia arriva per prima con NV20 e ATi esce in ritardo ma con un prodotto tecnologicamente più avanzato: R200, infatti, al contrario di NV20, supporta le DirectX8.1 e lo Shader Model (SM) 1.4.

La Radeon 8500 (questo è il nome commerciale) è tecnologicamente e prestazionalmente superiore alla Geforce 3 e nVidia tenta di correre ai ripari una versione overclockata di NV20 (la Ti500). L’uscita di NV25, con supporto alle DX8 e architettura 4×2, come R200 ed NV20, ma con due unità di vertex shading, riporta nVidia sul gradino più alto a livello prestazionale ma non sul piano tecnologico.

Si arriva, così, al periodo a cavallo tra la fine del 2002 e l’inizio del 2003 e il passaggio alle DX9. Questa volta è ATi ad arrivare per prima e lo fa con un chip, R300, che, sin dalla prima uscita e con driver acerbi, demolisce letteralmente la precedente generazione, sia a livello prestazionale che, naturalmente, a livello qualitativo. Il salto dalle DX8 alle DX9 è notevole, con l’adozione della notazione in floating point anche per i pixel shader (i vertex shader lavonao a fp32 per canale già dalle DX8) e fino a 16 texture per pixel per pass (contro le 4 dello SM1.3 e le 6 dello SM1.4) e nVidia si fa trovare spiazzata: ancorata ancora alla vecchia architettura 4×2 che le aveva date tante soddisfazioni, si fa superare proprio sul piano della ricerca del paralellismo: R300, infatti presenta ben 8 pipeline di rendering ciascuna dotata di una sola TMU e 4 unità di vertex shading contro le 3 di nVidia.

Inoltre le unità di pixel shading di R300 sono composte da una alu di tipo fp24 di tipo vettoriale a 3+1 componenti (vect3+1) seguita da una minialu in grado di eseguire alcune delle operazioni di cui è capace l’unità di calcolo principale, anch’essa di tipo vect3+1; entrambe sono di tipo floating point e i calcoli fixed function sono solo emulati. Le unità di vertex shading presentano unità vettoriali complete vect4 con ciascun canale di tipo fp32 affiancate da una alu scalare anch’essa fp32.

Il bus verso la mamoria è a 256 bit e l’architettura interna è a 512 bit. Al contrario, nVidia propone 4 pipeline ocn 2 TMU ciascuna; ogni pipleine è dotata di una alu principale di tipo vect4 capace di eseguire calcoli in fp32 o fp16 per canale (complessivamente, quindi, fp128 o fp64); in serie ad ogni alu principale ci sono dua minialu di tipo INT8. Le 3 unità di vertex shading sono di tipo vect4 con fp32 per canale. Inoltre le vertex pipeline sono dotate di unità fisiche di tipo T&L fixed function. Bus verso la memoria a 128 bit e architetura interna a 256 bit.

Da queste sommarie descrizioni appare chiaro come R300 sia chiaramente votata alle DX9 con l’abbandono delle unità fisiche di tipo INT e fixed function che sono solo emulati, un maggior parallelismo che comporta un più elevato pixel fillrate e, soprattutto, l’assenza di quelli limitazioni a cui farò cenno tra breve, che hanno castrato ancor di più il potenziale di NV30.

Il chip nVidia, invece, oltre alla presenza di unità di tipo INT e di tipo Fixed Function ereditate rispettivamente dalle generazioni DX8 e DX7, ha un problema inerente la dipendenza dell’unità principale di ogni pipeline dalle operazioni di textirung: in pratica l’unica alu fp di ciascuna pipeline non è in grado di eseguire calcoli matematici se, contemporaneamente si fa un accesso a texture. Altro limite è rappresentato dalla scarsa capacità dei registri temporanei che fa precipitare le prestazioni già con l’utilizzo di un numero di refistri temporanei superiore a 2. Al contrario, NV30, come i sui successori, presenta un gran numero di registri costanti nelle pixel pipeline, superiore a quello previsto dallo SM2.0; quindi NV30 è in grado di “caricare” un numero di thread superiore alle specifiche delle API di riferimento ma non può ricorrere ad operazioni che mettano in gioco più di due variabili contemporaneamente, pena un forte decadimento delle prestazioni.

Altro punto a vantaggio di R300 è la maggior efficacia dell’algoritmo di rimozione delle superfici nascoste a 3 livelli implementato da ATi rispetto al 2 livelli di nVidia.

Con NV35 nVidia tenta di correre ai ripari, ampliando il bus esterno, portato ora a  256 bit e sostituendo le 2 minialu di tipo INT con altrettante minialu di tipo fp32. Resta però, il limite imposto dalla carenza di registri temporanei e la dipendenza della fpu principale dalle operazioni di texturing che obbligano a continue operazioni di shader reordering e replacement.

Se in un lasso di tempo non superiore ai 3 anni, dunque, nVidia era riuscita a spodestare dal trono 3dfx e a sostituirsi ad S3 come fornitore principale dei produttori di VGA, in un lasso di tempo non superiore ATi è riuscita a raggiungere e superare nVidia sul piano prestazionale e ne sta insidiando il primato a livello di vendite grazie all’adozione della stessa politica della casa di Santa Clara: abbandono della produzione in proprio di VGA e fornitura dei chip a terze parti.

Ovviamente, se siamo oggi a parlare della situazione tra ATi e nVidia, è evidente che la storia non è terminata nel 2003. La prossima settima vedremo come nVidia, che già in passato aveva dimostrato di sapersi risollevare bene da situazioni negative (NV1 docet), ha risposto agli attacchi e quali sono stati gli sviluppi successivi.

 

37 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    asd
     scrive: 

    “oggi sembra sia nVidia pronta ad abbandonare il mercato dei chip grafici” Nella tua testa, e in quella di ogni fanboy ATI. E meno male che le nuove ATI superano, a fatica, le soluzioni nVidia uscite un anno fa (la 295 che è si una dual GPU lascia ancora indietro le nuove ATI), ci saremmo stupiti del contrario. Il bello è che fra un paio di mesi quando saranno uscite le nuove schede nVidia di questa generazione potresti doverti rimangiare ogni boiata che hai scritto nell’introduzione.

  • # 2
    ciao
     scrive: 

    @ASD

    se leggi collegando il cervello vedrai che le cavolate forse le hai scritte tu :)

  • # 3
    Ventresca
     scrive: 

    non penso ci sia bisogno di prendersela in questo modo se la si pensa diversamente rispetto a colui che ha scritto l’articolo.

    alla fine sarà il mercato a smentire o a dar ragione…

  • # 4
    yossarian (Autore del post)
     scrive: 

    @ asd

    al tuo posto seguirei il consiglio di ciao

  • # 5
    mendocino89
     scrive: 

    ma smettetela…yossarian puo pensarla come vuole, e bisogna rispettare il suo punto di vista.
    Di sicuro nVIDIA a breve stupirà con G300 e ATi tornerà al suo posto degli ultimi periodi, anche se le politiche interne di nVIDIA non sono proprio apprezzabili e un giorno prenderà una bella batosta (chissà se proprio da larrabee..)
    Comunque attendo con piacere il proseguo di questo articolo.

  • # 6
    yossarian (Autore del post)
     scrive: 

    @ mendocino89
    @ Ventresca

    veramente, se si legge attentamente, mi sono limitato a riportare, nell’introdzione, le voci delle cassandre (nVidiot) cge due anni fa davano per spacciata la divisione grafica di AMD (evidente la figuraccia che hanno fatto) e di quelle (fanATic) che oggi danno per morta nVidia.
    L’unico ad aver afferrato lo spiriro dell’introduzione è stato ciao.
    Comunque vi ringrazio per la difesa d’ufficio

  • # 7
    Giullo
     scrive: 

    retrospettiva interessante, attendo le altre puntate :) consiglio poi ad asd di leggersi l’ultimo articolo di anand …

  • # 8
    carlo
     scrive: 

    ooooh che liberazione finalmente l’utente yossarian si mostra per quello realmente è: un aficionado di ATI incapace di essere oggettivo. Delusione vedere che neppure ha le palle di firmare con il proprio nome, ma nasconda quelle che quando non possono esser altro che opinioni soggettive sotto l’anonimato. p.s.s il market share di NVIDIA è il doppio di ATI, parlare quindi anche solo di sorpasso (figuriamoci fallimento) è particolarmente ridicolo. saluti, carlo.

  • # 9
    paolo
     scrive: 

    Pazzesco, i pochi articoli interessanti pubblicati su questo blog (e sull’intero network) vengono commentati da gente come @asd o @carlo che o sono troll, o commentano scrivendo idiozie senza nemmeno leggere le prime dieci righe. La mia solidarietà all’autore, che merita platee migliori, sia per la competenza che per la capacità espositiva.

  • # 10
    zephyr83
     scrive: 

    @ ASD

    Forse l’introduzione era un po’ “ironica” e sicuramente faceva riferimento ai vari fanboy (di cui sembri far parte anche tu) che ogni volta che si creano situazioni del genere parlano subito di fallimento, chiusura e sciocchezze varie! infatti se leggi bene l’autore dice che prima era toccato ad ATI (anzi dice la divisione grafica di ADM per la precisione), ora a nvidia!

  • # 11
    crisnar
     scrive: 

    Generalmente chi è portato a sparare caxxate non è un tipo abituato a leggere.
    Effettivamente l’articolo era un po’ lunghetto ma, prima di commentare, sarebbe il caso di arrivare a fondo pagina.
    A me non sembra un articolo da fanboy, sembrano piuttosto tali alcuni commenti.

  • # 12
    ciao
     scrive: 

    Ragazzi sembra che qui sia necessario ripassare un po’ la lingua italiana: analisi logica questa sconosciuta.

    Battute a parte… avete frainteso questa parte dell’articolo:

    “”Con il lancio delle nuove architetture dx11, Ati sembra aver acquisito un consistente vantaggio sulla storica rivale ribaltando, di fatto, la situazione che si era venuta a determinare non più tardi di un paio di anni fa. Oggi come allora, sui forum di tutto il mondo si moltiplicano gli interventi di utenti che parlano di difficoltà o addirittura di crisi; e se ieri era la divisione grafica di AMD prossima a chiudere i battenti, oggi sembra sia nVidia pronta ad abbandonare il mercato dei chip grafici””

    forse avete bisogno di frasi più brevi per capire il concetto:

    1) Premessa: Ati OGGI Sembra essere in vantaggio su Nvidia (quel “sembra” mi sembra evidente si riferisca alla variabile “fermi”). Mentre fino ad adesso era Nvidia ad essere in vantaggio su ATI.

    2) Dato di fatto: All’epoca del G80 e successive evoluzioni di Nvidia molti utenti davano per “morta” ATI; OGGI molti utenti danno per “morta” Nvidia (mi sembra evidente che Yossarin stia riportando il pensiero “del popolo della rete” non la sua personale opinione)

    3) …. ho finito… era molto semplice come frase…

    Quella che segue è una interessantissima analisi “storica”… Dove vedete manifestazioni di simpatie e antipatie?

    Vi ricordo che “l’utente” Yossarin NE SA A PACCHI. E non lo dico per partito preso. Lo dico perchè è evidente dai sui articoli.

    Paolo

    Ps @carlo… permettimi un LOL sulla faccenda dei nick xD

  • # 13
    ReDeX
     scrive: 

    @yossarian

    Ottimo articolo, resto in attesa del seguito. :)

  • # 14
    Redvex
     scrive: 

    Certo che erano belli i tempi in cui avevamo varie marche tra cui scegliere con i pro e i contro.
    Se sparisse nvidia o ati saremmo tutti nella C@cc@

  • # 15
    Marco
     scrive: 

    Francamente non mi pare una situazione ribaltata quella attuale, ATI era effettivamente in difficoltà dopo l’acquisizione mentre ad oggi si ritrova in un vantaggio (lieve da quello che ho visto nelle recensioni delle 5xxx) per il semplice motivo che hanno anticipato nvidia nel lancio della nuova gen.

    I confronti si fanno fra schede di pari gen.

  • # 16
    Nip
     scrive: 

    @ Marco

    Il mercato, cioè io che ho bisogno di una nuova scheda video, il confronto lo fa tra schede di pari prezzo, se ho un budget da non sforare, o di pari prestazioni al minor prezzo.
    Che m’importa della gen?

  • # 17
    io
     scrive: 

    ho letto 3dfx e improvvisamente mi sono visto, nel 1998, tornare a casa, con la scatola contenente una nuova, fiammante e costossima voodoo2…radunare gli amici, (possessori di una ‘semplice’ voodoo1) e raccogliere insieme le mascelle davanti ad unreal

    scusate l’OT :)

  • # 18
    asd
     scrive: 

    @zephyr83: ironia o meno, personalmente non ho mai pensato che AMD chiudesse ATI, ma è un dato di fatto che quella società abbia attraversato, e stia ancora attraversando, un periodo di difficoltà economica. Cosa che nessuno può dire di nVidia, che ha ancora saldamente in mano i 2 terzi del mercato vga. E questo chi scrive l’articolo non lo dice, perchè invaliderebbe all’istante la tesi infondata che nVidia stia con le pezze al culo, mentre è un fatto che ATI le pezze al culo ce le abbia avute davvero. Questo si chiama fare informazione di parte, omettendo piccoli significativi dettagli. Chi diceva che ATI era nella merda qualche tempo fa non aveva del tutto torto, mentre chi dice che nVidia stia nella merda oggi, dice una cazzata senza se e senza ma.

  • # 19
    Valerio
     scrive: 

    @chi parla di confronto a pari generazione

    Il confronto si fa per fasce di mercato, i polli da spennare (utenti) sono catalogati in fasce di budget, quando qualcuno deve acquistare un prodotto ha TOT euro da spendere, si rivolge in quel momento (non sei mesi dopo) al prodotto che “rende di più” con quel denaro, ora e fino a quando non uscirà qualcosa di nuovo nvidia (gennaio, febbraio in volumi?) il best buy è ATI non c’è storia che tenga. Parlare di confronto “a pari generazioni” è insensato: sono gia due cicli che nvidia sforna due mostri (a livello di area di silicio) che fatica a produrre e costano carissimi, questo si riperquote nei prezzi delle schede; ati con la serie 4×00 ha fatto una scelta commercialmente migliore sotto gli occhi di tutti, con un silicio snello e più flessibile, calamitando completamente le fasce più remunerative del mercato, le ha permesso di vendere a prezzo minore ma in volumi molto maggiori, avendo un margine di guadagno complessivo maggiore.
    La stessa filosofia portata avanti con 5×00 le ha permesso di uscire in volumi con una architettra nuova 40nm 4 mesi prima di nVidia, vediamo cosa succederà con Fermi, è probabile che gli equilibri saranno gli stessi visti nella generazione scorsa, ma amd ha 4 mesi di vantaggio nelle vendite (tra cui Natale).

  • # 20
    marco
     scrive: 

    @yossarian:
    complimenti sempre bellissimi articoli, se da un lato attraverso il web è possibile fruire dei tuoi contenuti dall’altro fa non poca tristezza leggerci sotto i commenti di chi nemmeno si è mai accostato alle tue discussioni

    …aspetto con ansia la parte finale!!!

  • # 21
    Jonny
     scrive: 

    ATI??? Sono un forno…riscaldano e consumano e sopratutto,hanno dei drivers penosi!!! A ke serve avere una ferrari se monti le ruote di una Panda??? Wuahhaa…

  • # 22
    goldorak
     scrive: 

    @asd : mi dice dove nell’articolo Yossarian dice che Nvidia sta fallendo ? No perche’ ho letto chiaramente da cima in fondo e non lo ha mai scritto. Quindi perche’ inventarsi le cose ?
    L’articolo apre con una battuta (e come sempre sono i fanboy da una parte e dall’altra che faticano a cogliere il senso del discorso) facendo presente come ogni volta che una societa’ e in difficolta’ (momentanea aggiungo io) spuntano come orologi svizzere le cassandre ad annunciare al mondo il fallimento di tale societa’. E successo con ATI con il progetto R600 qualche anno fa e abbiamo visto come si e’ risollevata, e sta succedendo la stessa cosa ormai con Nvidia. Quindi non vedo perche’ scaldarsi tanto.

    Inoltre chi e’ in difficolta’ a livello strategico e’ Nvidia e non ATI perche’ il futuro e’ fatto di chip grafici on die. E questo TAGLIA fuori Nvidia dal mercato di fascia bassa e magari anche quello mainstream che e’ enorme cosi’ come nella meta’ degli anni 90 il mercato di fascia bassa fu “strappato” da S3 e altri players che non seppero cogliere la transizione 2d->3d.

    A me piace Nvidia (l’unica che supporta Freebsd), ho avuto sia schede ATi che Nvidia ed ogniuna ha certamente avuto i suoi problemi. E uso oggi una 9800gtx+ ma questo non mi rende “cieco” difronte ai problemi a cui va incontro la societa’ di Santa Clara. L’assenza di schede DX11 e’ solo la punta del iceberg, se Intel con Larrabee avra’ una schede “competitiva” non solo a livello consumer ma sopratutto a livello professionale gpgpu e questo e’ un grosso SE (ma con una societa’ che spende annualmente miliardi di $ in R&D prima o poi fanno centro) il futuro di Nvidia e’ nero. Ricordati che nessuna societa’ e’ cosi’ grande da non poter fallire, Nvidia con questo progetto sta lottando per la sopravvivenza a medio e lungo termine e ci dobbiamo augurare per la competizione che gli ingegneri in AMD che Intel siano delle schiappe.
    Io pero’ su questo punto non faccio la scommessa. ^_^

  • # 23
    zephyr83
     scrive: 

    @ ASD

    Per me il problema è che parteggi troppo per nvidia e ti è salito subito il sangue alla testa leggendo l’articolo! nn so tu, mai sui vari forum leggo spesso di gente che dice (sottolineo DICE, nn che avverrà davvero) che nvidia è messa male, nn fa altro che rimarchiare i chip, fa delle gran interviste, parla parla e nn presenta niente (un po’ come faceva ATI cn la serie HD2x000). E l’autore dell’articolo ha scritto solo quello che succede per il web, cioè tutte le volte che le cose nn vanno benissimo c’è semrpe chi fa del catastrofismo! ati era molto indietro e se la passava male, ora è riuscita a riprendersi e ad arrivare prima di nvidia cn una soluzione buona e più conveniente (e parlo di TUTTE le fasce di prezzo).
    Per me hai esagerato tu cn il tuo intervento, io nn ci ho visto niente di male nel’introduzione, ha solo preso un poo’ per il sedere i soliti fan boy catastrofistici.

    @Jonny

    a dire il vero è nvidia che fa schede che consumano e scaldano di più! Sui driver posso concordare (soprattutto su linux….infatti ho nvidia solo per questo) :D

  • # 24
    yossarian (Autore del post)
     scrive: 

    @ asd #19

    grazie per la precisazione sulla situazione attuale; adesso ti sarei grato di indicarmi dove ho parlato di G80, GT200 o GT300, in modo che possa correggere il madornale errore commesso; in effetti nel 2003 c’era ancora NV30, al massimo, NV35.
    In quanto allo stare con le pezze, evidentemente la devi sapere lunga se sei a conoscenza della attuale situazione economica di nVidia e di AMD, anzi ATi, ovvero la divisione grafica di AMD. Magari potresti scriverci su due righe, per integrare la parte tecnica con quella economica.
    Però, al momento, quello che mi preme correggere è il tragico anacronismo che data al 2003 il lancio di GT300; oppure è NV30 che è datato 2009?

  • # 25
    j
     scrive: 

    chi dice che nVidia stia nella merda oggi, dice una cazzata senza se e senza ma.

    http://arstechnica.com/hardware/news/2009/10/day-of-nvidia-chipset-reckoning-arrives.ars

    nVidia per il moemnto è tagliata fuori dal mercato delle cpu desktop in genere (mancando delle licenze necessarie per produrre cpu compatibili x86) e per il futuro da quello delle cpu con grafica integrata – adesso annuncia di voler interrompere lo sviluppo di nuovi chipset, per intel (mancando le licenze per l’ impiego della connessione DMI) ma con buona probabilità anche per AMD
    oggettivamente mi pare che tanto bene non se la passi…

  • # 26
    Cesare Di Mauro
     scrive: 

    Esattamente. Senza licenza per produrre CPU x86 il ruolo di nVidia sarà notevolmente ridimensionato in un futuro che sarà dominato dall’unione di CPU e GPU nello stesso package prima, e nello stesso core poi.

    AMD si trova comunque in una situazione di svantaggio, perché non è stata in grado di acquisire nessuna azienda specializzata nell’accelerazione della fisica (che avrà anch’esso un ruolo determinante in futuro). Mentre Intel ha prelevato Havoc, e nVidia Ageia.
    Per essere competitiva dovrà acquisire una società meno blasonata, oppure produrre in casa qualcosa di simile (ma la vedo dura: serve parecchio know-how, e quelle due aziende l’hanno sviluppato impiegando anni in ricerca & sviluppo).

    P.S. Che ricordi, 3DFX internamente eseguiva calcoli a 22 bit, per poi scalare il risultato a 16. Ma è passato troppo tempo e posso anche sbagliarmi, eh! :)

  • # 27
    P.Alessio
     scrive: 

    Sarebbe bello avere qui, come su youtube, un tasto per segnare alcuni post come spam e nasconderli di default. Ma, invece di chiamarli spam, potremmo etichettarli come “fanboy’s Post”^^

    Per il resto quoto al 100% chi ha detto che se sparisse o nvidia o ati saremmo tutti nei guai….. se nn fosse per la loro concorrenza pagheremmo le schede entry level 150€, e i top di gamma 600

  • # 28
    Valerio
     scrive: 

    esatto Cesare, notizia di pochi giorni fa:

    http://punto-informatico.it/2718279/PI/News/amd-sfida-physx-un-motore-open.aspx

    mmmm sto sviluppando un sw grafico, devo scegliere fra Cuda (non gira su 100% hw, e costo licenza) vs Bullet Physics opensource con supporto OpenCL e DirectCompute :D
    La differenza la farà forse in minima parte anche lo strumento.

  • # 29
    Cesare Di Mauro
     scrive: 

    CUDA ha dalla sua strumenti molto più maturi (che si integrano anche con Visual Studio). E’ una differenza non da poco.

    Non basta sviluppare una soluzione adeguata, ma bisogna anche renderla facilmente fruibile a chi dovrà utilizzarla, per cui AMD dovrà investire anche su questo fronte.

  • # 30
    Wildchild
     scrive: 

    I miei più sentiti complimenti per questo articolo, mi ha fatto tornare indietro nel tempo (come a tanti altri immagino), quando avevo la mia bella Voodoo 1…seguita poi dalla Voodoo 2 per finire con la Voodoo 3 3500!Che tempi ragazzi!!!Tornando a noi, ancora complimenti e attendo con ansia la “prossima puntata”.

    P.S.: Mi viene da ridere leggendo i commenti dei “fan boy” di una o l’altra “fazione” (perchè a questo ormai siamo arrivati)…eddai ragazzi, se una delle due sparisse dal mercato ci sarebbe un monopolio alias cartello, nonchè una velocità di crescita dei prodotti molto inferiore (perchè correre quando non c’è nessuna concorrenza a spaventare?) a discapito dell’avanzare della tecnologia e per ultimo, ma non per importanza, un aumento dei prezzi della serie “se la vuoi, c’è questa…a questo prezzo, altrimenti RESTI SENZA!”.

    Buona giornata a tutti! ;)

    Wildchild

  • # 31
    cosimo
     scrive: 

    articolo ben fatto, complimenti.
    purtroppo noto ancora che ci sono fanboy- e fanboy”mascherati” da opinionisti….
    quello che è sicuramente vero, è che nel corso degli anni le 2 aziende si sono sorpassate a vicenda + volte riguardo a performance/tecnologie ; trovo veramente difficile affermare che una è meglio dell’altra quando da 10 anni come affermato nell’articolo c’è questo tipo di “lotta”
    credo di poter dire che ambedue le aziende possiedo ancora le risorse per potere battagliare a suon di ricerca e sviluppo di nuovi prodotti da ciò ne deriva questo scenario quasi coerende di sorpasso e controsorpasso….finchè una delle due non cede, oppure il mercato ne decreterà la morte:))) o chissa un terzo in comodo:)))
    saluti
    a tutti

  • # 32
    crisnar
     scrive: 

    @Wildchild

    Non è che facevamo la spesa dallo stesso rivenditore?
    Le tre Voodoo citate le ho avute anch’io, anzi, ce le ho ancora :D

  • # 33
    Stx
     scrive: 

    Di Valerio|
    esatto Cesare, notizia di pochi giorni fa:

    http://punto-informatico.it/2718279/PI/News/amd-sfida-physx-un-motore-open.aspx

    mmmm sto sviluppando un sw grafico, devo scegliere fra Cuda (non gira su 100% hw, e costo licenza) vs Bullet Physics opensource con supporto OpenCL e DirectCompute :D
    La differenza la farà forse in minima parte anche lo strumento.
    ——————————————————-
    L’uso di CUDA non prevene nessun costo per la licenza, e questo vale anche per PhysX, sono due strumenti completamente gratuiti e liberamente disponibili ed utilizzabili.
    Comunque non credo che avvantaggerà AMD ,nonstante i proclami aziendali tendano a far apparire la rivale NVIDIA come “nemica dell’open”, vorrei mostrare quanto dichiarato da Erwin Coumans, il creatore del Bullet Physics Engine:

    “ATI’s Bullet GPU acceleration via Open CL will work with any compliant drivers, we use NVIDIA Geforce cards for our development and even use code from their OpenCL SDK, they are a great technology partner.“

    Come vedi anche NVIDIA sta collaborando, infatti gli sviluppatori utilizzano hardware NVIDIA e si ispirano agli esempi forniti nel suo SDK per OpenCL.

  • # 34
    snipershady
     scrive: 

    Articolo splendido e ben scritto.

    La storia è storia e questo articolo non la interpreta, ma la racconta.

    Un po’ troppo “tecnico” e poco leggibile dalla massa, ma decisamente interessante per chi invece è più addentro all’argomento.

    @ yossarian
    ignora i fanboy. Dall’una e dall’altra parte, scrivono senza cognizione di causa e con il solo desiderio di giustificare i propri acquisti e le proprie scelte (e le proprie catastrofi ).

    Ricordo gente difendere a spada tratta la folle spesa per l’acquisto di una nVIDIA5800… mentre gli ingegneri di SantaClara pubblicavano intanto video ironici simulando utilizzazioni alternative di questi prodotti :D

  • # 35
    Luca
     scrive: 

    parlando da possessore di una 4850… ancora devo capire questa leggenda dei driver ati… personalmente mi trovo abbastanza bene…escono ogni mese con patch e miglioramenti…

    non ho mai posseduto nvidia (solo perchè la ati 4850 l’anno scorso era un buon acquisto e il computer precedente era fatto dai miei) e quindi non posso fare il confronto… per il prossimo acquisto (credo tra un anno o due) non sceglierò la marca (mai fatto) ma vedrò semplicemente quale scheda offre prestazioni migliori ad un prezzo ragionevole senza avere preconcetti sulla marca…

    ati a questo giro è andata forte (parlo della serie 4xxx)..magari in futuro sarà sorpassata da nvidia…buon per noi in ogni caso

    è bene che ci sia concorrenza…
    è male che ci sia il fanboysmo in quanto è solo un tipo di costrizione che va contro i principi della concorrenza; infatti secondo me il fanboy segue la propria “marca del cuore” anche se in quel momento non è conveniente…e di certo non traggono vantaggio dalla concorrenza

    esempio:
    l’anno scorso la ati 4850 era un buon acquisto per quello che offriva a quel prezzo contenuto…c’era gente che affermava il contrario e avrebbe acquistato in ogni caso la controparte di nvidia…

    tutto a discapito loro… ma contenti loro…

    (ho fatto questo esempio perché l’ho vissuto)

    se esiste questo “dualismo” (a nostro favore) è meglio essere dei consumatori intelligenti che non si “fissano” alla marca, ma che abbiano un po’ di criterio e sappiano fare la propria scelta in base a caratteristiche proprie di una scheda video di qualunque marca sia…

    e non lasciatevi trasportare dalla “passione” per una marca

    ovviamente… è una mia opinione :)

  • # 36
    ATi vs nVidia, the neverending war: II parte il ritorno di nVidia - Appunti Digitali
     scrive: 

    […] scorsa settimana ci eravamo fermati all’anno 2003, anno in cui si registrano un paio di eventi degni di nota: […]

  • # 37
    ATi vs nVidia, the neverending war, IV parte: le strade si separano - Appunti Digitali
     scrive: 

    […] tra ATi e nVidia per la supremazia in ambito 3D e, in particolare, in ambito gaming. Abbiamo visto come una piccola società sia stata in grado, in pochi anni e grazie a scelte progettuali e di merca…. Abbiamo anche visto come, nel corso degli anni, ad arginare l’ascesa apparentemente, almeno […]

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.