di  -  giovedì 14 Gennaio 2010

tegra_ii_logoMobilità e multimedialità sembrano essere il connubio per eccellenza al quale moltissime aziende del settore, non sempre note per chi segue semplicemente il mondo di cellulari e smartphone, stanno puntando.

Una tra queste è NVIDIA, famigerata azienda produttrice di processori grafici e chipset nel mercato dei personal computer, workstation e notebook, e che in occasione dell’International Consumer Electronics Show (CES) 2010 ha presentato Tegra 2, la sua nuova piattaforma di punta destinata a dispositivi portatili e ultraportatili quali smartphone, tablet, riproduttori multimediali, ecc…

La piattaforma Tegra di prima generazione è stata presentata da NVIDIA nel corso del 2008 e, se escludiamo la parentesi dei chip GoForce, ha rappresentato per l’azienda di Santa Clara il trampolino di lancio in un settore, quello dei dispositivi portatili, profondamente differente da quello dei personal computer alla quale è abituata ad essere leader.

Il successo di questa prima generazione può essere definito limitato se consideriamo che ad oggi, a quasi due anni dalla sua introduzione, solo due dispositivi con Tegra hanno raggiunto il mercato: lo Zune HD di Microsoft ed il Samsung M1.

In realtà in questo periodo NVIDIA non si è di certo adagiata sugli allori ed ha fatto tesoro dell’esperienza acquisita per preparare e presentare la sua seconda generazione della piattaforma Tegra in quello che lo stesso CEO di NVIDIA, Jen-Hsun Huang, ha definito l’anno della tablet revolution.

Molti sono i sample mostrati nel suo stand dall’azienda californiana tra cui non solo tablet, ma anche i frutti delle prime collaborazioni di NVIDIA con altri mercati interessati a queste soluzioni: Audi ha annunciato proprio al CES 2010 che monterà sulle proprie auto del 2012 sistemi basati su Tegra.

tegra_tablet

Dal punto di vista tecnico l’obiettivo di Tegra 2 è quello di coniugare il più possibile l’elevata potenza di calcolo che richiedono applicazioni quali la riproduzione in FullHD e l’elaborazione della grafica 3D nei videogames, con i bassi consumi e, conseguentemente, un’adeguata autonomia che si richiede ad un dispositivo portatile.

Per raggiungere tali mete NVIDIA si è affidata ad un processore che integra due core ARM Cortex A9, un processore grafico a shader unificati con supporto all’OpenGL ES 2.0, il tutto in grado di decodificare flussi video HD a 1080p in formato H.264/VC1 e processare fino a 90 milioni di poligoni, con un consumo in idle dichiarato di appena 500 mW.

Il tutto fa ben sperare di riuscire a vedere a breve sugli schermi dei propri compagni di giornata/viaggio film dalla qualità video paragonabile ai Blu-Ray e videogames con effetti grafici analoghi a quelli delle console di ultima generazione.

Il problema che personalmente mi pongo, tuttavia, è il seguente: ha senso puntare in maniera talmente esasperata su una multimedialità così spinta considerando che stiamo parlando di dispositivi dotati di display che vanno dai 3 ai 9 pollici? Siamo realmente in grado di apprezzare la differenza su un display di queste dimensioni tra un video 720p ed uno 1080p o tra un gioco che muove 2 milioni di poligoni ed uno che ne disegna 10 milioni?

Sono conscio che il mercato dell’intrattenimento è forse uno di quelli a livello mondiale che meno di tutti si è potuto affiancare al termine “crisi” negli ultimi anni, ma ciononostante ritengo che non sarebbe una cattiva idea quella di dare spazio alla risoluzione di altri problemi che da sempre affliggono i dispositivi portatili come, ad esempio, il loro smaltimento e l’autonomia. Del resto, se negli ultimi anni la durata della batteria di uno smartphone fosse aumentata nella stessa misura in cui è stato innalzato il numero di poligoni macinati nella grafica tridimensionale, probabilmente oggi avremmo potuto tutti evitare di doverlo attaccare ogni sera (o quasi) alla presa elettrica.

13 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    iPoPo
     scrive: 

    Assolutamente d’accordo con l’analisi.
    Nvidia sta diversificando il proprio business in maniera radicale.

    Molti erroneamente credono che nvidia sia in difficoltà perchè nel settore desktop (che è una parte piccolissima dei profitti nvidia) è in ritardo con il discusso Fermi project,quella piccola parte di utenti che egocentricamente crede di essere il centro del mercato perchè compra 4 schede dx11 per giochi che non esistono non si è accorta che ati offre schede usa e getta usando solo come valore aggiunto proprio quella etichetta inutile delle dx11.

    In un mercato dove software+hardware = Valore!; Valore + Care= Successo!

    Io credo invece che nvidia si stia muovendo alla grande sul mercato puntando sul segmento per le soluzioni IT aziendali per il futuro Cloud (hardware potente e API per sfruttarlo) e sulla mobilità.

    Nvidia ha centrato il bersaglio segmento della mobilità (tegra e Ion) e segmento corporate IT Tesla, praticamente arriveranno a:
    gestire il cloud in fase di generazione nei server aziendali che erogano il servizio con le soluzioni Tesla Fermi e ricevere il servizio con soluzioni ultra mobile come Tegra 2 in fase di fruizione lato utente. Con una sinergia B2C verticale.

    a questo punto però la domanda sorge spontanea: x86 in lento e inesorabile declino nel business mobile? con processori Arm sempre più protagonisti affiancati dalla potenza di gpu studiate apposta per ottimizzare consumi e prestazioni nel calcolo parallelo?

    a quando finalmente soluzioni per incrementare la mobilità grazie a nuove tecnologie per le batterie??

  • # 2
    Pozzame
     scrive: 

    Sono daccordo sulla necessità di pensare di piu’ ad aumentare l’autonomia, ma l’impossibilità di riprodurre video HD e “semplici” giochi 3D è il motivo che mi ha fatto evitare di prendere un netbook.
    Daccordissimo che sia inutile tale qualità su uno schermo di ridotte dimensioni, ma la possibilità di collegare plug&play il cellulare/netbook/tablet alla TV, magari a casa di un’amico, e visualizzare un film in HD o fare una partitella ad un gioco, la trovo un must.

  • # 3
    Al
     scrive: 

    @ iPopo

    A dire il vero il settore desktop è ancora trainante per Nvidia, al pari almeno del settore notebook.

    Il motivo per cui Nvidia si sta spingendo su altri mercati è che, a differenza dei concorrenti, non ha la CPU e quindi non è in grado di formire agli OEM il pacchetto completo CPU+Chipset+GPU a prezzo scontato.

    Oggi poi, con ATI che l’ha sopravanzata anche nella fascia media ed alta, e con il Gaming per PC in forte contrazione, urge ancora di più spostarsi su un altro mercato.

  • # 4
    iPoPo
     scrive: 

    se vai a vedere il bilancio nvidia il settore consumer (desktop) incide per 1/3 sul bilancio mentre i 2/3 sono per il settore corporate.

    il contrario per ati dove i 2/3 sono consumer e 1/3 corporate.

    se ci mettiamo anche la crisi nella vendita dei desktop superati ormai dai notebook/netbook, e il gaming che spinge sempre di più verso le console (più redditizie) dando ogni tanto qualche porting in dx9c con magari qualche effetto dx10 attivabie/disattivabile.

    spiegami come fa ati a sovrastare nvidia quando la prima domina il mercato con una fetta del 65% lasciando agli altri player quello che resta.

    Ati dispone di soluzioni integrate verticalmente ok ma quanto sono valide? (nel campo mobile pressochè inesistenti perchè vende solo intel con centrino quindi la politica degli sconti non è applicabile in mancanza proprio di vendita in volumi di soluzioni amd agli oem).

    diciamocelo Ati è indietro come risorse intellettuali rispeto a nvidia che ha sicuramente più know-how in ambito gpgpu e la diversificazione, che è FONDAMENTALE in questo periodo perchè sarà la base del business informatico dei prossimi 10 anni, i verdi la stanno facendo, rallentando magari anche lo sviluppo di prodotti come Fermi, per uscire con un prodotto versatile da poter utilizzare anche nelle soluzioni Tesla server,in un ambito diverso dal risicato gaming che ormai conta ben poco( e conterà sempre meno in ottica di ritorno economico).
    I rossi no e questo mi preoccupa per quando ci sarà il giro di Boa.

  • # 5
    May81
     scrive: 

    Io invece penso che per tablet o netbook le caratteristiche di tegra II siano il minimo indispensabile. i 1080p servono per poter portare attraverso un’uscita HDMI il Full HD su televisori LCD, la potenza grafica serve per far girare interfacce 3D e piccoli giochi mentre lato CPU un dual core arm9 immagino sia equiparabile ad un atom con HT.
    500 mW di consumo in Idle sono direi già ottimi per dispositivi con schermi da 7-10 pollici considerando che sistemi con Atom consumano dieci volte tanto….

    Prevedo che in futuro usciranno SOC con CPU Arm con consumi e prestazioni maggiori perchè un sistema dual ARM9 a 2 GHz e 2-3 W in idle andrebbe bene per sostituire perfino l’HW di un notebook (entry level sia chiaro)

  • # 6
    saffolino
     scrive: 

    @Ipopo
    Sono d’accordo con lui, mi hai letto nel pensiero :|

  • # 7
    Iro
     scrive: 

    come al solito molti parlano solo per parlare (ok ok scrivono, sempre di testo si tratta) e si lanciano a sproloquiare sulla bontà delle strategie commerciali di questa o quella marca (ma ti pagano o ci credi davvero?) non rendendosi (forse) conto che quanto più si parla di valore di brand tanto più si fanno gli interessi dei commercianti vari.
    Se a questo si aggiunge che il tema dell’articolo era differente….

    Tornando IT anche io spesso mi chiedo a che pro servano molte sofisticazioni tecnologiche pensate per dispositivi di output con dei limiti fisici come la dimensione per schermi da pochi pollici.
    Ma ovviamente il 1080i è solo una delle capacità di tali dispositivi quindi ben venga la potenza e i bassi consumi, ma tanto a fare la differenza sono le implementazioni che se ne fanno.
    Quanto alla risoluzione una piccola postilla: il FullHD in realtà sarebbe indicato proprio per piccoli schermi perchè si arriva molto più vicini alla capacità di discrimine del nostro occhio, semmai sono gli schermi da 40” che dovranno ancora aumentare molto in risoluzione, si pensi che a livello cinematografico si vanno profilando risoluzioni native molto superiori che prima o poi arriveranno anche sui nostri schermi (non vedo l’ora di avere un 40 pollici 5k sbav sbav!)

  • # 8
    Altrove
     scrive: 

    Nvidia? No grazie …

    Dopo il pacco che hanno fatto con il G5500 venduto SENZA NESSUN DRIVER specifico per Windows Mobile, STANNO FRESCHI SE ASPETTANO LA MIA GRANA, e di quelli che,come me, sono stati presi abbondantemente per il culo.

    Vergognarsi, devono!!

  • # 9
    iPoPo
     scrive: 

    @Iro

    scusami tanto se non ho scritto un post intelligente come il tuo.

    Cmq si ci credo davvero in quello che scrivo visto che essendo uno studente di marketing cercare di capire le strategie alla base di scelte commerciali è un esercizio mentale che faccio volentieri per il mio futuro lavoro.

    non ho sproloquiato e non sono andato ot visto che si parlava di un prodotto destinato a incidere molto sul bilancio commerciale 2010 di nvidia.

    per l’ultra HD dubito che lo vedrai su un misero 40 pollici se ne riparlerà nel 2020(come è già stato annunciato) con schermi dagli 80 pollici in su.

  • # 10
    Tralaltro
     scrive: 

    tralaltro i 500 mW sono il TDP totale e non il consumo in idle, altrimenti una batteria da 1000/1400mAh (tipica degli smartphone)finirebbe in 2/3 ore..

  • # 11
    Al
     scrive: 

    @ iPopo

    Forse sono stato troppo succinto

    Nvidia fa GPU : che siano per il settore consumer (cioè Gaming retail) o corporate (cioè gli OEM, ed in particolare i Notebook) poso importa.
    Nvidia Fa anche Chipset (in questo caso solo OEM)

    Nel settore GPU “discrete” per desktop ha mantenuto le quote di mercato (il 65% mi pare giusto) mentre nel settore Notebook pare abbia perso la leadership (ma sono dati AMD e ci credo poco).

    Nel mercato dei chipset Nvidia è già da un paio di anno che sta perdento quite (salvo ION che sta però sulla fascia bassa) e non si prevede certo un migioramanto perchè sia AMD che Intel hanno i loro chipset.

    Quanto dicevo che ATI l’ha sopravanzata intendevo in ambito tecnologico: dalla serie 4000 ATI aveva un vanaggio in termini di Prezzo/prestazioni e con la serie 5000 anche come prestazioni, anche se gli effetti economici della serie 5000 si vedranno più avanti.

    Comunque per mantenere le quote di mercato nel 2008/2009 Nvidia ha dovuto contrastare il vantaggio tecnologico di ATI con i prezzi, tanto che per due ‘quarters’ ha chiuso in rosso.

    Ora non ho dubbi che Nvidia colmerà il gap tecnologico con ATI, ma resta il fatto che Nvidia non ha la CPU e in un mercato dei PC i cui prezzi (specie nei notebook) scendono ed i margini si contraggono, è difficile andare a contrastare chi può fornire il kit completo dei chip. (vedi note)

    E’ ovvio quindi che Nvidia, con il core business minacciato, cerchi altri mercati: uno è il supercalcolo con Tesla e l’altro è il consumer Multimedia/Handeld con l’otitmo Tegra.

    Nvidia pertanto è destinata ripensare a se stessa e, e probasbile, a cambiare profondamente; se poi sarà Tegra sarà il chip della ‘rinascita’ dipenderà da molte cose, tra cui l’eventuale esplosione dei tablet o similari.

    Nota 1: Poi speriamo tutti che l’Antitrust USA obblighi Intel a concedere l’ISA x86 a Nvidia, ma qui entriamo in un mondo di ipotesi troppo remote.
    Nota 2: Colmare il gap tecnologico con ATI potrebbe anche essere difficle per il fattore GlobalFoundries, ma anche per questo non se ne sa abbastanza.

  • # 12
    iPoPo
     scrive: 

    @Al

    scusa,adesso ho capito il tuo discorso,è giusto ma non sono d’accordo con te quando dici che nvidia deve colmpare il gap con Ati e ti spiego perchè secondo me è il contrario.

    Ati ha adottato una politica di prezzi basata sul fatto che si è messa a produrre buoni chip puntando sul processo produttivo 55nm (e qui nvidia si è trovata ad inseguire pur avendo i migliori chip grafici a 65nm gt200 e g92)e su una struttura del chip stesso più leggera e poco costosa in linea con i soli standard microsoft dx10.1 prima e dx11 adesso.

    Nvidia d’altro canto ha puntato su chip decisamente monolitici con un valore aggiunto elevatissimo CUDA PhysX e adesso Flash 10.1 cosa che le schede ati non fanno o se fanno fanno male non ultimo l’annuncio che la serie hd 4000 mal digerisce OpenCL cosa che invece addirittura i chip g92 fanno.(vecchi di una generazione)

    ecco perchè secondo me una scheda nvidia ha un valore aggiunto rispetto ad una scheda ati valore datogli dai servizi che offre in più a parità di hardware.

    Nvidia attraverso il supporto hardware con i driver costantemente aggiornati (anche per notebook) offre un valore aggiunto che personalemnte preferisco alla sola implementazione di dx11 che adesso sono francamente ancora inutili (e lo saranno fino alla prossima generazione di console che sfrutteranno le dx11 nativamente per i giochi visto che i giochi attuali per pc sono porting).

    poi ti do ragione per il mercato notebook ma quello purtroppo è un mercato dove un anno va forte un brand piuttosto che un’altro dipende dalla politica di prezzi delle schede di fascia mainstream visto che notebook con schede mirate ad un uso gaming sono una nicchia e con i nuovi arrandale intel ha il monopolio sulla fascia bassa e per marginare i costi gli oem difficilmente inseriranno doppie schede a basse prestazioni solo per avere il bollino sul case del notebook.

    il 2008/2009 poi è stato un anno particolare visto cos’è successo in tutto il mondo(anche intel ha chiuso in rosso un paio di quarters).Cmq ati se l’è cavata bene perchè avendo schede che costavano poco da produrre e mantenere poteva avere una politica di prezzi più aggressiva e nvidia un pò a sofferto pur mantendo le quote e rebrandando un pò il g92 e facendo il gt200b.

    cmq si per il resto condivido il tuo punto di vista e resto anche io in attesa di sviluppi per il discorso globalF vs. tsmc.

    quello che mi aspetto da ati/amd è una rinascita VERA nel settore mobile +concorrenza -prezzi anche se è dura ci vogliono scelte coraggiose e sopratutto sviluppo software per supportare al massimo OPenCL e Havok e flash 10.1.

  • # 13
    pek
     scrive: 

    ad occhio, questo tegra 2 si vedrà soprattutto su set-top-box con un qualche tipo di android sopra a fare la prossima generazione di boxee/hulu/decoder vari…
    non lo vedo troppo adatto a telefoni e lettori multimediali. a meno che non si facciano lettori portatili che poi in realtà si usano praticamente solo in casa attaccati al tv. un pò come un wd-tv-hd, però di dimensioni tascabili. allora hanno senso anche i 32+gb di spazio (davvero: c’è bisogno di più 3-4 gb di spazio? con la batteria non ci si arriva a decodificare tanta musica compressa…). ovvio che poi ci sarà l’azienda di turno che ci farà il cellulare con un techdemo da far strabuzzare gli occhi giusto per fare a chi ce l’ha più lungo ;)

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.