di  -  mercoledì 1 febbraio 2012

Dall’annuncio della prossima console di Nintendo, il Wii U, che dovrebbe arrivare quest’anno, si è dato ufficialmente il via alle speculazioni sull’hardware della prossima generazione, e su quello che sarebbe (il condizionale rimane un obbligo in attesa delle specifiche definitive) in grado di fare.

L’ultima notizia, di qualche giorno fa, attesta la Wii U come due volte “più potente” della XBox 360, mentre il successore di quest’ultima sembrerebbe sei volte “più potente” del predecessore.

Fermo restando che il concetto di “potenza” di una macchina rimane, in ogni caso, relativo. “Potente” rispetto a cosa? La CPU? La GPU? La quantità di memoria di sistema e/o video? ecc. Per non parlare poi della diversa implementazione di uno stesso componente; ad esempio CPU in-order oppure out-of-order, cache di tipo e/o dimensioni diverse, ecc., che fanno “esplodere” il numero di casi e scenari possibili che comportano risultati anche molto diversi (e non sempre scontati).

Tralasciando il ginepraio che ne deriva, e considerato che si sa ancora molto poco persino sulla console già presentata (che peraltro subisce continue variazioni), penso sia più interessante riflettere su cosa ci potrebbe aspettare in termini di “silicio a disposizione”, compreso qualche scenario d’impiego, grazie alla moderna tecnologia a disposizione.

Nel far questo prenderò come esempio la XBox 360, ma il discorso vale similmente per la Playstation 3 (con qualche distinguo) mentre uno a parte dev’essere fatto per la Wii, che ha avuto una storia diversa rispetto alle altre (e anche rispetto ai suoi predecessori).

Commercializzata nel novembre del 2005, questa console ha fatto uso della tecnologia disponibile al momento, cioè il processo produttivo a 90nm impiegato per il microprocessore, la GPU, la memoria embedded (10MB di eDRAM) e quella centrale/video (512MB, unificati) e il chipset (che include, nel southbridge, anche una sezione apposita di decodifica hardware del suono compresso in formato WMA-Pro).

Lo scorso anno è stato, invece, impiegato ampiamente il già maturo processo a 32nm nei vari componenti, a cui si è aggiunto anche quello a 28nm per alcuni prodotti (in particolare per le ultime GPU di AMD, le nuove Radeon della famiglia HD 7000, di cui la HD 7970 rappresenta il capostipite) ed è quello che probabilmente potrebbe venire adottato, anche se Intel ha già anticipato tutti col processo a 22nm e l’introduzione dei famosi transistor tri-gate.

In termini molto spiccioli (mi scuseranno gli esperti in materia per la banale approssimazione a cui ricorrerò), fra il processo a 90nm e quello a 28nm c’è sostanzialmente una differenza di un ordine di grandezza.

Calcolatrice alla mano, ed eseguendo un calcolo “bovino”, significa che quest’ultimo occupa meno di un terzo (il 31,1% circa) dello spazio per ogni dimensione (orizzontale e verticale), dunque tenendo conto di entrambe si arriva a poco meno di un decimo (9,67% circa).

Tradotto in soldoni, questo risultato può essere visto in due modi diversi, a seconda di cosa interessi evidenziare. Il primo è ovviamente lo spazio occupato, per quanto già detto: un componente realizzato a 90nm occuperà un decimo dello spazio se realizzato a 28nm, e quindi costerà molto meno produrlo (non mi azzardo a sparare un decimo perché non ho alcuna idea dei costi che stanno dietro alla realizzazione di fabbriche e strumentazioni adeguate, ricerca inclusa).

Ribaltando il discorso possiamo dire, invece, che nello stesso spazio occupato dal dispositivo a 90nm, con quello a 28nm è possibile infilare più di 10 volte il numero di transistor impacchettati rispetto alla precedente tecnologia.

Un numero decisamente impressionante se consideriamo che mettendo assieme soltanto CPU e GPU (ed eDRAM nel caso della XBox 360) si arrivava a circa mezzo miliardo di transistor, e sarebbe quindi lecito immaginare, ma soltanto immaginare sia chiaro, che si potrebbe arrivare a 5 miliardi di transistor come budget a disposizione per queste due importantissime componenti della prossima generazione.

Cosa farci con tutto questo ben di dio è appannaggio degli ingegneri che hanno chiaro in mente l’obiettivo da raggiungere (forse un po’ meno per quelli di Sony, che finora hanno tirato fuori hardware difficile da utilizzare per una console, o tarato male), tenendo conto dello stato dell’arte della tecnologia e della direzione verso cui ci si sta orientando (non mi stancherò mai di ripetere che le console, appena uscite, hanno rappresentato il nuovo punto di riferimento col quale confrontarsi).

Se la compatibilità è importante, parte di questo budget potrebbe essere impiegato per integrare direttamente l’intero hardware precedente in uno spazietto all’interno del chip (ricordo che si occuperebbe all’incirca un decimo), in modo da garantirla pienamente senza ricorrere alla classica emulazione (che richiede comunque parecchie risorse, tant’è che Sony, nonostante i pomposi proclami, non è mai riuscita a integrarla pienamente e in maniera trasparente nella PlayStation 3, contrariamente alla PS2 che, invece, è stata in grado di emulare senza problemi la prima).

Comunque non è necessario relegare questo pezzo di hardware esclusivamente a tale scopo, e infatti nessuno vieterebbe di utilizzare la CPU della XBox 360 anche per agevolare lo sviluppo dei nuovi titoli, scaricandole parte del lavoro. Ad esempio si potrebbe occupare di gestire l’audio, il Kinect, il sistema operativo, e magari l’intelligenza artificiale, lasciando la “parte nuova” a smazzarsi i calcoli “massicci” della scena, della fisica e dei vari effetti speciali.

D’altra parte se la prima XCPU aveva 3 core, non vuol dire che, avendo 10 volte il numero di transistor a disposizione, la prossima ne debba avere necessariamente 30 o giù di lì. Lo stesso discorso è applicabile anche alla PlayStation 3: avendo la CPU 1 core “general purpose” e 7 “coprocessori SIMD”, non vuol dire che la prossima debba averne 10 e 70 rispettivamente.

E’ più sensato immaginare che il pezzo forte sia rappresentato da una nuova CPU, che sia pensata per svolgere meglio e/o in maniera più efficiente i calcoli rispetto alla precedente. Certamente multicore (la tendenza ormai è questa, e sarà sempre più così), magari con 8-16 core (e ognuno in grado di far girare 2 o più thread), ma non con un numero così elevato. Avere molti core, infatti, richiede la presenza e l’uso di parecchie risorse da dedicare al loro arbitraggio, alla sincronizzazione fra le varie parti, e alla coerenza dei dati.

Come pure è molto probabile anche la presenza di un quantitativo molto più elevato di cache L2 ma, soprattutto, l’introduzione di abbondanti cache L3, in maniera da ridurre il più possibile l’accesso alla ben più lenta memoria principale (rispetto alle altre componenti è quella che, da sempre, presenta maggiori difficoltà a scalare). Le cache, si sa, si mangiano buona parte della “torta”, ed è quindi ipotizzabile che molto del budget sia per esse impiegato.

Sulla GPU il discorso si complica. Per la XBox360, in particolare, perché faceva uso di una GPU innovativa e calzava a pennello per i compiti a lei assegnategli, ma soprattutto per la memoria eDRAM impiegata. Sappiamo, infatti, che quei 10MB venivano utilizzati per il Color Buffer e lo Z-Buffer, e che tenendo conto della risoluzione e del filtro di anti-aliasing adottato (FSAA fino a 4x), erano del tutto insufficienti.

Infatti per gestire la risoluzione di 720p (1280×720 pixel), venivano richiesti 3 “passaggi” della scena (dividendola in 3 grandi tile) col filtro 4x: 1280x720x(4 byte Color Buffer + 4 byte Z-Buffer)x4 (filtro) = circa 29,5Mbyte di spazio (da cui la divisione “in 3″ della scena: poco meno di 10MB per tile). In Full-HD (1920×1080) ne servirebbero, invece, poco più di 66MB, sempre per evitare di suddividere la scena in tile (e al momento anche senza tenere conto della banda di memoria richiesta allo scopo).

Avendo a disposizione 70MB di eDRAM, cioè 7 volte la quantità della precedente, il problema sarebbe risolto, ma non si sa se l’approccio dell’eDRAM verrà ancora mantenuto con la prossima XBox. Se la compatibilità sarà un perno della nuova console, per lo meno i 10MB di eDRAM saranno presenti, ma rimarrebbero sprecati se la nuova GPU fosse basata su tutt’altra architettura.

E’ scontato che, dopo tutto questo tempo, la GPU vada assolutamente rivista ed eventualmente adeguata, specialmente per la PlayStation 3 che ne montava una abbastanza vecchia già all’epoca. E’ lecito attendersi il supporto a shader model più avanzati, con un numero molto elevato per essi, ma l’immaginazione si ferma qui.

Per quanto riguarda la memoria di sistema e/o video, passare dai 512MB totali della precedente generazione ad almeno 4GB della prossima credo sia plausibile, oltre che auspicato anche dagli stessi sviluppatori. La speranza è che Sony comprenda finalmente l’importanza della memoria video, e che quindi presenti una console con un quantitativo più elevato (rispetto a quella di sistema, se sarà ancora presente questa suddivisione), anche se la PSP Vita, che risulta troppo sbilanciata e penalizzata da questo punto di vista, rappresenta un segnale negativo.

Infine sulle frequenze di clock di CPU e GPU (e memorie), non mi aspetto valori estremamente elevati rispetto al passato. I 3,2Ghz della CPU e i 500Mhz circa delle GPU erano già tanti per l’epoca, e inoltre sappiamo che aumentare la frequenza comporta problematiche che portano ad aumentare eccessivamente i consumi. 4,5-5Ghz sarebbero auspicabili per le CPU, e circa 1GHz per le GPU.

Il Wii U, come già detto, merita un discorso a parte. Molto di quanto già detto è chiaramente applicabile anche alla Wii e al suo successore, ma pensare che quest’ultimo debba presentare un hardware circa 10 volte più potente del predecessore sarebbe un’ipotesi lecita, al pari delle altre, ma comunque viziata da una completa decontestualizzazione nei riguardi del punto di partenza.

Il Wii, come sappiamo, era il successore del Gamecube, ma Nintendo ha sostanzialmente riciclato il vecchio hardware, approfittando dei vantaggi del nuovo processo produttivo a 90nm, e portando quindi ad aumentare il solo clock generale del 50%, oltre all’aggiunta di altri 64MB di memoria al sistema. CPU e GPU sono rimaste, quindi, sostanzialmente invariate rispetto al Gamecube (si vocifera di leggeri cambiamenti a quest’ultima).

Per cui se Nintendo volesse realmente rimettersi al passo della concorrenza, dovrebbe, oltre ad approfittare dei miglioramenti del passaggio dai 90 ai 28nm, recuperare anche il precedente gap dal Gamecube (che era costruito a 180nm, se la memoria non m’inganna).

I numeri che circolano per adesso lasciano pensare che ciò non sia avvenuto, e che quindi la grande casa giapponese continuerà nella sua politica di risparmio che, comunque, le ha consentito di risalire la china rispetto alla concorrenza e tornare leader di mercato. Di mercato, ma non tecnologico…

17 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    Andrea Del Bene
     scrive: 

    Per me le aspettative verso la prossima generazione di console sono un tantino eccessive, nel senso che non credo avremo il balzo di prestazioni ottenuto con l’ultima generazione, o almeno non mi sembra che la tecnologia sia pronta per offrire tale incremento a costi ragionevoli.
    E sono sicuro che ancora una volta la battaglia si giocherà sul fronte dei costi, battaglia inizialmente stra-vinta da Nintendo, anche grazie al “riciclo” dell’hardware.

    PS:mi permetto una piccola integrazione all’ottimo articolo. La PS3 inizialmente integrava l’hardware della PS2 per assicurare una retrocompatibilità pressochè perfetta (aveva la famosa CPU Emotion Engine se non sbaglio). Questa componente fu poi rimossa per ridurre il costo della console inizialmente molto alto. Ma come ricordato da Cesare l’emulazione software della PS2 ha avuto non pochi problemi.

  • # 2
    Cesare Di Mauro (Autore del post)
     scrive: 

    Non penso anch’io che avremo davanti 10 volte il numero di transistor rispetto alla precedente generazione. Ne useranno certamente di meno, per andare un po’ al risparmio (con Nintendo che è già su questa strada, ma non stupisce nessuno).

    Comunque se consideriamo anche l’aumento di clock che comporta questo grande balzo di processo produttivo, mi aspetto in ogni caso grandi cose. Quindi non avremo console 10 volte “più potenti”, ma… quasi.

    Riguardo alla PS3, il chip con quasi l’intera PS2 “on-chip” (CPU+GPU+32MB di RDRAM) costava circa $100 a Sony, e infatti se n’è poi sbarazzata (passando prima a una soluzione con la sola GPU, poi togliendo definitivamente di mezzo tutto, e rinunciando persino all’emulazione infine).

  • # 3
    Zippy
     scrive: 

    E la risoluzione? Si iniziano a vedere i primi pannelli 4K. Magari parte della “potenza in più” potrebbe essere sfruttata per supportare risoluzioni più elevate… o no?

  • # 4
    Dario S.
     scrive: 

    Anche la ps2 contiene il processore della ps1 all’interno: il lavoro di emulazione è relativamente scarso, per questo la compatibilità è altissima.

    http://it.wikipedia.org/wiki/PlayStation

    Dario

  • # 5
    Enrico Pascucci
     scrive: 

    Bell’articolo. Vorrei integrarlo con una serie di considerazioni che non sono di carattere tecnico.
    Ogni tanto esce qualche rumor poi puntualmente smentito su possibili caratteristiche tecniche e date di lancio delle console di nuova generazione. Nintendo si sta apprestando al lancio della Wii U perché non può fare altrimenti. I controller della vecchia Wii innovativi quanto poco attraenti, passata la fase iniziale di stupore. Non a caso è sempre stata considerata una console più che altro da casual gaming, quindi la Nintendo deve per forza tornare ad innovare (e non può certo presentarsi per la terza volta con l’hardware del GC).

    Sony e Microsoft sono in una posizione ben diversa, infatti hanno già ampiamente dimostrato di non avere alcuna fretta.
    Entrambi hanno un parco utenti molto ampio e più o meno fidelizzato che continua ad apprezzare i nuovi titoli, che a loro volta continuano a migliorare nella resa grafica, per via di una esperienza sempre maggiore su questo hardware da parte degli sviluppatori. Quindi possono aspettare e ponderare bene le mosse future.

    Le mosse future vanno ponderate perché la realtà ha sbattuto loro in faccia che il mondo dei videogiochi è molto cambiato. Il successo dei giochi per dispositivi mobili, il successo della Wii (per non parlare del fenomeno Minecraft) dimostrano che la percezione della qualità di un gioco da parte degli utenti oggi è variegata e complessa da analizzare.
    La Sony e la Microsoft hanno capito che non basta più pompare l’hardware per avere successo e che anzi forse non serve.

    La potenza di elaborazione dell’hardware cresce sempre più lentamente. Guardate le CPU di punta di Intel, che in due anni, due, hanno guadagnato in prestazioni quello che una decina di anni fa le CPU guadagnavano in settimane. Visti gli anni che son passati dal lancio dell’attuale generazione ci sarebbe spazio per una evoluzione, ma a costi di produzione difficilmente sostenibili, considerato anche il fatto che le versioni “slim” impiegheranno più tempo ad arrivare rispetto al passato.

    Dall’altra parte i videogiochi con alte potenziali grafiche sono sempre più costosi da sviluppare, costringendo le case software a targhettizzarli verso un pubblico che sia il più possibile ampio. Chiedere un gioco un po’ più ricercato e di nicchia oggi, che sprema a fondo l’hardware delle console, sarebbe come chiedere di animare gli autobot in un film di Nanni Moretti. Il risultato sono titoli graficamente spettacolari ma con gameplay scriptati poco appetibili per gli hardcore gamer, che ancora si divertono con Quake Live e Counter Strike.

    La pura qualità grafica di un gioco interessa sempre meno. Da una parte ci sono i giocatori non incalliti che però oggi possono sfogare le loro voglie videoludiche in tanti altri modi che spendendo 50 euro per un gioco per l’Xbox, dall’altra gli hardcore gamer che cercano innovazione nel gameplay (sempre più rara) più che grafica fotorealistica.

    Attualmente il futuro delle console è un grosso punto interrogativo. La Microsoft spinge sul Kinect, dichiarando che con il Kinect si è di fatto aperta una nuova generazione di console a Redmond, senza dover cambiare hardware. La Sony brancola sempre di più nel buio. Si sta cercando una strada perché gli utenti possano tornare a dire “wow”, come succedeva ammirando la grafica di una nuova console fino a qualche anno fa. Ma quale sia quella giusta mi pare non l’abbia ancora capito nessuno.

    Investire in un progetto economicamente pesantissimo, come la progettazione e il lancio di una nuova console, senza alcuna certezza, sarebbe folle. Fanno bene ad aspettare.

  • # 6
    Alessandro
     scrive: 

    La mia speranza si avvicina a qualcosa del genere:

    CPU:
    -i5 32nm, 4 core (con HT), sui 3Ghz
    -HD 6870 a 28 nm magari occata (dovrebbe essere economica ed efficiente, con 2 GB dedicati
    -2 GB di sistema (per una console con 2GB dedicati alla grafica,, potrebbero anche essere sufficienti).
    -Una versione adattata di una GPU di fascia medio-bassa per la fisica: se si tolgono tutte le cose non necessarie e si tiene solo la GPU e poco altro, dovrebbe essere relativamente economica.

    Ovviamente non mi riferisco ai componenti che mi aspetto necessariamente di trovare, ma alla equivalente potenza espressa.

    Questo, il prossimo anno, sarebbe un pc da poche centinaia di euro (facciamo 400?). Non mi stupirebbe se con le partnership giuste e i vari contratti all’ingrosso, nonche’ togliendo tutto quello che non serve, s riuscisse a calare il prezzo sui 300.

    E credo che ci si potrebbe far girare qualsiasi cosa, con l’ottimizzazione per cui le console sono famose :-)

  • # 7
    Ago72
     scrive: 

    Condivido in pieno il pensiero di Enrico. la potenza elaborativa non rivestirà più l’importanza di una volta. Aspetti come la fruizione di contenuti streaming saranno sempre più centrali. Inoltre non và dimenticato che Google si sta affacciando nuovamente sul mercato delle TV con la Google TV, usando come kill app Android. POtrebbe essere un quarto aggueritissimo player nel modo dell’intrattenimento domestico e con Android porterebbe in dote centinaia di giochi per casual e non solo… (le indiscrezioni dicono che Apple sta percorrendo la stessa strada).

  • # 8
    ncc2000
     scrive: 

    …io mi auguro che, almeno per quanto riguarda il “720”, il lavoro di sviluppo sia portato avanti dallo stesso team del 360, prodotto rivelatosi relativamente economico e comunque potente. Fu una bella simbiosi tra uomini microsoft, sviluppatori di videogiochi (unreal engine…), ingegneri ati (splendida la scelta di utilizzare una piattaforma che sarebbe stata disponibile, per contratto, un anno dopo sul pc, garantendo prestazioni all’avanguardia per il periodo, e onorevolissime per gli anni seguenti). Non dimentichiamo poi, anche se la sanno in pochi, che in tutto questo brain storming c’erano anche elementi del team che creo’ L’Amiga, l’atari lynx, ed il 3do. E quindi, dopo questo lunghetto preambolo, cosa mi aspetto che facciano? Di nuovo una macchina non necessariamente costosissima, memoria condivisa (scelta vincente)…credo 4 giga/6 giga…veloce (gddr5), ma con bus economico, 128 bit. Di nuovo una gpu con esclusiva temporale (nel senso che nonostante le speculazioni, che trovo personalmente ridicole di utilizzare una gpu ati serie 6xxx, presumo che addirittura la nuovissima gpu “thaiti” sarebbe da considerare “obsoleta”) piuttosto prestante e con un corposo quantitativo di dram (oppure, e sarebbe addirittura piu’ economico secondo me, gpu piu’ lente e meno all’avanguardia, ma accoppiate in sli). Cpu, anche in questo caso due possibilità: confermare la architettura attuale, migliorandola in trhead, efficienza e velocità, o affiancare in multicore processori (o arm o parenti stretti dell’attuale) piu’ lenti ma, singolarmente, molto piu’ economici. Sku differenti, la cui piu’ economica addirittura senza lettore dischi. Ed, ahimè, trasformatore esterno…magari piu’ piccolo pero’… Ovviamente, massima attenzione alle richieste dei programmatori di videogiochi.

  • # 9
    Mede
     scrive: 

    mah, per me apparte i proclami dovrebbero dimensionare la potenza a ciò che vogliono ottenere. devono pensare ad un supporto per il full hd con almeno filtri minimi AA o quant’altro. ovviamente risoluzione di texture un po’ aggiornata ma senza strafare, la ram costa troppo. dopodichè hanno la nuova console (che farà sbavare chi sta usando quelle attuali) ma la devono pensare per un prezzo più basso possibile. se non è possibile stare nei 400 euro con un hardware del genere è meglio se non escono proprio.

  • # 10
    phabio76
     scrive: 

    Le prossime console…
    Hardare a parte, saranno in ogni caso dispositivi dedicati che si andranno a scontrare con TV di nuova generazione (iTV?) che integreranno OS, store online, casual game a go go, smartphone usati come remote control, ecc ecc
    Vedo insomma un forte ridimensionamento.
    E se Nintendo dovesse fare flop diventerebbe una preda ambita per qualche altro colosso con abbondante liquidità.

  • # 11
    Antonio Barba
     scrive: 

    @phabio76: secondo me chi ci perde parecchio è Nintendo, perchè ha puntato molto sui casual gamers.
    Il parco giochi PS3 e X360 offre molto poco ai casual gamers (anche se Kinect potrebbe ribaltare le cose nel medio termine) e si basa soprattutto su una fascia di giocatori molto più esigenti.
    Gli smartphone, tablet, smart tv, ecc… rubano tantissimo mercato al casual gaming ma sono del tutto “trasparenti” ai giocatori hard-core.

    Se qualcuno dovesse mettere le mani su Nintendo potremmo dire addio alla qualità di Mario & Zelda.

  • # 12
    Ago72
     scrive: 

    @Antonio Barba,

    Io credo che anche “…gli hardcore gamer che cercano innovazione nel gameplay (sempre più rara) più che grafica fotorealistica.” potrebberò essere invogliati a giochichiare con la TV, tanto la prima dose (lite) è gratis, e la seconda costa poco. Percui non è scontato che le TV possano in parte sovrapporsi alle consolle. Inoltre per Android e iOS giochi FPS e similari ci sono già.
    Questo non vuol dire che le console “next-gen” spariranno, solo che il loro mercato potrebbe essere eroso. Potrei fare un esempio, ma scatenerei un putiferio ;)

  • # 13
    Cesare Di Mauro (Autore del post)
     scrive: 

    Non credo molto nelle TV. Tra l’altro Android è talmente frammentato già nel mobile, che non oso immaginare cosa succederebbe sulle TV per i giochi.

    Le console hanno successo non soltanto perché sono più semplici da gestire per l’utenza domestica, ma anche perché gli sviluppatori hanno un solo hardware, fisso, sul quale spalmare i costi di ricerca & sviluppo nell’arco di un periodo molto lungo (5-6 anni fino all’uscita della prossima generazione, ma comunque anche dopo i giochi continuano a uscire; vedi PS2).

    @Dario S.: la PS2 contiene il solo processore, che funziona anche coi giochi nuovi (viene usato per gestire l’I/O), ma il resto viene emulato.

    @Enrico Pascucci: le CPU Intel hanno un mercato diverso e non devono rispecchiare linearmente l’andamento della tecnologia. Infatti i sistemi più venduti ancora oggi hanno 2 o massimo 4 core, e un numero maggiore lo si trova in quelli “entusiast”.

    Riguardo alla grafica, le vendite degli ultimi giochi per PC testimoniano che la ricerca di una maggior qualità non è certo finita. Battlefield 3 ha imperniato buona parte della sua campagna proprio su quest’aspetto e ha venduto tantissimo.

    Sul resto concordo: la Wii ha sparigliato le carte e oggi non si cerca soltanto l’hardware pompato, ma anche controller più semplici da usare.

    Rinunciare all’hardware comunque non è plausibile. Il “colpaccio” è riuscito con la Wii, ma adesso anche Nintendo si deve muovere.

    Penso sia fuor di dubbio che le prossime console debbano garantire il FullHD a 60fps (contro i 30fps a 720p di oggi; quando ci si arriva, e tante volte senza filtri AA) e il 3D (che tra l’altro è già stato anticipato in questa generazione).

    Con un hardware “allineato alla tecnologia” tutto ciò sarebbe possibile. Bisogna vedere se la crisi che perdura da quasi 4 anni ormai non abbia contribuito a tirare un po’ i remi in barca.

  • # 14
    Cesare Di Mauro (Autore del post)
     scrive: 

    A testimonianza di quanto detto: http://www.gamemag.it/news/risultati-finanziari-ea-fifa-12-e-battlefield-3-a-quota-10-milioni-di-acquisti_40567.html

    Battlefield 3 ha superato le 10 milioni di copie.

    Se consideriamo che molte di queste arrivano proprio dalle console, direi che le aspettative degli utenti per i giochi con engine sempre più sofisticati ci sono e continueranno a esserci e ad avere mercato.

  • # 15
    Luca
     scrive: 

    Dai vari post in giro per la rete e per le dichiarazioni rilasciate da “addetti ai lavori” la console che sembra sia destinata a presentare maggiori novità in ambito tecnologico è la PS Vita della Sony

  • # 16
    batroberto
     scrive: 

    mah, per me la xbox nuova sarà una delusione per chi si aspetta più di 2gb di ram unificata…

    quand’è uscita la 360 avere 1gb di ram era la norma, eppure ha 512mb di ram.

    io spero tantissimo che abbia 4gb di ram UMA, disco rigido obbligatorio, processore 6core + HT a 3 ghz, scheda video di generazione successiva a quella dei pc del 2012 E la xcpu+xgpu dentro a gestire ia + fisica + retrocompatibilità…

    ma la realtà è che le fanno al risparmio… (tra l’altro c’è da considerare che dentro dovrebbe esserci kinect2 in bundle, altri 100€ di roba… )

  • # 17
    Alex
     scrive: 

    Dal mio punto di vista le console stanno diventando dei PC con la differenza che invecchia molto più lentamente. Il punto sostanziale oggi sono gli ambienti di sviluppo. Non è possibile continuare a sviluppare giochi con tempi biblici che poi si traducono in costi enormi per gli utenti finali. Bisogna puntare ad uno sviluppo rapido di giochi per cercare di ridurre i costi. Utilizzare forme di sviluppo con pubblicità od a puntate. Non ha senso avere un botto di hardware e poi dover attendere 4/5 anni per vedere un gioco degno di girare su una console di ultima generazione. A questo punto meglio un PC che in maniera inesorabile riesce sempre a farci vedere il meglio della tecnologia hardware/software dei videogiochi.

    Quindi il mio appello è puntate sul software e meno sull’hardware (che lo comprano solo i fessi).

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.