La valigia del videogamer torna finalmente su questi schermi dopo mesi di assenza.
Purtroppo e per fortuna i mesi milanesi sono stati e saranno intensi ma vi assicuro che siete sempre stati nei miei pensieri.
Ci sono ancora molti fronti aperti: il Giappone, titoli che hanno fatto la storia di questo settore, curiosità, vostre richieste da esaudire.
Ed a tempo debito verranno trattati e chiusi. Parola di lupetto.
Ma quest’oggi vorrei riflettere su quel che il mercato ci propone e soprattutto potrà offrirci negli anni venturi.
Credo che nessun appassionato, più o meno competente, si sia sottratto al totoscommesse di questi ultimi mesi.
Tantomeno i ragazzi di AD.
L’argomento era però talmente vasto da rendere difficile la scelta stessa di un titolo appropriato.
Anche perché, voi mi insegnate, il titolo è la frase più importante, ancor più nel Web dove assume la valenza di meta tag.
Cercando tra le varie fonti ho recuperato un post di due anni e mezzo fa, edito proprio su Appunti Digitali.
Forse qualcuno se lo ricorda, ma sostanzialmente criticava tutto l’esasperato hype commerciale racchiuso dalla parola “next-gen”, usata, impropriamente o meno, per rappresentare uno stacco netto tra l’attuale generazione di console e videogiochi comparata a quella precedente.
Fermo restando che non esista né credo esisterà mai una definizione univoca, dovremmo anche cercare di capire se si possa parlare realmente di evoluzione o rivoluzione. E se questo valga per tutti gli attori dell’industry.
Ci torneremo, magari sulla scia di qualche vostro spunto interessante.
Ma ora, ora che stiamo vivendo questa fantomatica “next-gen”, dopo aver visto evolvere molteplici scenari quali il bruco Wii conquistare la fetta principale del mercato, la Sony riguadagnare consensi per perdere parzialmente la faccia con il disastro PSN, a 6 anni dall’entrata ufficiale con la 360 di questa ultima generazione, cosa dobbiamo aspettarci?
La chiameremo “next next-gen”?
E quali saranno i prodotti su cui muoveremo le nostre frenetiche dita di videogiocatori?
Partiamo dalle certezze. Nintendo ci ha insegnato che non esiste un normotipo di acquirente, ne esistono molteplici, molto diversi tra loro. E più si è in grado di allargare questo spettro, più un prodotto può raccogliere consensi. Il successo, inaspettato, insospettabile per direi la quasi totalità degli addetti ai lavori (tranne la stessa casa giapponese) ne è stata la riprova.
Un’architettura partorita già obsoleta quando calcò il palco commerciale nel 2007, in grado di surclassare in termini di vendite sia Sony sia Microsoft.
Scelta che non solo ha pagato in termini di numeri assoluti ma anche perché, ribaltando il business model al quale eravamo abituati, ogni unità venduta non rappresentava un piccolo/grande segno meno nella contabilità da dover rimpinguare con il sistema delle royalty.
La filosofia della grande N intrapresa dalla visionaria mente di Gunpei Yokoi è diventata lo strumento con il quale attrarre il potenziale acquirente, più o meno esigente.
Come il Gameboy seppe surclassare Lynx e Game Gear, così, anche se con proporzioni differenti, Wii ha saputo stupire PS3 e 360.
La “user experience” è quindi posta al centro dei pensieri degli sviluppatori odierni.
D’altra parte, il gioco della minestra riscaldata non può sempre funzionare e per convincere le software house dedite soprattutto al PC gaming occorre proporre un progetto al passo coi tempi.
E’ il momento di tirare fuori l’arrosto.
E’, o meglio verrà, il turno della Wii U.
[youtube QzaRme9vPpA]
La presentazione, senz’altro affascinante, ha avuto il compito anche di compensare l’accoglienza piuttosto fredda avuta nei confronti del 3DS. Il prezzo alto di vendita certo non ha controbuito, ma di contro per esempio, la PS Vita ha suscitato molto interesse.
Nintendo si è accorta di avere commesso qualche errore nella strategia commerciale e memore degli errori commessi in passato anche dai propri avversari non ha perso tempo per tenere alta la tensione e catalizzare l’attenzione dei media.
In questo senso vanno anche interpretate le varie voci, molto reclamizzate, sull’interesse da parte di Bethesda, Valve ed altri devteam che si aspettano prestazioni adeguate per poter effettuare porting o proporre titoli ex novo sulla nuova piattaforma.
I nodi architetturali devono essere ancora sciolti anche se si rincorrono insistenti voci sull’adozione.
Ma come San Tommaso, finché non vediamo non crediamo. E quindi i numeri sparati nel mucchio non ci impressionano particolarmente (“il doppio più potente della PS3”).
Esaurito il fronte della “lepre”, passiamo a chi attualmente insegue.
Microsoft ha dimostrato con le sue scelte architetturali di facilitare il compito agli sviluppatori beneficiandone quasi fin da subito.
Non è un caso che i titoli multipiattaforma abbiano quasi sempre avuto una resa migliore proprio sull’Xbox 360.
Mediamente il ciclo di vita di una console si attesta sui 5-6 anni, anche se la storia è piena di negative e positive eccezioni. Ricordiamo le primissime uscite della quinta generazione con le sfortunate e poco lungimiranti Amiga CD32 o 3DO, contrastate da successi interplanetari come la PSX o la successiva PS2.
Lo stesso Neo Geo, seppur rappresentando un unicum sfugge a questa regola non scritta.
Certamente il settore è cambiato, il business model è diventato molto più complesso e le fonti di revenue aumentate così come il parco giocatori.
Ma è aumentato anche il costo di progettazione, quello per lo sviluppo di ogni singolo titolo e quindi anche il rischio di prendere una cantonata vale cifre decisamente più alte dei tempi in cui SEGA e Nintendo si contendevano il mercato.
Ormai molti parlano apertamente di crisi, soprattutto di idee, come aveva denunciato in tempi non sospetti Hideo Kojima.
Prende quindi il largo il settore mobile perché può attingere ad una base complessivamente molto più significativa rappresentata dai cellulari di fascia alta o smartphone che a dir si voglia.
Ma anche su questo aspetto torneremo nel prossimo futuro.
Microsoft ha quindi tutto l’interesse a prolungare fin quanto possibile la presenza sul mercato della 360, che ormai non viene più venduta in perdita dal 2009.
Lo stesso Kinect, va visto anche in quest’ottica.
D’altra parte, se computazionalmente non è possibile generare un output nativo di 1080p nei videogiochi “tradizionali” (mantenendo un framerate accettabile), a maggior ragione è impossibile farlo mettendo in campo il sistema di riconoscimento dei movimenti/suoni proposto dal Kinect stesso.
L’esperienza utente viene arricchita ma sia il produttore HW (Microsoft), sia i publisher che le software house sono ben consci della necessità di porre le basi per la generazione futura.
A mio modo di vedere, credo che per sfruttare davvero il sistema di puntamento coniugandolo con il FullHD e la visualizzazione 3D nemmeno il prossimo step sarà sufficiente.
Se dovessi scommettere su una data direi non prima del 2020 o giù di lì, quando assisteremo all’uscita della nona generazione di console.
Per Microsoft vi è un altro nodo da sciogliere.
Il DVD dual layer sta diventando ormai un contenitore troppo limitante per la capienza dei contenuti che vorrebbero essere veicolati.
E nel giro di due anni, nonostante il servizio Live sia ormai una certezza, le connessioni ad alta velocità non potranno ancora sostituire completamente il buon vecchio supporto ottico.
Insomma, digital delivery sì ma con parsimonia.
Quindi? Affondato l’HD-DVD, rimarrebbe il Blu-Ray la cui adozione però significherebbe regalare royalty per ogni copia del gioco venduto al competitor Sony.
Ci sarebbero le ventilate ipotesi dell’HVD ed affini ma restano ancora progetti su carta, al momento lontane dal diventare prodotto-scaffale.
Restiamo anche in questo caso alla porta curiosi di vedere le strategie commerciali, per ora abbastanza taciturne della Microsoft.
Ci sono voluti ben due anni per avere la prima killer application su PS3.
Il costo spropositato dei componenti ha generato inizialmente una perdita secca per console di 300$.
Il break-even del guadagno sulla parte hardware (senza conteggiare gli investimenti nel marketing, packaging e via discorrendo) è stato raggiunto solo dopo 4 anni, nel giugno 2010.
Howard Stringer, CEO Sony, si era perfino spinto a definire irrecuperabile l’iniziale passivo generato.
Le iniziali perplessità sul poco bilanciamento tra comparto grafico e comparto CPU restano ancora in parte irrisolte, così come l’adozione del Cell, gli ingenti investimenti nella progettazione e rilascio (presente sì nell’ambito del supercomputing ma certo non nei sistemi desktop, come avrebbe dovuto insegnare il fallimento Itanium) risultano ancora un grande rebus.
D’altra parte, abbandonare questa strada intrapresa significherebbe un vero e proprio bagno di sangue economico come avevano ben sottolineato Cesare Di Mauro e recentemente Fabio Bonomo.
Più percorribile la strada di un aggiornamento della GPU, probabilmente ancora Nvidia in virtù dei precedenti accordi commerciali presi e magari un po’ di “steroidi” proprio per la CPU, aumentando la RAM del sistema e le specifiche di ogni singola SPE.
Nonostante alcuni rumor di dubbia provenienza su un fornitore taiwanese avrebbe ventilato la fornitura e produzione di unità PS4 entro 6 mesi, non vedo la praticabilità di questa ipotesi.
Sony ha impiegato notevoli sforzi, perdendo la leadership sul mercato ma almeno rendendo la PS3 un prodotto “established“ nell’immaginario collettivo.
Gli utenti sarebbero disposti a reinvestire i propri danari per un ennesima piattaforma? E’ tutto da vedere.
Inoltre, di solito, si tende a rimpiazzare la generazione precedente quando il break-even è stato ottenuto durante la seconda parte del ciclo di vita: una seconda parte che deve essere più duratura della prima.
In parole povere, dismettere un prodotto e reinvestire sul nuovo quando si è cominciato a guadagnare da relativamente poco sul vecchio non ha commercialmente molto senso, a meno che non sia strategia per aggredire un mercato in cui un’azienda non era finora impegnata: vedere l’esempio della prima Xbox.
Sony tra l’altro ha dovuto fronteggiare un grosso smacco di immagine relativamente al caso dell’attacco subito dal Playstation Network, alias PSN. Seppur addetti ai lavori si siano spesi nella valutazione monetaria, è difficile quantificare il reale impatto economico. Ma con la PS Vita alle porte, siamo sicuri che la Sony sia disposto ad un altro grosso esborso nel giro di un anno, data in cui secondo lo stesso Hardware Upgrade ed altri operatori, dovrebbe entrare in commercio la PS4?
Ne dubito fortemente anche se aspetto smentite.
Sony stessa ha dichiarato negli anni scorsi che questo progetto sarebbe durato una decina d’anni.
Forse dieci no perché gli altri competitor rischierebbero di andare troppo avanti, ma il 2013 o 2014 parrebbero date più verosimili, Maya permettendo.
Ma, se mai si dovessero rimangiare le promesse fatte all’utenza ed alla stampa per abbreviare i tempi, è difficile credere ad una rivoluzione.
Ed in ogni caso, un conto sono dieci anni di presenza sul mercato come unica piattaforma di riferimento, un altro paio di maniche è vederla come trait d’union (e magari retrocompatibilità) con la PS4.
La prima ipotesi, al di là delle più ottimistiche dichiarazioni, sembra altrettanto poco credibile.
Per motivi commerciali, ma non solo, le software house cercano di non inimicarsi troppo i propri partner e così viceversa. E’ altresì chiaro che le potenzialità offerte dall’utilizzo del corpo umano come estensione naturale dei tradizionali sistemi di puntamento richiedono il superamento delle attuali architetture.
Ubisoft è stata piuttosto netta sull’argomento.
La fisica, l’IA, gli storyboard, le tecnologie di riconoscimento facciale (come l’ultimo MotionScan particolarmente apprezzato in L.A. Noire) sono tutti aspetti del gioco in cui c’è ancora molto da lavorare e dove si può investire.
Quando potremo però assistere ad un deciso superamento delle attuali limitazioni?
Gli alti costi di sviluppo e l’eccessiva frammentazione di risorse nel supportare tre pari (almeno sulla carta) concorrenti costringeranno questi ultimi ad una sorta di più o meno tacita convergenza di intenti.
Nintendo, dopo aver puntato decisa sull’esperienza utente deve recuperare il gap prestazionale accumulato.
Mentre Sony e Microsoft dopo essersi scontrate sul piano “multimediale”, devono cercare di convincere i casual gamer a guardarsi intorno e dimostrare che la Wii non è l’unica scelta possibile.
Come sempre, stay tuned, perché ne vedremo certamente delle belle.
beh, come si chiamaera’ la prossima generazione e’ ovvio.
Dopo Next Generation c’e’ Deep Space Nine!!! :D
Per quanto mi riguarda la next gen ci sarà quando le console riusciranno ad avere almeno un output visivo inchiodato sui 1080/60fps e grafica da DirectX 11, e/o 3D con pari caratteristiche per ciascun quadro.
Chiedo troppo? :D
Vabbè, per adesso mi accontento alla grande col 2D pixelloso e nostalgico del MAME..
Come quando hanno dato il nome all’era moderna e alla successiva era contemporanea. Veramente pensiamo all’Ottocento come l’era moderna?
Forse sarebbe il caso di smetterla con questa terminologia di marketing e dare nomi alle cose per quello che sono.
secondo me ci siamo avvicinati ad un punto critico…
per fare un gioco che sbalordisca veramente i giocatori, bisognerebbe avere grafica pari alle produzioni cinematografiche, ma in realtime. Quindi le console dovrebbero essere dei mini cluster con centinaia di semplici cores che elaborino il raytracing in realtime.
Il rovescio della medaglia è che i costi di produzione di un gioco sarebbero così alti da creare una bolla economica molto fragile.
Il gaming sugli smartphone è un esempio di ritorno a piccoli team, piccoli budget, grande rapporto costi/benefici che si addicono a piccole aziende.
I giganti dell’industry potrebbero esplodere come bolle, e in parte lo stanno già facendo con le enormi acquisizioni e il ripiego verso il social gaming e i MMORPG, che servono sostanzialmente a distogliere l’attenzione dai poligoni, e riportarla sul gameplay…
Secondo me i gioconi con grafica da urlo sono in via d’estinzione, perchè stanno sul filo del rasoio della sostenibilità economica.
Basta un (esempio) GTA5 riuscito male per fare fallire un colosso lasciandogli mezzo miliardo di debiti…
Sei un mito :)
E’ da qualche giorno giorno che rifletto su quest’articolo, e non posso che condividere il pensiero espresso.
Purtroppo a causa di diversi fattori (costi troppo elevati per il progetto attuale, basso tie-ratio, budget per la ricerca & sviluppo ridimensionato) non è più realistico pensare a prossime console che, come da tradizione, possano offrire un nuovo punto di riferimento tecnologico col quale confrontarsi.
Probabilmente si assisterà a una rivitalizzazione delle tecnologie attuali, complice il naturale progresso nel campo dei processi produttivi.
Full-HD e 60 fps sono il minimo che mi aspetto, col supporto 3D che rimarrà in forse (per lo meno con un frame rate elevato).
Comunque mi pare ancora troppo presto per affossare le console attuali, specialmente per la PS3, che è riuscita da poco a bilancio positivo (Sony non la vende più in perdita).
Salve salvino,
ho letto quello che la gente crede di volere, NEXT ULTRA HD 3D FULL e parolacce simili, ma la gente non è scema…. se il gioco come trama o gameplay fa schifo non ci gioca! Questo ha ricordato la WII al Mondo.
Cosa accomuna Unreal Tournament – Quake – Hal Life e Starcraft? Questi giochi molto spartani hanno una cosa simpatica in comune… l’editor di livelli! I MOD e le mappe della gente hanno reso immortali questi giochi più di quanto abbia fatto la casa madre!
Che ci vuole poi a mettere un cartellone pubblicitario in una mappa virtuale e guadagnarci qualcosa?
PRIMA si contruisce la trama, gli enigmi, il gameplay…… ad aggiungere pixel Altodefiniti sarà compito del truccatore e addetto agli effetti speciali, ma solo dopo che il gioco risulta divertente.
Detto ciò la console ha preso posto dei PC nel cuore della maggior parte dei giocatori, quindi ora la console sta diventando un pc preconfezionato standard… chi si ricorda quanti core o quanta RAM aveva il Super Nintendo? Nessuno, e a quel tempo giochi indimenticabili da 30 ore occupavano un paio di MB.
Io rivoglio le console a cartucce, con giochi da console come ai bei tempi che furono… per il resto basta e AVANZA il PC, sia come macchina da gioco casual che hardcore (anche qui purtroppo ai bei tempi che furono), sia come hardware, dove non teme rivali come le future console “next next next gen”.
@CHON:
parlando sia da game developer che da giocatore, quoto tutto :-)
x Antonio
“Il gaming sugli smartphone è un esempio di ritorno a piccoli team, piccoli budget, grande rapporto costi/benefici che si addicono a piccole aziende.
I giganti dell’industry potrebbero esplodere come bolle, e in parte lo stanno già facendo con le enormi acquisizioni e il ripiego verso il social gaming e i MMORPG, che servono sostanzialmente a distogliere l’attenzione dai poligoni, e riportarla sul gameplay…”
è esattamente il mio pensiero. Beh tu vivendo l’industry dall’interno e proprio nel mobile puoi avere un’idea ancora più precisa, ma la sensazione da un paio d’anni almeno è che ormai i grossi publisher cerchino di pararsi il fondoschiena con progetti con un titolo già affermato e che possa atterrare sul morbido contando su una solida base di giocatori. Il rischio chiaramente è quello di continuare a tritare il ritrito con saghe ventennali che non riescono a rinnovarsi.
E si parla di crisi, concretamente, perché ci sono alcuni elementi molto simili a quella che colpì il settore nel 1983, fatta le debite proporzioni ovviamente.
il mobile rappresenta un ritorno al passato, piccoli team che devono investire le risorse limitate sul gameplay e su idee magari originali o comunque accattivanti. Il design minimalista ma particolare di Angry Birds ha giocato un ruolo fondamentale.
le software house vedono nei social network una base potenziale enorme su cui poter investire e generare guadagni ed ecco spiegata l’ascesa repentina di Zynga o similari.
Il pay per use in stile WoW si basa sullo stesso fondamento, senza contare che le spese per mantenere una struttura da vecchia filiera sono drammaticamente abbattute. E’ il trionfo in qualche modo anche del digital delivery, per quanto sia ancora una chimera la sostituzione completa del vecchio supporto ottico.
x CHON
è vero una volta ci si concentrava molto sul gameplay e in giro si trovavano una pletora di trame interessanti.
L’aspetto tecnologico però non è mai stato messo così in secondo piano. Forse adesso si è perso l’equilibrio delle priorità ma non dobbiamo lasciare che la contrapposizione naturale tra tecnica e lato creativo ci sia sempre stata.
Io mi ricordo le prime console war ed anche quella volta si parlava di numeri, si disquisiva sui veri/finti 16 bit del Neo Geo, si snocciolavano i Mhz del Mega Drive contrastati dai colori della palette del Super Nintendo ecc. ecc.
Certo resta palese la crisi di idee ed il fatto che almeno sulle piattaforme tradizionali è difficile che un team da “garage” possa tirare fuori un gioco vendibile.
Live ed XNA sono un tentativo di far riconciliare questo approccio amatoriale all’industria dei videogiochi ma il vero terreno di conquista è il mobile.
Esattamente. Quello dell’era d’oro in cui contava soltanto il gameplay è un falso mito, perché l’evoluzione tecnologica ci ha consegnato console con hardware sempre più potente.
Alla luce della storia, il Wii non rappresenta la norma, ma l’eccezione, poiché Nintendo non aveva sufficiente budget da investire in ricerca & sviluppo per la nuova console, e preferì riciclare l’hardware del precedente GameCube.
Sottolineo, quindi, che gameplay e hardware potente NON sono concetti mutuamente esclusivi. Lo diventano solo per la classica favola della volpe e dell’uva, per giustificare l’acquisto di un hardware tecnologicamente scarso pagato, però, a peso d’oro.
Che si chiami Next o Current Gen credo poco importi, alla fine l’hardware utilizzato dalle console per videogiochi è sempre di qualche anno indietro rispetto a quanto possono offrire i PC di fascia media.
Tolta la parentesi Hardware, la futura generazione di console sarà incentrata sull’ottimizzazione e lo sviluppo conclusivo del motion control introdotto da Wii.
Wii U sarà una via di mezzo ed un buon compromesso fra l’attuale e la futura generazione, proponendo un mix fra un sistema di controllo classico, motion ma anche touch. La strada “Wireless” intrapresa da Wii sarà potenziata con lo streaming video direttamente sul nuovo controller, optando anche per nuove possibilità di gioco sia in singolo che in multigiocatore.
L’ipotetica Xbox 720, con possibile presentazione già al prossimo E3, sfrutterà senza ombra di dubbio gli investimenti fatti con la tecnologia di Kinect. Viste le finanze a disposizione è plausibile aspettarsi anche il supporto al blue-ray, così come a Steam.
PS4 immagino farà leva al supporto di Move e non mi stupirebbe vedere la possibilità di sfruttare Vita come controller in stile Wii U… sappiamo tutti come vanno le presentazione Sony. Ad ogni modo non credo differisca poi molto dalle concorrenti, sperando investano di più in software esclusivi o in team first party.
Alla fine credo che vedremo dei prodotti molto simili, un po’ come accaduto all’ epoca di SNES / MB o Gamecube/PS2/Xbox , dove il prezzo generale di HW e SW la faranno da padrone.
Mi auguro solo di poter vedere videogiochi meno multipiattaforma e più esclusivi, ma come dice il buon Jacopo, i costi di produzione sono elevati e le esclusive cominciano ad essere in parte controproducenti.
Al contrario: la storia dimostra che le console hanno portato innovazione, e soltanto dopo il PC è riuscito a raggiungerle e superarle.
bell’articolo.
anche se veramente a questo punto bisogna davvero entrare nella testa di chi si sta occupando del futuro.
dal punto di vista di bilancio di marketing queste console avrebbero davanti ancora io dico poco 3 anni tutti.
Quest’anno su ps3 si va molto forte con calibri di grosso livello e con un mucchio di collection hd…microsoft uguale penso ad halo anniversary forza e i titoli kinect in cantiere.
quindi dal punto di vista commerciale avremmo ancora 3 anni buoni tutto quest’anno di fuoco il prossimo e poi poi? perchè naughty dog dovrà lavorare a qualcosa per i prossimi anni. allora è pensabile che tra 2 anni magari no ma tra 3 il prossimo titolo naughty esca come su psvita come uno dei primi titoli della next gen sony. io per sony dico il prossimo anno per l’e3 non si saprà nulla ma il successore si vedrà tra 2 anni all’e3 per entrare in commercio nell’autunno. Chiudere uncharted 3, resistence e i giochi aperti per i prossimi 2 anni è necessario poi cè anche il lancio di vita e dell’attenzione necessaria che ci vuole. E poi quel che sono certo che visto il giappone e la crisi generali sony uscira nel giro di 6 mesi tra l’annuncio e la nuova console con un prezzo abbordabile come psvita .
Presentare la nuova console microsoft il prossimo anno?
e schiacciare il nuovo halo completamente? sopra l’annuncio della nuova console?e poi chi lo sviluppa il nuovo halo per l’uscita della console l’anno dopo?
il prossimo halo è l’ultimo x360 o il primo per 720? ma di solito un sequel forte che fa perno su una base di utenza enorme come quella di x360 ha più forza nel lanciare un nuovo capitolo direttamente su una nuova console. Considerato anche il fatto che la software house è diversa il passo più prudente è quello di far fidelizzare l’utenza e di farla conoscere per lanciare quindi il sequel con qualità affermata sulla nuova x720 arriverebbe più o meno nel solito periodo di quella sony( non credo che microsoft pubblicherebbe una console senza il suo brand più forte)
Senza contare l’hardware sia ati che nvidia secondo me hanno bisogno di altri 3 anni per poter dare perlomeno delle revisioni ottimizzati di gpu dx 11 parche nei consumi e nei costi ma dalle prestazioni accettabili. si considera come punto di riferimento un gioco come sammaritan o demo tech di cry engine in dx 11 al massimo del dettaglio. Se quello è l’obbiettivo ancora 2 anni di lavoro per l’hardware ci sono e i test e il resto.
io penso che gli altri due facciano come nintendo. nintendo ha gia una console che non vende più e quindi poteva permettersi quanto ha fatto per far vedere che non era morta.
ma sony e microsoft vendono e un annuncio della nuova console bloccherebbe di fatto le vendite. da qui poco tempo ci vuole da quando discono a quando rilasciano
Certo wi u preme alle caviglie ma io penso che inizialmente le software house gli daranno un freno causa clausule legali di equiparabilità di versioni multipiatta sulle console e dev kit.
Al massimo ci potrebbe essere la corsa ad anticipare tutto di 1 anno sperando questa volta di non vedere niente di rosso o di giallo che si accende mentre giochi:P
una cosa è sicuro e concordo un evoluzione di architettura è l’unica strada possibile sia per ps3 che xbox.
con tutto quello che sony ha speso con il cell da pazzi sarebbe non confermarlo potenziandolo rendendolo dual core con due ppe e doppie spe.
Per microsoft invece sono più dubbioso perchè cmq amd con le piattiaforme fusion potrebbe regalare una bella sorpresa. ma sicuramente anche loro alzeranno il clock e aggiungeranno uno o due core aggiuntivi. ma veramente il mio dubbio è la potenza dell’unita di tassellator che se devono avere una sola gpu si dovra alzare di parecchio guardando a un ciclo di vita per console e non per pc