Durante la Game Developer Conference di Marzo 2009 è stato presentato al pubblico il progetto OnLive che potrebbe diventare nel prossimo futuro un nuovo standard di gioco e di distribuzione. L’OnLive si compone di uno scatolotto prontamente denominato “micro-console” con pochissime connessioni: una ethernet, un sistema di connessione per TV, una connessione S/PDIF, 2 USB e alimentazione oltre che bluetooth e wireless per pad e headset.
La tecnologia base di OnLive si basa sul cloud computing: lo scatolotto si occupa di stabilire una connessione con un server eseguendo una applicazione in remoto e facendo da tramite per input e output.
Allo stato pratico l’utente finale dovrà solo da abbonarsi al servizio, accendere la console, scegliere il gioco fra migliaia e semplicemente giocare, compatibilmente con il tipo di abbonamento che avrà scelto. Questo tipo di sistema elimina la maggior parte dei problemi che un utente medio si trova a dover affrontare: aggiornamenti, hardware adeguato e tutti i problemi connessi alla gestione di un sistema operativo che tutti ben conosciamo e che normalmente l’utente preferisce non avere.
Le caratteristiche del servizio permetteranno, a detta del presentatore, di poter giocare tranquillamente in una delle due 2 modalità di risoluzione a seconda della connessione disponibile per l’utente: una da 1.5 Mbit per una definizione standard e una da 5 Mbit per una 720p mantenendo una circa 60 FPS stabili.
L’infrastruttura dovrebbe essere organizzata in modo da assegnare una GPU intera di un server per i giochi più pesanti, mentre, nel caso il gioco lanciato abbia meno richieste hardware, la stessa GPU potrà essere utilizzata da più applicazioni contemporaneamente.
I dubbi su come possa effettivamente funzionare una tecnologia di questo genere sono molti in quanto, specialmente nei videogiochi multiplayer dove i riflessi la fanno da padrone, la latenza dovrebbe aumentare moltissimo a causa della dalla trasmissione del video HD e dal server aggiuntivo di OnLive presente nel percorso. Proprio per questo motivo una delle limitazioni del servizio sarà la necessità di connettersi al server in modo che la distanza dal client al server sia inferiore alle 1000 miglia
Si può dedurre da ciò che in ogni nazione dovranno necessariamente esistere una moltitudine di server OnLive per accogliere le connessioni degli utenti per poter dare loro una latenza accettabile.
Per ora il lancio ufficiale della micro-console è prevista per fine 2009 in USA con un prezzo non ancora definito ma a detta del CEO Steve Perlman il costo dell’ “intera apparecchiatura compresa di abbonamento sarà inferiore al prezzo della console più economica presente sul mercato”.
Quindi si profila all’orizzonte un altro concorrente per il mercato PC e console anche a causa del fiorire di altri sistemi simili ad OnLive come Gaikai, Otoy etc. Ma se da un lato i produttori hardware potrebbero incominciare a preoccuparsi dall’altra parte tutti i maggiori publisher e sviluppatori sembrano essere molto interessati a questo genere di sistema di distribuzione online: Steam negli ultimi tempi è diventato quasi un fenomeno siglando accordi con grandi produttori e distribuendo centinaia e centinaia di giochi.
Alla stessa maniera la lista di partners di OnLive è sostanziosa: EA, Ubisoft, Take-Two, Warner Bros, Eidos e molti altri.
I due probabili motivi principali dell’interessamento di queste aziende per questo sistema sono presto detti: costi di distribuzione annullati (o quasi) e pirateria resa impotente (immaginando la disponibilità di un gioco solo su OnLive o simili) in quanto l’utente finale non avrà alcun accesso ai dati dell’applicazione.
Sono entusiasto da questa tecnologia, l’ho vista alla presentazione e non vedo l’ora di poterci mettere le mani sopra!
Io ancora non capisco una cosa: com’è possibile trasferire i frame di un gioco renderizzati in realtime, a 720p e (addirittura!) 60 fps con solo 5 mbit?
Cioè facendo 2 calcoli, anche ammettendo che ogni frame venga compresso con una compressione lossy al 70% (e sai che schifo di immagine che ne viene fuori) e con rendering a 16 bit, abbiamo:
frame non compresso = 1280x720x2=1843200 byte=1.75 MByte
frame compresso al 70% = 1.75 MByte x 0.7= 0.525 MByte
0.525 MByte x 60 fps = 31.5 MBYTE/s
Ora:
1) O dico ca**te e sbaglio qualcosa nel ragionamento
2) O hanno trovato un qualche algoritmo di compressione interframe per videogames (o.O) di cui ignoro l’esistenza
3) O i server non renderizzano tutto, ma solo una parte e il resto è demandato al dispositivo locale (il che introduce dei limiti hw anche qua, in funzione di quanto effettivamente fa il dispositivo locale)
4) O è una vaccata pazzesca
vedremo in futuro quale di queste ipotesi è quella corretta :)
Tra parentesi aggiungo che con 2 byte per pixel ho fatto un’assunzione semplicistica, quindi il calcolo per frame è ampiamente sottostimato.
@ The3D
La seconda che hai detto :)
A custom-built silicon chip designed by OnLive does the actual encoding calculations at the server end, as well as the decompression at the gamer end, inside a cheap hardware add-on.
Mr Perlman said it had taken “tens of thousand” of man hours to develop the algorithm.
da http://news.bbc.co.uk/2/hi/technology/7976206.stm
Una domanda che con il post non c’entra alcunchè…
Come guadagnate dalla pubblicità?
Pay per clic?
Volendo esprimervi un po’ di gratitutine per il lavoro che fate (senza però usare soldini miei, ché ne ho già pochi) posso cliccare sulle pubblicità presenti nel sito. Serve a qualcosa?
Ciao
Enzo
Ecco, almeno c’ho preso tra le ipotesi plausibili :D
ora però sarei veramente curioso di capire come funziona quell’algoritmo, xkè a differenza di un video che è già bello e pronto non si possono definire dei keyframes di riferimento (a meno di non prevedere il futuro). E inoltre deve essere VERAMENTE efficiente per tirare giu quei 31.5 MByte/s (ampiamente sottostimati,e per cui non consideriamo la banda occupata da eventuale gaming online e dall’invio dei comandi) e portarli fino ad un misero 5 Mbps (insomma, deve essere ai livelli degli algoritmi di compressione video attuali). Chi vivrà vedrà, personalmente rimango molto molto scettico che una soluzione del genere possa funzionare.
Beh c’è da ben sperare… il CEO è Steve Perlman, una delle menti alla base di quicktime e di Web TV/MSN TV
http://en.wikipedia.org/wiki/Steve_Perlman
@The3D
Beh… a parte che ti hanno già risposto, ma cmq parti da altre considerazioni: un video (tutto compreso, anche audio e sottotitoli) in DVD ha una banda passante di massimo 1350 kilobyte/s, che equivalgono a 10,8 Megabit/s. Il formato 720p ha un’area 2,22 volte quella di un DVD e il frame rate proposto è 2,4 volte quello di un DVD. Quindi 5,328 superiore, utilizzando un algoritmo MPEG2 e perciò arriviamo a 57,54 Megabit/s, ossia 7,2 Megabyte/s. I conti così fatti sarebbero già migliori rispetto ai tuoi, ma rimane che evidentemente hanno sviluppato qualche algoritmo più fico rispetto a questi soliti :)
P.S. 5 Mbit/s però li vorranno reali, non solo teorici :) Ed è già un pochetto più difficile!!
si con le adsl ci vorrà un 20 mega perchè con la 7 fischieremo…
Ancora???
Proprio della seria a volte ritornano :D.
Speriamo che questo abbia più futuro dei suoi predecessori.
Ma il problema non è il flusso video, magari non basteranno 5 megabit ma con 10 saremo a posto. Il problema è la LATENZA…
E non parliamo di qualità del servizio, se mi rallenta la rete mentre navigo chi se ne frega ma se sto giocando perdo la partita. Come fara Onlive a garantire la qualità del servizio su connessioni che non sono sue?
“Beh… a parte che ti hanno già risposto, ma cmq parti da altre considerazioni: un video (tutto compreso, anche audio e sottotitoli) in DVD ha una banda passante di massimo 1350 kilobyte/s, che equivalgono a 10,8 Megabit/s. Il formato 720p ha un’area 2,22 volte quella di un DVD e il frame rate proposto è 2,4 volte quello di un DVD. Quindi 5,328 superiore, utilizzando un algoritmo MPEG2 e perciò arriviamo a 57,54 Megabit/s, ossia 7,2 Megabyte/s.”
Si ma un DVD è già compresso (MPEG-2). Ed è compresso a quei livelli perchè puoi applicare algoritmi di compressione interframe molto efficienti. Non puoi fare un paragone con 60 frames generati dinamicamente da una GPU. Parti da dati raw e generati in realtime. In realtà le stime che ho fatto dovrebbero essere valide, a meno che non faccia qualche errore banale nel ragionamento. E in linea di principio non puoi applicare un algoritmo di compressione come mpeg 2 a frames generati in realtime (cosa diversa da una traccia video già registrata). Per fare un paragone valido dovresti partire da un filmato AVI raw non compresso, vedresti che la dimensione per secondo di video è molto + alta.
Guardate che e’ gia uscito qualche prototipo funzionante del genere in Russia e guarda caso indovinate chi sta comprando tutto il progetto …….
beh l’idea fa gola
@ Enzoui
Ciao, come Hardware Upgrade viviamo di sola pubblicità. I click per “gratitudine” sono tuttavia considerati fraudolenti, per cui ti consiglio di cliccare solo su quel che t’interessa davvero.
Grazie comunque
Sega MegaCD.. Nuon.. Indrema.. Wonderswan.. la lista delle console miseramente fallite sul nascere è lunga; aggiungiamoci pure questa OnLive e amen.
mega cd non la considero una console utopica, tanto che ce ne sono in giro qualche milione di pezzi.
wonderswan era solo una gran figata che riuniva megace e megadrive, ma chiaramente uscita solo in giappone ad un costo proibitivo.
nuon e indrema non sono mai uscite, come probabilmente sta cavolata di qui sopra
per rendere appetibile una cosa del genere, la dovevano fare con il controller del wii quando non esisteva il wii. e incominciare a buttare li giochini semplici con risoluzioni ridicole, che penso sia il massimo che puoi fare con la banda da queste parti. a meno di non fare infrastrutture incredibili non vedo come possa funzionare. ben diverso il discorso per altri applicativi che non siano critici come il gaming.
magari la realtà americana per la banda e internet è diversa da quella italiana :)
Oramai in america se hai una adsl e non una fibra non sei nessuno… si fa per dire naturalmente…
ho capito ma i costi della fibra come fanno a competere con una console che costa 200 – 300 euro? senza contare che questa cosa non è certo gratuita e nemmeno i giochi anche se probabilmente costeranno meno tagliando la distribuzione, da un altro lato chi realizza il tutto deve mettere su un’infrastruttura non indifferente, e il problema della latenza, cruciale nei videogiochi, non so se si risolve con la fibra sinceramente… mi sa che il computer server deve essere comunque abbastanza vicino. teniamo conto che attualmente le console sono distribuite praticamente in tutto il mondo (anche se c’è qualche buco) con questa roba puoi coprire una porzione molto bassa in confronto. io non ci investirei sinceramente.