Abbiamo già parlato estesamente di cloud computing su queste pagine e negli ultimi tre articoli che ho scritto (li trovate qui, qui e qui) l’attenzione è stata puntata sugli utenti che fruiscono di questa comoda funzionalità, considerando anche eventuali prospettive future modellate sulle nostre esigenze.
Il concetto è quello demandare a una “nuvola” di computer esterni alcune funzionalità (in particolare è stato trattato lo storage) da espletare per conto nostro. Di quest’aggregato ovviamente non sappiamo nulla: di quanti elementi è costituito, quale sistema operativo utilizza, su che hardware gira. L’unica cosa che conta è che si tratta di entità esterne alle quali siamo collegati, e che svolgono certe mansioni per noi.
Personalmente l’approccio mi ricorda molto l’università dei primi anni ’90, quando in laboratorio avevamo dei terminali sui quali lavoravamo. In realtà si trattava di terminali abbastanza stupidi, in quanto tutti i calcoli venivano effettuati da mainframe Siemens (su cui girava Sinix, una variante Unix della casa tedesca), e i primi si limitavano a inviare i nostri input e ricevere l’output dai secondi.
L’idea, comunque, è che il nostro computer si occupa di spedire ai mainframe (cloud?) alcuni dati, per riceverne poi altri. All’epoca in cui quei mainframe furono progettati e commercializzati tutto ciò aveva senso perché disporre di terminali intelligenti e autonomi significa far lievitare di molto i costi.
Ma un approccio del genere è fattibile ancora oggi? Potremmo disporre di terminali realmente “stupidi” perennemente collegati alla rete e a un cloud a cui demandare proprio tutto, dallo storage ai calcoli più semplici?
Google ha deciso di sposare questo modello, sebbene non integralmente. Il suo Chrome OS girerà su macchine economiche, ma certo non prive di hardware, o comunque il cui unico scopo sia quello di prelevare gli input dell’utente, girarlo al cloud, per poi prelevarne l’output e semplicemente presentarlo all’utente.
Chrome OS richiede comunque hardware sul quale far girare una versione personalizzata di Linux (sebbene ridotta all’osso) sulla quale piazzare sopra un’interfaccia utente minimale e ispirata (o basata?) sul suo browser Chrome. Quindi come minimo serve una CPU con chipset, memoria e GPU, e un’unità di storage su cui memorizzare il codice.
Considerati i servizi di Google che l’utenza verosimilmente utilizzerà (GMail, Google Docs, Picasa, ecc.), ma anche la normalissima navigazione su siti web, l’hardware non può certo essere ridotto al lumicino, sebbene ci si possa affidare a soluzioni economiche basate su Atom o ARM, che dovrebbero essere sufficienti allo scopo.
Sì, l’idea del cloud c’è ed è usata pesantemente, perché demandiamo all’esterno lo storage (cosa non indifferente: ci sono i nostri documenti!), e buona parte della computazione di cui si occupano i server a cui abbiamo effettuato le richieste.
Pensare, quindi, a un modello come quello dei terminali Sinix “stupidi” risulta utopistico ai nostri giorni. Avremo sempre bisogno di hardware da utilizzare per i nostri, e dovrà essere più o meno potente a seconda dell’uso che ne faremo.
D’altra parte se perfino negli smartphone ormai si fa uso di CPU multicore (con tanto di GPU multicore anch’essa!), qualcosa dovrà pur significare. Come pure qualcosa ci dirà il progetto Terascale di Intel (che porterà a CPU, x86 ovviamente, dotate di migliaia di core), e in generale la corsa al multicore che ha investito le CPU negli ultimi anni, ma di cui le GPU hanno fatto da apripista da ben prima (con migliaia di unità “shader” già a disposizione oggi).
Nell’ambito storage la situazione non è molto diversa. La corsa al GB ha già lasciato il posto a quella dei TB, con hard disk sempre più capienti e a buon mercato. Si sono affacciati anche gli SSD che offrono prestazioni spettacolari, anche se per adesso a costi elevati e spazio ridotti rispetto ai dischi magnetici. E poi c’è sempre la cara memoria centrale, che si misura già da anni in GB, anche sulle macchine più economiche…
In definitiva, l’hardware c’è: è più o meno potente e più o meno economico, ma nei computer che compreremo anche in futuro certamente non è destinato a sparire. Semmai ad offrirci sempre di più a prezzi inferiori o, al limite, allo stesso prezzo.
Ma di questo hardware cosa ce ne facciamo? Penso che per buona parte del tempo se ne stia lì a girarsi i pollici, aspettando di essere utilizzato. Il task manager (o gestione attività che dir si voglia) lo conferma: la CPU raramente supera la soglia del 10%, e la memoria è utilizzata per il 25% circa. Non c’è un indicatore dell’uso della GPU, ma penso si starà stancata di visualizzare sempre la stessa grafica, con occasionali aggiornamenti. E la rete, beh, quella è sempre connessa a internet.
Non penso che uno scenario del genere sia più unico che raro. Anzi, penso sia ragionevole ipotizzare che sia piuttosto comune.
Questo non significa che il computer verrà usato sempre allo stesso modo: ci saranno i momenti in cui girerà a pieno carico, ma l’uso “regolare”, quotidiano, è piuttosto limitato.
A conti fatti abbiamo una rete enorme di computer collegati, con tantissime risorse a disposizione che, però, vengono sfruttate ben poco. Anzi, mediamente sono di gran lunga non utilizzate, e… aspettano di essere impiegate.
Cosa succederebbe se questa mole di potenza di calcolo e storage venisse, invece, impiegata per altri scopi? Esempi del genere ne esistono già da tempo (Boinc e SETI@home sono i più conosciuti, ma ne esistono diversi altri), e non sarebbe quindi una novità.
Ma immaginiamo un approccio più generale: i nostri computer sono nodi di una grande rete, che utilizzano un protocollo ben definito per permetterne l’utilizzo come storage e/o strumento di calcolo, ovviamente sotto il nostro diretto controllo (siamo noi a decidere quanto spazio, CPU, memoria, e GPU far utilizzare; e quando).
Potremmo decidere di noleggiare il nostro hardware in cambio di servizi aggiuntivi, ad esempio. GMail è comodo, ma ci sono appena (!) 7GB di spazio a disposizione. Google potrebbe mettercene a disposizione di più, in cambio di spazio e/o potenza di calcolo che potrebbe sfruttare per i suoi scopi (anche per lo stesso GMail, volendo).
Activision potrebbe regalarci un DLC di Call of Duty, in cambio della possibilità di sfruttare il nostro PC e lo stesso gioco installato sulla nostra macchina per fargli elaborare i fotogrammi che verranno spediti a un computer sul quale il gioco viene utilizzato magari sul browser (che ne visualizza le immagini in streaming).
O, ancora, potremmo lasciare spazio e/o risorse a disposizione della pubblica amministrazione, in modo da ridurre la spesa pubblica e, di conseguenza, le tasse che ogni anno gravano sulle nostre spalle (o, per meglio dire, solo su quelle di chi le paga).
Le applicazioni possibili sono fra le più disparate. Forse è uno scenario un po’ romantico o troppo visionario, ma mi piace pensare che tutto ciò sarebbe possibile in un futuro di “mutua collaborazione” che aiuti a diminuire gli sprechi e i costi (di tutti; anche delle aziende), dando una mano sia al servizio pubblico che alla nostra Terra, la quale non può metterci a disposizioni risorse illimitate…
Cesare l’hai visto Zeitgeist Moving Forward?
No, non ho visto nessuno dei film della serie, anche se ho seguito alcune discussioni in merito.
L’idea che mi sono fatto è che magari alcune cose che dicono potranno anche essere vere, ma non mi posso esprimere perché certi fatti vanno analizzati alla luce di questo: http://www.appuntidigitali.it/15116/uno-sguardo-alle-radici-del-metodo-scientifico/
Questo perché senza mettere al vaglio della scienza ogni singolo fatto, purtroppo si può facilmente dare corda ai complottisti, di cui purtroppo il mondo è sempre più pieno.
Ma ripeto: magari alcune cose saranno vere, eh! Non voglio bocciare il tutto a priori. Semplicemente aspetto quella che in gergo si chiama “peer review” di ciò che viene affermato in quei film. Tutto qui. ;)
Credo che i due limiti principali per poter attuare un simile scenario (che condivido pienamente) sia la banda e i consumi. Da una parte (e parlo per esperienza diretta) le limitazioni nell’upload almeno nel mio caso sono proibitive, potrei offrire una potenza di calcolo bruta abbastanza elevata, ma renderla in tempo reale ciao ciao amici miei. Tuttavia è pur sempre valido l’utilizzo di questo in un contesto che non richieda necessariamente l’invio immediato dei risultati. L’altra gran limitazione deriva da un fattore non del tutto da trascurare, è vero che il mio computer durante la giornata utilizza forse neanche il 10% della CPU, mi chiedo però cosa potrebbe significare avere un computer che lavora costantemente al 100%, di cui pure la scheda video venga fatta lavorare a pieno regime. Ebbene, a conti fatti credo che la bolletta a fine mese potrebbe essere relativamente salata visto che presumo che i consumi non siano del tutto irrisori.
Al di la di questi fattori ciò non toglie che come scenario l’ho immaginato spesso. In particolare quando mi sono dedicato alla modellazione 3D visto che mi ritrovavo spesso a dover attendere delle ore per ottenere un render. A suo tempo avevo persino cercato un qualche progetto in stile BOINC dove, speravo, di trovare persone che condividessero lo stesso grattacapo e che magari avessero creato una “rete” personale. Del tipo che “quando non ho nulla da renderizzare metto a disposizione degli altri il mio PC, quando ho bisogno io queste risorse vengono dedicate a me”. Come se per ogni tot di “forza bruta” concessa ottenessi dei punti da utilizzare qualora necessitassi io ti tali risorse.
Parlo del render, ma potrebbe essere applicato a ben altro, sarebbe davvero un bel scenario, tuttavia la vedo particolarmente male, ahimè. Non ci resta che sognare e far quel che si può con BOINC e progetti simili.
PS: Oltre agli esempi che hai citato, mi verrebbero in mente le scuole, personalmente abbiamo decine di computer che spesso rimangono completamente accesi per 24 ore al giorno a far passare un meraviglioso Screen Saver quando sono sicuro che se si impostassero in modo che dopo tot minuti di inutilizzo, o anche in background, lavorasse tipo BOINC si potrebbe fare la differenza.
Spero prorpio che il cloud abbia uno sviluppo partecipativo e “democratico” come descritto a fine articolo
http://www.wuala.com/ con questo servizio hai a disposizione dello storage online che puoi incrementare mettendo a disposizione parte del tuo HD. (spazio locale in cambio di spazio cloud). Il discorso sulle prestazioni secondo me non ha molto senso considerando i prodotti che ci sono sul mercato attualmente. Si parla di “processori sempre più potenti E che consumano meno” ma andrebbe detto “sempre più potenti O consumano meno”! Sul mio i7 (4 core+HT), lasciandolo tranquillo tranquillo, la batteria nuova durava 3 ore. Mettendo la CPU sotto stress invece… diciamo 30 minuti. Lo stesso vale per gli smartphone. Se usati come telefonini le batterie durano giorni. Se usati come smartphone, ore. Infine, ma questa è un’idea personale, sono totalmente contrario a questa moda del cloud!!! I dati sono miei e me li gestisco io! Ci sono modi molto più intelligenti per gestire i dati piuttosto che impacchettarli e consegnarli in mano ad uno sconosciuto!
Aggiungo che il problema della banda è proprio nel nome della tecnologia utilizzata Adsl… la A sta per Asimmetrico. Grande capacità di ricevere dati, per esempio tutti i possibili contenuti a pagamento, e poca banda in upload per condividere le proprie produzioni!
Per le CPU, Seti@Home per esempio ero riuscito ad installarlo su un centinaio di PC… poi me l’hanno fatto togliere perchè gli utenti si lamentavano che avevano la ventola del raffreddamento sempre accesa!
E’ interessante notare come, a distanza di anni, le stesse (o quasi) soluzioni tornino, ma per ragioni diverse. I mainframe esistevano per una ragione economica, come detto nell’articolo. Oggi potremmo tornare ad un modello simile, ma per motivi energetici: un sistema con hardware ridotto all’osso, in cui il grosso dei calcoli e’ eseguito da una macchina nel cloud, potrebbe consumare molto poco, permettendo di avere dispositivi mobile con una durata di batteria molto maggiore. L’unica questione e’ se serve piu’ energia ad eseguire i calcoli (e ad accedere a memoria e dischi) o a trasmettere i risultati via radio!
Eh eh combinazione lo sto facendo proprio adesso :) stiamo facendo un dimostratore tecnologico in cui quando la GPU deve mostrare sempre la stessa scena, la fa memorizzare in un buffer nel pannello video, e poi sie spegne… cosi’ il monitor continua a mostrare l’immagine anche se la GPU e’ spenta :) poi appena c’e’ una variazione nell’immagine, la GPU si riaccende e riprende ad aggiornare il monitor. Se fatto bene potrebbe risparmiare parecchia energia (GPU spenta, cavo di connessione al monitor “spento”)
ROFL. Ma tu guarda un po’. :D
Onestamente di arrivare proprio a spegnere la GPU non ho mai pensato, ma mi sono sempre chiesto perché non farla girare a frequenza molto bassa, e magari con abilitate soltanto le parti che servono a espletare i compiti “canonici” (fino a un po’ di anni fa c’era solo la sezione 2D; adesso con Aero & co. serve qualche funzionalità aggiuntiva per il “composition” delle immagini del window manager), perché ho sempre pensato che spegnere e riaccendere un dispositivo complesso come una CPU o una GPU comportasse una certa perdita di tempo e, quindi, problemi di reattività (per rispondere ai cambiamenti).
Sono d’accordo con te, e con ciò mi ricollego anche ai commenti precedenti che l’hanno sollevato, che il problema più grosso sul quale si sta spendendo molto anche in ricerca è quello energetico, particolarmente sentito nella nostra società, e questo periodo lo dimostra ancora una volta.
Il cloud potrebbe essere una buona soluzione, o comunque un riduzione di questi problemi, da qualunque parte lo si veda: da quella di un’azienda a cui affidare storage e/o calcoli, oppure il viceversa coi nostri computer a disposizione per realizzare un’enorme rete per lo stesso scopo.
Certamente anche i cloud portano con sé dei problemi, come avete scritto in tanti, ma personalmente penso che possa dare un grosso aiuto (Ovviamente NON rappresenta la soluzione a TUTTI i nostri problemi) e in alcuni casi le soluzioni mi sembrano a portata di mano.
Ad esempio il problema del consumo energetico che aumenta per i nostri PC potrebbe essere risolto facendo lavorare l’hardware al livello minimo. Questo vuol dire che se la CPU al momento sta utilizzando moltiplicatore e voltaggio più bassi, continuerà a farlo anche quando arriverà un lavoro da svolgere dall’esterno. In questo modo anche la ventola rimarrà all’incirca sugli stessi livelli.
Se il lavoro da fare è tanto il cloud nasce apposta per distribuirlo su diverse macchine: un po’ sulla mia, un po’ su quella di un altro, e così via. Siamo quasi 7 miliardi di persone e ormai tantissimi ne hanno almeno uno in casa e magari collegato alla rete. Proprio per questo nasce la mia idea di un enorme cloud che ci colleghi tutti e metta a disposizione quella che è una dotazione hardware ineguagliabile.
Si spendono tanti soldi in supercomputer e se ne progettano di nuovi. Posto che latenza e banda non siano un problema, come già sottolineato nei commenti, se ne potrebbe fare a meno e utilizzare il nostro cloud per gli stessi scopi, alle nostre condizioni (quelle che ho accennato prima): penso che il risparmio sarebbe notevole e in ogni caso la potenza computazionale e/o di storage a disposizione sarebbero eccezionali.
Riguardo allo storage, faccio un appunto a Mirko: sì, i dati sono i nostri, ma col protocollo che ho descritto in questi ultimi articoli continuano a rimanere tali. Perché i dati memorizzati nel cloud sono cifrati a monte, PRIMA di spedirglieli; e viceversa, vengono decifrati non appena tornano nelle nostre mani. Lo stesso si potrebbe fare anche col “world-wide-cloud”. ;)
Riguardo al mobile c’è da dire che i telefonini sono sempre agganciati alle celle e trasmettono informazioni, anche se immagino non siano frequentissime e, soprattutto, che siano minimali.
Non conosco il costo di queste operazioni, e quanto potrebbe incidere un aumento del flusso dei dati per incoraggiare l’uso del cloud, ma un utilizzo mi sembra interessante a motivo delle ridotte dotazioni hardware di questi dispositivi e, soprattutto, dei consumi (che sono una piaga di non poco conto, visto che caricare la batteria è un’operazione tutt’altro che rara, ormai).
Beh power gating e clock gating si usano gia’ in modo massiccio e consentono di risparmiare un sacco di potenza in idle (per darti un’idea, per Kepler2::Mobile stiamo cercando di arrivare ad una potenza in idle intorno al decimo di milliwatt per mm^2, cioe’ l’intero chip consumerebbe pochi milliwatt quando completamente idle, meno di cosi’!); a quel punto il grosso dell’energia e’ consumato dalle macro analogiche che pilotano il display, il DisplayPort credo che arrivi a 5 GHz e tenere un cavo di un metro o piu’ a commutare a quella frequenza per spedire 60 volte al secondo la stessa immagine e’ criminale :)
Come dici, il grosso problema e’ non avere stuttering quando entri-esci dalla modalita’ “GPU disconnessa”. Considera cmq che anche a 60 Hz un frame prende 16 ms, che sono piu’ che sufficienti a risvegliare completamente il chip.
Per il resto: il calcolo distribuito su milioni di PC in rete pero’ e’ un inferno da gestire in modo affidabile, e soprattutto credo che poche applicazioni se ne possano avvantaggiare. Cose come Boinc vanno alla grande perche’ non hanno alcun requisito di latenza, quando il pacchetto di lavoro arriva arriva; ma se devi fornire servizi cloud, la QoS e’ fondamentale, cosi’ come la bassa latenza.
Ammetto che e’ un’idea affascinante, e che pone parecchi problemi non solo tecnici: ad esempio bisognerebbe creare un sistema efficiente e affidabile di micropagamenti e un mercato dove domanda e offerta possano incontrarsi. Ad esempio: io metto sul mercato 10 GB di spazio del mio disco, piu’ 4 core per 100 milioni di cicli di clock al secondo dalle 24 alle 6, quanto mi si paga? :D … non oso pensare a garantire la qualita’ del servizio in uno scnario del genere :)
BTW: un supercomputer massiccio e concentrato non e’ solo piu’ veloce in tutti gli scenari, e’ anche energeticamente piu’ efficiente di una miriade di computer connessi in rete :)
Bellissima discussione!
Però per la Pubblica Amministrazione la vedo dura fare questi discorsi.
Ci sono ancora migliaia di macchine con Windows 2000 e Internet Explorer 6!!!! La cultura informatica dei dipendenti poi, lasciamo perdere.
Per BOINC basta settare i parametri in modo che non occupi completamente la CPU/GPU e così la ventola gira molto di meno. Certo che se si lascia i parametri di default lui si assorbe tutto il possibile!
Scusa l’OT Cesare, ma ti segnalo che il terzo film di Zeitgeist (Moving Forward) non include “complottismi”. C’è tutta una parte sulla tecnologia che è incredibilmente lucida e che per certi versi mi sembra che estenda molto alcune delle tue analisi.
Per quanto riguarda il discorso del peer review, ti voglio fare presente che non c’è quasi nulla di autonomo nei documentari e ci sono molti autori che hanno trattato ogni singolo tema e alcuni temi si possono tracciare indietro per 40 anni. Sono delle compilation e un tot delle fonti di partenza sono evidenti di per sè o sono studi scientifici peer reviewed a loro tempo.
Specialmente per il terzo film il procedimento è stato veramente rigoroso: presentazione di uno studio scientifico o del dato di fatto e via di implicazioni logiche. Modus ponens a manetta, qualche caso di modus tollens e raramente un passaggio probabilistico e in ogni caso statisticamente sensato.
Il peer reviewing scientifico si è concentrato e si concentrerà sulle fonti, sui dati, mai su Zeitgeist nel suo complesso. Quello è un altro terreno e, a quanto mi risulta, il procedimento logico non è ancora stato confutato. Il peer review di Zeitgeist nel suo insieme sono le oltre 4 milioni di visualizzazioni solo su youtube in meno di due mesi.
Scartando ogni qualsiasi riferimento alla storia (partendo dalle religioni antiche all’11 settembre), che è poco indagabile sperimentalmente per sua natura e quindi va presa col beneficio del dubbio, tutto il resto presentazione di roba già peer reviewed e logica ferrea.
Per quello che vale io ci ho dedicato parecchio tempo a revisionare e controllare i vari passaggi e non ho trovato falle sostanziali. Alcune imprecisioni e semplificazioni sì, ma nulla che una volta corretto falsifichi la tesi o una sua parte.
Almeno per quanto riguarda l’aspetto tecnologico ti consiglio vivamente di guardare questo terzo film. Ne trai di spunti da bloggare per un anno.
OK, allora lo prenderò in considerazione non appena avrò un po’ di tempo. Grazie per le preziose informazioni. :)
@pleg: concordo, e infatti la mia proposta non è volta a utilizzare questo modello per rimpiazzare l’esistente in tutto e per tutto.
Il QoS giustamente è importantissimo, e per cercare di aiutarlo ho pensato che la rete si potrebbe organizzare secondo una topologia che tenga conto delle caratteristiche di ogni nodo (tipologia di CPU; numero di core della CPU; indice sulla “potenza” della CPU; indice sul consumo della CPU rapportato al precedente; GB di memoria centrale; tipologia della GPU; numero di shader della GPU; indice sulla “potenza” della GPU; indice sul consumo della GPU; 64xMB di memoria locale della GPU; GB di spazio a disposizione sull’hard disk; Kbit/s a disposizione in download e upload) oltre ovviamente alla posizione di ognuno di essi. Ci sarebbe parecchio lavoro e ricerca da fare…
Riguardo ai micropagamenti, li escluderei proprio perché creano più problemi di quanti se ne potrebbero risolvere con questo modello.
Infatti non li ho menzionati e negli esempi mi sono rifatto al sistema più vecchio del mondo: il baratto. :D Oppure quello della pura solidarietà, come ad esempio nell’aiuto allo stato / enti pubblici, perché i benefici sarebbero estesi all’intera comunità.
I supercomputer sono sicuramente più efficienti, ma il punto è di non costruirli proprio, ma affidarsi a questo megacluster di hardware perché… è già a disposizione.
Per il resto, ti faccio i miei complimenti. :)
@Pippo: grazie. Comunque proprio perché la pubblica amministrazione è dotata di hardware obsoleto, potrebbe trarre giovamento dalle risorse a disposizione di cui ho parlato finora.
Ovviamente previa assoluta tutela della privacy dei dati trattati, che potrebbero essere di natura “sensibile”.
Come fai a mantenere la riservatezza dei dati?
Nel momento in cui devi elaborarli devono essere in chiaro. Possono anche essere trasmessi criptati, ma nel momento in cui li devi elaborare li devi decifrare, il che vuol dire che chi lavora per te sa che dati hai e cosa deve farci. E’ la negazione della privacy.
Per i pagamenti, invece credo che siano essenziali: io ad esempio non metteri mai a disposizione le mie macchine gratis, perche’ dovrei? Se fosse per pubblica utilita’, preferirei di gran lunga fare una donazione direttamente a universita’/centri di ricerca eccetera, cosi’ so dove vanno i miei soldi e so che verranno usati nel modo che intendo io. Ma per mettere le mie risorse di calcolo a disposizione di chiunque, voglio essere pagato (quantomeno per coprire il mio costo dell’energia, della rete, dell’usura delle macchine, eccetera).
Una cosa diversa sarebbe una comunita’, con gente che lavora per un obiettivo comune, come un progetto open-source: se lavorassi ad es. allo sviluppo di Blender o di un qualche raytracer, potrei anche contribuire ad una community che raccoglie tempo macchina da donare a progetti di grafica (di utenti della community, di che so una piccola casa di produzione indipendente che sta facendo un corto in CG usando i miei strumenti software, eccetera).
Cmq sono sempre convinto della non sostituibilita’ dei cluster e supercomputer dedicati. Una rete di milioni di macchine puo’ fare cosine come Boinc, ma la maggior parte dei servizi, progetti ingegneristici, ricerca scientifica eccetera non puo’ assolutamente girare in uno spazio simile. Non e’ la struttura di calcolo giusta (ad es. uno dei limiti di certi supercomputer e’ che InfiniBand e’ troppo lenta per collegare i nodi, figuriamoci se i nodi sono connessi via internet! la latenza ucciderebbe qualsiasi lavoro)
Una cosa che invece funziona e’ stile IncrediBuild, ad esempio in azienda tutti i personal computer fanno girare un IncrediBuild client su cui vengono distribuite le build di certi pacchetti windows; e’ un modo efficiente di usare macchine che altrimenti sarebbero inutilizzate, ma e’ una cosa che funziona in locale (all’interno dell’azienda), non e’ scalabile (anche per problemi di privacy: ti immagini un’azienda che manda a compilare i suoi driver su macchie in giro per il mondo? la concorrenza ci mette un secondo a interecttargli un po’ di pacchettie fargli reverse engineering dei driver e vedere cosa fanno, il tutto in modo completamente intracciabile).
Quello che dite è abbastanza giusto, ma, secondo me, il cloud o più semplicemente il mainframe distribuito, è utilissimo all’interno di business dedicati ai servizi frontend con il pubblico o altro.
es: – banche (attività di sportello)
– poste
– burocrazie (comuni, regioni, ecc)
– broker
– impiegati
che se ne fanno di superpc che usano per applicativi tipici da uffici, browser e poco altro? molto meglio fargli fare ad un ced decente e distribuirli. ovviamente vanno progettate ad hoc le reti lan/wan/man interne alla società, perchè di sicuro il 10/100 non basta. almeno 1gb o addirittura la fibra.
Per quanto riguarda il cloud per utenti internet, per ora sono solo i vecchi serviszi di hosting per storage riverniciati.
@pleg: infatti per la riservatezza dei dati ho posto la questione dei dati sensibili. Quindi un conto è memorizzarli nel cloud (perché sono cifrati a monte come già detto) e tutt’altra cosa manipolarli nel cloud dove devono per forza di cosa essere in chiaro. Quindi utilizzare il cloud per i calcoli andrebbe bene, ma solo per dati non sensibili.
Per quanto riguarda l’uso delle macchine, potresti avere dei servizi aggiuntivi, come dicevo prima. Riguardo alla pubblica utilità, beh, è una questione personale; pensala come a una forma di volontariato per il bene comune, e il volontariato è… volontario, appunto. :) In generale l’accesso alle tue macchine è regolato da te e puoi decidere se e come condividerne l’hardware.
Per il resto, nei casi che hai parlato è chiaro che il modello che ho proposto non può essere una soluzione.