C’era una tempo in cui sistemi con due Pentium Pro a 200Mhz bastavano per servire LAN con più di 100 postazioni. C’era e non c’è più, evidentemente, dato che oggi una parte dell’industria rema per farci credere che senza un quad core la nostra esperienza del personal computing è seriamente compromessa.
A costo di beccarmi accuse di luddismo e anti modernismo, continuo a domandarmi se da dieci anni a questa parte, le funzionalità siano cresciute in modo proporzionale all’incremento di transistor. Ma soprattutto, se queste funzionalità aggiuntive possiamo davvero permettercele, a livello globale.
Arriviamo quindi alla notizia di ieri: 2,3 miliardi di transistor per il nuovo Xeon Beckton, con tecnologia i7, 8 core e un quantitativo di cache unificata L3 che si presume mostruoso.
Quanto ci vorrà a prima di vedere questa tecnologia proiettata in ambito desktop? Se Skulltrail ha già portato gli 8 core su 2 zoccoli ad inizio 2008, definendosi una piattaforma per “entusiasti” (e ci mancherebbe), quanto manca prima che siano 2 Beckton, per un totale di 16 core e dio sa quanti watt di consumo, a definire il segmento enthusiast?
Per carità, nulla in contrario al trasferimento in ambito desktop di tecnologie sviluppate per il mercato server – per rispondere ad esigenze e carichi di lavoro tipici di quello scenario – ma mi pare che, dai quad core in poi, si stia un po’ esagerando.
Mi direte che i quad core più recenti hanno requisiti energetici di poco superiori a quelli dei cari vecchi Athlon Thunderbird, ma quanti anni sono passati da allora? Quanti giacimenti di petrolio sono stati trovati nel frattempo, quante fonti energetiche rinnovabili sono state messe a sistema?
Vorrete convincermi del fatto che i processori odierni consentono funzionalità straordinariamente superiori a quelle di qualche anno fa, ma rispondo: nell’equazione fra bisogni-consumi e risorse energetiche, qual è la variabile indipendente?
Qualcuno in vena di polemica, potrebbe rinfacciarmi di sputare nel piatto in cui mangio: è vero, il grande carrozzone dell’IT, con le sue evoluzioni, i suoi criteri di consumo e i suoi cicli di rinnovamento, tiene in piedi la stampa di settore e tutto l’indotto ad essa legato.
Non credo tuttavia che questo mi vieti di auspicare una direzione diversa di sviluppo, tale che i progressi di miniaturizzazione servano a rendere il nostro stile di consumo tecnologico più coerente con la situazione energetica e climatica. È sempre d’innovazione che si parla, ma con un obiettivo diverso e più conforme alla situazione allarmante che da più parti ci viene segnalata.
L’attuale focus del mercato su dispositivi mobili sta indirettamente incentivando la corsa ai bassi consumi, ma questo non basta per supplire alla necessità di innestare il concetto di sostenibilità alla radice dell’innovazione.
I Core 2 Duo hanno un consumo in idle di 2W-3W, e l’intera baracca mi consuma meno di un PC di 8 anni fa. Francamente non vedo di che lamentarsi.
ti do’ pienamente ragione.
le cpu vengono spinte dai produttori di sw, e viceversa. non sara’ lontano il giorno in cui un quad core con 4 gb di ram stara’ stretto.
e per cosa, poi?
tolta una percentuale di utenti che ha lo stretto bisogno di un pc potente (cad, grafica, ecc) per lavoro, la maggior parte dei pc sono usati per motivi di gioco.
e va bene finche’ non si guarda il consumo.
pochi giorni fa su un ng uno mi ha detto di aver misurato la potenza della sua scheda grafica per uso gioco (e molti ne usano due): 320W. ma scherziamo? tra 2 gpu, una cpu, ram raffreddate ad aletta e mille balle si arriva a 1000 w PER GIOCARE???
Pienamente d’accordo con l’articolo.
Considerazioni che si potrebbero estendere a molti settori, tra l’altro (ad esempio: i veicoli a motore).
Un segnale è venuto dal fenomeno netbook: ho un Samsung NC10 ed è incredibile quante cose mi permette di fare, con molti meno limiti di quanto credessi.
Non a caso, i grandi dell’IT stanno cercando di contrastare il loro successo o in seconda battuta di stravolgerne il concetto…
il mio modestissimo parere è che siamo stati tutti presi in giro da questo mondo di teconologie che non ha effettivamente bisogno di tutta questa potenza, ma che ci viene venduta a caro prezzo per ingrassare le tasche dei produttori di hardware, e questo grazie ai software appesantiti appositamente per spingerci a comprare hardware sempre piu oneroso e sempre nuovo…!
Pienamente d’accordo pure io. Da molto tempo non sento l’esigenza di nuovo hw o sw. Ci sono i fanatici (perché di questo si tratta) che se non hanno Vista il giorno stesso dell’uscita non dormono la notte, per poi lamentarsi dell’instabilità. E per l’hw è uguale. Io sono passato a XP 2 anni fa, fino al allora avevo il 2000 e non ho trovato chissà quali funzionalità aggiuntive che mi hanno fatto rimpiangere il caro buon vecchio win 2000. Discorso uguale per le CPU: ok i casi particolari ma il 90% delle persone usa il PC per navigare e per la posta, cosa che fa un netbook che consuma 20 watt! Purtroppo il passaparola e la moda (ed a volte la stampa specializzata) fanno percepire in maniera errata la lentezza (o meglio la “normalità”) di un sistema rispetto al top con cui è messo a confronto e questa cosa viene vista come una “mancanza”. Intendiamoci, stesso discorso sarebbe da fare con cellulari e SUV… ma questo è un altro discorso.
Concordo con quanto scritto nell’articolo.
A mio avviso è gia stata intrapresa una “direzione diversa di sviluppo”, sicuramente per quanto riguarda il mondo delle CPU.
Se confrontati con i modelli di qualche anno fa, gli ultimi processori vantano consumi in idle decisamente inferiori; se a questo aggiungiamo le odierne tecniche di scaling di frequenza e voltaggi (una volta confinate al solo monto notebook), unite alle maggiori performance per watt, possiamo dedurne che sono stati fatti notevoli passi avanti.
Sicuramente per la maggior parte degli utenti domestici, un dual core è anche sovradimensionato (infatti non concepisco le offerte dei supermercati, dove si può acuistare un sistema quad core con GPU integrata, il cui unico utilizzo sarà per forza vincolato alla navigazione e videoscrittura… Alla fine gli utenti sono praticamente schiavi del marketing).
In ambito server e workstation, l’utilizzo di più core, è sicuramente di aiuto e non è detto che, l’aumento della potenza elaborativa, porti ad un aumento di consumi. Le necessità energetiche sono una variabile di cui si tiene molto conto nell’acquisto di server. Ritengo che AMD, con gli ultimi Opteron, sia decisamente sulla strada giusta.
Il problema fondamentale, secondo me, è caratterizzato dal consumo spropositato delle schede video; ultimamente si è assistito a minori richieste energetiche in idle, ma di strada da fare ce n’è ancora molta.
In conclusione mi auspico che, gli utenti si rendano conto della non necessarietà di sistemi potentissimi per lavori da ufficio (spesso alcuni clienti mi richiedono processori potentissimi per navigare e controllare la posta) e che il software si elvolva per sfruttare bene ciò che gia abbiamo.
credo che la corsa ai bassi consumi sia efficace, soprattutto perchè molta gente si è resa conto che non serve un piccì super-potente (vedi boom degli eeePC) per internet-posta-word.
ho mandato in pensione un duron 800 MHz non perchè volessi chissà che, bensì per il fatto che il processore non reggeva il film sul monitor 22″, le cagatine in flash piantavano il pc (quant’è ambiato il web da 10 anni fa) openoffice è lento e le applicazioni in generale ci mettevano un puttanaio a partire, e il periodo in idle il mio pc non lo vedeva mai.
Anche volendo recuperare le vecchie piattaforme si sa che athlon e pentium 4 energeticamente sono un disastro, tanto vale l’upgrade ad un core 2 duo (non è qui l’articolo che tratta un pc a 31 Watt in idle?).
Se mettiamo gli investimenti per gli ali 80 plus e la serie green degli hd WD direi che l’impegno c’è.
O la necessità, chi lo sa.
ho il pc da 6anni e fin dall’inizio ero preso dalla mania di potenziarlo un paio di volte all’anno gpu, hdd, ram, cpu finchè ho raggiunto un pareggio + che accettabile tra prestazioni e utilizzo normale, e da due anni ci metto più mano (amd 4400×2, 2hdd samsung da 500gb, 2gb ram ddr400, gpu 8600gt silent) e non ho necessita di espanderlo riesco tranquillamente ad usarlo come tv, stereo, masterizzatore, giocare(pure a crysis certo a risoluzioni basse ma mi accontento), navigare, uso office, p2p,
quindi di quadcore, o 8core non ne sento il bisogno e credo non ne sentirò il bisogno ancora x molto
Certo che scrivere Dio con la d minuscola…..
Tornando in tema, un quad core basta e avanza per far tutto, non vedo l’utilità di continuare ad aggiungerne altri, almeno per il momento e soprattutto in ambito casalingo.
luddismo di bassa lega ne più ne meno, articolo senza senso, senza progresso l’aria sarebbe pulita ma l’uomo morirebbe a 40 anni, la tecnica deve proseguire in ogni singolo campo fermarla è da scellerati
@ thedarkangel
OK mi dici dov’è che ho detto che la tecnica e il progresso devono fermarsi?
Se ti fosse sfuggito:
“Non credo tuttavia che questo mi vieti di auspicare una direzione diversa di sviluppo, tale che i progressi di miniaturizzazione servano a rendere il nostro stile di consumo tecnologico più coerente con la situazione energetica e climatica. È sempre d’innovazione che si parla, ma con un obiettivo diverso e più conforme alla situazione allarmante che da più parti ci viene segnalata.
L’attuale focus del mercato su dispositivi mobili sta indirettamente incentivando la corsa ai bassi consumi, ma questo non basta per supplire alla necessità di innestare il concetto di sostenibilità alla radice dell’innovazione.”
“Per carità, nulla in contrario al trasferimento in ambito desktop di tecnologie sviluppate per il mercato server – per rispondere ad esigenze e carichi di lavoro tipici di quello scenario – ma mi pare che, dai quad core in poi, si stia un po’ esagerando.
Mi direte che i quad core più recenti hanno requisiti energetici di poco superiori a quelli dei cari vecchi Athlon Thunderbird, ma quanti anni sono passati da allora? Quanti giacimenti di petrolio sono stati trovati nel frattempo, quante fonti energetiche rinnovabili sono state messe a sistema?”
Perchè che senso avrebbe questa parte? non pensi di voler fermare il progresso in nome dei giacimenti di petrolio che non sono stati trovati o di rivoluzonare tecnologie rinnovabili?
esattamente il punto è che l’hardware si evolve troppo in fretta ed aumenta il divario tra potenza disponibile e realmente sfruttata, le software house non riescono a sfruttare neancora i multicore a dovere, poi c’è il problema dei consumi inutile fare pc da 1000watt se la potenza non viene sfruttata a maggior ragione in un mondo che sta finalmente virando sul risparmio energetico (xkè l’energia costa sempre di +)
tutto questo non implica ad un rallentamento nel progresso tencnologico ma ad uno sviluppo congiunto tra + campi basta vedere ciò che sta avvenendo nel mondo gpu dove finalmente si è capito che l’enorme potenza delle gpu può essere sfruttata anche x calcoli nn grafici con driver e sistemi creati ad hoc
@ thedarkangel
No. Il progresso deve procedere ma in direzione sostenibile date le risorse a disposizione, altrimenti l’unica via è l’autodistruzione. Mi pare che su questa banalissima considerazione, negli USA un certo Obama ci stia impostando la sua politica industriale.
ma che cambia? perchè non può progredire liberamente? perchè non si può sfruttare? modi per sfruttarlo ci sono e finchè già è possibile immaginarne uno utile è giusto procedere il più possibile. Continuo a non trovare senso nell’autolimitazione del progresso
ma non ha senso qui parlare di sostenibile, quei besughi di americani che vanno in giro con dei 5000, stanno perennemente a 14°c in estate e 26°c in inverno, il loro problema è lo spreco non certo perchè utilizzano risorse per il progresso, quello non è progresso è stupidità.
Oggi la situazione e’ piu’ tragica di 10 anni, e non certo per mancanza di risorse etc… Semplicemente 10 anni le prestazioni maggiori delle cpu ad ogni refresh garantivano un aumento proporzionale delle prestazione del software.
Oggi le cpu scalano in core (perche’ non possono piu’ scalare in frequenza per motivi di limiti architetturali, current leakage….) ma il software rimane inchiodato ad essere single thread con qualche PICCOLA eccezione.
Fintantoche’ non ci sara’ un cambiamento di paradigma nello sviluppo software (e non e’ detto che sia possibile farlo) avere cpu da 8-12-30 core saranno totalmente inutili. Poi ci sara’ sempre genete pronta a comprare l’ultima novita’ ma la verita’ e’ che il software parallelo (e in futuro massiciamente parallelo) latita e latita alla grande.
Prendete ad esempio Fs X, un gioco uscito almeno 2 anni fa. E stato progettato per scalare unicamente con la frequenza, si dice che sia multicore ma e’ una panzanata grande quanto una cosa. Fatelo girare su un core i7 e otterrete le stesse prestazioni deludenti che avreste su un dual core. Se questo e’ il futuro, non e’ un futuro roseo.
“innestare il concetto di sostenibilità alla radice dell’innovazione.” Pienissimamente d’accordo!
Scusate ma credo che qui ci sia un pò di fissazione…
perchè discutere dei 60 (vogliamo 90)watt delle cpu?
Se avessi la lista dei problemi del mondo, le cpu le metterei in fondo
@Davide
Qua si discute delle CPU, poichè Appunti Digitali tratta notizie e ragionamenti riguardanti in particolare il mondo IT.
Sono dell’idea che ogni settore debba interrogarsi e prendere le migliori decisioni nell’ambito che lo riguarda.
E’ vero che ci sono problemi di importanza maggiore, ma è anche vero che tanti piccoli problemi, nel loro insieme, possono risultare di maggior peso rispetto ad un unico grande problema.
L’idea di cambiare atteggiamento su più fronti è, a mio avviso, il modo migliore di procedere.
non concordo con ki dice che il software non usa più di un core…avete provato giochi(recenti e non di 2 o 10 anni fa in cui non sapevano nemmeno cosa erano i core)come sfruttano appieno una cpu quad core??prendete gta iv…ne sfrutta 4…e a breve saranno così…tutte…e poi scusate qui si parla di 60-150 watt di consumo di processore di 320watt di consumo di scheda video ma non si tiene conto che queste sono i cosumi a pieno carico che si raggiungono solo con i benchmark…nel gioco o in sw di lavoro è molto difficile…e poi ci sono tante altre cose che sprecano energia molto più di un pc e nex dice nulla…basta guardare ora le gare di moto gp notturne(per ora una) la pista è illuminata a giorno quando credete di watt ci vogliano per illuminare un posto così??ok dico bello..ma se vogliamo fare i moralisti sul consumo di energia penso lo debba fare su quello…non sui consume del pc…e poi parliamoci chiari quandti hanno quei super computer da 3000 euro che consumano 1000watt??pochissimi…molti hanno pc con montato un alimentatore da 350watt o 550watt quando molte volte il pc non consuma più di 350watt..forse bisognerebbe fare i moralisti su tutte le corse in macchina o moto che si fanno…su tutta la benzina che viene impiegata per far funzionare le macchine/moto da corsa…oppure bisognerebbe criticare il calcio…quando si fanno le partite di sera il campo viene illuminato molto bene…anche li quanti watt verrano consumati in tutta la sera(e se ne fanno molte di partite alla sera)??migliaia se non miglioni…Ah però la concezione comune è quella che il calcio o le corse sono inticcabili…allora accontentiamoci così…e non critichiamo un compiuter che consuma 1000watt magari un ora o due al giorno di media…e parliamo di cose più serie…
“In arrivo CPU a 8 core, e poi?”
…e poi si cambia architettura, la x86 ormai è arrivata al limite e la x86_64 non è altro che la x86 con estensioni a 64 bit.
Si spera che la nuova architettura porti come primario beneficio un miglior rapporto prestazioni/consumi oltre ad un prezzo più basso.
Staremo a vedere.
8 core e poi ?
Li scaldiamo sulla griglia uno per uno e poi ce li infiliamo su per il c…, pare si tratti di un’esperienza Dalla pillola di matrix alle supposte di intel.
Ma che discorsi senza senso…. se tu non ne trovi l’utilita è evidente che non è un processore che fa per te e puoi continuare tranquillamente con il tuo attuale pc. in vendita ci sono sempre i processori low entry da 30 euro; ma a differenza di te c’è anche chi il pc lo usa per lavorare e un processore di questo tipo capace di fare quello che fino a ieri facevano solo piccoli server, ma con un prezzo e consumi nettamente inferiori. Se poi c’è lo sfigato che lo compra per averlo piu lungo e farci girare i giochi senza sfruttarlo minmanete… bè i soldi sono suoi e ci fa quello che vuole e per conto mio è un idiota, ma un discorso cosi generalista come il tuo è veramente senza senso, oltretutto anche sbagliato, visto che un i7 ha perstazioni che si avvicinano a un serverino doppio xeon della scorsa generazione ma con un costo/consumo nettamente inferiore, e cmq gli 8 core non sono fisici ma logigi, quindi non vi è una relazione stretta fra numero di core e consumi.
@ ace
Veramente si parla di 8 core fisici nello stesso die…
Un consiglio alla redazione: il prossimo articolo di retrocomputing fatelo su un amiga ed i suoi usi in ambito a/v ed animazione 3D. E’ evidente che c’è molta gente che non ha la più pallida idea di cosa si faceva una volta con “poco”
si mi riferivo all’i7 normale, lo xeon con 8 fisici e 16 logici sara ancora piu vantaggioso dell i7 e il discorso core/consumi vale anche per quello
Mah, io da due/tre anni sono stufo di rincorrere il numero dei cavalli della vettura – si finisce ad avere un carroarmato da duecentotrenta cavalli per andare a portare il figlio a scuola, comprare un chilo di pere e tornare a casa.
Otto core? utili, ma non indispensabili: gli ultimi Q9400s e Q8200s fanno ben sperare come consumi, ma li comprero’ solo quando scenderanno sotto i cento/centoventi euro.
In realta’, da un punto di vista di architettura dei calcolatori, siamo andati verso un approccio multicore _proprio_ per vincoli di potenza dissipata: non potevamo piu’ fare monoprocessori con prestazioni piu’ elevate perche’ la potenza dissipata stava andando fuori controllo, e quindi si e’ passati a macchine multicore (a frequenza piu’ bassa, e in futuro anche molto meno sofisticati dei processori di oggi) proprio per contenere la potenza (e anche per problemi di verification&robustness, ma e’ un’altra storia).
pienamente d’accordo con l’articolo… i multi-ultra-core hanno senso in ambito server e per le workstation, ma in ambito consumer sono una presa per in fondelli bella e buona…
purtroppo questo fenomeno si chiama “obsolescenza programmata” e ha molto a che fare con il marketing e pochissimo con lo sviluppo tecnologico… poi è ovvio che chi ha l’hobby dell’informatica legittimamente insegue l’ultima novità…
basta che poi non venga sul forum a lamentarsi che la sua fighissima cpu quad core a 64bit pagata 300 sacchi non ha nessun software che la sfrutti pienamente (a parte fotosciòp scaricato dal mulo per scontornare le giffine)…
@D: di Amiga avremo modo di parlarne parecchio, non ti preoccupare. Parola di amighista. ;)
@gioggio
M a nessuno ti costringe a prendere i multicore: se vuoi consumare poco, vai con un VIA o cose cosi’, hai i consumi di 10 anni fa e prestazioni superiori, cosa vuoi di piu’? E su ci metti i programmi di 10 anni fa, se non hai bisogno di quelli nuovi.
Il problema e’ che non si puo’ piu’ costruire processori monocore piu’ potenti, la festa e’ finita: niente piu’ aumento di frequenza (causa potenza), niente piu’ aumento di ILP (sfruttato praticamente tutto), niente piu’ abbassamento della tensione di alimentazione (causa leakage / threshold dei transistor).
Anche se i singoli programmi non sfruttano adeguatamente i multi-core, puoi avere miglioramenti nel multitasking: puoi usare più applicazioni contemporaneamente anche se sfruttano molto il processore, ad ognuna assegni uno o più core e riesci a fare più cose in contemporanea. Poi l’utilità di avere più core dipende dalle necessita di ogni utente
@ Davide
infatti sto benissimo con un dual core 939 che rimarrà in servizio fino a quando non si schianterà qualcosa…:D
le cose che dici le sottoscrivo, ma ciò non toglie che la domanda resta “ha senso un n-core (con n>4) per il mercato consumer?”… (attenzione: consumer non professionale)
la mia risposta sta nel fatto che il signor asus si è svegliato una mattina ha preso uno zavaglio di celeron-M, lo ha messo in un bussolotto di plastica e ne ha venduto qualche gazillione in un anno… magari era proprio quello che il mercato cercava, perchè per il mercato anche un celeron-m è incredibilmente sufficiente per le operazioni di routine…
Molta della potenza delle CPU di oggi viene spesa per rendere più facile la vita agli sviluppatori.
Una volta i programmatori veri, quelli con gli attributi, scrivevano codice in assembly, per cavare fuori anche il sangue dalle rape, con l’hardware che si aveva a disposizione.
Oggi un programmatore ha a disposizione strumenti molto comodi dal suo punto di vista: piattaforme tipo .NET o simili, che operano un’astrazione estrema rispetto al “ferro” su cui il software gira, consentendo quindi tempi di sviluppo più rapidi e anche minori requisiti di conoscenza per arrivare ad un prodotto finito, ma a che costo… Strati di astrazione su strati di astrazione, poi per forza serve un quad-core per far andare il solitario di Windows.
Il serpente si morde la coda: il software perde in efficienza perché lo sviluppatore si preoccupa sempre di meno di lavorare di fino, quindi il produttore di CPU tira fuori prodotti sempre più potenti per compensare queste inefficienze –> gli sviluppatori diventano ancora più pigri perché tanto cosa vuoi che sia, se anche il software non è così ottimizzato ci penserà l’utente a rimediare comprandosi una macchina più carrozzata.
I quad-core oggi, e gli 8-core domani, servono eccome, ma solo perché chi sviluppa il software lo fa in modo da rendere irrinunciabili questi upgrades.
Ci sono drivers per stampanti e schede video che ormai hanno sfondato di slancio i 100 MB di pacchetto di installazione. Mi chiedo se servano davvero tutti. Un po’ di annetti fa, con un Amiga (il cui sistema operativo stava in parte in qualche kB di ROM e il resto su uno o due floppy da 880 kB) un mio compagno di liceo produceva stampe la cui qualità non aveva nulla da invidiare a quella dei PC di oggi. Come mai adesso servono 1000 volte le risorse che erano disponibili allora? Bah.
Sarà che io ho questa deformazione, avendo per lavoro sviluppato per anni scrivendo in codice assembly su piattaforme embedded, per cui l’hardware era quello che era e il resto erano affari tuoi.
Ciao
Filippo
filippo ti consiglio di iscriverti al corso di compilatori della tua facoltà più vicino, così ti aggiorni un po’ ok ?
i driver da 100 mb…. sono pacchetti di drivers, ma io non so.. è bello che internet abbia dato a tutti la possibilità di scrivere, ma prima documentatevi.
ti sfido ad ottimizzare il codice dell’ultimo compilatore intel, ei abbiamo tra noi un futuro nobel !!!
volevo sintetizzare con un’ unica frase ma non so quale scegliere tra:
– è il marketing bellezza
– è il consumismo bellezza
– è il mercato bellezza
– è il progresso bellezza
– è la legge di moore bellezza
– è che se_intel_se_ne_sta_ferma_amd_tempo_un_anno_la_soppianta bellezza
– è l’ umanità bellezza
@ Asdo
Modera i toni per favore. Io ho solo espresso un mio parere personale sulla base della mia esperienza, in parte lavorativa e in parte personale.
Se pensi che abbia detto fregnacce, porta i tuoi controesempi, ma gli insulti gratuiti non te li concedo.
Saluti.
@filippo
Guarda, condivido quanto detto da asdo. Io non sono un softwarista (anzi, mi occupo proprio dell’hardware che e’ oggetto della discussione), ma non si puo’ fare un confronto tra la roba per amiga di tot anni fa e la roba di adesso. In puro assembly non ci scriveresti mai un sistema operativo recente (sia Windows o OSX o Solaris ecc.), o delle librerie potenti come quelle che abbiamo ecc. Senza contare che se davveri volessi metterti a scrivere delle cose grosse in assembly, perderesti mille altri vantaggi:
– davvero pensi di poter fare meglio dei compilatori cazzuti (ad es. l’Intel) per programmi generici di qualche milione di righe di codice?
– davvero saresti disposto a riscrivere tutte le milioni di linee di codice per ogni architettura e famiglia di processore che esce?
– davvero saresti disposto ad abbandonare la programmazione ad oggetti epr tornare all’assembly?
Insomma: 20 anni fa si faceva molto con molto meno… e si faceva anche molto meno in senso assoluto. E’ impensabile far girare le applicazioni di oggi sulle macchine di allora, e soprattutto, di avere uno sviluppo cosi’ rapido.
Puoi immaginare google che gira su amiga (intendo l’infrastruttura di google, i loro datacenter e i loro motori di ricerca)? Puoi immaginare l’intera infrastruttura internet su cluster di amiga? Puoi immaginare qualsiasi applicazione ingegneristica/scientifica che giri su amiga (previsioni del tempo, sviluppo di nuovi materiali e farmaci, simulazioni aerodinamiche per aerei e automobili)?
Io no.
Senza i processori fatti negli ultimi 20 anni saremmo… a 20 anni fa. E in definitiva, nessuno vuole questo. Chiedi in giro quante persone sarebbero disposte a tornare ai 286. Quanti sarebbero disposti a rinunciare a internet, ai videogiochi di ora, ai film in alta definizione (anche solo dvd), ai cellulari, allo shopping online, ai tutti i prodotti (automobili, farmaci, aerei…)… perche’ per fare tutte quelle cose serve la potenza di calcolo messa a disposizione da sistemi mega-multicore, e sfruttata da software ad alto livello.
@ Davide
La tua risposta mi piace molto di più, perché è argomentata come si deve.
Consentimi a questo punto di chiarire meglio il mio pensiero.
La tua critica (e quella di Asdo prima) mettono in evidenza l’efficacia dei moderni compilatori, rispetto ai quali uno sviluppatore “umano” non potrebbe fare di meglio. Nulla da dire su questo: sicuramente il compilatore Intel è un prodotto meraviglioso. Non ho avuto il piacere di utilizzarlo, ma ne sento parlare un gran bene da tutti.
Però un compilatore fantastico può fare il suo lavoro nel modo migliore possibile, ma ha prodotto solo metà dell’opera. Un algoritmo scadente, per quanto tradotto in un codice macchina estremamente efficace da un ottimo compilatore, rimane comunque un algoritmo scadente.
Dici che in puro assembly non si potrebbe scrivere un sistema operativo moderno. Sicuramente non tutto, ma alcune parti critiche per le performances credo non abbiano altra via se non l’essere scritte in assembly. Mi risulta tra l’altro che lo stesso Windows sia in parte stato scritto in assembly.
Evidentemente qualche pazzo che crede che un sistema operativo possa essere scritto totalmente in assembly c’è, per esempio questo qui:
http://www.menuetos.net/
E c’è anche l’estremo opposto, un sistema operativo scritto in linguaggio C#, che era nato per tutt’altri scopi:
http://channel9.msdn.com/shows/Going+Deep/Singularity-A-research-OS-written-in-C/
Una cosa che condivido con il tuo discorso è quella che innegabilmente la rapidità di sviluppo è diventata un fattore cruciale, e questo rende impensabile spendere una rilevante parte di tempo di sviluppo per verificare se si può limare qualcosa sul codice sviluppato. Posso capire, purché non si vada a tirare troppo al risparmio su questo aspetto, confidando sul fatto che “tanto al limite è l’utente a comprare una macchina più grossa”.
Ciao
Filippo
[…] Articolo Originale: In arrivo CPU a 8 core, e poi? – Appunti Digitali Articoli correlati: In arrivo CPU a 8 core, e poi? – Appunti […]
Diciamo pure le cose come stanno. La stragrande maggioranza della gente, per quello li usa, per come li usa, per quello che ci deve fare, dal PIII 1000 al P4/AthlonXp ne ha che basta e avanza.
Questo soprattutto in virtù dell’immobilismo del mercato del software che dopo anni di belle parole è ancora saldamente ancorato ai 32bit.
Con Windows Seven e futuri, giusto un passetto verso gli Athlon 64 ed i Core 2 Duo e basta. Il resto è del tutto superfluo. Sono solo soldi buttati.
@filippo
Immaginavo che il primo post fosse provocatorio :) perche’ nessuno puo’ davvero pensare di usare l’assembly per tutto.
Ed e’ vero che alcune routine chiave sono ancora scritte in assembly, e che in alcuni ambiti specifici gli umani riescono a scrivere codice piu’ ottimizzato rispetto a quello dei compilatori (che devono rispettare un sacco di constraint in piu’, e in genere non hanno una visione globale del problema).
Ed e’ anche vero quel che dici a proposito degli algoritmi. Ma e’ proprio per gli algoritmi che si stanno cercando modelli descrittivi di livello sempre piu’ elevato, soprattutto per la programmazione multithreaded per i nuovi multicore (che poi, e’ vero, saranno meno efficienti: ma se rispetto ad un monocore con un algoritmo con efficienza del 80% riesco a scrivere un algoritmo che fa la stessa cosa, ma che sfrutta un quadcore al 60%, e quel quadcore va a frequenza poco piu’ bassa e risparmia parecchia energia… potresti cmq avere meno “efficienza” computazionale, ma piu’ performance a meno consumo energetico!)
Quello che volevo sottolineare, rispetto al titolo dell’articolo, e’ che il “seee, otto core, e poi?!” e’ un atteggiamento abbastanza inconcludente. Semplicemente, se si vuole piu’ potenza di calcolo quella e’ la strada da seguire: i monocore hanno finito la corsa. Se poi uno si accontenta di poche risorse, rimane coi pc vecchi o prende roba a bassissimo consumo, e che problema c’e’?
@D
Diciamo le cose come stanno: la maggior parte della gente vuole vedere i film ad alta definizione e giocare ai giochi nuovi&belli… e per tutto questo un PIII non basta.
Eppoi: diciamo pure che il 90% del tempo uno fa solo un po’ di office e un po’ di internet, e usa il processore al 10%. Ma e’ proprio qui che i futuri multicore potrebbero dare ancora di piu’! Invece di un monocore gigante e velocissimo che deve fare tutto, potresti avere tanti core piu’ piccoli specializzati, e se devi fare poche cose e’ piu’ facile spegnere 7 core su 8 e risparmiare un casino di energia: tutte cose che un monocore non puo’ fare bene.
“Diciamo le cose come stanno: la maggior parte della gente vuole vedere i film ad alta definizione e giocare ai giochi nuovi&belli… e per tutto questo un PIII non basta.”
Un P4/AthXP + scheda video seria e l’alta definizione è bella che servita (i nuovi netbook che devono uscire a livello di prestazioni sono poi quello). Per i giochi ci sono le console. Per i giochi un po’ strani, un po’ “non da console” si fanno tastiera e mouse e sono belli e sistemati, in fin dei conti non le vedo così male la x360 e la ps3 sulla scrivania collegate ad monitor comune invece che ad un 50″.
“Eppoi: diciamo pure che il 90% del tempo uno fa solo un po’ di office e un po’ di internet, e usa il processore al 10%.”
Proprio per questo motivo sono dell’idea che il grosso della potenza è completamente inutile.
“Ma e’ proprio qui che i futuri multicore potrebbero dare ancora di piu’! Invece di un monocore gigante e velocissimo che deve fare tutto, potresti avere tanti core piu’ piccoli specializzati, e se devi fare poche cose e’ piu’ facile spegnere 7 core su 8 e risparmiare un casino di energia: tutte cose che un monocore non puo’ fare bene.”
Allora buttiamo nel cesso tutti i quad core e facciamo un cluster di atom come SGI sta già provando a fare.
Purtroppo rimane sempre la patata bollente dei programmatori che incapaci, pigri, quello che vogliamo, di fronte ad un’architettura come l’hai descritta, continuerebbero a caricare lo stesso core senza cavare un ragno dal buco.
@D
“Purtroppo rimane sempre la patata bollente dei programmatori che incapaci, pigri, quello che vogliamo, di fronte ad un’architettura come l’hai descritta, continuerebbero a caricare lo stesso core senza cavare un ragno dal buco.”
Beh, insomma, non e’ che sviluppare per multithread sia una passeggiata. Al momento c’e’ un casino di ricerca, sia in universita’ che in industria, per capire come si possa fare, e come coordinare software e hardware per sfruttare tutto al meglio.
E’ un problema mica da poco! Anzi, chi riesce a far fare dei passi avanti significativi in questo campo si trova dei bei contratti serviti su un piatto d’argento :)
In soldoni: i processori diventeranno sempre piu’ paralleli, e i programmatori dovranno conviverci e trovare nuovi paradigmi per sfruttare questo nuovo tipo di potenza. Tutto qui.
Al momento gli unici che “devono” qualcosa siamo noi utenti che compriamo computer sempre più potenti per fare cose spesso ridicole.
C’è gente che si compra le Nvidia dual gpu e poi si vanta che fa andare i port della ps3 che ha si e no la capacità di una 7900GTX.
I programmatori dovranno convivere con i nuovi paradigmi quando saranno veramente costretti da cause di forza maggiore ovvero quando anche in Cina ed in India diventerà la prassi avere un pc con alimentatore da 1000W per far girare due balle.
i PC per giocare “mostruosi” consumano al massimo 600W in full load (QX o i7 Extreme overcloccato, 8-6GB DDR3, 2 GPU top di gamma, 2 HD 10.000rpm, X-fi) arrivare a 1kw di assorbimento è quasi impossibile…
Mi pare che la discussione si sia un po’ allontanata dal problema che il post voleva sollevare.
Il punto non è tanto se i quad core servano o meno, ma se abbia un senso, davanti a innegabili problemi climatici e ambientali, continuare a dare la priorità all’incremento delle performance (ammesso poi che vi sia un incremento lineare con l’aumentare dei core).
Io penso che la tecnologia debba evolversi anche per quanto riguarda il rispetto dell’ambiente e il risparmio energetico, ma questo non toglie che debba progredire.
Proporre nel settore dell’informatica nuovi prodotti più potenti non significa non andare in questa direzione, infatti se andate a vedere dei grafici con rapporto tra prestazioni e consumi vedrete che via via si sta migliorando il rapporto, e non di poco.
Inoltre anche se i nuovi processori a prima vista sembrano andare oltre le esigenze medie, questo non significa che non ci siano persone che ne fanno uso, e soprattutto che tra 1 o 2 anni anche per gli altri saranno un beneficio, considerando l’evoluzione in tutti i settori.
Personalmente avevo un biprocessore fino al mese scorso, e quando usavo in contemporanea alcuni programmi in background, e magari cercavo di vedere un film in HD o giocavo titoli recenti, il sistema non riusciva a reggere il carico, ora passando ad un quad questi problemi non li ho più ;-)
Ho letto il post e sono piuttosto in disaccordo.
Rispondendo alla tua ultima domanda.. secondo me si, ha senso la ricerca delle performance.
Questo perche’ (fortunatamente) la ricerca delle performance porta come conseguenza diretta il miglioramento del rapporto operazioni / W.
Se Google (tanto per fare un esempio stupido) usasse dei pentium pro invece di processori piu’ prestanti (non so in effetti cosa usi davvero) consumerebbe una quantita esorbitante di elettricita (e di risorse) in piu’ rispetto a quello che consuma adesso.
Il fatto che noi utenti abbiamo prestazioni al di sopra delle nostre esigenze non lo vedo come problema.
Non vedo come problema nemmeno le schede video da 300W o i pc che consumano 1KW: i veri problemi sono altri.
Condivido in parte il discorso “ognuno deve cercare di fare il meglio nel poprio ambito”: e’ valido in linea di principio, ma nella pratica credo ci siano problemi talmente “piu’ grossi” (uno su tutti.. i consumi delle auto) che rischia di diventare uno sforzo nella pratica inutile.
Ovviamente tutto IMHO
-Gas-
secondo me l’autore dell’articolo non ce l’ha con la ricerca tecnica, ma con l’uso che se ne fa.
facciamo un paragone con l’auto.
un motore da 6 litri e’ un’ottima cosa, ma se finisce su un camion, non su un suv di merda perche’ il suo proprietario ha deciso che per andare a far la spesa gli serve un carroarmato da 28 quintali. per quello, ci sono le utilitarie.
il concetto IMHO e’: ognuno deve farsi esattamente i conti di quello che gli serve, e non buttare soldi ed energia.
imho grandissima parte degli usi pc puo’ essere fatto da notebook che consumano pochissimo, e nemmeno troppo aggiornati. un dual core normalissimo e’ d’avanzo al giorno d’oggi per il 90% della roba.
un quad o octa core e’ una cosa utilissima per un server o uno studio tecnico che lavora di cad, perche’ permette consistenti risparmi di energia, tempo e spazio.
ma se si continua di quest’andazzo, molti riterranno necessario un octa core solo per navigare su internet e giocare. e non avranno torto.
“un quad o octa core e’ una cosa utilissima per un server o uno studio tecnico che lavora di cad, perche’ permette consistenti risparmi di energia, tempo e spazio.”
Ti posso assicurare che gli studi di progettazione utilizzano workstation normalissime che si differenziano dai normali pc per la presenza di una quadro di media potenza ed alcune volte di ram ecc. Se proprio devono avere il supercomputer, ne tengono uno in rete con tutti i crismi sul quale scaricare i calcoli degli assemblati.
Io faccio scienza computazionale, credo di essere
uno dei pochi a cui queste cose servono veramente.
Fra l’altro il fatto che le componenti siano quasi le
stesse del mercato consumer ha abbassato di molto i costi
rispetto a quando si dovevano comprare RISC IBM o Silicon Graphics.
@Alessio
Assolutamente si. Questo tipo di processori fanno proprio risparmio energetico, In quanto 1 solo processore fa quello che prima ne facevano 2 , solo consumando molto di meno. Es. Attualmente noi renderizziamo con 2 workstation in rete per un totale di 16 core fisici, (sono 2 macchine con 2 xeon ciascuna), con questi processori, potremmo eliminarne 1, avendo un dimezzamento del risparmio energetico ma mantenendo le prestazioni necessarie. E in giro è pieno di piccole societa e imprese che adottano questi sistemi.
Non dubito che il consolidamento produca risparmio energetico. Quello che mi lascia perplesso è pensare che tecnologie come queste continuino ad essere spinte (parliamo finora dei quad) e trovar spazio fra gli utenti finali, in spregio delle emergenze energetiche e ambientali, che consiglierebbero di inseguire l’efficienza energetica piuttosto che gli fps.
Ma infatti non sarebbe più giusto far uscire una nuova cpu ogni tot anni ed in quelli a venire impegnarsi non tanto a strappare altri Mhz e core quanto a lavorare solo sul fronte dell’ottimizzazione energetica (e di riflesso, in campo software, sull’ottimizzazione dei codici e degli algoritmi) ?
Quanti anni sono che abbiamo fantomatiche cpu a 64 bit e quando cominceremo ad utilizzarli questi benedetti 32 bit in più ?
Trovo che questa domanda, sia lo spunto ideale per capire, per fare una riflessione sul fatto che il mercato è malato.
Come mai il mercato dei netbook ha fatto il botto nonostante gli hardware ridicoli che possiedono ?
Perchè la gente, sotto sotto, è consapevole che oltre non le serve.
@Alessio di Domizio
Le industrie (Intel, AMD e amici belli) seguono quello che gli utenti chiedono, altrimenti chiudono bottega. In informatica quello che gli utenti chiedono e’ “maggiori prestazioni”. Dal primo momento in cui gli utenti penseranno di avere abbastanza potenza di calcolo nel pc e non saranno piu’ tentati dal nuovo processore a “X” core o dalla nuova scheda video, probabilmente si comincera’ a lottare per la supremazia su qualcos’altro (che potrebbero essere i minori consumi oppure il colore piu’ sgargiante del pcb..).
L’uscita degli eeepc e degli atom lascia pensare che il momento del cambio di rotta sia alle porte, ma non credo che attualmente il risparmio energetico sia la priorita’ della maggioranza degli utenti pc (ad esempio, per come lo intendi tu, non lo e’ per me).
Probabilmente il punto e’ che non tutti condividono i tuoi timori sulle emergenze ambientali ed energetiche e si comportano di conseguenza.
Come al solito quanto sopra e’ tutto IMHO
-Gas-
“In informatica quello che gli utenti chiedono e’ “maggiori prestazioni”.”
Poi comprano in massa i netbook che stanno agli antipodi, segno che chiedono maggiori prestazioni rispetto a qualcosa che già possiedono e non sanno neppure lontanamente valutare.
La realtà è che chiedono maggiori prestazioni perchè il mercato induce in loro l’idea di averne necessità, fornendo programmi e os eccessivamente pesanti.
Più che altro mi chiedo a cosa serva.
Nel 1990 comprai un 286, perché i 32 bit del 386 mi sembravano inutili e, pagando meno, andavo uguale sul software a 16 bit di allora. Poi è diventato un acquisto interessante. 386, 486, Pentium, … ho aggiornato i miei PC in continuazione, tutto andava meglio e più forte, perfino il comando dir (LOL)! Ma ormai sono anni che l’hardware ha reso programmini quelli che erano programmoni, a meno di non gonfiarli…
Possibile che ora mi serva un coso con dieci volte la frequenza e quattro core, se voglo solo usare il wordprocessor? Oppure: non avrebbe più autonomia il mio portatile, se fosse single core?
A ben pensarci, anche l’eeePC ha una potenza mostruosa, rispetto a macchine di dieci anni fa: nel 1998/9 usavo un processore a 266 Mhz.
Io adoro il progresso tecnologico, ma un Eurofighter per fare la spesa? E’ umiliante per quei processori e quei computer, che 20 anni fa sarebbero stati supercomputer, usati per scrivere le email. Ve lo immaginate un “Roadrunner” usato per scrivere email? Di questo passo, aspettate 20 anni e lo vedrete… Poi non è che l’aumento dell’efficienza a parità di potenza di calcolo non sia progresso.
Io penso che la parola chiave dell’articolo sia “spreco” e in questo senso sono d’accordo.
@ Gas
Si possono non avere delle preoccupazioni particolari in merito ma mi pare sia comunque piuttosto notevole il fatto che, nel pieno di una crisi energetica e con serie preoccupazioni sull’ambiente, non smettano di crescere in assoluto (non parliamo di performance/watt) i requisiti energetici di molti componenti elettronici (CPU, GPU e quindi dimensionamento PSU).
“non smettano di crescere in assoluto”
Già adesso le nostre infrastrutture mostrano i loro limiti, in particolar modo durante l’estate quando i condizionatori galoppano a tutto andare, con la gente che se potesse se li infilerebbe nelle mutande.
I prossimi anni saranno anche peggiori, perchè ai condizionatori si aggiungeranno computer sempre più potenti con i quali la gente cercherà svago durante le giornate di calicola.
Io mi chiedo solo una cosa: per adesso siamo relativamente in pochi a sperperare la poca energia che abbiamo a disposizione ma per il futuro, quando intere nazioni attualmente più impegnate a produrre piuttosto che a consumare, vorranno avere anche loro condizionatori e super computer, cosa succederà ?
[…] post infine, può essere collegato ad una recente riflessione di Alessio sulla reale necessità di una sfrenata corsa all’aumento prestazionale nel […]
Acquistare un prodotto in base a come tutela l’ambiente è una scelta che deve stare al consumatore, e non al produttore.
Così come ho scelto l’automobile in base al suo impatto (consumi, dimensioni, inquinamento, necessità personali, ecc.), allo stesso modo ho scelto i componenti del mio computer tra i migliori possibili nel compromesso constante di quelli più efficienti, cioè quelli che con minor spesa e consumi danno le migliori prestazioni.
Posso non avere il miglior PC del mondo, ma so di aver contribuito a un mondo migliore per me.
Chi vuole può fregarsene delle scelte sostenibili, ma non si permetta di lamentarsi quando questo equilibrio gli crollerà da sotto i piedi e i sacrifici che gli chiederà saranno per lui insostenibili.
io sn una persona innamorata dell’informatica, capisco tutte le preoccupazioni che si creano pensando al fatto che comunque i centrini piu grandi consumano di piu, ma io penso che come hanno fatto con le auto con i motori catalitici ecc… cosi faranno anche con i pc nel senso che troveranno il modo di consumare di meno nonostante la potenza di un processore si triplichi o addirittura sia 10 volte superiore ad un quad core
Concordo con chi dice che sono totalmente inutili questi quad core (mo pure 8 tra un po ne metteranno 20) per l’utilizzo domestico Capisco benissimo per autocad ecc.. ma Ragazzi se non lo usate per il lavoro lasciate sta non fatevi prendere per il culo perche troppo ce devono magna ancora questi che li producono. Io ho un vecchissimo amd sempron 2800+ gli ho fatto un adeguata manutenzione daccordo oltre a questo ho solo aumentato la Ram perche era scarsissima e gli ho messo un buon masterizzatore DVD nuovo (il vecchio mi si è rotto) mo gira come un aereo ci masterizzo film ci vado su internet ci ascolto musica ci vedo film senza rallentamenti. Per necessita apro piu applicazioni contemporaneamente e li regge benissimo rallenta solo di poco. Tranne che per scansioni antivirus la mia cpu non viene mai sfruttata piu del 45%. Allora che ce fate co tutta sta potenza? pensateci prima de fa na cazzata der genere che dopo un mese ne escono 10 piu potenti di quello che comprate
si sono dacordo
io avevo un AMD 1core, adesso ho AMD 4core qusto si riscalda si più e consuma molto di più del altro
Le grandi corporation dell’informatica, ci hanno sempre marciato sulla questione della “potenza”, in fondo tutta la questione del “benchmarking” nel settore desktop è sin troppo esagerata, non mi interessa se un Core I7 è 20 secondi più veloce di un Phenom nel fare rendering, 20 secondi per un dilettante, o un semi-pro non fanno nemmeno differenza.
In settore lavorativo “office” le cose vanno ancora peggio, ci sono parecchi uffici dove dei PIV “Willamette” 1.6 Ghz, vituperati NetBurst, con 512Mb di memoria, gesticono tranquillamente database, fogli di calcolo, programmi di contabilità, connessioni LAN…
Allora che li spendi a fare 3000 euro di PC? Nel settore desktop, la risposta più comune (89%) è per giocare! Fra l’altro non sarebbe nemmeno necessario un 4 core, ne basterebbero 2, dato che molti giochi non sono nemmeno ottimizzati per la gestione di 4 cores.
E’ la dura legge del mercato, che seppur pilotato dai media e dalla pubblicità, in ultima analisi è determinato dalle libere scelte di liberi pensatori: i consumatori. Purtroppo molte persone non se ne fregano niente di tenere accesa una macchina da 1 kw per giocaer o per farci cose per qui basterebbero 10 w. Anzi spesso sono i genitori delle stesse che pagarno le bollette. E così, seguendo il profitto, il pianeta se ne va a puttane. E allora possiamo solo pregare e accendere molte candele
Che articolo idiota!
quelli da incriminare non sono solo chi fa gaming allo stato puro ma sono anche quelli che dopo 10 anni sono ancora li davanti al loro pc che ci mette 1 ora ad aprire una pagina web e che consuma come un quadcore dell’intel! con la differenza che lui ci sta 10 ore per fare una cosa mentre chi si è aggiornato ci mette 2 minuti e non consuma e sprega elettricità!!
nessuno di voi usa o sa cosè BOINC ?
Pentium 4 forever!! Col pentium 4 da 2,4 ghz, faccio tutto quello che fa la gente con un quad core, in tempi brevissimi! Tanto sappiamo tutti perchè sono stati creati i core, perchè dopo 3 ghz non son riusciti ad andare oltre!! Quindi, la frequenza dei core non va sommata, e alla fine abbiamo “tante cpu” (non esageriamo, pseudo cpu), che lavorano contemporaneamente. Ma per i programmi di qualche anno fa, quelli scritti per la single-core, questo ragionamento non funziona. Quindi, ecco perchè, in alcuni casi è più performante un pentium 4 di un quadcore! I CONSUMI, AHAHAHAH! I consumi non superano mai l’output dell’ali! Il mio ali è da 200 w. Un quadcore crasha con un ali da 200 w, ne servirebbero 5-600 W!! Quindi il consumo risparmiato sualla cpu, lo si recupera con schede grafiche in crossfire, dissipatori da chissà quanti ampere, raffreddamento a liquido, dissipatori per ram (assenti sul pentium4). La tecnologia avanza troppo velocemente, ma l’utenza media non ha capito ancora a cosa serva il pc. Allora facebook funziona anche su un pentium Pro! Autocad invece funziona bene anche sui netbook! A meno che uno non debba fare rendering, elaborazione sonora e video digitale, può accontentarsi di pc di 10 anni fa!
Non è corretto dire che la cpu a 8 core è inutile. E’ corretto specificare quale cpu a 8 core è utile e per cosa lo è. Il tutto commisurato alle prospettive di lavoro e alle richieste verso il sistema. Felice possessore di un six-core che in full-load ha un tdp di 40 watt.
@Piero
è un articolo del 2009, basato su presupposti che in tempi tecnologici equivalgono a un’era geologica fa.
Il tema di fondo era ed è, anche se in misura molto minore negli ultimi anni di “mobile first” e “post PC”, che l’industria si rinnova creando bisogni, di CPU che nella fattispecie nel 2009 erano ben poco sfruttabili dal software nel mercato consumer cui erano destinate.