Da qualche tempo a questa parte vanno addensandosi nuvole nere sul reparto OS di Microsoft. Analisti, giornalisti, appassionati, spesso convengono sul fatto che Vista abbia mancato di portare innovazione reale e utile nel mondo Windows, secondo Gartner addirittura conducendolo sull’orlo del collasso.
Come conseguenza, è sempre più frequente il downgrade e gli OEM pressano sempre più insistentemente Microsoft per continuare a soddisfare la domanda di sistemi equipaggiati con Windows XP, che prevedono resisterà oltre il termine fissato dal gigante di Redmond (Giugno 2008) per il pensionamento di XP.
Fra i rilievi mossi a Vista dalla citata analisi di Gartner, emerge il fatto che l’intera base di codice dell’OS sia troppo vecchia per tollerare aggiornamenti significativi, e che questo freni l’ innovazione e quindi mini alla radice il ciclo di upgrading.
Tutto ciò visto e considerato, una domanda sorge spontanea – e già aleggia per tutta la rete: Windows 7 rinuncerà alla retrocompatibilità per accelerare sull’innovazione?
Un articolo apparso qualche tempo fa su ArsTechnica – scritto da uno sviluppatore che ha abbandonato Windows per passare a OS X – fa luce sulle lezioni che Microsoft potrebbe imparare da Apple, proprio in merito all’innovazione dei suoi OS. L’autore, constatate crescenti difficoltà nello sviluppo su piattaforma Microsoft, elogia la semplicità e la potenza dell’ambiente OS X, che a suo dire è stato capace di offrire all’utenza e agli sviluppatori strumenti realmente rivoluzionari rispetto alla precedente generazione di OS.
Anche se non si vogliono sposare le tesi esposte dall’articolo di ArsTechnica, è interessante passarne in rassegna le argomentazioni. In particolare l’autore fa riferimento al progetto Copland, un sistema operativo che alla fine degli anni ’90 si preparava a sostituire Mac OS 9 seguendo un approccio evolutivo.
La cancellazione del progetto Copland, l’acquisizione di NeXT e il successivo sviluppo di OS X rappresentano a parere dell’autore, la radice dell’attuale successo di OS X, il quale ha saputo rinunciare alla retrocompatibilità grazie al Classic Mode – una virtual machine capace di garantire una buona compatibilità con le applicazioni scritte per OS 9 – per seguire un approccio di innovazione senza compromessi.
Con la migrazione a Intel, OS X ha perso da un lato il sempre più obsoleto Classic Mode, per guadagnare dall’altro una più diretta compatibilità con le Windows e le relative applicazioni: un piano ben riuscito, come direbbe Hannibal Smith dell’A-Team.
Nel mondo Windows, il passaggio alle API Win32 ha invece replicato – secondo l’autore – gran parte degli errori contenuti nelle Win16, privandole di consistenza e rendendole incoerenti. Le Win64 a loro volta portano ancora il peso di decisioni prese 20 anni fa.
Pur non essendo in grado di giudicare queste valutazioni nel merito tecnico, posso dire che osservando l’approccio di Microsoft al mercato sembrano perfettamente sensate. Sensate perché ricalcano una logica che nei fatti ha guardato in prima istanza alla preservazione e all’aumento della quota di mercato – operazione in questo senso riuscita – ma che proprio per questo oggi sembra giunta ai suoi limiti strutturali
E se nel 2010 Windows 7 cambiasse tutte le carte in tavola, assicurando la retrocompatibilità solo attraverso l’integrazione di una macchina virtuale, non sarebbe quasi del tutto intercambiabile con OS X? Ma a quel punto non avrebbe qualche anno di evoluzione da recuperare rispetto al rivale Apple, partito già nel 2001 con un approccio di completa rivoluzione? O sarà forse in grado di rappresentare un salto in avanti anche rispetto alla allora corrente versione di OS X?
Sono domande a cui è difficile oggi dare una risposta, ma che sono convinto segneranno il futuro delle OS wars. Un futuro che, a differenza di un decennio fa, sembra tutt’altro che segnato.
Ho sempre considerato la retrocompatibilità fondamentale in alcuni campi (e non mi riferisco solo ai sistemi operativi, ma penso acnhe ai lettori dvd/cd, tanto per fare un esempio, o ai giochi ps1 che girano su ps2, tanto per continuare), ma credo anche che si arrivi, ogni tanto, ad un momento in cui la retrocompatibilità non è più necessaria (tornando all’es. di prima: nessuno vuole la cassetta nel lettore dvd). A mio parere, la retrocompatibilità si sente come necessaria nel momento in cui perdendo il supporto fisico (o di codice) si perdono i contenuti (i contenitori in definitiva interessano poco).
Tutto ciò nei videogames è risolto con gli emulatori e credo che possa essere fatto, sui computer di oggi, anche per interi sistemi operativi. Concordo dunque con Alessio e con l’analisi di Gartner e vorrei pure metterci un carico sopra: credo fermamente che l’aiuto della comunità sia molto importante nei progetti informatici di grande respiro (potrei citare una marea di esempi in cui la comunità ha saputo far meglio degli sviluppatori ufficiali) e questo Microsoft sembra proprio non volerlo capire.
Se Microsoft è arrivata ad un limite strutturale, beh… lo deve solo a se stessa.
Per lo meno l’autore ha ammesso di non aver le competenze in materia per poter giudicare le valutazioni da un punto di vista tecnico, perchè normalmente chi si sbrodola tanto sugli aspetti tecnici di os x e dei suoi strumenti di sviluppo non solo non ha le competenze in materia per dirlo, ma non lo ammette neanche.
La mia domanda è: ma allora, se l’autore se ne rende anche conto, perchè implicitamente accetta una tesi come riconosciuta?
Inoltre, è mai possibile che si spaccino dei terremoti come quello del passaggio da os 9 a os x o come quello dello switch da PPC a x86 come delle grandi mosse strategiche da parte di apple quando in realtà sono state delle scelte obbligate e anche fortemente impattanti?
Mi spiego… il passaggio a os x, che se qualcuno qui se lo ricorda non è stato proprio così indolore (se c’è chi si lamenta che un windows prima del primo service pack è da considerarsi una beta vorrei ricordare come venivano giudicati ai tempi gli os x prima del 10.2, forse il primo effettivamente utilizzabile), è stata una scelta obbligata perchè apple non riusciva più a portare avanti lo sviluppo di un proprio sistema operativo. Un sistema operativo è estremamente complesso, e costoso da sviluppare; apple poteva spendere una valanga di soldi e non avere una base competitiva con xp (il cuore dell’os di os 9 difatti era paragonabile a un 98, poi sulla gui possiamo discutere però giusto per fare un esempio vi ricorderete tutti che se si inchiodava un’applicazione il più delle volte si portava nella fossa tutto il sistema; per non parlare della gestione della ram) oppure fare la scelta più saggia, ovvero buttare nel cesso ciò che aveva fatto fin’ora e cambiare sponda.
Così fece. Cosa prese? Darwin. Un BSD. Come mai? Perchè non linux? Perchè i BSD sono più fighi? Si, certo, ovviamente questo è quel che dicono; la verità è che la licenza BSD è una delle poche che ti permette di prendere il codice e farne quello che vuoi, usi commerciali inclusi.
Risultato: apple sviluppa ogni nuova major release di os x con poche decine di milioni di dollari. Non a caso di codice suo (per suo intendo scritto da programmatori apple) dentro os x ce n’è una percentuale molto bassa, che non arriva al 10%.
Questa scelta insomma è stata dettata da una parte dall’incapacità di proseguire nello sviluppo perchè la concorrenza era irraggiungibile e dall’altra per una corretta questione economica (onor al merito all’azienda apple per sfruttare il lavoro altrui a proprio vantaggio).
Allo stesso modo nel passaggio a x86 si è fatto fuori codewarriors e si è dovuto ricorrere a quella porcata che sono i fat binary, una tecnica estremamente rozza (due binari impacchettati in un solo file, per favore, davvero ne dobbiamo parlare?); anche qui ci sono alcune cose che non vengono dette, come le difficoltà di quelle software house piccole o medio-piccole (per non parlare dei singoli sviluppatori) che si erano appoggiati a codewarriors e non a xcode (eretici, un prodotto non apple, vi sta bene!), difficoltà tali che si sono ripercosse anche sulle più grandi software house (qualcuno conosce adobe?), tant’è che importanti applicazioni sono arrivate in nativo solamente molto tempo dopo dei mac x86…
E prima di fare dei paragoni con il mondo MS, probabilmente bisognerebbe approfondire un po’ di più il discorso, perchè va bene la moda di dire che MS è merda su tutto e per tutto, però la realtà dei fatti è che MS non è particolarmente brillante per quanto concerne l’interfaccia utente, ma per quanto concerne la programmazione e lo sviluppo ha sotto le palle… poi non tutto quel che fa ovviamente è condivisibile – così come apple (anche se non se ne parla mai, bisogna fare muro) – però sia a livello di strumenti di sviluppo che a livello di supporto veramente ha sotto i contrococomeri… certo, magari per il singolo sviluppatore non è l’ideale (ad es. per quel che serve a me va meglio linux), ma per una software house avere certi strumenti e soprattutto un certo tipo di supporto è vitale; e MS è brava a fare proprio questo, a fare ecosistema, mentre apple finchè si vorrà tenere in casa il grosso del business non andrà mai più lontano di tanto… potrà crescere di un po’ ma poi basta, perchè dall’altra parte non c’è MS, c’è un colosso che è grande 15 volte più di MS, ovvero MS insieme a tutti i suoi partner e a tutti coloro che fanno business grazie a MS (1 a 15 è il rapporto di fatturato MS e indotto generato)… apple è troppo egocentrica, così come il suo capo, per lasciare la fetta grossa agli altri, pertanto per la os war beh ne riparliamo tra 10 anni.
@ FX
“La mia domanda è: ma allora, se l’autore se ne rende anche conto, perchè implicitamente accetta una tesi come
riconosciuta?”
Ma come, contesti me di dare cose per certe senza dimostrarle, e non mi spieghi per quale motivo tecnicamente, dato che dai a intendere di conoscere la materia, non è vero che la retrocompatibilità rallenta l’innovazione di Windows? Tra l’altro fra le fonti da me citate non ci sono un paio di cazzoncelli fanboy di Apple ma Gartner, che sostiene esattamente l’incapacità di MS di innovare un OS divenuto ormai stantio, e di uno sviluppatore, che per quanto di parte voglia essere, ha riportato degli argomenti ben precisi nell’articolo linkato.
Io non m’intendo di programmazione ma un po’ ne capisco di mercato. Le questioni che pongo alla fine, le pongo in maniera interrogativa. Quello che sostengo, e non ci vuole Einstein, è che la retrocompatibilità è stata a lungo la leva con cui Microsoft ha ampliato e mantenuto la sua quota di mercato. Nei limiti in cui la retrocompatibilità fosse davvero un problema, come alcuni sostengono, Microsoft si troverebbe oggi in una posizione molto critica, cioè dover scegliere se rinunciarvi, correndo rischi, o insistere, correndone forse di peggiori.
Il parallelo fra il passaggio da OS 9 a X e Windows mi pare non proprio azzeccato. Fra OS 9 a X c’è quasi nulla in comune. Fra il 2000 e XP, OS dopotutto molto simili, MS ha avuto modo di infilarci una serie di intoppi che hanno reso XP completamente maturo solo con l’SP2, quando il 2000 SP4 lo era anni prima. Non mi sembra esattamente un approccio evolutivo.
Che ci piaccia o meno le “svolte” di Apple (X e Intel) hanno avvicinato il mac alle esigenze di una clientela sempre più vasta. Microsoft in questo senso con Vista sta ottenendo risultati per nulla simili, quasi opposti.
Questo è un merito di cui si dovrebbe ragionare, al di là dei pure condivisibili appunti su scelte poco eleganti come i fat binaries etc (a proposito: tu come l’avresti evitato il ricorso ai fat binaries dovendo sviluppare per due architetture differenti?).
“Questa scelta insomma è stata dettata da una parte dall’incapacità di proseguire nello sviluppo perchè la concorrenza era irraggiungibile e dall’altra per una corretta questione economica (onor al merito all’azienda apple per sfruttare il lavoro altrui a proprio vantaggio).”
Ti ricordo che la cancellazione di Copland e l’integrazione della tecnologia NeXT è una delle conseguenze del ritorno di Jobs, titolare di NeXT.
In secundis, come ricordi, BSD ha una licenza aperta (quindi è anche a disposizione di MS se vuole!): c’è poco da puntare il dito contro Apple per averla sfruttata a suo vantaggio. Tra l’altro mi pare che Darwin sia open source.
La differenza comunque, oltre alla scelta di un sistema solido come partenza, l’ha fatta la capacità di Apple di costruirci sopra un OS di stabile e flessibile, una gui ottima e una base di sviluppo ritenuta coerente e solida. Al contrario MS, per non essere stata capace di andare oltre XP dal 2001 al 2007, deve solo rimproverare se stessa.
“E prima di fare dei paragoni con il mondo MS, probabilmente bisognerebbe approfondire un po’ di più il discorso, […] per la os war beh ne riparliamo tra 10 anni.”
Ti assicuro che di coprire le spalle ad Apple non può fregarmene di meno, se leggi i miei articoli passati te ne accorgi da solo.
Riguardo al business che gira intorno a MS, andrebbe considerato che detiene il quasi monopolio tanto nel settore OS che in quello Office. Tenersi tutto per sé sarebbe fisicamente impossibile.
D’altro canto è impensabile fare il confronto fra rapporto fatturato/indotto esterno di una casa come MS e una come Apple (che ricava a differenza di MS una ottima fetta dei guadagni dalla vendita di hardware). Al cambiare della posizione di mercato cambieranno anche le strategie, e se ad Apple converrà tentare di allargare la sua base per uscire dalla nicchia, stai tranquillo che ci proverà.
Riguardo all’egocentrismo di Jobs – su cui comunque ti do ragione – non mi pare una base molto solida per fare previsioni sul futuro. Considera anche che stai parlando del manager generalmente riconosciuto come uno dei più abili della storia informatica. Per quanto possa essere antipatico, parliamo di un signore che negli ultimi anni le ha azzeccate tutte o quasi…
[…] da questa crescita non è dunque stata Microsoft, che con Vista ha secondo molti compiuto un grave passo falso, ma piuttosto i suoi competitor: da un lato Apple, che ha registrato un ottimo successo delle […]
“non mi spieghi per quale motivo tecnicamente, dato che dai a intendere di conoscere la materia, non è vero che la retrocompatibilità rallenta l’innovazione di Windows?”: sei tu che lo dici, sei tu che devi dimostrare che la retrocompatibilità rallenta windows.
io mi ricordo anni e anni in cui si diceva che la retrocompatibilità con gli 8086 segnava maledettamente le performance di tutti i nuovi processori intel, e che da lì a poco intel avrebbe introdotto un’architettura completamente nuova, tagliando tutti i ponti con il vecchio, perchè sarebbe stato l’unico modo di andare avanti.
sono cazzate, ovviamente. gli x86 sono i processori della fascia di mercato a cui appartengono largamente più performanti e tutto perchè? perchè il set di istruzioni CISC è solo una convenzione, all’interno di ogni x86 moderno c’è un traduttore che si occupa di tradurre le istruzioni CISC in microcodice, e guarda caso il risultato dà la paglia a qualsiasi altro processore, anche di fascia superiore, per lo meno per quello in cui gli x86 sono specializzati, ovvero il general purpose.
in Vista probabilmente ti sei perso che:
1) la compatibilità con win16 è data dalla tecnologia WOW (Windows On Windows), che guarda caso si appoggia sull’NTVDM (NT Virtual Dos Machine): guarda caso una virtual machine
2) la compatibilità con win16 nelle versioni di vista a 64 bit è stata TOLTA e con win32 è tuttora garantita da WOW64
ora, a me non sembra nè che la retrocompatibilità sia mantenuta a tutti i costi nè che laddove viene mantenuta lo si faccia con questi sistemi così sporchi: un layer che traduce al volo il binario win32 in binario che gira nativamente sotto vista…
oltre a questo l’altro aspetto ampiamente sottovalutato è che vista è un salto generazionale – poi questo non si traduce in un apprezzamento (per il largo pubblico avessi preso XP e messo sopra la gui di vista avresto sortito esattamente lo stesso effetto spendendo meno di un centesimo di quanto MS ha investito). vista è il primo windows scritto praticamente da zero, con tutto quello che comporta. non è evolutivo, a parte nella gui, ma rivoluzionario. poi non è esente da critiche, ma questo è un altro discorso.
per quanto rigurada i fat binary, beh, guarda .NET: ti fai il tuo programma in C#, Visual Basic o quant’altro e lo compili in cosa? uno pseudo assembler, un codice macchina “astratto”: quando lo lanci il compilatore al volo lo prende, lo compila nel codice macchina della cpu su cui il sistema gira e ta daaaa hai la tua applicazione che gira su qualsiasi hardware senza dover impacchettare in un file mille mila binari… il punto è: questa è una soluzione figa, la soluzione figa costa, facciamo i fat binary che si implementano in mezza giornata, tanto all’utente medio non gliene frega una mazza. =)
ultima cosa: non voglio togliere niente a jobs ma jobs è un grande secondo, e le azzecca tutte per la posizione in cui è… anche perchè difficile sostenere che jobs sia migliore di quello che gliel’ha messo in quel posto =)
A proposito dell’analisi di Gartner sulle condizioni future di Windows, riporto una interessante prospettiva di uno sviluppatore KDE
http://www.omat.nl/drupal/nice-tactics-microsoft
giusto perché è un punto di vista originale: secondo lui Gartner, facendo fuoco preventivo, sta facendo il gioco di Microsoft per aiutarla a poter “rompere” la retrocompatibilità con un sistema operativo futuro.
“io mi ricordo anni e anni in cui si diceva che la retrocompatibilità […] andare avanti.”
Sarebbe stata in effetti un’ottima idea. Il costo di produzione di una cpu è proporzionale al numero di transistor, che è in parte proporzionale (fatta salva la cache e le periferiche integrate) alle istruzioni hard coded. Nel momento in cui la larga parte delle istruzioni x86 sono oggi inutilizzate, e la ISA viene customizzata volta per volta (MMX, SSE1-2-3-4, 3dnow! etc.) per accelerare l’esecuzione di operazioni che il set 386 esegue a pedali, è legittimo dire che la retrocompatibilità con la isa x86 appesantisce le CPU e aumenta i costi senza produrre vantaggi tangibili – oltre a quello della retrocompatibilità.
“sono cazzate, ovviamente. gli x86 sono i processori della fascia di mercato a cui appartengono largamente più performanti e tutto perchè?”
In che senso? La ISA x86 è quella che negli ultimi anni ha dominato il segmento general purpose, grazie che è la più performante: il 100% del SW consumer è progettato per x86. Quando entriamo in settori in cui varie ISA lottano ad armi pari, x86 prende anche sonore bastonate da architetture concorrenti (Power p. es., che domina da anni la top500).
“perchè il set di istruzioni CISC […] ovvero il general purpose.”
Esattamente. In ogni CPU x86 moderna (dal PPro in poi credo) le istruzioni CISC vengono smontate in microistruzioni eseguite con logica RISC. Non mi pare però un esempio di efficienza…
“in Vista probabilmente ti sei perso[…] sotto vista…”
In effetti quello che sostenevo è le API win32, riflettono scelte tecniche risalenti alle win16; stesso dicasi per le win64 che hanno come base le win32. Come conseguenza le API dell’ultima versione di Windows recano ancora le conseguenze di scelte tecniche fatte decenni fa. Ti riporto l’esempio fatto dall’autore dell’articolo citato.
What makes this all worse is that Win16 was never well-designed in the first place, and Win32 has replicated poor decisions in abundance. Win32 is a big API; it’s really huge, many thousands of API calls, and it’s totally inconsistent. It’s inconsistent in every way imaginable.
For example, many of the functions in Win32 require the caller to give a buffer to the function to store some data, and often that buffer has a size that’s dynamic. Typically, the API can figure out how big the buffer needs to be, but the caller can’t. A sensible software developer strives to solve the same problem the same way each time. It makes things easier for everyone concerned; it’s easier for the software developer (because he only has to design one approach to doing it), and it’s easier for people using his code (because they only have to learn one approach to doing it). There’s no good reason to do it different ways. Yet Win32… Win32 does it in different ways.
* Sometimes you can pass in an empty buffer and the function will tell you how big a buffer it needs.
* Sometimes you have to pass in a small—but not empty—buffer and the function will tell you how big a buffer it needs.
* Sometimes the function allocates a buffer from one of the standard Win32 memory allocators all on its own.
* Sometimes the function allocates a buffer from a custom API-specific memory allocators all on its own.
Now, there might be some consistency in different portions of the API—the set of functions for dealing with backup/restore operations might all work in the same way, the set of functions for dealing with the registry might all be consistent, and so on. But while that might make sense to the people developing the OS, all in their own little teams, it’s of no comfort to people like me who want to write Windows software.
“per quanto rigurada i fat binary,[…] non gliene frega una mazza. =)”
Più che una soluzione figa questa mi sembra una soluzione poco performante. La dynamic translation (JIT) inserisce un ulteriore livello intermedio fra l’applicazione e l’hardware, che implica necessariamente un rallentamento. E tra l’altro questo, molto prima di .net lo faceva Java. Quello dei fat binaries è di certo un tradeoff, e se vogliamo poco elegante, ma continuo a non vedere alternative per un’azienda che finora è passata per 3 ISA, da 68k a PPC e a X86 e poi chissà. Infine rappresenta una soluzione obbligata per un’azienda che non voglia distribuire il codice sorgente delle applicazioni per la compilazione ad hoc, né usare l’approccio dell’installer che sceglie lui i binary da installare, il che è forse anche peggio dei FB.
“ultima cosa: non voglio togliere niente a jobs ma jobs è un grande secondo, e le azzecca tutte per la posizione in cui è… anche perchè difficile sostenere che jobs sia migliore di quello che gliel’ha messo in quel posto =)”
Non credo che Jobs l’abbia molto preso in quel posto, se non quando si è fatto copiare l’OS. Dovresti ricordare che Jobs è uscito dalla Apple nel 1986 ed è rientrato nel 1997. I registi della disfatta di Apple a vantaggio di MS sono dunque quelli che lo hanno buttato fuori, portando l’azienda sull’orlo del fallimento. Fallimento da cui poi Jobs l’ha pienamente salvata – anche con il contributo di MS, che le ha prestato 100 milioni – facendone una delle prime aziende informatiche al mondo. Negli ultimi dieci anni sono molti di più quelli che da Jobs hanno “ricevuto”, in primis nel mercato della musica e dei player multimediali.
Sono 2-3 anni che spero ad alta voce nella rottura rispetto alle Win32, modularità e .NET come centro del SO che verrà ma sembra che nemmeno Blackcomb che pur prometteva bene avrà come capisaldi.
Peccato e io che vedevo alle porte davvero una rivoluzione piuttosto che un’altra evoluzione…
Pienamente d’accordo. Credo che con Windows 7 MS non avrà scampo, ma a quel punto, il tradeoff con la retrocompatibilità aprirà il mercato a una concorrenza molto più serrata…
Ne vedremo di sicuro delle belle. Mi piacerebbe vedere MS puntare tutto sull’innovazione e uscire con un OS che dal punto di vista tecnico mette gli altri in condizione di inseguire.
[…] performance/sicurezza/stabilità/usabilità, per alcuni rappresenta l’apice di una fantomatica svolta negativa per […]
Non sono tanto convinto che la rottura di compatibilità aprirà la strada ai concorrenti.
MacOSX è legato all’HW e, seppur ne abbiamo già parlato, la Apple non ha alcun interesse ad aprirlo a “mela-compatibili” perchè il suo core business restano le macchine e perchè il passato ha insegnato come la mossa non fosse esattamente delle più geniali (ok ora ci sarebbe Jobs a guidare le fila dell’operazione ma la sostanza secondo me non cambierebbe).
Linux soffre dei suoi sempiterni problemi legati all’OpenSource.
Restano i progetti alternativi che implementano le Win32 e per questo si parla molto di SkyOS, ReactOS ecc.
ma la realtà è che sono progetti di nicchia di cui solo gli addetti ai lavori o gli smanettoni informati hanno conoscenza e non hanno alcuna “faccia commerciale” da presentare ad un pubblico variegato come quello che usa Windows per gli scopi quotidiani.
E’ un dato di fatto che la virtualizzazione negli ultimi tempi ha preso piede anche nel settore consumer (dopo che in quello enterprise ormai la si utilizza con profitto almeno da una decina d’anni) e il SW è diventato nettamente più user-friendly (chi ha usato VMWare Fusion, VirtualBox o VirtualPC se n’è accorto).
E le prestazioni dei computer, almeno quelli presenti nei listini di negozi e GDO permetterebbe tranquillamente l’esecuzione di applicativi seppur “virtualizzati”.
Per cui l’operazione di rottura, in vista se non di Windows7, del successivo SO credo sia sicuramente fattibile.
Il problema più grande resta da una parte convincere le realtà aziendali che non vogliono upgradare il proprio parco macchine, dall’altra raggiungere tutte quelle persone stile casalinga-di-Voghera che non hanno la più pallida idea di come si possa creare una macchina virtuale nè come installarci un SO sopra e relative applicazioni (insomma occorrerebbe fornire di default un’infrastruttura già pronta, una sorta di sand-box mascherata da desktop e ambiente di esecuzione di tutti i giorni).
Se non c’è retrocompatibilità vuol dire riscrivere le applicazioni. Se devo riscrivere i prg che ho ancora con VB5 le riscrivo con gambas (linux) eliminando il problema di dipendere ancora sa microsoft e le sue decisioni di cambio OS a comando.