di  -  giovedì 13 gennaio 2011

Con l’avvento del mobile, l’intero mondo tecnologico sta trovando strade alternative rispetto agli equilibri consolidati nell’epoca del PC. La stessa tenuta del legame Microsoft – Intel è stata posta in discussione dai recenti sviluppi dello scenario tecnologico.

Al CES 2011 la divaricazione è divenuta insanabile: x86 non è più l’architettura esclusiva per le prossime versioni di Windows. La strategia di Ballmer (qui il video del keynote), seppur sensata in ottica mobile, manca tuttavia di fugare dubbi circa gli scenari futuri, particolarmente in merito alla frammentazione dell’ecosistema software che risulterà dalla transizione e alla visione complessiva del colosso di Redmond del mercato mobile.

Partiamo dal primo punto. Nella dimostrazione del CES abbiamo osservato il kernel del nuovo Windows (sotto la pelle di 7), girare su architettura ARM ed x86.

Ma in che modo verrà gestita la convivenza? Ciascuna architettura rimarrà a presidiare una serie di prodotti (x86 per i classici PC, ARM per tablet, subnotebook etc.?) o piuttosto le vedremo affiancate all’interno di dispositivi della stessa categoria?

In questo secondo caso, come sarà evitata la frammentazione del gigantesco ecosistema software Windows? E in particolare del già caotico mondo dei driver di periferica? Si richiederà agli sviluppatori di offrire due versioni delle loro applicazioni, magari impacchettate in un unico contenitore, stile universal binary?

Ma anche in questo caso, in che modo verrà assicurata una uniformità di performance e funzionalità su architetture così differenti in quanto a prestazioni pure?

Per queste ragioni Microsoft potrebbe decidere di evitare lo scenario della sovrapposizione, optando per una spartizione del territorio. Il che rappresenterebbe comunque un azzardo: da anni Intel impiega tutte le sue energie a contrastare ARM sul campo dei processori energy efficient e se non un sorpasso, potremmo presto osservare un buon avvicinamento. Ora che ha “infilato il piede nell’altra scarpa”, quanto tempo avrà invece Ballmer per decidere quale strategia adottare e di conseguenza in che direzione “sterzare” il suo colossale ecosistema software?

Passiamo al secondo ordine di problemi, che concerne la visione complessiva del mercato mobile che Microsoft ha sviluppato. Nella demo del CES, Michael Angiulo (Corporate VP Windows Planning) e Ballmer sono stati molto fieri di dimostrare nient’altro che la cara vecchia accoppiata Windows + Office al lavoro sulla nuova architettura, con tanto di pacche sulle spalle per complimentarsi del funzionamento dei driver della stampante USB.

Se il CEO di ARM si dichiara poco interessato al mercato PC, la demo di Microsoft non fuga il dubbio che Ballmer continui a vedere i dispositivi mobile come versione in scala ridotta dei PC. Il che mal si concilia con il solco tracciato da Apple e Google e con la stessa ispirazione di Windows Phone 7, un prodotto interessante perché semplice ed immediato, libero da ogni vincolo di retrocompatibilità e dotato di una UI innovativa.

Il che ci conduce ad un’ultima, molto auspicabile prospettiva: che Microsoft stia estendendo ad ARM il nucleo dell’OS al fine di agevolare la trasportabilità delle applicazioni attraverso una gamma estremamente eterogenea di dispositivi. A differenziare i quali saranno delle UI volta per volta adeguate al formato: dal classico tastiera+mouse fino allo spettacolare Surface 2, passando per smartphone, sub-notebook, tablet.

Uno scenario del genere, magari accompagnato da una divisione verticale dei dispositivi in base al mercato di riferimento (consumer, business, con Intel magari a farla da padrona su quest’ultimo segmento) aiuterebbe la coesistenza delle due architetture senza rendere ulteriormente caotico il parco hardware Windows.

Rimane però l’incognita del tablet, un dispositivo-cerniera fra PC e smartphone, sul quale proprio al CES 2010 Ballmer mostrava di avere una visione molto chiara (un PC in miniatura, Windows 7 + x86), ma che nel 2011 sembra sparito dai piani dell’azienda.

Se la transizione di questi giorni dovesse, come spero, favorire l’inserimento di questa classe di dispositivi in una griglia di prodotti credibile e coerente, rimarrebbe solo da capire da quale/i UI sarà accompagnata. Un dettaglio di non poco conto per il successo dell’azienda in un segmento di enorme importanza strategica, su cui Ballmer non può più permettersi la minima esitazione.

47 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    the solutor
     scrive: 

    La notizia è sicuramente di rilievo. Ed è da considerarsi una buona notizia.

    MA

    Il timore è che si prenda spunto dalla “nuova motorizzazione” per apportare modifiche Appoleggianti alla carrozzeria, come è stato fatto con WP7.

    Tra application store e porcate nuvoleggianti, si finirà per chiudere definitivamente un epoca (una gran bella epoca direi).

    Spererei di avere torto, ma dubito che sia il caso.

  • # 2
    Andrea Del Bene
     scrive: 

    La notizia non può che essere positiva. Il maggior pluralismo presente nel mercato mobile e il peso crescente di quest’ultimo dovrebbero nel lungo termine portare benefici in tutto il comparto software.

  • # 3
    phabio76
     scrive: 

    L’HP Slate con Windows 7 mi risulta ufficialmente in vendita ma la retromarcia di Microsoft penso sia giustificata dal fatto che finalmente si sia resa conto che il concetto di tablet non è un surrogato del pc ma qualcosa di totalmente diverso.

    Non è che Microsoft sia andata verso ARM… è l’architettura ARM che ormai è sufficientemente potente che sarebbe da stupidi ignorarla e lasciare campo libero ai concorrenti.

  • # 4
    Gianluigi
     scrive: 

    Sicuramente una notizia positiva.
    Spero che la presenza di windows per piattaforma ARM porti NVIDIA a produrre ( come si vociferava ) CPU ARM discretamente potenti. Se ciò accadrà si potrebbe pensare ad un passaggio lento a progressivo verso ARM, abbandonando la vecchia (e piena di pezze) architettura x86.
    Insomma, speriamo che tutto ciò porti (da parte di chiunque sia) lo sviluppo di cpu arm dalla discreta potenza. Poi debian per arm già lo abbiamo, windows è in procinto di arrivare. Cosa vogliamo di piu’ ? ;)

  • # 5
    Don Luca
     scrive: 

    Molto banalmente si farà, come suggerito dall’autore, una suddivisione: su tablet e subnotebook (quindi una cerchia molto limitata di hardware) verrà adottato ARM, sul resto si continuerà con x86.

    Probabilmente il windows con ARM sarà molto diverso dal vecchio e ormai defunto Windows CE (rinominato poi PocketPC, o ricordo male?) e sarà molto più vicino al windows “destkop”, quindi con ottima interoperabilità (suppongo la stessa che esiste attualmente tra Mac OS e iOS).

    Lo scenario tuttavia si profila molto interessante: staremo a vedere.

  • # 6
    sireangelus
     scrive: 

    Finalmente si avranno pc arm a prezzi decenti, ottimi per installare anche linux…

  • # 7
    Cesare Di Mauro
     scrive: 

    Se stiamo parlando di una versione di Windows come quella che usiamo, non ci saranno “fat binaries”. Semplicemente, com’è avvenuto finora, eseguibili diversi per architetture diverse.

    Con .NET, invece, il problema è risolto alla radice, perché non è legato a nessuna architettura.

    Sui segmenti di mercato, penso che saranno gli stessi di quelli a cui si rivolge Windows. Ricordiamoci che entro 4 anni ARM farà la guerra a Intel anche nel settore server, per cui non vedo perché Microsoft dovrebbe limitare le soluzioni per ARM a precisi ambiti.

  • # 8
    Andrea R
     scrive: 

    Basta che non vendano Netbook ARM con Windows alla gente comune, che poi arriva a casa e scopre che ha quattro programmi in croce da installarci.
    Per il resto ben venga ARM, x86 sentiva già il peso degli anni dieci anni fa.

  • # 9
    sergio
     scrive: 

    Con l’espansione dell’HW a base ARM penso sia stata una scelta sensata adirittura inevitabile.

    Per quel che riguarda il SW col fatto che vogliono mettere tutto su CLOUD penso il problema non si ponga neanche.

  • # 10
    sergio
     scrive: 

    *addirittura

  • # 11
    smoke.kills
     scrive: 

    Cisc Vs Risc :) la storia si ripete ihih anche se magari oggi le due categorie di processori non sono più così rigide…

    la notizia è buona, l’idea di avere più competitors fa sognare, ma non è che poi a prescindere dalla frammentazione del parco Sw,si perda ancora di più la strada dell’ottimizzazione?
    alla fine per renderlo compatibile con le varie architetture Windows dovrà girare in emulazione su una VM o mi sbaglio?

    mi piacerebbe sentire cosa ne pensano i programmatori in merito :)

  • # 12
    smoke.kills
     scrive: 

    ps: ho scritto d’impulso,senza leggere alcuni commenti fondamentali :( chiedo scusa.

  • # 13
    Alex
     scrive: 

    ANDROID gli sta mangiando la pappa in capo!
    Ovvio che dovevano tentare questa strada, anzi diciamo che la loro visione e’ arrivata in ritardo di almeno un anno.
    L’idea penso sia quella di usare stesso kernel/api su architetture diverse.
    Il programmatore classico potra sviluppare su tutti i dispositivi senza preoccuparsi tanto.
    Basta compilare x la giusta architettura!
    L’interfaccia utente probabilmente sara’ diversificata per tipo di dispositivo (ma con api identiche).
    Un eventuale app store scarichera’ automaticamente la versione compilata per il proprio processore.

  • # 14
    Cesare Di Mauro
     scrive: 

    Non è per Android che si sono mossi: per quello hanno sviluppato Windows 7 Phone nuovo di pacca.

    @Andrea R: con x86-64 l’architettura x86 ha dato una notevole scrollata al peso degli anni.

    Semmai la stupidaggine è continuare a proporre x86 o x86-64 in ambiti “embedded/smarthphone” allo stesso modo di quanto fatto finora. Ne parlerò in un futuro articolo, visto che già da tempo mi frulla in testa quest’idea.

    @smoke.kills: visto che ormai da parecchio tempo si programma per lo più con linguaggi ad alto livello, ha poco senso il confronto CISC / RISC, se non per le eventuali ricadute (costi, prestazioni, consumi, limiti dell’architettura).

    Riguardo all’ottimizzazione, se era scarsa prima lo sarà anche dopo, proprio per quanto detto: è raro metter mani all’assembly. Ci si affida ai compilatori, e amen. ;)

  • # 15
    homero
     scrive: 

    credo che microsoft stia facendo ne piu’ e ne meno quello che ha fatto apple con il suo MACOS che è adattabile a tutti i dispositivi della gamma dall’iphone fino al MACPRO, passando per i tablet….
    inoltre sto notando una tendenza a creare applicazioni stile flash…ossia un framework standard fornito dall’OS che fa girare le applicazioni scritte con IDE-visuali molto semplici da utilizzare….quello a cui stiamo assistendo è essenzialmente la definitiva scomparsa del personal computer inteso come calcolatore elettronico…trasformato in un lettore multimediale interattivo…
    d’altronde molti usano l’ipad come usano l’iphone e sperano diusare l’imac allo stesso modo….

  • # 16
    Andrea R
     scrive: 

    @Cesare
    Si l’architettura avanza, ma la retrocompatibilità rimane e la circuiteria relativa, con tanto traduzione in micro istruzioni, c’è, con impatti su consumi e costi. Un x86-64 puro non esiste ancora.
    Inoltre i 64 bit di indirizzamento logico sono ancora un peso che secondo me non vale la pena sostenere su macchine non velocissime e piene di ram, per via di eseguibili più grandi e più lenti da leggere da disco, ed una occupazione di ram di una volta e mezza quella di i386.
    Quindi anche se lo tirassero fuori un x86-64 puro, sarebbe inadatto ai dispositivi economici.
    IMHO forse è anche giusto che la coppia Intel-MS lasci spazio ad altri, dopo 20 anni che ammassano miliardi.

  • # 17
    homero
     scrive: 

    “x86-64 puro”

    il concetto di x86-64 credo che ormai non abbia piu’ molto senso, il problema vero di questa architettura è semplicemente un problema prestazionale, gran parte delle istruzioni x86 vengono traslate onfly questo crea importanti limitazione sui consumi e sulle prestazioni, per questo l’architettura x86 non puo’ essere efficente su dispositivi tablet/phone…a questo si aggiunge che le prestazioni dell’hardware di questi dispositivi è ormai paragonabile e quello di un desktop di 10 anni fa su cui girava tranquillamente windowsXP….a questo punto microsoft ha fatto il grande passo e ha deciso di portare il kernel NT su altre architetture e liberarsi finalmente del vincolo x86 d’altronde non ha piu’ senso utilizzare un’architettura vecchia di 35 anni…

  • # 18
    Cesare Di Mauro
     scrive: 

    Veramente proprio il kernel di NT è stato portato già parecchi anni fa su architetture ben diverse da x86 & co. Non si tratta, quindi, di una novità.

    Riguardo a x86, può anche essere vecchia e piena di difetti, ma è ancora in piedi e ha messo all’angolo i RISC che avrebbero dovuto seppellirla.

    @Andrea R: x86-64 offre, però, ben altri vantaggi: il doppio di registri GP e SIMD, che aiutano molto in termini prestazionali.

    Anche l’economicità è da prender con le molle: in long mode sono stati rimosse diverse istruzioni legacy, e il modello non è più segmentato, ma esclusivamente paginato. Quindi l’ISA risulta addirittura semplificata.

    Infine sulle microistruzioni, beh, le hanno anche altri RISC. Primo su tutti il PowerPC 970. ;)

  • # 19
    Andrea Del Bene
     scrive: 

    Diciamo che con questa mossa Microsoft ha dimostrato di non aver smarrito totalmente l’istinto di sopravvivenza :).
    Certo che dovrà darsi parecchio da fare per sfondare in un settore già massicciamente dominato da os open.

  • # 20
    The Solutor
     scrive: 

    Riguardo a x86, può anche essere vecchia e piena di difetti, ma è ancora in piedi e ha messo all’angolo i RISC che avrebbero dovuto seppellirla.

    X86 è stato l’alter ego perfetto di windows.

    Entrambi si sono imposti sui prodotti concorrenti per motivi che nulla avevano a che vedere con la bontà tecnica.

    Entrambi una volta imposti hanno subito un processo di miglioramento foatto di pezze, contropezze e trucchi per mantenere la compatibilità all’indietro.

    Entrambi in questo lasso di tempo sono riusciti a superare abbondantemente il limite della decenza divenendo, nonostante tutto, degli ottimi prodotti.

    Ora, se la storia ci ha insegnato qualcosa, capiterà senz’altro che nel tempo necessario alla pubblicazione di windows 8, intel affinerà i suoi processori fino a farli diventare concorrenziali con gli ARM, bisognerà vedere come si evolverà il resto del mercato in questo lasso di tempo.

    Ma una cosa è certa M$ non soccomberà a causa di Intel, Intel non soccomberà a causa di MS, si sono sempre lavate le mani a vicenda e continueranno a farlo tutt’ora, nonostante le apparenze.

    Se dovessero essere superate dagli eventi lo saranno insieme. Ma onestamente dubito che ciò accadrà.

    Entrambe danno il meglio di se col pepe nel posto giusto, e questo è un momento dove di pepe ne circola in abbondanza.

  • # 21
    Cesare Di Mauro
     scrive: 

    Su questo: “Entrambi si sono imposti sui prodotti concorrenti per motivi che nulla avevano a che vedere con la bontà tecnica.” proprio non posso concordare, perché in queste analisi bisogna sempre contestualizzare e mettere sul piatto della bilancia i pregi e difetti di ogni soluzione.

  • # 22
    the solutor
     scrive: 

    Diciamo che se al posto di questa modalità di risposta vi decideste a mettere una room dedicata del forum con possibilità di editare i commenti, correggere errori, linkare immagini, sarebbe piu comodo contestualizzare.

    Fatto sta che c’è poco da essere in disaccordo, quando IBM ha imposto (praticamente suo malgrado) X86 e dos, e poi windows. Praticamente ogni altra cosa era meglio.

    Ma qualsisi altra cosa non ha beneficiato del potere di IBM prima e di INTEL e Microsoft.

    Se ibm avesse fatto il pc con gli ingranaggi al posto dei transistors, oggi avremmo nannoingranaggi che fanno un milione di rpm del diametro di 30 nanometri, ma useremmo gli ingranaggi.

  • # 23
    Cael
     scrive: 

    @The Solutor

    Hai ragione, ma è colpa di IBM, Intel e Microsoft, o di tutti gli altri attori dello scenario IT che sono stati per anni praticamente insignificanti ed incompetenti dal punto di vista commerciale, salvo svegliarsi quando ormai i tre colossi si erano imposti?

  • # 24
    the solutor
     scrive: 

    Hai ragione, ma è colpa di IBM, Intel e Microsoft, o di tutti gli altri attori dello scenario IT che sono stati per anni praticamente insignificanti ed incompetenti dal punto di vista commerciale, salvo svegliarsi quando ormai i tre colossi si erano imposti?

    Il demerito più grosso ce l’ha avuto la Apple dell’epoca che ha fatto una scelta suicida switchando dalla politica che aveva imposto l’Apple II, a quella chiusa e fallimentare del Mac.

    Guardando a quello che accade oggi dobbiamo anche aggiungere “grazie al cielo”.

    Avere Apple monopolista al posto di MS sarebbe stata una sventura di proporzioni colossali.

  • # 25
    Z80Fan
     scrive: 

    Spero vivamente che questa mossa possa portare all’introduzione sul mercato di PC desktop dotati di ARM: personalmente mi farebbe molto comodo avere una simile piattaforma, non per Windows, ma per tutti i miei esperimenti ;)
    L’ x86 proprio non la sopporto, ARM invece è elegante e molto meno RISC di una volta :D

  • # 26
    Cesare Di Mauro
     scrive: 

    Linux e diversi altri s.o. (spero presto anche AROS) gira già su ARM. ;)

    @the solutor: al solito e come dicevo prima, bisogna sempre contestualizzare. Nel periodo a cui ti riferisci dov’era il monopolio (per modo di dire: parliamo sempre di posizione dominante) dei PC, del DOS, di Windows? Semplicemente… non c’era! A spartirsi la torta c’erano diverse realtà e piattaforme.

    E’ arrivato DOPO i primi anni ’90, quando Apple s’è chiusa a riccio nel suo segmento di mercato elitario (e ultracostoso), Commodore, cullandosi e grazie al suo management di incapaci ha fatto seppuku, e così via anche per la concorrenza minore (Atari, Acorn, Olivetti).

    Nel frattempo è uscito Windows 3.x che ha avuto un successo inaspettato persino la stessa Microsoft (tanto che diede il benservito a IBM e OS/2), e il ’95 le consegnò definitivamente lo scettro.

    In mezzo mettiamoci anche l’incapacità di Apple con MacOS e di Commodore con AmigaOS di farli evolvere per realizzare s.o. più moderni e solidi, e il quadro è completo.

    Per cui, se stiamo parlando della stessa storia informatica che ci ha portati dove siamo, non puoi parlare esclusivamente di sfortuna e affibiare soltanto agli altri la corona di “er mejo”…

    P.S. Sì, un miglior sistema di gestione dei commenti sarebbe veramente comodo.

  • # 27
    homero
     scrive: 

    io ho scritto diverso codice in assembler x86 e anche in motorola 68000 e devo dire che su motorola era un piacere programmare in assembler, al contrario di x86 in cui il codice era mediamente piu’ lungo e molto meno leggibile…a dimenticavo che ho programmato pure lo Z80…
    poi con l’avvento dei risc ho preferito programmare in C e lasciare l’assembler a casi del tutto eccezionali quindi non so cosa significa programmare un risc a parte qualche chip embendedd che risc non sono.
    se continua cosi’ comincio a leggermi l’assembler ARM e vediamo un po’ se questa architettura è cosi’ efficente come dicono….personalmente linux non lo vedo come alternativa possibile nel prossimo futuro, soltanto ieri ho perso 2 ore per comprendere che per supportare i componenti di una motherboard intel dovevo patchare il kernel linux ossia almeno altre 3 ore di lavoro…ho preferito ordinare una mobo nuova…. e buona notte…linux è un patch sistem…si patcha di tutto, dalle librerie ai driver al kernel agli eseguibili….e onestamente mi sono stancato di mettere pezze….

  • # 28
    Giovanni
     scrive: 

    Post:
    penso che faccia piacere a quelli della mia generazione intravedere una vera possibilità di riscatto, alla situazione di stallo che ci ha accompagnati per tanti anni, proprio nella rivalutazione che sta avvenendo da un decennio a questa parte dell’architettura ARM. Ero un Commodoriano/Anighista quando si presentò anche in Italia il “PC (home) più veloce del mondo” (a cui avevo avuto anche modo di toccarlo presso un negozio Ricordi che lo distribuiva): l’Acorn Archimedes! Si trattava del primo RISC “per le masse” che seguiva le tendenze già in atto ai piani alti dell’informatica che avrebbero sfornato architetture POWER, SPARC ecc..
    Pur mantenendo la sua indipendenza, aver attraversato alterne vicende e introdotto una nuova filosofia di diffusione delle CPU, il nostro ARM ha mantenuto perfettamente fede alla sua predisposizione “popolare”!

    Prendiamo atto delle strategie MS, restiamo in attesa dei prossimi sviluppi e confidiamo che possa avvenire (da dove meno te lo aspetti) una sostanziale rivoluzione del modo di fare informatica personale.

    ARM è un’architettura estremamente duttile e ha mantenuto una sufficiente potenza per poter sostenere sufficientemente i carichi di elaborazione necessari ai nostri giorni. Io vedrei la combinazione ideale con OS microkernel modulare puro che, a discapito di qualche perdita prestazionale distribuita, non appesantisca il sistema e permetta una configurabilità totale (che è ciò che già avviene in quasi tutti i sistemi embedded) ma con una propensione general porpouse… insomma, un pc da portare in tasca (come sogna Di Domizio) che possa funzionare sia come una banale agenda ma anche come una workstation: a seconda delle necessita del momento!

    OT:
    Pazzesco! Non bastavano le polemiche tra win/osx o ms/mac… ci sono anche i fanatici dei set di istruzioni di una cpu!!! Noto sempre una generale tendenza a polemizzare, al qualunquismo ed a “sparare” indistintamente contro tutto e contro tutti senza alcun minimo sforzo di riflessione. Soprattutto di analizzare le questioni superficialmente e confondendo cause ed effetti!!! Si ripropone sempre l’idea del complotto a discapito degli altri (chi?!?).

    MS e Intel sono multinazionali ipermiliardarie che puntano a monopolizzare il mercato per definizione, mi sembra anche abbastanza coerente che possiedano “istinti di sopravvivenza” e che cerchino di proteggere i loro interessi. A fronte di una potenza acquisita negli anni è chiaro che le possibilità degli altri per contrastarli trascendono le capacità del singolo individuo o della singola impresa.
    Diverso è il caso in cui cambiano gli scenari ed in cui anche i più potenti colossi possono rivelarsi “giganti con piedi d’argilla”.

    Ritengo x86 un’ottima architettura che ha dimostrato di saper sopravvivere al tempo grazie a notevoli doti di scalabilità (nonostante penalizzata da OS non all’altezza nel caso di MS-DOS) e soprattutto ha permesso di garantire altissimi livelli di retrocompatibilità che costituiscono un vincolo notevole per le prestazioni ma anche una qualità che favorisce il successo commerciale! Ovviamente questo può comportare anche scelte difficili e discutibili… comunque, per mantenere il passo con i tempi, sono state implementate con questa architettura praticamente tutti i più avanzati ritrovati tecnologici dei microprocessori! Così quello che era un 8088 è diventato un i7 o un PhenomX6… chi ha saputo fare di meglio??? Eppure in tanti ci hanno provato!

    Tra l’altro, vorrei far notare, riconosco tranquillamente tutto ciò essendo stato (da buon “Amighista”) un fervente sostenitore della superiorità M-68k!..

    Ciao

  • # 29
    Andrea Del Bene
     scrive: 

    @Cesare Di Mauro

    Il monopolio sul settore pc negli anni 80 lo aveva IBM e questo mi sembra un fatto abbastanza ovvio, visto che è stata IBM ad inventare il conetto di PC.
    Mircosoft e Intel devono tanta della loro fortuna nell’aver ricevuto da IBM le chiavi di controllo dell’intero settore.
    Il resto lo sappiamo: i PC hanno spazzato via gli homecomputer perche questi erano una soluzione troppo chiusa e settoriale, e questo nonostante avessero una superiorità tecnica rispetto ai PC che tutti noi abbiamo lodato almeno una volta su queste pagine.
    Dall’altro lato della barricata, proprio perchè i PC erano più aperti, IBM ha perso il suo monopolio sulla loro cotruzione/vendita e quando un’azienda perde un simile monopolio a cui era abituata capita che perde pure 8 miliardi di dollari (tra il 92/93) e rischia di chiudere per sempre.

  • # 30
    Andrea Del Bene
     scrive: 

    volevo dire “concetto di pc” scusate gli errori del mio ultimio post :)

  • # 31
    Z80Fan
     scrive: 

    @Giovanni:
    OT:
    “Pazzesco! Non bastavano le polemiche tra win/osx o ms/mac… ci sono anche i fanatici dei set di istruzioni di una cpu!!!”

    I fanatici ci sono in qualsiasi settore, una volta ho letto una flame war riguardo trattori :asd:

    “Ritengo x86 un’ottima architettura che […] ha permesso di garantire altissimi livelli di retrocompatibilità”

    Indubbiamente l’Intel ha sempre creato processori retrocompatibili… ma proprio per questo è diventata un’architettura pesante, per supportare l’8086 che è decisamente mal progettato, quando già al tempo c’erano architetture ben migliori.
    Metti che si fosse ritrovato il Motorola 68000 in questa situazione: i moderni derivati sarebbero ancora retrocompatibili, ma essendo l’architettura originale già progettata bene, non si avrebbe un “mattone” pieno di funzioni legacy.

  • # 32
    Giovanni
     scrive: 

    @A.Del Bene:

    Scusa, ma penso che la tua ricostruzione sia gravata pesantemente da preconcetti e luoghi comuni ampiamente diffusi.

    Io la vedo così:

    Nel 1981 IBM è entrata nel settore dei PC, che allora stava prendendo forma e dimensioni interessanti, proponendo una sua soluzione di macchina nemmeno particolarmente avanzata tecnologicamente. Grazie alle proprie possibilità economiche e commerciali insieme ad una indiscutibile fama di leader in ambito informatico e gestione aziendale, la soluzione proposta da IBM viene presto accettata dal mercato professionale come riferimento e perciò presto viene clonata (da costruttori cinesi) e adottata/migliorata da altri grossi produttori diventando quel che si dice: “di fatto” uno standard! (e solo involontariamente monopolizzando il concetto di PC che in realtà già esisteva). MS-DOS s’impone inizialmente perché poco costoso.
    Tra l’altro IBM poteva essere estromessa da questo settore (ma certo senza rischiare di “chiudere baracca!”) perciò riprova a imporre standard proprietari come MCA poi concessi in licenza… infine si ritirerà dal settore, ma di certo non passa ufficialmente le chiavi di controllo di un settore (che non possedeva).

    Piuttosto MS si ritrova in una situazione privilegiata rispetto agli altri competitors grazie alle vendite di OS, linguaggi per lo sviluppo e applicativi orizzontali per un grandissimo parco installato. Ma la supremazia avviene grazie al successo di Windows 3 consentendo l’evoluzione del PC verso la forma di workstation meno chiuse dal punto di vista hardware rispetto a quelle già esistenti!

    La definizione di “home computer” resta abbastanza vaga e discutibile: come le stesse workstation sono anch’essi dei Personal Computer. Si tratta di un fenomeno passeggero ed in genere si individuano quei computers con microprocessore ma di fascia bassa, magari dedicati al gioco (poi sostituiti completamente dalle console) e senza pretese di utilizzi professionali. Nonostante l’ambito di utilizzo in cui sono stati spesso relegati Amiga e AtariST, per intenderci, non possono appartenere alla categoria “home” ma erano tecnicamente superiori all’originale IBM-XT con MSDOS almeno quanto potevano esserlo un Macintosh o uno stesso IBM-AT(80286) con Unix e XWindow (che tra l’altro poteva far girare tranquillamente applicazioni ms-dos con appositi tools che all’epoca venivano forniti con le costose distribuzioni).

    Ciao

  • # 33
    Giovanni
     scrive: 

    @Z80Fan:

    “…supportare l’8086 che è decisamente mal progettato, quando già al tempo c’erano architetture ben migliori.”

    Ovviamente capisco totalmente il senso della tua affermazione!!! Ci tengo a confidarti che nonostante conoscessi molto bene il MOS6502, era proprio il mitico Z80 la mia cpu preferita tra gli 8bit (ovviamente prima del M68k)… per vari motivi ieologici (Faggin) e pratici (ampiezza del set di istruzioni, CP/M, diffusione…) Perciò abbiamo una passione comune!

    Io ho detto che x86 si è dimostrata “di fatto” un’ottima architettura, sicuramente non ho detto che è la migliore, ma quello della retrocompatibilità è un termine del problema per il raggiungimento del successo, che non doveva essere eluso… Intel lo ha posto e, in qualche modo risolto, altri invece hanno pensato di trascurarlo.
    Purtroppo tali dimostrazioni si scontrano con la dura realtà del mercato per cui diventano fenomeni complessi in cui interagiscono fattori come prezzo, vendite, capacità e scelte commerciali, potenza economica ecc..

    Alla fine degli anni Ottanta, quando la scelta RISC si è imposta (quasi come una moda) e tutti hanno proposto proprie soluzioni alternative: Intel aveva sfornato il catastrofico i860 e Motorola lo sfortunato 88000.
    Nessuno dei due ha avuto riscontri commerciali ma piuttosto esiti paradossali. Mentre Intel è riuscita a parare il colpo rifugiandosi nel mantenimento del proprio standard x86, Motorola invece ha dovuto rinunciare alla retrocompatibilità 68k e, per sopportare il colpo, ha dovuto confluire in accordo con Apple (principale cliente) nel progetto POWER di IBM e sviluppare quindi una nuova architettura!

    Perciò, per quanto fosse migliore tecnologicamente, altri fattori hanno costretto a rinunciare alla retrocompatibilità. Ciò ha concesso una migliore concezione dei progetti, una più ampia libertà d’azione, ma a quanto pare anche al rischio di non essere più in grado di competere perché mancavano i numeri per giustificare gli investimenti.

    E questo è solo il migliore dei casi in quanto powerPC era un’architettura oggettivamente superiore e più scalabile di quella Intel. I casi peggiori si hanno quando la scelta tecnologica non è nemmeno così valida come avrebbe dovuto essere “sulla carta”: vedi SPARC e, soprattutto, PA di HP!

    Saluti

  • # 34
    Andrea Del Bene
     scrive: 

    @Giovanni

    Ho letto il tuo post ma non ho ben capito di quali preconcetti farei uso, o magari non mi sono spiegato bene.
    Mi sembra che siamo tutti più o meno d’accordo che IBM ha avuto quantomeno il merito di fare entrare negli uffici il computer “privato” diciamo così.
    L’errore letale di IBM e di coloro che hanno fatto fortuna con gli homecomputer è stato quello di dare per scontato che il controllo sulla cotruzione/vendita dei computer sarebbe stato sempre solo nelle loro mani (il modello Apple se vogliamo).
    Il segmento Pc è stato il primo in cui questa legge è venuta meno, distruggendo i ricavi dei vecchi monopolisti e abbattendo i costi dei prodotti finali (per nostra fortuna).
    Questo come dicevo intorno alla metà degli anni 90 ha tagliato fuori i vecchi leoni anni 80.
    E chiaro che dopo questi fatti Intel e Ms si sono ritrovati ad essere gli unici superstiti di un impero che non aveva più padroni e che, soprattuta stava per espandersi a ritmi esponenziali.
    Abbi pazienza ma penso che la supremazie di microsoft in quegli anni fosso dovuta a MSDOS e non Windows 3.x che è stat piuttosto una pezza per portare un ambiente a finestre in casa ms, cosa che 10 anni prima vantavano già tutti gli altri concorrenti in maniera nativa.

    Per la cronaca il fatto che IBM nell’annata 92/93 fosse sull’orlo del baratro è storia, non opinione: http://www.ibs.it/code/9788820035020/gerstner-louis-v–jr-/mia-ibm-chi.html

  • # 35
    Giovanni
     scrive: 

    @A.Del Bene

    Per chiarire la mia affermazione vorrei riportare alcuni dei preconcetti a cui mi riferivo:

    1- l’idea che prima dell’IBM PC 5150 non esistessero altri personal computer professionali, alcuni dei quali anche di discreto successo.
    2- l’idea che IBM sia un costruttore/venditore di PC quando questa è stata (solo per un periodo e solo questa era sull’orlo del baratro, non certo l’intera IBM) un’attività marginale. Il sistema più piccolo è AS/400: un minicomputer!
    3- Pensare a PC e homecomputers come l’intero universo dell’informatica
    4- Considerare un’architettura proprietaria come “modello Apple”
    5- Considerare MS azienda leader incontrastata alla fine degli anni Ottanta per merito di un DOS che faceva pena anche ai 16bit?(c’erano moltissimi produttori di workstation, mainframe e anche dal mercato networking MS era del tutto esclusa).
    6- Windows-3 una “pezza” di interfaccia grafica? Quali sistemi a finestre (nativi?) esistevano dieci anni prima del 1991???

    ciao

  • # 36
    Andrea Del Bene
     scrive: 

    @Giovanni
    1- guarda che ho detto che IBM controllava il grosso delle vendite pc negli anni 80. Punto
    2- IBM rischiava di essere smembrata e venduta, se questo non è baratro… Per il resto ti rimando al libro
    3- se parliamo di mercato consumer e di hanni 80 non mi sembra ci fosse molto altro
    4-questa non l’ho capita. Ho detto che alcune aziende in passato e presente (Apple) fanno soldi vendendo un prodotto di cui controllano l’intero ciclo produzione/vendita. Se non sono abbastanza brave/scaltre da proteggere questo loro potere passano dei brutti momenti. Prova a fare un clone mac e ti divertirai: http://en.wikipedia.org/wiki/Macintosh_clone#Macintosh_cloning_today
    5- hai ragione, questa era la triste realtà. Ed il dos ce lo siamo dovuti tenere come s.o. principale fino al 95!
    6- nell’ 81 magari no, ma nell’82-83-84-85 si. E windows come s.o. è arrivato solo nel 95

    ciao.

    PS: non credo giovi ai fini della conversazione accusarsi di preconcetti, luoghi comuni, partigianeria,ecc… Basta esprimersi in maniera precisa.

  • # 37
    Giovanni
     scrive: 

    @A.Del Bene
    “PS: non credo giovi ai fini della conversazione accusarsi di preconcetti, luoghi comuni, partigianeria,ecc… Basta esprimersi in maniera precisa.”

    Appunto! Allora evitiamo di dire qualsiasi sciocchezza che ci passa per la testa così evitiamo di far proliferare idee sbagliate! grazie.

    “1- guarda che ho detto che IBM controllava il grosso delle vendite pc negli anni 80. Punto”
    Non è vero: gli uffici erano pieni di compatibili MS-DOS ma non necessariamente di IBM

    “2- IBM rischiava di essere smembrata e venduta, se questo non è baratro… Per il resto ti rimando al libro”
    Inizio anni 90 crisi economica generale ed in particolare di settore per le aziende IT di tutto il mondo. Il libro è l’apologia autobiografica di Gastner, ma IBM è uscita dalla crisi per ben altri motivi storici come la capillare presenza sul mercato dei servizi… Digital per esempio non c’é riuscita.

    “3- se parliamo di mercato consumer e di hanni 80 non mi sembra ci fosse molto altro”
    informati meglio… molto meglio! Forse è nel decennio successivo che l’offerta non era tanto variegata per quanto riguarda l’hardware.

    “4-questa non l’ho capita. Ho detto che alcune aziende in passato e presente (Apple) fanno soldi vendendo un prodotto di cui controllano l’intero ciclo produzione/vendita. Se non sono abbastanza brave/scaltre da proteggere questo loro potere passano dei brutti momenti. Prova a fare un clone mac e ti divertirai: http://en.wikipedia.org/wiki/Macintosh_clone#Macintosh_cloning_today
    Questa non l’ho capita io. Per esempio DELL cosa fa? … e HP? Nella tua osservazione invece con l’espressione “modello Apple” ti riferivi a quella che comunemente viene chiamata “architettura proprietaria” cioé fondamentalmente protetta da bevetti in cotrapposizione all’ “architettura aperta” che consente a terze parti di produrre hardware e software compatibile. Sono scelte strategiche piuttosto delicate che possono ossere giudicate buone o cattive solo a posteriori ma su cui non si può esprimere un giudizio qualitativo assoluto.

    “5- hai ragione, questa era la triste realtà. Ed il dos ce lo siamo dovuti tenere come s.o. principale fino al 95!”
    Forse tu… potevi passare ad un OS migliore ben prima
    Inoltre MS era una grandissima azienda IT ma non ancora la prima!

    “6- nell’ 81 magari no, ma nell’82-83-84-85 si. E windows come s.o. è arrivato solo nel 95″
    Bene, allora dammi un nome valido di un PC uscito nel 1982 con interfaccia GUI/WYSIWYG “nativa(?!?)” (escludiamo magari Xerox STAR che era una workstation dedicata da 40 milioni!)…

    ciao.

  • # 38
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ Andrea Del Bene #34

    L’errore letale di IBM e di coloro che hanno fatto fortuna con gli homecomputer è stato quello di dare per scontato che il controllo sulla cotruzione/vendita dei computer sarebbe stato sempre solo nelle loro mani (il modello Apple se vogliamo).

    In verità gli errori – se di errori si può parlare – sono molto diversi fra il caso IBM e quello delle piattaforme chiuse home/personal. Nel primo caso IBM ha consapevolmente adottato una politica di assemblaggio di componenti off the shelf, assegnando al BIOS il ruolo di difendere il formato. Nel caso delle piattaforme chiuse la loro difficoltà e obsolescenza è in parte attribuibile a mismanagement (Apple degli anni ’90, Amiga), in parte alla più generale confluenza di soluzioni più performanti e specializzate nei vari usi a cui gli home erano destinati.

    D’altronde se IBM avesse dovuto seguire le sue procedure standard per creare una sua piattaforma proprietaria sviluppata in house dalla A alla Z, sarebbe arrivata sul mercato con anni di ritardo rispetto ai 4 già forniti di vantaggio ad Apple, con costi di sviluppo molto superiori e un successo commerciale tutto da dimostrare. L’insuccesso di PS/2 e ancor più la vicenda del successivo RT/PC getta luce in questa direzione.
    http://www.appuntidigitali.it/3026/ibm-rtpc/

    @ Giovanni #37
    Credo che circa Apple il fraintendimento di base sia legato alla “gradazione” di tecnologia proprietaria all’interno dei prodotti citati. Come sai la differenza fra Apple (ma anche Amiga o Atari ST) e IBM negli anni ’80 era che Apple aveva costruito attorno al 68k un’architettura HW molto personalizzata, IBM aveva inizialmente il solo BIOS a difenderla dalla clonazione, quindi arrivò anche MCA, la cui miglior tutela legale impedì la clonazione del PS/2.
    Ricordo interviste dei produttori di PC dell’epoca che sostanzialmente affermavano “oggi per fare un computer più dell’ingegnere serve l’avvocato” a testimoniare una legge molto nebulosa in merito di brevetti tecnologici – non dimentichiamo tuttavia che il primo clone fu della texana Compaq. Malgrado la nebulosità della legge l’Unitron 512 fu bloccato sul nascere (certo, qui deve aver giocato anche un po’ di sano nazionalismo USA).
    http://www.appuntidigitali.it/2240/unitron-mac512-il-primo-clon
    e-mac-al-centro-di-una-crisi-internazionale/

    Riguardo alla scelta dell’8088, un processore che arriva sul mercato quando forse in Intel ancora hanno del tutto escluso il mercato degli orologi come destinazione ideale delle CPU, andrebbe ricordato che la priorità di IBM per il PC non era quella di farne la macchina più potente possibile, ma di farne al contrario un prodotto di vasto consumo con un livello prestazionale adeguatamente differente da quello dei suoi più lucrativi prodotti professionali. Probabilmente anche agli occhi di IBM, 8088, più che il processore ottimale per l’uso, era “chiodo abbastanza” da tenere al riparo il ricco mercato mini.

    Che poi i produttori di cloni avessero altre priorità, che hanno costretto Intel a stravolgere l’architettura per star dietro al crescente bisogno di potenza (fattore altamente differenziante per i non IBM), è un’altra storia. :-)

  • # 39
    The Solutor
     scrive: 

    @the solutor: al solito e come dicevo prima, bisogna sempre contestualizzare. Nel periodo a cui ti riferisci dov’era il monopolio

    Nel periodo cui mi riferisco il mercato era comunque dominato dagli Apple II grazie alla loro apertura.

    Apertura che, copiata da IBM, farà la fortuna dell’architettura dei PC compatibili.

    Ma questo non c’entra nulla con quello che sto dicendo.

    Ovvero che l’X86, all’epoca, era praticamente la peggiore architettura disponibile.

    Si è imposta ed è stata rattoppata, ma non venirmi a dire che questo è avvenuto per motivi tecnici.

    Idem windows, sistema che fondamentalmente ha potuto sopravvivere grazie al fatto che un giudice lo ha considerato talmente più scarso di quello apple da non essere considerato un clone.

    Sistema che è arrivato nel vuoto pneumatico e si è imposto.

    Poi le caxxate fatte da IBM, che dopo avere imposto i PC copiando Apple, si è suicidata copiando la mossa di Apple stessa, che si è giocata un mercato chidendo i MAC e rinnegando i motivi del suo successo, esattamente nello stesso modo con l’architettura PS/2.

    Cosa che ha impedito all’ottimo OS2 di contare qualcosa.

    Dinuovo nulla a che vedere coi meriti tecnici.

    Hanno contato le scelte di marketing azzeccate e/o fortunate da una parte contro le caxxate fatte dall’altra.

    Ed il solito stracotto ma corretto paragone col VHS v.s. Betamax e video2000 continua a calzare come un guanto.

    Per cui, se stiamo parlando della stessa storia informatica che ci ha portati dove siamo, non puoi parlare esclusivamente di sfortuna e affibiare soltanto agli altri la corona di “er mejo”…

    Stiamo parlando della stessa storia, ma a mio giudizio tu non stai mischiando scelte tecniche e commerciali, io stavo parlando unicamente delle prime.

  • # 40
    Andrea Del Bene
     scrive: 

    @Alessio Di Domizio
    Assolutamente d’accordo, IBM ha fatto quello che al momento riteneva più opportuno, senza pensare che il gioco le sarebbe sfuggito di mano. Ma oggettivamente come dici tu parlare di errori a volte è quantomeno ingeneroso visto che certe dinamiche tecnologiche e di mercato non sono prevedibili da nessuno.

    @Giovanni
    “Appunto! Allora evitiamo di dire qualsiasi sciocchezza che ci passa per la testa così evitiamo di far proliferare idee sbagliate! grazie.”

    Ti commenti da solo. Vedo che ho parlato al muro.

  • # 41
    Cesare Di Mauro
     scrive: 

    @The Solutor. Anche restringendo al solo lato tecnico la questione, senza contestualizzare si ricade sempre negli stessi errori.

    x86 era l’architettura peggiore? Bene, ma fino a quando?
    Nell’82, appena UN anno dopo la presentazione del primo PC, c’era l’80286, primo processore ad aver superato i rigidissimi requisiti militari grazie alla sua solidissima architettura (c’è bisogno di ricordare come funzionano i “gate”?)
    Nell’85, a un anno dalla presentazione del primo Mac, e durante l’anno in cui è stato presentato l’Amiga, è arrivato il 386, con ambiente totalmente a 32 bit, primo supporto alla virtualizzazione (8086), segmentazione + paginazione, registri di debug. Tanto schifo non mi pare facesse, no?
    E potremmo continuare.

    Che poi la famiglia x86 facesse abbastanza schifo, non l’ho mai negato (d’altra parte, da buon amighista, continuo ancora oggi ad adorare i 68000 di Motorola), ma NON possiamo togliere quanto di buono ha avuto e saputo introdurre nel tempo.

    Soprattutto, non si può continuare a parlare sempre e soltanto di 8086. Né tanto meno ridurre il tutto a un booleano “buono” o “cattivo”.

    Riguardo a Windows, mi sembra che la questione dell’interfaccia grafica sia andata diversamente.

    In ogni caso è stata la gente a decretarne il successo, con le inaspettate (per Microsoft) vendite della versione 3.0. Parliamo del ’90, Apple a Amiga dominavano a livello di s.o. “dotato di GUI”, eppure… è riuscito a sfondare. E nel ’95 li ha seppelliti, anche per certi aspetti tecnici (ad esempio una protezione delle applicazioni a 32 bit che gli altri potevano soltanto sognarsi). Senza considerare NT, uscito un paio d’anni prima, che da questo punto di vista era su un altro pianeta.

    Insomma, il punto rimane lo stesso: contestualizzare. E scusami se torno a ripeterlo.

  • # 42
    the solutor
     scrive: 

    n ogni caso è stata la gente a decretarne il successo, con le inaspettate (per Microsoft) vendite della versione 3.0. Parliamo del ’90, Apple a Amiga dominavano a livello di s.o. “dotato di GUI”, eppure… è riuscito a sfondare.

    E’ riuscito a sfondare perché ?

    Per gli errori di apple, e diciamocelo, grazie alla pirateria.

    La gente poteva comprarsi un PC spendendo 4 soldi (tutto è relativo) ovviamente, ed avere l’OS gratis, e ti garantisco che non parlo solo di cantinari, in Italia c’erano alcune delle più grosse aziende italiane che nonostante avessero gia migliaia di PC, avevano poche decine di licenze di Windows e Office a si è andati avanti così fino a metà anni 90.

    Questo ha fatto il successo di windows, esattamente come aveva fatto il successo degli Apple II.

    La gente otteneva un cesso di OS, si divertiva, magari ci faceva qualcosa di produttivo, e non spendeva niente.

    Di converso comprarsi un Mac, voleva dire spendere una cifra fuori dal mondo, essere obbligati a comprare una sola marca di HW ed essere obbilgati a pagare il SW. L’assenza di schermate blu e di sforzi per aggiustare un config.sys diventavano un dettaglio secondario.

    E nel ’95 li ha seppelliti, anche per certi aspetti tecnici (ad esempio una protezione delle applicazioni a 32 bit che gli altri potevano soltanto sognarsi). Senza considerare NT, uscito un paio d’anni prima, che da questo punto di vista era su un altro pianeta.

    Ecco, vedi, l’affermazione di un sw migliore rispetto ad uno peggiore non ha avuto nulla a che vedere con la sua bontà intrinseca, neanche se limitiamo lo sguardo ai soli prodotti MS.

    Si è dovuto aspettare OTTO anni perché la famiglia NT iniziasse a fare breccia nel cuore della gente a discapito di quella dos/3.11/9x

  • # 43
    Cesare Di Mauro
     scrive: 

    @the solutor:

    E’ riuscito a sfondare perché ?

    Per gli errori di apple

    Di questo possiamo anche fregarcene: kaiser loro, come si suol dire. Di errori più o meno gravi ne sono stati commessi un po’ da tutti; non a caso il mondo è pieno di gente che si mangia le mani…

    , e diciamocelo, grazie alla pirateria.

    La gente poteva comprarsi un PC spendendo 4 soldi (tutto è relativo) ovviamente, ed avere l’OS gratis, e ti garantisco che non parlo solo di cantinari, in Italia c’erano alcune delle più grosse aziende italiane che nonostante avessero gia migliaia di PC, avevano poche decine di licenze di Windows e Office a si è andati avanti così fino a metà anni 90.

    OK, ma parli già degli anni ’90, quando i prezzi erano iniziati a scendere e i PC economici divenuti più appetibili per la massa rispetto agli home computer dell’epoca (precedente e non).

    Inoltre il software piratato lo trovavi su qualunque piattaforma, anche sui Mac. Sì, chi aveva un Mac era un tipo abbastanza elitario e pieno di soldi, ma dopo aver speso milioni per la sola macchina, non disdegnavano le copie pirata. Ricorda che la “fame di software” è trasversale alla piattaforma, e colpisce tutti.

    Poi stai ignorando (non so se volutamente o meno) la vera concorrenza dei PC, che era rappresentata da Amiga, Atari ST e (in misura molto minore) Archimedes. Qui la situazione era LEGGERMENTE diversa da Apple (che a partire dai Mac aveva deciso di ritagliarsi un mercato di nicchia), non credi?

    Questo ha fatto il successo di windows, esattamente come aveva fatto il successo degli Apple II.

    Vedi sopra. Hai “dimenticato” il vero concorrente dei PC e di Microsoft.

    La gente otteneva un cesso di OS, si divertiva, magari ci faceva qualcosa di produttivo, e non spendeva niente.

    Ci mancherebbe che la gente non avesse trovato software produttivo: senza software non si canta messa! :D

    Se non ci fosse stata a disposizione una barca di software a coprire le esigenze più o meno disparate (comprese quelle ludiche), pensi che Windows avrebbe sfondato? Sarebbe morto in poco tempo…

    Di converso comprarsi un Mac, voleva dire spendere una cifra fuori dal mondo, essere obbligati a comprare una sola marca di HW ed essere obbilgati a pagare il SW.

    Fino all’hardware sono d’accordo. Sul software no, assolutamente. Poi, ribadisco, non erano i Mac i veri concorrenti dei PC dell’epoca.

    L’assenza di schermate blu e di sforzi per aggiustare un config.sys diventavano un dettaglio secondario.

    Il config.sys c’era l’amico smanettone a sistemarlo, se fosse stato necessario.

    Quanto alle schermate blu, si vede che non hai lavorato abbastanza coi Mac, perché MacOS era un s.o. fragilissimo: bastava nulla per mandarlo in bomba. Ci sono voluti 17 (DICIASSETTE) anni, con la prima (seppur strabacata) versione di OS X, per avere finalmente un ambiente protetto.

    Windows 3.0, invece, offriva già una buona protezione, e supportava dal day one la modalità protetta degli 80286 e quella più avanzata degli 80386 (con tanto di macchine virtuali 8086 indipendenti in quest’ultimo caso).

    Le schermate blu c’erano a causa di driver scritti male o perché alcune zone di memoria erano in ogni caso condivise sempre per la solita questione della retrocompatibilità, ma rispetto agli s.o. la situazione era nettamente migliore.

    Ecco, vedi, l’affermazione di un sw migliore rispetto ad uno peggiore non ha avuto nulla a che vedere con la sua bontà intrinseca, neanche se limitiamo lo sguardo ai soli prodotti MS.

    Concordo.

    Si è dovuto aspettare OTTO anni perché la famiglia NT iniziasse a fare breccia nel cuore della gente a discapito di quella dos/3.11/9x

    Sempre per una questione di compatibilità, ma in ogni caso Windows 3.0 e ’95 portavano anche innovazioni tecniche che mancavano alla concorrenza, e non possiamo dimenticarlo.

  • # 44
    homero
     scrive: 

    un solo appunto riguardo allo sviluppo software…oggi sviluppare software multipiattaforma è molto piu’ facile che in passato….e questo rende meno traumatico il porting delle applicazioni da un’architettura ad un altra, salvo rari casi del tutto eccezionali…inoltre oggi l’utilizzo di framework tra cui non dimentichiamo c’è anche il pessimo .NET permette di programmare applicazioni “semplici” in maniera estremamente veloce anche su architetture che non si conoscono….
    personalmente resto legato al C (e in seconda battuta al C++) perchè non mi ha mai deluso….come ho già scritto mi mettero a leggere un po’ su questa architettura ARM e vediamo cosa ne esce fuori….credo che forse c’è la possibilità perchè un nuovo OS che non sia UNIX-based o Windows-based possa farsi strada….è il momento dell’amigaOS o di Be-OS?

  • # 45
    Alessio Di Domizio (Autore del post)
     scrive: 

    @ homero

    credo che forse c’è la possibilità perchè un nuovo OS che non sia UNIX-based o Windows-based possa farsi strada….è il momento dell’amigaOS o di Be-OS?

    In che senso intendi?

  • # 46
    Giovanni
     scrive: 

    @homero:
    Secondo me .NET non è proprio pessimo, anzi… certo che se programmi in C !!! Ovviamente è migliorabile come tutte le cose! Mi domando perché bisogna sempre sparare contro tutto e contro tutti… in un altro post ti ho letto contro le QT Nokia. Forse perché parlare male delle cose è vuol far apparire che le si conoscono bene? Qual’é, secondo te, lo stato dell’arte???

    L’architettura ARM esiste da 25 anni, è stata inventata da Acorn e sviluppata insieme ad Apple e Digital, viene venduta su licenza e personalizzata da moltissimi produttori hardware di primissimo piano nel mondo essendo ampiamente diffusa… se ti interessi di sviluppo hai proprio ragione: è il caso che ti leggi qualcosa a proposito!

    Il post riguarda un OS Windows-based (essendo il porting di Windows!!!) perciò si riferisce alla possibilità di un ulteriore sviluppo di architetture hardware diverse dalla x86 grazie all’apporto del parco software di Windows: credo che il vantaggio consisterebbe in questa sinergia tra Windows e ARM più che nella possibilità di diffusione e sviluppo di altri OS per cui c’é ancora tutto da dire!

    Ciao

  • # 47
    homero
     scrive: 

    x giovanni

    parlare male non vuol dire assolutamente che conosco bene l’argomento, ma soltanto che quando mi sono avvicinato per valutare la possibilità di utilizzare questi elementi ho travato che i difetti superavano i vantaggi, a meno per quanto riguarda le mie necessità, ovviamente non esclude che molti possano trovare utile programmare in .net o utilizzare le liberie qt di nokia, ma ad esempio nel mio caso in cui i front end grafici tendo a renderli spartani e pratici, programmando le qt mi sono ritrovato con programmi pesanti in cui la parte del front end superava di gran lunga quella dell’eseguibile senza che ci fosse un reale vantaggio per l’utente….quando programmo in unix-like utilizzo le gtk mentre in windows tendo ad utilizzare le api di windows e alle volte(raramente) anche li’ le gtk, ovviamente è una questione di gusti non lo metto indubbio…per quanto riguarda il .net non voglio entrare in una polemica che in altri post si è dilungata fino allo sfinimento…
    semplicemente .net non ha per le mie esigenze le prestazioni e la portabilità che mi sono necessarie, non escludo che altri possano trarvi vantaggio, ma se dovessi scegliere un framework sicuramente lo sceglierei multipiattaforma(molti qui fanno il tifo per python, che mi ripropongo sempre di provare ma che poi alla fine resta chiuso nel cassetto) tra l’altro odio visceralmente anche java(che lo reputo alla pari di .net)….
    sono interessato ad ARM sopratutto perchè a quanto pare questa architettura tende a spaziare nel futuro dal lato mobile a quello server….

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.