Sappiamo tutti che il fallimento della Commodore nel 1994 ha distrutto i sogni di milioni di affezionati utenti, di cui ancora oggi una parte continua a seguire il fantastico mondo dell’Amiga.
Sfortunatamente le successive acquisizioni e passaggi di proprietà, i numerosi annunci, hanno provocato sogni di rivalsa che si sono poi trasformati in meste delusioni e ritorni alla spietata realtà: quella della disgregazione di un’azienda che ha fatto grande il mondo dell’informatica, e che poteva dare ancora tanto se avesse avuto un management all’altezza.
Perché è indiscutibile che il potenziale tecnico ci fosse, ma che dovesse fare i conti con gente che avrebbe fatto danni anche se si fosse trattato di vendere patate in Germania…
Dave Haynie, dopo il compianto Jay Miner che ha dato i natali a quel gioiello dell’Amiga 1000, rappresenta ancora oggi IL punto di riferimento quando si parla di queste macchine, essendo stato a capo dello staff degli ingegneri che hanno lavorato alle evoluzioni del progetto originale.
Parlare di come sarebbe potuto essere, o come avremmo voluto che fosse l’Amiga oggi non può certo prescindere dalla strada che aveva tracciato questo carismatico personaggio, e a cui tra l’altro stava lavorando.
Sappiamo, infatti, che già ai tempi del chipset AGA, le idee di Haynie erano ben chiare, come dimostra l’impegno profuso nella realizzazione del prototipo dell’Amiga 3000+ e per l’AAA , chipset che avrebbe dovuto prendere il posto dell’AGA .
Da una parte possiamo notare che l’attenzione era rivolta a un miglioramento della piattaforma esistente, con un occhio di riguardo alla retrocompatibilità (da notare che l’AAA non era compatibile con l’AGA, ma esclusivamente con l’OCS e una larga parte dell’ECS).
Dall’altra la presenza di un impressionante (all’epoca) DSP AT&T 3210, un controller SCSI dedicato ad alta velocità, e una scheda Ethernet, sono evidenti segnali di come la vecchia strada stesse ormai stretta a un ingegnere che aveva le idee chiare sul futuro e voleva ridare linfa a queste macchine.
Rimanere compatibili col passato richiedeva, però, un enorme prezzo da pagare, e infatti nel futuro dell’Amiga non sarebbe rimasto nulla dell’architettura originale. Il progetto Hombre avrebbe messo messo la parola fine a 10 anni di storia, come si può leggere anche da un’intervista al progettista di questo nuovo chipset.
Hardware moderno, con 8 canali audio a 16 bit, pieno supporto al 3D, blitter con funzionalità avanzate, ma con la presenza di 4 playfield fino a 16 bit (65mila colori) che richiamano alla mente il Dual Playfield usato da giochi storici come lo Shadow of the Beast (che non mi stancherò mai di citare).
Un altro colpo al cuore dei fedelissimi integralisti amighisti sarebbe arrivato con l’abbandono della famiglia Motorola 68000, in favore della PA-RISC di HP, rinomata in ambito server e workstation (in parte ispirandosi alla quale Intel e HP avrebbero poi tratto l’Itanium).
Questo chipset, infatti, integrava un core PA-RISC a cui erano state integrate tutte le funzionalità di cui sopra. Era stato pensato per il successore del CD32 , con lo scopo di competere con le console dell’epoca (Sony Playstation e Sega Saturn).
In quanto chipset poteva essere affiancato a un sistema esistente, quindi in presenza di una CPU il PA-RISC si sarebbe comportato come “coprocessore”, ma in assenza era perfettamente in grado di svolgere il ruolo di CPU. Non sono noti altri progetti per dare un seguito al chipset dell’Amiga, per cui è lecito presumere che i futuri modelli avrebbero adottato Hombre.
Se a tutto ciò aggiungiamo che:
- già con l’AGA Commodore non aveva rilasciato le specifiche per programmare direttamente i suoi registri hardware
- lo stesso avrebbe fatto con AAA e con Hombre
- a detta di Haynie AmigaOS 4 avrebbe aggiunto pieno supporto all’RTG e agli agognati chunky-mode
il quadro risulta chiaro: distaccarsi completamente dall’accesso diretto all’hardware, delegando alle sole API esposte dal s.o. il compito di generare e riprodurre la grafica e l’audio, gestire le richieste al blitter (che a questo punto sarebbe potuto benissimo essere del tutto assente ed emulato), visualizzare sprite e BlitterOBject (BOB; entrambi comunque emulabili). Insomma, una situazione simile a quella di AROS, di cui ho parlato di recente.
A tal proposito ho letto di voci riguardo alla possibile adozione di Windows NT per gestire agevolmente le evoluzioni dell’hardware, grazie al livello di astrazione offerto dall’HAL, e relegando a una sorta di emulazione la retrocompatibilità con hardware e software precedente, ma personalmente non ci credo per due motivi.
Il primo riguarda le dichiarazioni di Haynie su AmigaOS 4, che lascia presagire un lungo supporto e sviluppo di questo s.o.. Il secondo è che non riuscirei a spiegarmi il valore aggiunto di una macchina Commodore sulla quale giri Windows NT, rispetto ai PC ovviamente; ma magari è un mio limite.
Questo per quanto riguarda il chipset, ma anche per la CPU il discorso sarebbe stato simile. Era già noto che Motorola, col 68060, avrebbe interrotto questa meravigliosa famiglia di processore, passando il testimone ai PowerPC.
Dunque Commodore avrebbe potuto sfruttare i 68060 ancora per qualche anno, ma per rimanere al passo della concorrenza sul versante puramente prestazionale sarebbe stata costretta ad abbandonarli per salire su un nuovo, vincente, carro.
La scelta dei PA-RISC sarebbe stata perfettamente naturale, se consideriamo anche gli ottimi rapporti di Commodore con HP (quest’ultima l’aveva aiutata anche nello sviluppo di AAA prima e Hombre poi), e ovviamente la presenza di un core di questa famiglia all’interno dell’ultimo chipset secondo me avrebbe pesato particolarmente nella scelta.
Anche per il bus d’espansione, il glorioso Zorro (giunto alla versione 3 con l’Amiga 3000), si sarebbe assistito a una progressiva dismissione in favore del PCI dell’odiata Intel. Il prototipo dell’ultima scheda madre progettato da Haynie ne faceva già uso, e quest’ultimo l’ha pubblicamente apprezzato come ottimo prodotto tecnologico.
Ancora a più lungo termine non è escluso che le macchine Amiga avessero preso a piene mani l’hardware dal mondo PC. Sicuramente per le schede video, vista l’evoluzione che hanno subito quelle PC e gli enormi investimenti in gioco, che avrebbero progressivamente tagliato fuori qualunque concorrente, Commodore inclusa.
Per le CPU un altro cambio, dopo i PA-RISC, sarebbe stato necessario, visto che questi processori non hanno avuto fortuna, se non in ambito HP, e quest’ultima ha poi puntato la propria attenzione sul citato progetto Itanium, di cui è coautrice con Intel. Passare da PA-RISC ai PowerPC avrebbe avuto poco senso, visto che anche Apple li ha abbandonati. Quindi sarebbero rimaste in gioco solo ARM e Intel, ma sul versante desktop quest’ultima rimane più appetibile.
In buona sostanza oggi non avremmo più avuto uno dei due elementi distintivi dell’Amiga: l’hardware. Prendendo in prestito le parole di Steve Jobs all’annuncio del passaggio di Apple agli x86 di Intel, potremmo dire: “quello che conta è il s.o.”…
Se “quello che conta è il s.o.” allora possiamo dire che l’Amiga esiste già con AROS.
In effetti non solo sarebbe accaduto per Amiga ma per tutti i personal computer “diversi”. Lo strapotere di Intel e ARM oggi porta a concludere che nel futuro vedremo sempre e solo dispositivi con CPU x86. Anche il fallimento del Cell su PS3 denota che non c’è molto spazio per architetture custom e quello che conta sarà sempre di più il software. Riflettiamoci solo Intel e pure NVIDIA possono investire milioni di dollari in ricerca e sviluppo per ottenere prodotti competitivi che nessuno può raggiungere. A questi punto tanto vale prendere una ragionevole CPU e GPU e scriverci tanto bel software come fa la Apple. In fondo oggi abbiamo GFLOPS che manco sappiamo che farcene.
Bah il punto è che non è l’Amiga ad aver perso qualcosa, quanto piuttosto i PC IBM. Guardando un moderno PC e i suoi componenti ( in particolare le GPU ) vi sembra più simile ad un PC IBM degli anni ’80 o ad un Amiga?
Di Amiga non s’è perso niente, visto che alla fine lo sviluppo è andato nella direzione voluta dai progettisti Amiga.
Riguardo gli x86 non li vede proprio in buonissima forma. Certo non moriranno ma ARM aumenterà sempre più la sua penetrazione nei settori più orientati al consumo e Power resterà l’architettura di riferimento per device embedded e supercalcolatori da millemila teraflops.
l’amiga è stato un sistema unico nella storia dei personal computer, sia per l’accesso diretto all’hardware che per la struttura del sistema operativo sia per i sistemi di sviluppo sui cui si poteva appoggiare uno sviluppatore…
la frase di steave jobs è falsa…come il 90% dell’offerta apple…
l’os di apple si basa sul oS della NeXT che si basa su BSD e MOTIF..a cui ha aggiunto un supporto diretto all’hardware grafico…per cosi’ dire parziale…che è diverso dal vecchio macos che è diverso dal IOS….jobs vende un grafic style e buon per lui molti ci cascano…
oggi l’amiga come struttura lo vedo in parte nelle console tipo la ps3 o in sistemi embedded…anche se ormai blindare l’hardware è la nuova alleanza tra le industrie del IT nel mondo…
se dovessi progettare un amiga lo farei cosi’:
utilizzerei essenzialmente 3 elementi un processore come il CELL (l’arm è troppo poco potente) un DSP come digic DV della canon per gestire le operazioni audio/video
e un 3d render engine simile a quello della Xbox360 fatto da ati con Xenos magari con un power core integrato…
la ram centrale di base condivisa tra tutti i processori di 4 gb
l’OS riprenderei l’amiga OS2.0 e ripartirei da li’…riscrivendo da zero le librerie per il nuovo hardware….
il resto lo faranno gli amighisti che è dimostrato sono molto bravi….
Ottimo pezzo, come sempre :-)
Qualche riflessione:
Già, però Jobs, che come sempre dice solo una metà della verità, OSX non lo distribuisce senza prima integrarlo verticalmente con l’HW Mac, e a ragion veduta…
Questo per dire che utilizzare solo un sottoinsieme di un parco hardware appartenente in toto al mondo PC, in qualche modo può essere ritenuto la versione 2010 dell’integrazione verticale degli albori, mentre dall’altro lato si creano via software i presupposti per poter cambiare fornitore di ferro come meglio si crede e senza troppi danni all’ecosistema SW (certo, parlando di una quota di mercato minoritaria).
Questa premessa per dire che non sono molto d’accordo con la conclusione secondo cui qualunque sistema operativo oggi erediti anche in minima parte i concetti portanti di AmigaOS può essere ritenuto a ragion veduta il discendente di Amiga.
Perché se è vero com’è vero che, dopo Windows non c’è spazio per un altro OS “aperto” sul mercato, Amiga oggi sarebbe stato, al pari di Apple, una piattaforma “semichiusa”, basata su quell’unica famiglia di CPU general purpose rimasta in piedi dopo gli anni ’90 (quando NT ancora supportava Alpha, PPC, MIPS etc): x86. Il che, per inciso, chiude la porta anche ad esperimenti come quelli di A-EON, basati su CPU arcaiche e vendute decisamente sovrapprezzo.
Beninteso, a dirlo è uno che, pur senza la solidità tecnica di Cesare, non vede in x86 la soluzione a tutti i problemi (al contrario di Intel) né ancor prima il risultato di una selezione darwiniana del migliore.
Con la rivoluzione mobile alle porte anche Amiga, come Apple sta facendo, si sarebbe ritrovata ad affiancare ARM alla propria lista di fornitori, ed è forse da qui che si potrebbe ripartire con un HW Amiga, magari sfruttando qualche design custom, ancora possibile in un mondo ancora tutt’altro che standard.
forse avrebbero dovuto rinunciare ai modelli Amiga lowend (e lo dico con le lacrime agli occhi in quanto non avrei mai avuto il mio amato 1200) piazzando una macchina da gioco di decisamente più performante del cd32, e pure retrocompatibile con i classici amiga… e ovviamente mantenere una linea di computer desktop highend più avanzata di quello che fu il 4000
e poi dopo, elevare di uno step tecnologico entrambe le piattaforme…
Cito dall’articolo “Prendendo in prestito le parole di Steve Jobs all’annuncio del passaggio di Apple agli x86 di Intel, potremmo dire: “quello che conta è il s.o.”… ”
Allora Amiga e’ gia’ morta. Se veramente quello che disse Jobs fosse vero Os X lo troveremo su qualsiasi pc. Evidentemente non e’ cosi, quindi quello che conta non e’ il so ma l’hardware.
La situazione Amiga e’ identica, chi pensa Amiga pensa hardware/software. E non ditemi il contrario ^_^ .
Bell’articolo!
Ho poco da aggiungere tranne che il fascino dell’Amiga per me e’ sempre stata, come dice goldorak, la speciale combinazione hardware/software.
Che soddisfazione giocare con il Copper a quei tempi!
@collione, ti ho preso :)
Non capisco in quale ambito Power sia l’architettura di riferimento per calcolatori da “millemila teraflops”.
Guarda un po’ qui su Top500:
http://www.top500.org/charts/list/35/procfam
Scusate l’ermetismo, ma la parte finale andava letta con una punta di amarezza e di sarcasmo.
Non è un caso che all’interno dell’articolo avessi scritto “un altro colpo al cuore”, e subito dopo abbia parlato di “fedelissimi integralisti amighisti”.
Che è tutto un programma, per chi ha speso una buona parte della vita da programmatore a “battere il ferro”, in particolare coi registri dei chip custom dell’Amiga…
@iva: vai a vedere tra quelli più veloci e nei primi posti trovi la maggioranza sistemi con processori power
gli x86 sono per i supercomputer commercialotti non certo per quelli top class
x IVA
la top500 e’ aggiornata ogni 6 mesi e comunque sempre rispetto ai sistemi esistenti. E’ naturale che chi ha piu’ penetrazione sul mercato consumer avedo costi piu’ bassi per core ha numeri maggiori. Questo spiega il motivo per cui la base dei core x86 (intel o amd) incida sempre nelle statistiche della media con maggior peso….questo pero’ non significa che si tratti della migliore soluzione e naturalmente e meno costoso usare spropositati numero di core che pero’ non scalano a dovere. A mio avviso occorre prendere in considerazione come possono piu’ core messi assieme scalare meglio a livello di performance. Ad oggi prendendo le ultime versioni della tecnlogia CPU la famiglia POWER7 in ambito multicore e’ al momento quella che scala maggiormente rispetto al numero di core…..credo sia cosa indubbia (naturalmente e’ anche la piu’ costosa!). Anche per AMIGA la piattaforma POWER era a mio avviso la scelta piu’ giusta.
Complimenti a Cesare, doverosi.
>
Commodore doveva fare i conti con gente che avrebbe fatto danni anche se si fosse trattato di vendere patate in Germania…
>
Non mi addentro nei tecnicismi, faccio solo un po’ di considerazione in ordine sparso:
Commodore ha lasciato un segno quasi esclusivamente grazie agli home computer. Il PET era uno dei tanti pc CP/M; gli Amiga “di fascia alta” saranno stati l’1% del venduto.
Vic 20, C64 e Amiga erano di fatto un’alternativa alle console… anche per un genitore aveva più appeal acquistare un “computer” al figliolo che se poi quest’ultimo finiva per usarlo solo con i videogiochi.
Quanti utenti sono andati oltre il programmino in BASIC?
Amiga è stata la piattaforma di riferimento per i videogiochi fino al 90-91 e la concorrenza dell’epoca era limitata al SNES e Megadrive mentre la VGA su pc era ancora un lusso.
L’Amiga, come il C64, aveva semplicemente esaurito il suo ciclo, stava sul mercato da quasi 5 anni, era il momento di tagliare i ponti e fare il gran salto verso un’altra architettura, anche sacrificando la retrocompatibilità.
Prima di Windows95, prima della PlayStation (e del Saturn e del N64), prima di internet, ci sarebbe stato spazio per l’ULTIMO HOME COMPUTER in grado di far girare Doom in hi-res e ridicolizzare un patetico PC con il 486DX33…
O no?
credo che microsoft e compagni abbiano comprato i manager e quanti piu’ potevano nella commodore per falla fallire…con i prodotti che avevano per le mani e la comunità a livello mondiale in pieno fermento era proprio impossibile fare peggio…
per il resto concordo con CDMAURO che l’amiga è stato uno straordinario mix di hardware e software e secondo me è un esempio lampade di come debba essere progettato un computer…
…oggi si sta perdendo la percezione di cosa sia un computer…molti lo usano come usasessero un sapientino della clementoni o un nintendo DS….
purtroppo l’unica società che avrebbe la forza economica e tecnologica per produrre un sistema innovativo è l’IBM….ma credo proprio che non abbia alcuna intenzione di tornare nell’ambito del desktop computer….
eppure ne avrebbe la tecnologia e le partnership….
già mi immagino nel mio delirio un desktop con un POWER7 e 2 CELL ma appunto siamo nel delirio
Credo che se commodore fosse stata governata meglio e avesse avuto il giusto fiuto forse ci sarebbe stata una terza strada.
Non solo non avrebbe adottato le schede grafiche degli altri ma sarebbe state lei stessa un punto di riferimento nella grafica fornendola anche a terzi!
Parti di amiga “in prestito” ai pc su scheda pci prima e agp piu tardi (oggi pci express).
Anche per i processori poteva essere fatta una scelta simile visto la gia’ coprogettazione di hombre.
Hanno perso “anni magici” che gli potevano far fare il salto di qualita’. Son rimasti immobili ad incassare milioni di euro finche’ tutto non e’ precipitato.
il problema è: avrebbe senso nel 2010 un’architettura hardware custom?
il mondo IT, come altri settori, va verso la standardizzazione e l’unificazione, per cui un Amiga oggi avrebbe poco senso secondo me.. e parlo da ex amighista.
@Cesare: aggiusta questa url nel testo
“come si può leggere anche da un’intervista al progettista.” http://www.amigahistory.co.uk/21helper.txt ” di questo nuovo chipset”.
Le ultime 4 parole si sono fuse con l’url :-)
Grazie, ho corretto. Purtroppo non bastano diverse riletture, e qualcosa sfugge sempre. -_-
@phabio76: infatti aspettavamo l’AAA e non l’AGA nel ’92; al massimo nel ’94. Questo sì che avrebbe rilanciato le sorti dell’Amiga e, plausibilmente, della Commodore.
@homero: Microsoft non c’entra nulla. Già da anni i “capoccia” della Commodore la spremevano come un limone senza investire concretamente per il suo futuro.
Il fallimento è stato una naturale conseguenza.
@del viero: francamente non penso che avrebbe potuto competere proprio nel settore delle schede grafiche.
Basti pensare che nel ’96 3DFX arrivò con la prima Voodoo, ma già dopo 6 anni dichiarò fallimento. E non stiamo parlando dell’ultima arrivata.
Purtroppo il mercato PC ai tempi aveva nettamente superato quello della concorrenza (non solo Amiga, ma anche Macintosh, Atari e Archimedes) e in questi 6 anni lo sviluppo delle schede grafiche subì un’impennata che fece parecchie vittime, lasciando sul campo pochissimi player a spartirsi un mercato in cui più o meno ogni 6 mesi veniva presentata una nuova generazione (come avviene ancora oggi).
@Giacomo: penso che come Apple coi suoi Macintosh sia riuscita a ritagliarsi una nicchia con quelli che a tutti gli effetti sono dei PC, lo stesso avrebbe potuto fare Commodore con Amiga.
Condivido, quindi, il pensiero di Alessio.
Personalmente non credo che un tipo come Haynie si sarebbe accontentato di riciclare l’hardware del PC, ma gli Amiga avrebbero incluso sempre qualche componente unico e innovativo. ;)
Cesare Di Mauro (Autore del post) scrive:
Scusate l’ermetismo, ma la parte finale andava letta con una punta di amarezza e di sarcasmo.
Non è un caso che all’interno dell’articolo avessi scritto “un altro colpo al cuore”, e subito dopo abbia parlato di “fedelissimi integralisti amighisti”.
Che è tutto un programma, per chi ha speso una buona parte della vita da programmatore a “battere il ferro”, in particolare coi registri dei chip custom dell’Amiga…
Grandissimo articolo Cesare come sempre.
Purtroppo come hai detto tu cesare il Treno è passato e l’abbiamo preso troppo tardi.
ma mai dire mai
Giacomo scrive:
il problema è: avrebbe senso nel 2010 un’architettura hardware custom?
il mondo IT, come altri settori, va verso la standardizzazione e l’unificazione, per cui un Amiga oggi avrebbe poco senso secondo me.. e parlo da ex amighista.
Hai ragione però dipende sempre dal prezzo come sempre, perchè alla fine quando il tuo pc diventa obsoleto che fai?
Cambi processore e quindi anche scheda madre (nel 70% dei casi)
Cambi Ram
Cambi Gpu
quindi tanto vale cambiare Pc mantenendo hd dvd ecc ecc
Poi è ovvio se la motherboard con tanto di chip custom costasse 2000 euro a botta non potrei che “purtroppo” darti ragione.
Ricordo le parole introduttive di Byte per Amiga 1000, che dicevano più o meno una cosa del genere (era il 1985 … sono passati un po’ di lustri): Ci sono due modi di fare le cose: in HW ed in SW. Con l’HW ottieni in velocità. Anche la mia memoria è labile.
Questo significa che Jobs dive le cose a metà, tirando l’acqua al suo mulino!
Ma le cose dopo 25 anni sono un po’ cambiate. Adesso abbiamo l’HW che corre dietro ai limiti SW .
C’è un’altra domanda che mi pongo spesso: Oggi (col senno dipoi!) in quale nicchia si sarebbe infilato Amiga rispetto alla situazione attuale? Come sarebbe oggi il mondo informatico ed economico se Commodore non fosse esistita (chissà, magari Atari avrebbe fatto meglio – visto che peggio non si poteva)?
Le console così come le conosciamo sarebbero diverse, Apple avrebbe diversificato o no?
Oppure 25 anni sono troppi (e 16 dal fallimento) per poter fare ipotesi?
“Adesso abbiamo l’HW che corre dietro ai limiti SW”
il software è da sempre stato indietro rispetto all’hardware eccettoche in sistemi particolari e tra questi sicuramente c’è stato l’amiga in cui hw e software sono andati di pari passo…
il fatto che ORACLE voglia acquistare proprietà intellettuali nel campo dei microprocessori è indice di come la blindatura dell’hardware di fatto abbia di fatto spostato l’annoso scontro tra HW e SW a pura lotta per il business…
Bell’articolo su un ipotetico futuro, ma sinceramente io mi sarei ‘buttato’ sul settore mobile (sia per il gaming… Atari Lynx aveva caratteristiche simili a quelle di Amiga in alcuni chip, sia per il resto).
Apple con Newton aveva anticipato i tempi, poi è arrivata Palm… Amiga si sarebbe potuta benissimo trovare una nicchia almeno per il suo OS (che era già ‘piccolo’ e leggere rispetto al PC e Mac).
Probabilmente avremo potuto vedere dispositivi che nemmeno immaginIamo oggi…
secondo me avrebbero dovuto vendere i sorgenti dell’amiga alla comunità in GPL come fecero altre aziende con esempi di successo:
Mozilla e Blender.
Avrebbero dovuto formare una AMIGA Fondation
con la comunità amiga che tiene duro ancora oggi, altro che linux….
e sono convinto ancora oggi che sia hyperion che quelli di morhos
dovrebbero prendere coscienza della realtà delle cose e farsi coraggio.
Linux è un sistema gratuito con le contropalle. Ne deriva ora anche android che è ancora più accattivante, ma dico avete dado un’occhiata a questo:
OSX è avanti anni luce
black berry ha appena sfornato un tablet basato su QNX..
haiku, è realmente più avanti e che supporta memoria protetta , multitascking etc ..sta per arrivare alla loro meta R1 e da li saranno solo glorie… opensource.
Il trio deve solo vendere/unificare il loro codice alla rete/comunità amiga e fondere i tre sistemi operativi e formare una vera taskforce. pensando ad hardware (hardware come sono oggi gli arm) e software
scusate ho saltato un pezzo :D
quella cosa a cui dare un’occhiata è:
http://www.youtube.com/watch?v=tAbsmHMAhrQ
amonpaike scrive:
Il trio deve solo vendere/unificare il loro codice alla rete/comunità amiga e fondere i tre sistemi operativi e formare una vera taskforce. pensando ad hardware (hardware come sono oggi gli arm) e software
Come non quotarti su questo, ma la vedo una vera utopia :(
Personalmente se Commodore fosse sopravvissuta avrei continuato a vederla attiva sul versante desktop.
Anche se avrei tentato sicuramente di buttarmi nell’ambito Set-top Box, palmari, smartphone, telefonini, e in generale su dispositivi embedded che richiedessero una qualche interazione più user friendly con l’utente.
A mio avviso avrebbe letteralmente sfondato in questi campi, grazie alla leggerezza del s.o., alle sue funzionalità, e all’enorme base di programmatori che lo conoscevano e che avrebbero potuto sviluppare o portare applicazioni.
@amonpaike: per comprare le proprietà intellettuali dell’Amiga servono milioni di dollari, e non penso che la comunità open source sarebbe potuta arrivarci.
@Cesare
Ciao, complimente per i tuoi lavori che ci fanno sempre ripensare a questa splendida macchina.
Per le schede grafiche io credo che c’erano tutti i crismi, c’erano i soldi, c’era il knowhow, c’era un s.o. dove dimostrare le qualita del prodotto e c’erano anche i prodotti!
Infatti han prodotto alcune delle prime schede 3d 24 bit , a quei tempi sembrava un esercizio di stile, rimasto nelle officine commodore dove gli ingegneri progettavano e giocavano con queste piccole meraviglie.I dirigenti commodore non credevano in questi progetti e li han affondati. Infondo i soldi entravano a badilate a quei tempi(ovviamente mancavano di lungimiranza).
L’unico prototipo esposto e fotografato era basato su processore thomson a 64 bit 24 bit accelerazione 2D/3D. Ma a sentire gli ingegneri non era l’unico gioiello in cantina.
Certo e’ vero che molte ditte sono affondate, ma avere una base di installato (macchine amigaos) sarebbe stato un buon punto di partenza.
Poi posso anche sbagliare… i se e i ma… si sa, sono il patrimonio dei bischeri!
OK, ho capito, però tu stesso dici che utilizzavano processori già esistenti, mentre la forza di Amiga era di prodursi in casa soluzioni custom e… uniche (come Hombre, appunto).
Alla fine, come dicevo nell’articolo, Commodore non avrebbe avuto la forza di produrre da sé la tecnologia che le sarebbe servita, dovendosi affidare a prodotti “presi in prestito” dal mondo PC. In particolare per le schede video, a motivo del mostruoso tasso di sviluppo che hanno subito nel giro di pochi anni.
Alla fine, come dicevo nell’articolo, Commodore non avrebbe avuto la forza di produrre da sé la tecnologia che le sarebbe servita, dovendosi affidare a prodotti “presi in prestito” dal mondo PC. In particolare per le schede video, a motivo del mostruoso tasso di sviluppo che hanno subito nel giro di pochi anni.
Un’alternativa sarebbe stata quella di limitarsi a ‘progettare’ e a ‘licenziare’ per terzi la tecnologia Hombre: da una parte AmigaOS+hardware per i prodotti in-house dall’altra la possibilità di far cassa offrendo a terzi il proprio know-how per i cash (e nel contempo sopravvivendo alla concorrenza) – tipo ATI e ARM.
Ovviamente questo approccio presuppone che AmigaOS (e il suo ecosistema) presentasse delle caratteristiche uniche per il pubblico…
Tanto sono ipotesi, ci si può inventare qualsiasi cosa…:)
@ cesare
milioni di dollari per cosa , per la gloria che fu?
oggi, 2010 la realtà è ben diversa da 15 anni fa
linux/android, haiku, freebsd, aros stesso… e tanto e tanto altro software opensoruce,,,
in realtà il vendere il codice sorgente alla comunità sarebbe un vantaggio per loro e per la comunità.
Veramente oggi AmigaOS e Morphos dorrebbero avere successo di massa?
Di buono c’è solo una comunità che vive di nostalgici ricordi.
Dovrebbero solo seguire l’esempio di Mozilla con Netscape
e di Blender (che da solo è più complesso di entrambi i due sistemi operativi messi insieme.
Morte e rinascita dalle proprie ceneri.
http://amiga.ikirsector.it/forum/viewtopic.php?f=39&t=14573&start=15#p169979
Natami dimostra che si può fare hardware alternativo con ‘niente’, figuriamoci con un piano industriale serio.
Commodore oggi avrebbe numerose famiglie di CPU tra le quali scegliere (inglesi, giapponesi, americane, chi più ne ha più ne metta…).
Personalmente la vedrei bene come alternativa a Wintel con un hardware fortemente ottimizzato e dai bassi consumi. Per esempio un Cortex A9 con GPU PowerVR SGX5 e tutto il resto prodotto ‘in-house’ (audio, I/O, eventuali DSP, etc. qualcosa di ‘custom’ che faccia la differenza). Ormai si è arrivati ad un punto che l’hardware è scandalosamente sovradimensionato ed il software scandalosamente ‘bloated’.
Amiga Green! :P
C’è bisogno di qualcosa di ALTERNATIVO, non i soliti carrozzoni INTEL rimarchiati come fa la Apple.
P.S.: Vincendo il Superenalotto potrei anche pensarci, magari sopra anziché AmigaOS4 ci infiliamo una distribuzione Linux fortemente customizzata ed ottimizzata.
@ Alessandro Padarra
Natami è grossomodo un 68060 appiccicato a un FPGA che gestisce la parte video, quindi roba riciclata e sintetizzata in software..
http://www.natami.net/hardware.htm
in realtà creare qualcosa di nuovo nell’hardware e venderlo in volumi sufficienti a ricavarci un guadagno è diventato molto difficile al giorno d’oggi.. il mercato ha 2-3 player nel campo CPU, 2-3 player nel campo chip video e così via.. difficile smuovere le acque, il panorama è molto diverso dagli anni 80-90.
@degac: ai tempi sì, AmigaOS era un gran bel s.o.. Ma da lì a qualche anno sarebbero serviti altri, importanti, aggiornamenti (resource tracking, protezione della memoria, e memoria virtuale in primis).
@amonpaike: quel thread lo seguo da quando è stato aperto e sono intervenuto poco fa. :D
Comunque considera che le proprietà intellettuali e non della Commodore sono di un tizio che non li ha voluti mollare nemmeno dietro un’offerta da 20 milioni di dollari. Quindi qualche valore ce l’hanno, e ritengo sia difficile per la comunità open source riuscire nell’impresa.
@Alessandro Pedarra: Natami, come diceva giustamente Giacomo, è un progetto amatoriale.
P.S. AmigaOS e Linux non li vedo molto bene insieme. :P
@Giacomo: Stanno addirittura programmando una nuova CPU (per quanto limitata) senza soldi, stanno migliorando l’AGA (Super AGA), etc. E’ un progetto amatoriale e per questo è spaventoso. Mi domando cosa potrebbero fare con un team di ingegnieri ed una ventina di milioni di $ alle spalle.
Il panorama come detto è vastissimo, c’è MIPS, ARM (un bel Cortex A9 quad-core!), Hitachi, Fujitsu, IT e chissà quante altre… ci sarebbe solo da scegliere.
Poi qualcosa di custom ci dev’essere altrimenti che Amiga è…
@Cesare: Io ce lo vedo bene in quanto Linux sta dappertutto e personalmente non ho vissuto (come molti altri) l’era dell’AmigaOS. Per me l’Amiga era il Workbench, un sistema semplicissimo, veloce e con tutto quello che serviva a portata di mouse.
Uso Linux con profitto e ci sono distribuzioni che già supportano ARM (Debian). Basterebbe partire da lì e fare qualcosa di dedicato con un bel team da una ventina di persone (la metà della quale non pagata che lo fa per diletto, un pò come succede con Debian).
Con Linux ci puoi fare di tutto ma è chiaro che bisogna rinunciare alla vecchia Amiga che eventualmente potrà risiedere emulata all’interno della nuova.
Di Amiga rimarrebbe solo il nome e la filosofia dell’efficienza, della ‘potenza’ (diciamo rapportata al wattaggio :P) e della semplicità (e della rivoluzione? GREEN!). Con 20W di consumo ci fai di tutto!
P.S.: Rimarrebbe anche l’involucro (case) dell’Amiga 1200 che quello lo voglio esattamente com’era (mai posseduta la 1200 ma solo a vederla mi si smuove qualcosa dentro). :love:
Ripeto, se vinco l’Enalotto magari lo realizzo questo sogno… :D
Forse è questo il motivo: non hai vissuto pienamente quei tempi.
AmigaOS è stata una ventata d’aria nuova come non se ne vedeva da tempo, e ha portato un mare di innovazioni in un mondo che, purtroppo, è sempre più atrofizzato sulle posizioni di un s.o. vecchio di 40 anni (Unix).
Anche se aprivi la shell, tipico dominio di Unix & co., vedevi a occhio le differenze: file con nomi lunghi e COMPRENSIBILI. Bastava scrivere Dir C: e ti trovavi davanti un elenco di comandi dai nomi UMANI, non roba fatta da 2 o 3 lettere, espressione di una sintesi aliena al concetto di interazione uomo-macchina. Perfino i parametri dei comandi avevano dei nomi, e non erano relegati a una sola lettera, tanto era marcata la differenza.
Questo per giusto per fare un esempio. Un esempio di come i progettisti abbiano pensato a tutti: ai programmatori che dovevano lavorarci, e agli utenti che avrebbero dovuto usare il frutto del loro lavoro in un sistema comodo e semplice da usare.
Per cui no, io AmigaOS vicino a Linux o a un s.o. Unix-like non lo vedo per niente bene: sono uno l’antitesi dell’altro.
AROS è disponibile in versione “hosted”, che permette di sfruttare kernel e driver di Linux, FreeBSD o Windows (il supporto a quest’ultimo è recente) su cui far girare sopra la sua infrastruttura, ma io non l’ho mai provato né mi passa per la testa di farlo.
AmigaOS o derivati se devo utilizzarli girano nativi, o nisba, non in versione ibrida, che “non sono né carne né pesce” (cit.).
Una partitina con WinUAE ovviamente me la faccio ogni tanto, ma l’emulazione è un’altra cosa e ho il pallino del retrogaming.
Riguardo le CPU dico soltanto che il panorama è, sì, vasto e ne escono fuori sempre di nuove (anche derivati del 68000!), ma alla fine il mercato lo fanno ormai in due: x86 e ARM. Persino i MIPS e i PowerPC, se non fosse per il loro uso in sistemi embedded o dedicati, ormai non se li filerebbe nessuno.
P.S. Anch’io se vincessi al super enalotto cercherei di prendere in mano quanto è rimasto della Commodore, ma almeno una volta dovrei provare a giocare! :D
Bastava scrivere Dir C: e ti trovavi davanti un elenco di comandi dai nomi UMANI, non roba fatta da 2 o 3 lettere, espressione di una sintesi aliena al concetto di interazione uomo-macchina. Perfino i parametri dei comandi avevano dei nomi, e non erano relegati a una sola lettera, tanto era marcata la differenza.
“copy FROM sorgente TO destinazione”, scrivibile anche come “copy TO destinazione FROM sorgente” … 8-)
Si non lo metto in dubbio che AmigaOS fosse avanti ai suoi tempi… se è per questo anche il Workbench era avanti ai suoi tempi.
Oggi però il preemptive ce l’hanno tutti ed anche con Linux si possono aprire 4 video e vederli in contemporanea.
E’ chiaro che non esiste il sistema operativo perfetto però con Linux c’è tanto di quel supporto ed è tutto così gratuito che sarebbe uno spreco non utilizzarlo. Eppoi è chiaramente il futuro (un sistema che si aggiorna alla velocità della luce, stabile, gratuito e su cui ci lavora tutto il mondo… dall’ingegnere americano di Red Hat all’universitario tailandese).
Rifacciamoci il trucco e sfruttiamo un hardware ad-hoc. Se dovesse morire l’hardware la comunità si può trasferire da qualche altra parte (anche un nuovo hardware) utilizzando gran parte del software dell’universo Linux (che è facilmente portabile).
Per me Amiga era sostanzialmente l’hardware elegante di Jay Miner ed il software semplice è potente. Quest’ultimo lo ritroviamo ad esempio in Ubuntu (e potrebbe essere ancora migliorato) ma il primo manca completamente.
Poi non è che devi copiare il 100% di una distribuzione, hai il tuo team di programmatori e te la personalizzi un pò come vuoi… un nuovo pannello di controllo, una nuova GUI, etc. L’importante è che l’impianto ti faccia partire gli applicativi che abbondano nell’universo Linux… e lanciando un’icona fai partire il vecchio OS 3 se proprio se ne sente il bisogno.
Io vorrei giocare, navigare in Internet ed avere un sistema reattivo consumando al massimo una ventina di watt e credo si possa agevolmente fare con un sistema progettato appositamente.
il guaio è che per certi aspetti è avanti anche ai nostri, tempi
basta pensare ai Datatype, moduli che installati nel sistema danno la possibilità di operare su file del tipo supportato (audio, immagini, documenti, eccetera) a tutte le applicazioni interessate a elaborare quel tipo e capaci di interfacciarsi con la api (unica) del sistema – laddove su windows questo è fatto solo con i codec directshow, e su linux anche già per il video non si ha una API standard e unica system wise a cui le codec library si conformino, ma librerie nate nel contesto di singoli progetti e assurte a standard di fatto, alla cui api sono poi le applicazioni ad adeguarsi – o progetti terzi, costretti a creare framework dotati poi di backend per le singole librerie
o le control ports che permettevano di automatizzare e far comunicare applicazioni per amiga tramite script Arexx, molto prima di Automator su OSX, dell’ automazione con scripting python di KDE (che non so quanti usino) o dell’ eventuality di freedesktop (che nessuno usa)
ma ci sarebbe molto altro…
sta cosa la sto cominciando a leggere un po’ troppo spesso :\
sa tanto di scusa con cui si tenta di perdonare le mancanze del proprio OS preferito…
anche di acqua di mare ce n’è tanta ed è così gratuita che sarebbe uno spreco non berla se si è sulla spiaggia e si ha sete … gratuito e abbondante non implica buono e utile ;)
se un sistema,
su cui il concetto di separazione dei privilegi è ancora quella “o tutto o niente” del primo unix di 40 anni fa, così come gli attributi RWX (per un solo utente e un solo gruppo) di accesso ai file;
su cui CV, Cv e cv sono file diversi;
su cui la comunicazione tra processi è ancora basata su byte stream di testo, e tool gui vengono sviluppati come frontend per programmi console con cui comunicano formattando stringhe e facendo scraping dell’ stdout;
su cui componenti di sistema e programmi applicativi sono configurati tramite file di testo dalla sintassi diversa caso per caso, oltre che contorta (e in certi casi eguagliante veri e propri linguaggi di programmazione che continuano a vivere in tal modo dopo che la storia ne ha decretato la scomparsa da altri ambiti);
su cui processi e parecchia altra roba (http://www.pluto.it/files/ildp/guide/GuidaSysadm/x625.html) vengono dal kernel esposti nel filesystem come file di testo (cosicchè l’ utente può vedere col notepad informazioni che avrebbe potuto ugualmente vedere con un tool apposito, ma con il quale forse non sarebbe “libero” di scegliere quale tool usare) così come i device (cosicchè l’ utente abbia l’ emozione di poter inviare dei dati arbitrari direttamente alla stampante con un comando console – come si faceva ai bei tempi);
su cui la api di IO è sincrona (e costringe a usare un servizio userspace -come gnome vfs o D-VFS – se se ne vuole una che faccia la stessa funzione -apertura e manipolazione di file – in una maniera adeguata alle esigenze delle applicazioni desktop) e ciononostante non garantisce alle applicazioni che una write() su un file sia eseguita (a meno di non chiamare un’ altra funzione);
su cui non esiste un “framework di sistema”, quindi applicazioni e toolkit non vengono sviluppati appoggiandosi ad API specifiche ancorchè standard (la cui implementazione può variare senza che le prime ne risentano), ma a singole librerie e demoni ognuno con la sua API (che può variare tra una versione e l’ altra) la cui stessa presenza non è garantita (dipendendo in effetti dalla singola distribuzione che può sceglierne uno piuttosto che l’ altro o deprecarlo da una release all’ altra)
e su cui lo stesso kernel oggi magari funziona, domani non si sa (dal momento che, essendo i driver vincolati alla release del kernel dalla mancanza di API intrakernel stabili, ogni kernel update comporta un aggiornamento dei driver installati – ed èssendo già successo che nuove versioni dei driver abbiano introdotto o reintrodotto bug anche fatali, la certezza matematica che questo non accada di nuovo non c’è)
è il futuro, dio ce ne scampi… preferisco rimanere nel presente, o tornare al passato, magari
la differenza è che dell’ ingegnere di red hat mi fido (visto che c’è comunque un’ azienda che mette la faccia dietro la decisione di assumerlo e al codice da lui prodotto) dell’ universitario tailandese o del geek che committa dal sottoscala parentale identificandosi solo da un nickname, no
il codice da loro scritto funziona? può darsi (finchè non si incappa in qualche code path non testato)
hanno seguito delle metodiche standard per il design, lo sviluppo e (last but not least) il testing del codice? non lo posso sapere;
hanno svolto una fase di QA con tutti i crismi? non lo posso sapere, ma a giudicare dai risultati (casi di panic solo per aver disabilitato – da combinazione di tasti prevista allo scopo – l’ interfaccia wifi, o di crash di X – con terminazione di tutte le applicazioni aperte e perdita del lavoro – a seguito del ridimensionamento di una finestra) probabilmente no;
quando il codice da loro scritto non funziona, sono disposti ad assumersi personalmente la responsabilità per i problemi causati dai malfunzionamenti del codice da loro scritto? raramente, ma più probabilmente no, “it’s free, you cannot complain”;
quando il codice funziona, ma richiederebbe altro lavoro per diventare una soluzione di livello professionale, robusta e curata, sono disposti a sobbarcarselo? probabilmente no, quello che viene dopo l’ eccitante fase di sperimentazione di nuove idee e algoritmi, è lavoro assai tedioso che tipicamente si fa solo se costretti (o pagati)
Io dico che puoi riscrivere tutto ciò che vuoi (e ce n’è di roba che si può riscrivere) finché non perdi la compatibilità con le applicazioni di GNU/Linux. Ripartire da zero o dagli anni novanta è impossibile, ed anche Jay Miner ai suoi tempi è dovuto scendere a compromessi. Oggi bisogna scendere a compromessi sul software se vuoi costruire qualcosa di ‘vendibile’, altrimenti alla gente che ti compra il tuo supercomputer verde cosa gli offri? Amiga Office 0.4 (da notare lo zero) che non sono è incompatibile con quasi tutto ma che ti è anche costato un rene per svilupparlo?
Capisco perfettamente quello che intendi, il fatto è che con Linux chi vuole può sistemarsi la falla con Windows se ti succede qualcosa puoi metterti l’anima in pace. Ergo se può capitare che dopo 6 mesi il driver che non ti funzionava ti funzioni (perché il geek del sottobottega ha deciso che quella schedina Wi-Fi che ha comprato gli deve funzionare), con Windows se non c’è l’interesse del produttore ti attacchi direttamente al tram.
Poi per carità… io Ubuntu lo uso con la GUI, tutte quelle cartelle sotto ‘bin’
, ‘srv’ mi fanno decisamente schifo per quanto sono incomprensibili ai comuni mortali ma da GUI io lo uso con profitto e lo trovo semplicissimo. Fino ad Ubuntu per me Linux era monnezza tanto era instabile (mi ricordo la vecchia Mandrake) o comunque per nulla semplice (poi sono arrivati i ‘repository’ che trovo eccezionali, come le PPA).
Vedo che ne sai tanto di software, perché non ti c’infili dentro e proponi le tue idee? Se sono interessanti qualcuno le valuterà… Andrew Morton, Alan Cox e gli altri mica erano i figli della regina d’Inghilterra… ci sono entrati per il loro valore nell’ambito del sistema operativo. Credo sia un pò questa la forza di Linux.
Sul QA ti capisco in parte… non hai mai usato software freeware? Chessò per masterizzare un CD, per l’instant messaging, etc.? Beh ce ne sono un fottìo di programmi sviluppati da persone sconosciute o anche solo singole persone.
Metti per esempio che i programmi di Cesare Di Mauro non venissero calcolati da nessuno perché non si firma come MS, Apple, etc.. Sarebbe un peccato, no?
Eppoi i bug ce li hanno tutti, anche i programmi delle società dove s’investe tanta pecunia nel QA… (e non c’è scritto da nessuna parte che siano meno buggati) te lo dico da ex Lead QA di una famosa software house italiana.
Linux è una conquista per l’umanità, Windows (oppure OSX) è un prodotto commerciale qualunque.
Personalmente, da ecologista ed appassionato, sento il bisogno dell’hardware… (mi vergogno di necessitare di un alimentatore da quasi 400W per fare poche cose e giocare) Ubuntu mi sta bene come OS ma c’è sempre la possibilità di migrare verso un altro OS purché sia compatibile con la mole di programmi e periferiche supportate in GNU/Linux.
Con uno smartphone da 500 Mhz si possono fare un sacco di cose, penso che con un quad-core da 2 Ghz (20000 mips!) e 4 miserissimi W di consumo energetico ci stai largo. Poi c’è spazio per circuteria superottimizzata come quella offerta da PowerVR per i suoi chip grafici, circuteria audio dedicata, etc. Insomma una filosofia differente dall’attuale ‘jack of all trades’ (faccio tutto in modo mediocre ma faccio tutto…).
a parte che le applicazioni di GNU/Linux nella maggior parte dei casi girano anche su altri sistemi operativi, o hanno equivalenti (in certi casi migliori) su altri sistemi – ma
veramente mi pare che la compatibilità con le applicazioni GNU/Linux la perda GNU/Linux stesso ogni tot anni (hai provato a eseguire su una ubuntu attuale i programmi che giravano sulla mandrake di 10 anni fa?) proprio perchè viene riscritto continuamente e non essendo compartimentato con API fissate (o le API cambiano a loro volta a intervalli ravvicinati o vengono deprecate senza preavviso) le applicazioni devono essere adeguate (quantomeno ricompilate, nel migliore dei casi) XD
se ne è capace o conosce e/o è disposto a pagare qualcuno che nè capace – altrimenti deve sperare che gli sviluppatori upstream facciano triaging e fixing del bug, nè più nè meno di come farebbe una sw house
tra tutti gli utenti di PC quelli che sanno programmare sono un’ esigua minoranza, quelli che sanno destreggiarsi in codice scritto da altri, magari attinente a un campo applicativo di cui non si è competenti, sono una minoranza nella minoranza – quindi non è affatto detto che ci si possa realisticamente aspettare che l’ utente sistemi da solo i bug nel codice che sta usando, solo perchè questo è aperto…
lo stesso può accadere con il sw free/open source, se gli sviluppatori non hanno il tempo, la voglia o anche la capacità di sistemare il bug – o se lo classificano come a bassa priorità, o valutano che non sia di loro competenza ma ricada su qualche altro progetto – e appunto non si ha la possibilità di sistemarlo in proprio
visto frequentemente in giro per i bugtracker e provato qualche volta di persona
vedi, è triste, ma il denaro può molto – e paradossalmente (ma solo in apparenza), mi pare più probabile che a prendere in seria considerazione le lamentele della sua utenza (pagante) sia un’ azienda con una reputazione da difendere e delle class action da evitare, che uno sviluppatore hobbista che non lavora per altri che sè stesso
non che tutti i progetti open source siano portati avanti da hobbisti (per fortuna) ma molti sì – e si vede
tanto meglio per te ;-)
ma dal mio punto di vista il problema sta proprio lì, nel fatto che la gui ti faccia trovare semplicissimo un sistema che, di fatto, non è reso meno “schifoso” o antiintuitivo sotto la superficie dalla presenza della gui
se il sistema fosse progettato in modo consistente e con cura nei riguardi dell’ utente finale la gui non sarebbe una maschera per la complessità sottostante (che non ci sarebbe bisogno di mascherare) ma un’ altra strada per controllare funzionalità di basso livello che comunque l’ utente sarebbe in grado di assimilare e controllare (essendo ad esempio intuitivo il significato delle cartelle nel filesystem tree)
cosa che in pratica era quello che avveniva su AmigaOS, quello che si apprezzava usandolo non era solo il multitasking ma anche un’ organizzazione molto più chiara e consistente, sia che si usasse Intuition o la CLI – è anche per questo che molti lo rimpiangono ancora oggi in tempi di Linux…
per vari motivi, tra cui l’ avere di meglio da fare che perdere tempo a combattere contro dei mulini a vento, cercando di convincere altri con una mentalità e una scala di priorità opposta rispetto alla mia, di cosa andrebbe fatto e cosa no…
dubito fortemente, dato che il mondo linux e in quello FOSS più in generale:
– è fortemente meritocratico, dove meritocrazia significa che uno ha tanta più voce in capitolo quanto più tempo ha colaborato al progetto e quante più patch ha committato ;-)
– è sostanzialmente dominato da una monocultura unix ( ma anche anti microsoft) in cui spesso e volentieri si scarta un accorgimento valido perchè contrario alla “unix way” o troppo “simile a cosa farebbe la microsoft”, mentre il sottoscritto, in pratica aborre unix a ragion veduta :-D
ma non certo da subito sono diventati i luogotenenti (sic) del finnico (di cui il kernel è ancora una creatura personale, e le cui posizioni mi hanno trovato in nettissimo contrasto in varie occasioni – vedi la questione del C++) con potere decisionale sulle patch da far fininre in mainline, se non ricordo male sono passati anni…
certo, ce n’è parecchio pregevole :)
sarebbe un peccato, ma personalmente trovo difficile che ciò accadrebbe per sw di qualità
applicazioni di qualità, funzionanti almeno nei casi d’ utilizzo previsti (quindi presumibilmente testate con cura e professionalità prima del rilascio), ricche di funzioni utili, con un workflow corrispondente a quello che l’ utente richiede (anch’ esso plausibilmente frutto di professionalità nell’ analisi dei requisiti e nel design) dubito che passerebbero inosservate a lungo, che siano sviluppate da MS, da una sw house minore o da un singolo sconosciuto (al limite c’è la possibilità che microsoft le compri baracca e burattini XD) perchè solitamente è la qualità a parlare per l’ applicazione
per i sistemi operativi ci sarebbe un discorso diverso da fare – un sistema operativo essendo un componente infrastrutturale e una piattaforma per sw di terze parti, non si può reggere solo sulla propria qualità – io potrei anche sviluppare l’ OS perfetto, ma nessuno lo userebbe, se non lo convincessi a farlo
e per convincerlo, il nome (quindi MS piuttosto che apple, google ecc) è uno dei fattori, ma non l’ unico, a cui si aggiunge ad esempio sw accessorio come framework e strumenti di sviluppo destinati agli ISV (dicui ho bisogno perchè la mia piattaforma decolli)
quindi non posso limitarmi all’ OS , devo anche sbattermi come un caimano(cit XD) per sviluppare questi ultimi (oltre che per cercare accordi con le terze parti) e devo anche avere una certa dose di tempismo (arrivare con l’ os giusto al momento giusto)
quindi se mi si chiedesse se mi dispiace che MS abbia avuto successo a discapito di altri sistemi operativi e di altre sw house, risponderei che no, non mi dispiace affatto e che lo ha meritato
dal post precedente e da altri commenti passati dovrebbe essere chiaro quanto io “apprezzi” linux dal punto di vista tecnico e strutturale.. ;)
per questo penso che se di “conquista per l’ umanità” si può parlare, questo valga non tanto per il codice in sè quanto per il know how in esso contenuto
il codice esiste, certo, ed è a disposizione di chiunque voglia mettere su un OS unix like senza dover ripetere anni di lavoro
ma proprio la sua esistenza scoraggia altri dall’ intraprendere progetti di kernel nuovi e basati su un design d’ insieme pulito, su concezioni magari agnostiche rispetto alla legacy unix, e su metodiche di sviluppo non politicizzate (niente “non stabilizziamo le API del kernel perchè non vogliamo che i produttori HW se ne approfittino e perchè così possiamo costringerli a cooperare con noi”, per intenderci)
e più passa il tempo, più le possibilità che qualcuno voglia farlo, calano – e più si radicalizza l’ uso di un certo sistema, la mentalità che l’ unico modo corretto di fare qualcosa sia quello di quel sistema, e che “OS alternativo” sia sinonimo di quel sistema
il know how invece, può essere riciclato in altro sw e in altri sistemi operativi, sia in positivo che in negativo – gli algortmi efficienti e gli accorgimenti validi possono essere riutilizzati (magari dietro API più sane e consistenti) gli stessi sbagli costituiscono un patrimonio una volta riconosciuti, perchè diviene possibile evitare di ripeterli…
ma la cosa interessante è che questo know how è pubblico e, posto di non riciclare lo stesso codice, chiunque lo può applicare a qualunque altro sistema operativo , commerciale o meno
E’ in costante evoluzione, l’importante è che le applicazioni possano venire adeguate da chiunque come succede nel mondo open sopurce appunto.
Vale per Ubuntu ma non deve valere per forza anche per altre distribuzioni. Se una distribuzione vuole rimanere con le vecchie librerie, etc. può farlo ma non vedo il motivo per farlo se non per ambiti particolari. Non credo che molti utenti sarebbero interessati ad eseguire un’applicazione vecchia di 10 anni. Per i pochi interessati c’è Windows. Da vecchio amighista mi ricordo che bastava aggiungere mezzo mega di RAM per perdere la compatibilità con alcuni giochi… gli Amiga li si vendevano nonostante questo difetto.
Per alcuni prodotti commerciali closed source effettivamente può essere noioso, ma ripeto quel computer non sarebbe indirizzato al commercialista di turno come non lo era il primo Amiga.
Inoltre non tutti i programmi di Windows XP girano su Vista per fare un termine di paragone.
Si, con Ubuntu posso pagare qualcuno se non c’è proprio nessuno che c’abbia gia pensato… almeno quella possibilità c’è.
Con il software closed non c’è alcuna possibilità se il codice sorgente viene perso (lo sviluppatore non vuole saperne di rilasciare il codice oppure fallisce).
A me Unix non piace ma credo l’abbiano sviluppato secondo le esigenze di alcuni sviluppatori che trovano comodo impararsi comandi, cartelle etc. di 3 lettere, forse per perdere meno tempo a digitare sulla tastiera.
Fondamentalmente è una questione che non mi pongo perché da utente finale faccio tutto con la GUI oppure se devo eseguire dei comandi da terminale faccio copia e incolla. :)
Preferirei un approccio più semplice anche sulla bash e sulle componenti del sistema operativo ma dato che così non è pace… l’importante è che funzioni.
Quello che dici mi sa tanto di ‘non vado a votare perché tanto non cambia nulla’. O forse più probabilmente ‘fondamentalmente non m’interessa la questione’, il che sarebbe anche comprensibile.
Tanto anti-Microsoft che esiste Mono… non è una monocultura, ci sono tante culture ma la base del sistema operativo è Unix.
Io sono anti-Microsoft e sono pure antimono ma se Mono esiste evidentemente di libertà per idee diverse ce n’è tanta e quindi probabilmente c’è spazio anche per le tue.
Mica puoi pretendere di entrare e fare il bello ed il cattivo tempo… questo succede in pochissimi ambiti, ma sembra proprio che non t’interessi proprio l’ambito. Probabilmente sei legato a Windows, non è una colpa ciò non toglie che Linux la possibilità te la da come chiunque altro. Con MS invece ti rimetti alle decisioni della MS e basta, nessuna possibilità di intervenire su nulla.
Lasciamo stare i meriti di MS… personalmente ritengo che non siano stati i framework ad aver fatto la fortuna di MS. In ogni caso è lei fortunata che nell’anno domini 95 siano esistite società in grado di collaborare per costruire un sistema open source, impegnate com’erano a costruire alternative fallimentari in proprio. Ora è nata una nuova malattia (filosofia?) e ci vuole tempo per diffondere il virus.
Pensa quanto c’abbiamo messo a passare dal governo di un sovrano ad una democrazia (rappresentativa ma vabbé…).
siamo nell’era digitale a partire dagli anni 2000, la gente compra qualunque cosa che sia nuova e digitale, in milioni di pezzi, un nuovo Amiga se ben distribuito venderebbe ancora milioni di pezzi, sono i manager che mancano.
Ci son troppi egoismi nel mondo Amiga
Linux non avrà mai successo in ambito home, troppe distribuzioni e troppo complicato, la casalinga che compila da shell i sorgenti?
ma per favore .
Amiga era l’unica soluzione in ambito home credibile.
non hai modo di saperlo – per quello che tu o io possiamo sapere, un utente potrebbe essere interessato a usare applicazioni vecchie non di 10, ma di 20 anni… e sarebbe un’ aspettativa legittima, se per 10- 20 anni le applicazioni per un certo sistema venissero sviluppate e pubblicate genericamente per quel sistema o se quel sistema non ha mai dichiarato di rompere la compatibilità a partire da una certa versione
il sw in sè stesso non arrugginisce, non si logora e non si guasta per il solo passare del tempo – non vi è ragione per cui un utente non debba voler continuare a usarlo se ne ha bisogno
quello che ci si dovrebbe chiedere semmai è perchè glielo si deve impedire?
innovazione? no, altri sistemi in cui vengono applicati metodi di sviluppo sensati dimostrano che è possibile introdurre innovazione e al tempo stesso mantenere la compatibilità per periodi più lunghi di qualche mese, pianificando il ciclo di vita (concetto sconosciuto altrove) del sistema
e haiku (il cui obiettivo ti stupirà sapere è proprio la compatiblità binaria con un sistema operativo che non è più sostanzialmente cambiato dagli anni 90), e i *BSD, e solaris, HPUX, e Z/OS, AIX, ed altri, tutti almeno largamente compatibili con sè stessi a distanza di anni … in effetti l’ anarchica volatilità delle API è prerogativa di un sistema che ha sì guadagnato spazio in ambiti dove essa non costituisce un problema (supercomputing, web server, embedded), ma che guarda caso occupa una frazione irrisoria del desktop – forse che in questo la compatibilità con sè stesso è una caratteristica che la maggioranza degli utenti si aspetta, e una barriera all’ entrata di sistemi alternativi ?
ed altri richiedevano come minimo un 68030/40 e andavano a scatti sull’ A500, motivo per cui per non deludere gli acquirenti hanno cominciato a indicare i requisiti specifici sulla scatola…
che oggettivamente non era un difetto della macchina o dell’ os, ma conseguenza dell’ avere i programmatori del gioco fatto uso diretto dell’ hw
mono è un’ implementazione di .net e come questo è un framework di alto livello , che si appoggia (e si adatta) a un sistema operativo e un kernel sottostante ma che non inficia in alcun modo – mono non rende certo linux meno unix-like…
mono e .net sono class library attraverso cui accedere a funzionalità di sistema e di utilità da C# e dagli altri linguaggi compatibili con l’ ILR – se esiste è perchè qualcuno ha pensato a quegli utenti di applicazioni .net che avrebbero voluto farle girare su sistemi non microsoft, quindi per risolvere un problema percepito, non per “dare spazio alle idee altrui” … vorrei vedere se un linguaggio e una class library usati dagli sviluppatori di applicazioni non vengono portati su linux solo perchè concepiti a redmond
se la base è sempre quella, se l’ open source è nato nell’ ambiente unix da programmatori unix, se ogni sistema operativo open source in circolazione è una variante di unix o distribuzione di linux, o comunque passa per la compatibilità posix (cosa che vale anche per BeOS) in pratica sì, si può parlare di monocultura ;-)
Già, ed è quello a cui mi riferivo prima. Per questo continuo a sostenere, con fondato motivo (e tu ne hai elencati non pochi in precedenza :D), che AmigaOS non abbia nulla a che vedere con Unix e derivati.
Men che meno con Linux, che non ha API e ABI stabili, ma che fortunatamente è un caso raro nel panorama dei s.o..
Inoltre, Alessandro, la similitudine con Amiga risulta nuovamente sbagliata, perché se alcuni giochi non funzionavano in configurazioni diverse, non era perché accedevano all’hardware direttamente, quanto per il fatto che NON rispettavano le (rigorose) linee guida di Commodore.
Difatti Amiga non aveva soltanto API e ABI stabilissime (e particolarmente orientate alla retrocompatibilità), ma le linee guida c’erano anche per regolare l’accesso all’hardware (vedi l’arcinoto Amiga Hardware Reference Manual).
Giochi che funzionavano con qualunque macchina c’erano e si potevano scrivere: bastava non fare porcate.
Lo stesso vale per XP e Vista: se le applicazioni non girano è perché non hanno seguito le precise linee guida di Microsoft, facendo assunzioni sbagliate (come, ad esempio, che le utenze avessero i privilegi di amministratore).
In generale la storia ci dimostra che i s.o. hanno offerto stabilità ai programmatori, e di riflesso anche agli utenti. Non per “piacere personale” di chi li ha sviluppati, ma col senno di chi sa che deve garantire tranquillità a chi deve realizzare le applicazioni (un s.o. senza applicazioni fa poca strada), che devono poi poter girare sulle macchine della gente e farla felice.
P.S. Sulla questione “con l’open source posso fare quello che voglio, mentre col closed no” prima o poi ritornerò con un apposito articolo. ;)
AmigaOS era un piccolo capolavoro nel 1985 (basato anche su TRIPOS cmq, è bene ricordarlo), ma oggi apparirebbe come un giocattolo.
API e ABI stabilissime… per forza, visto che lo sviluppo, soprattutto del kernel, era praticamente fermo già per gli standard di allora, figuriamoci rispetto alla rapidità dell’evoluzione di oggi :-D
Se Amiga fosse rimasta viva l’SO probabilmente sarebbe diventato uno Unix like magari basato su un microkernel tipo Mach e con Intuition portato su X11, dove tutto l’ambiente legacy sarebbe stato eseguito in una sandbox.
MorphOS?
Si, più o meno ;-)
Sarebbe anche fattibile, come detto si può creare una distribuzione ‘congelata’.. personalmente seguo la filosofia ubuntuana/fedoriana (aggiornamenti alla velocità della luce e di qualsiasi cosa) che è poi quella che ritroviamo nella gran parte dei desktop GNU/Linux oggi.
Ho capito che ci devo cambiare nome… =;)
@Alessandro: il tuo entusiasmo è tipico dell’utente GNU/Linux (guai a dire solo Linux!) che ascolta la messa di St. iGNUcius ogni domenica.
Se esci fuori dal sito della fsf, se ti fai un giro per le aziende che sviluppano il 97% del software che gira sui computer di tutto il mondo, capirai che stai difendendo a spada tratta un progetto tecnicamente scarso, come GNU/Linux, solamente per questioni ideologico-filosofiche.
Linux è un progetto senza eguali, GNU è un sistema operativo libero, share the software, software is better when it’s free, e tutte quelle cose lì… tutto bellissimo e magnifico.
Ma, carta e penna alla mano, se analizzi l’intero progetto GNU/Linux, a partire da quel cesso di GCC (si può dire cesso?), fino alle porcate (e questo si può dire) che ho letto tra le righe del kernel Linux, passando per programmi inutili/duplicati/buggati/deprecati, ti accorgi che tutto il sistema è come una specie di gigantesca insalata di riso: c’è dentro un po’ di tutto, ma alla fine senti solo il sapore dei sottaceti.
Se proprio ti piace Unix, allora difendi FreeBSD, Solaris o altri progetti commerciali che invece sono davvero ben fatti. Ci sono sempre i difetti di base di Unix, ma almeno il tutto è implementato in maniera coerente, stabile e ben progettata.
PS: uso linux dal ’99 e ho anche partecipato attivamente ad alcuni progetti legati al kernel, come linux-phc… e se te lo stai chiedendo, SI, anch’io ho avuto la mia fase GNUcchettara, ma per fortuna mi è passata :D
Vabbè per stasera ho già parlato troppo… notte :D
@ ThekaneB
Quanto ti do’ ragione!
Io sono passato a Debian 3 anni fa per mai piu’ ritornare a Windows… da quando sono “costretto” a usare solo ed esclusivamente Linux & Solaris per lavoro! E allora ho cambiato tutti i miei flussi, il mio desktop e’ un’accozzaglia di script bash e perl per gestire tutto: c’e’ il cronjob per bakuppare tutto su array RAID, tenuto su grazie a mdadm, excel per i conti di casa e’ stato sostituito da un txt in una mia sintassi che viene parserizzato da un perl script apposito… eccetera :D
Insomma: tante bestemmie, tanto divertimento, tanta linea di comando con Linux! Non tornero’ mai indietro… ma a tutti i miei amici “normali” che hanno il dubbio “passare a linux?” li convinco a passare a win7 :D chi gli spiega senno’ che per vedere qualcosa sullo schermo bisogna hackerare xorg.conf (che NON bisognerebbe piu’ fare perche’ xorg riconosce tutto automaticamente… e che se non lo faccio il mio schermo da $400 non va una sega? :)
@ThekaneB
“fino alle porcate (e questo si può dire) che ho letto tra le righe del kernel Linux”
Confermo, anch’io ci ho trovato dentro il testo integrale dell’attuale legge elettorale.
@Marco: loool :D
TheKaneB ha scritto:
> @Alessandro: il tuo entusiasmo è tipico dell’utente GNU/Linux
> (guai a dire solo Linux!) che ascolta la messa di St. iGNUcius
> ogni domenica.
Ognuno e’ libero di seguire i propri ideali, purche’ sia fatto
nei limiti del giusto, nel rispetto reciproco e secondo coscienza.
> Se esci fuori dal sito della fsf, se ti fai un giro per le aziende
> che sviluppano il 97% del software che gira sui computer di tutto
> il mondo, capirai che stai difendendo a spada tratta un progetto
> tecnicamente scarso, come GNU/Linux, solamente per questioni
> ideologico-filosofiche.
Intanto Linux, anzi, GNU/Linux, funziona… e funziona anche bene.
> Ma, carta e penna alla mano, se analizzi l’intero progetto
> GNU/Linux, a partire da quel cesso di GCC (si può dire cesso?),
> fino alle porcate (e questo si può dire) che ho letto tra le
> righe del kernel Linux, passando
Ecco…
Ora dimmi tu… queste tue affermazioni secondo la tua onesta’
intellettuale, mentale o spirituale che sia, sono o non sono una
provocazione?
Specialmente per quanto riguarda il GCC… uhmm?
Gradirei una risposta piu’ stringata possibile, anzi, un semplice
si o un semplice no, sarebbe da preferire…
> Se proprio ti piace Unix, allora difendi FreeBSD, Solaris o altri
> progetti commerciali che invece sono davvero ben fatti. Ci sono
> sempre i difetti di base di Unix, ma almeno il tutto è
> implementato in maniera coerente, stabile e ben progettata.
Tanto di cappello al loro sistema software, ma la comunita’ di *BSD
ne ha di cose da imparare… sopratutto umanamente parlando,
insomma, non sono mica dei giusti… sono poco collaborativi e
spesso sono in guerra proprio tra di loro… non c’e’ che dire, dei
veri diavoli…
(almeno la FSF sembra piu’ unita, almeno apparentemente… )
Pero’ non fraintendiamo, io adoro FreeBSD (softwareisticamente
parlando..) e dopo la mia Slackware sta per diventare il mio
secondo sistema di riferimento, infatti sto per acquistare un
altro hard-disk da 1 TB soltanto per dedicarlo a FreeBSD.
(pero’ che ci posso fare, questi di *BSD umanisticamente parlando
non li posso sopportare e specie il loro simbolismo riguardo a
FreeBSD…)
Grazie!
Reilly
@Luigi: tu scegli il software da usare in base a criteri “umanistici”, io in base al lavoro che devo fare e quindi in base a considerazioni tecniche.
Si, quello su GCC è una provocazione. Ma con tutte le ragioni di questo mondo, visto che posso mostrare tonnellate di papers, ricerche, benchmark e quant’altro per sostenere la mia tesi del fatto che GCC sia un compilatore veramente scritto coi piedi.
Nel mio lavoro ho la possibilità tutti i giorni di confrontare sistemi operativi e compilatori dei tipi più disparati, e le idee che mi sono fatto derivano dall’esperienza, non da sentimenti umanitari nei confronti dell’etica GNU, nè tantomeno per ideali o questioni filosofico-religiose.
Se vogliamo parlare di tecnologia, con dati, tabelle, ricerche, benchmark e calcolatrice alla mano, ci sto. Se la discussione deve cadere sul filosofico, allora tutti hanno ragione e tutti hanno torto contemporaneamente e non avrebbe senso discutere se sia più giusta eticamente la scelta di GNU, di BSD o di chissà cosa.
E’ un po’ come dire che il taoismo è migliore dell’ebraismo o viceversa… non è il genere di discussioni che fa per me :-)
Su GCC ho scritto qualcosa tempo fa: http://www.appuntidigitali.it/10525/gcc-il-miglior-compilatore-al-mondo/
Comunque l’argomento dell’articolo riguarda l’Amiga, e sarebbe meglio che si parlasse di questo. ;)
sorry Cesare, mi sono lasciato prendere dall’OT :D
TheKaneB ha scritto:
> @Luigi: tu scegli il software da usare in base a criteri
> “umanistici”, io in base al lavoro che devo fare e quindi in
> base a considerazioni tecniche.
Si, ma non e’ neanche poi tanto vero, visto che come ti ho detto
nell’altro post a breve voglio acquistare un altro hard-disk da
1 TB soltanto per installarci su FreeBSD.
In verita’ io FreeBSD ce l’ho gia’ installato in una partizione da
25 GB, pero’ sai com’e’, ce lo vedo un po’ stretto… e poi io se
non ho una `/home’ del tutto separata e da almeno 200/250 GB non
mi posso ritenere contento. :-)
Per non parlare poi di:
1) swap 16/32 GB
2) / 25 GB (forse in READ-ONLY mode)
3) /var 40GB
4) /tmp 16GB
5) /usr 160 GB (in READ-ONLY mode)
> Si, quello su GCC è una provocazione.
Ah, apprezzo l’onesta’. :-)
> Ma con tutte le ragioni di questo mondo, visto che posso mostrare
> tonnellate di papers, ricerche, benchmark e quant’altro per
> sostenere la mia tesi del fatto che GCC sia un compilatore
> veramente scritto coi piedi.
Si ma, tutto quello che vuoi tu… sostenere la propria tesi per
la verita’ assoluta non e’ carino… come se poi non ci fossero
altri esperti del settore con <> per poterti smentire…
Cioe’, le tue tesi valgono, mentre quelle degli altri -magari ancor
piu’ bravi- non valgono?
Hai la scienza infusa?
Sei onnisciente?
Sai tutto di tutto? Io non credo…
E le migliaia e migliaia di persone di tutto il mondo che usano
il GCC che vanno da: professionisti, semplici appassionati e/o
hobbysti, informatici, geek, lamer, hacker, cracker, sviluppatori
professionisti e non professionisti, semplici smanettoni, ecc…
Insomma, tutti questi qui sono dei cretini e la loro opinione non
vale nulla?
Ma poi le decine e decine di aziende che hanno scelto di adottarlo
e che se lo sono persino customizzato ( rischiando pure tra
l’altro…)? Del tipo: AMD, CISCO Systems, Sun, ecc… anche questi
sono degli stupidi?
E non dimentichiamoci che ancora per adesso FreeBSD, OpenBSD e
Solaris sono compilati col GCC, che tu ritieni essere un cesso.
E fino a qualche mese fa anche il Mac OS X della Apple era compilato
col GCC…
E forse forse anche AmigaOS 4 e Haiku vengono compilati col GCC…
(pero’ su questi ultimi due posso sbagliarmi…)
Io credo che il `kernel’ per i sistemi operativi sia un po’ come il
motore per un auto-vettura, che e’ si importante (forse la piu
importante), ma e’ anche importante quello che gli costruisci
attorno… per esempio in Formula 1 e’ importante una piu’ che buona
scocca soltanto ed esclusivamente per fini aereodinamici, l’impianto
frenante, il sistema delle sospensioni… un *ottimo* set di gomme
che e’ quasi una prerogativa nel mondo dei motori… insomma, tante
cose…
Per esempio, restando nel mondo della Fromula 1 io quando penso
alla Red Bull, penso a GNU/Linux… motore non tanto ottimo, ma con
un contorno da far paura!!
No perche’ altrimenti non si spiegano i risulati strepitosi che sta
avendo quest’anno.
Io non credo che il motore Renault sia pari a quello della Mercedes
o meglo ancora a quello della Ferrari… pero’ neanche deve far
cosi’ schifo visti i risulati fin qui ottenuti dalla Red Bull…
Lo stesso vale per: FreeBSD vs GNU/Linux.
Il primo con un kernel *si* migliore, ma con un resto e un contorno
molto povero ( per non parlare di una compatibilita’ hardware di
molto, molto inferiore al secondo…).
Mentre il secondo con un kernel un po’ meno qualitativo, ma con un
resto e un contorno da far paura(!!!!), a cominciare dal supporto
dei `file-system’ a cui GNU/Linux gli manco solo l’invidiato ZFS,
per non parlare poi di una compatibilita’ hardware di mooolto piu’
elevata nei confronti di FreeBSD.
Certo se poi alla fine un `kernel’ e/o motore/engine fa proprio
schifo da fare pieta’, il discorso allora cambia…
Pero’ non e’ ne’ il caso di GNU/Linux, ne’ della Red Bull…
FORTUNATAMENTE!!
Ehm…
Scusatemi dell’OT, dentro all’OT…
> Nel mio lavoro ho la possibilità tutti i giorni di confrontare
> sistemi operativi e compilatori dei tipi più disparati, e le idee
> che mi sono fatto derivano dall’esperienza, non da sentimenti
> umanitari nei confronti dell’etica GNU, nè tantomeno per ideali o
> questioni filosofico-religiose.
Si ma, io non metto in dubbio la tua esperienza che e’ importante,
pero’ non mi puoi venire a dire che la tua e’ una verita’ assoluta,
mentre quella degli altri non vale nulla, perche’ non ci credo.
Io non dico che il GCC sia il compilatore ideale, pero’ affermare
che e’ un cesso… beh, e’ bella forte come frase…
Poi se non sbaglio stavi discutendo con Alessandro Pedarra e a me
quest’ultimo non mi pare uno sprovveduto…
Ciao
Reilly
@Luigi:
ho promesso di non proseguire con l’OT per evitare di sporcare ancora il topic, ma se vuoi possiamo continuare la discussione in altra sede… sul mio sito trovi i miei contatti se ti va :-) ciao!
Ehm, rifaccio una parte della mia reply perche’ WordPress mi ha
troncato una parte.
Scusami!
TheKaneB ha scritto:
> Ma con tutte le ragioni di questo mondo, visto che posso mostrare
> tonnellate di papers, ricerche, benchmark e quant’altro per
> sostenere la mia tesi del fatto che GCC sia un compilatore
> veramente scritto coi piedi.
Si ma, tutto quello che vuoi tu… sostenere la propria tesi per
la verita’ assoluta non e’ carino… come se poi non ci fossero
altri esperti del settore con per poterti smentire…
Cioe’, le tue tesi valgono, mentre quelle degli altri -magari ancor
piu’ bravi- non valgono?
Hai la scienza infusa?
Sei onnisciente?
Sai tutto di tutto? Io non credo…
E le migliaia e migliaia di persone di tutto il mondo che usano
il GCC che vanno da: professionisti, semplici appassionati e/o
hobbysti, informatici, geek, lamer, hacker, cracker, sviluppatori
professionisti e non professionisti, semplici smanettoni, ecc…
Insomma, tutti questi qui sono dei cretini e la loro opinione non
vale nulla?
Ma poi le decine e decine di aziende che hanno scelto di adottarlo
e che se lo sono persino customizzato ( rischiando pure tra
l’altro…)? Del tipo: AMD, CISCO Systems, Sun, ecc… anche questi
sono degli stupidi?
E non dimentichiamoci che ancora per adesso FreeBSD, OpenBSD e
Solaris sono compilati col GCC, che tu ritieni essere un cesso.
E fino a qualche mese fa anche il Mac OS X della Apple era compilato
col GCC…
E forse forse anche AmigaOS 4 e Haiku vengono compilati col GCC…
(pero’ su questi ultimi due posso sbagliarmi…)
Io credo che il `kernel’ per i sistemi operativi sia un po’ come il
motore per un auto-vettura, che e’ si importante (forse la piu
importante), ma e’ anche importante quello che gli costruisci
attorno… per esempio in Formula 1 e’ importante una piu’ che buona
scocca soltanto ed esclusivamente per fini aereodinamici, l’impianto
frenante, il sistema delle sospensioni… un *ottimo* set di gomme
che e’ quasi una prerogativa nel mondo dei motori… insomma, tante
cose…
Per esempio, restando nel mondo della Fromula 1 io quando penso
alla Red Bull, penso a GNU/Linux… motore non tanto ottimo, ma con
un contorno da far paura!!
No perche’ altrimenti non si spiegano i risulati strepitosi che sta
avendo quest’anno.
Io non credo che il motore Renault sia pari a quello della Mercedes
o meglo ancora a quello della Ferrari… pero’ neanche deve far
cosi’ schifo visti i risulati fin qui ottenuti dalla Red Bull…
Lo stesso vale per: FreeBSD vs GNU/Linux.
Il primo con un kernel *si* migliore, ma con un resto e un contorno
molto povero ( per non parlare di una compatibilita’ hardware di
molto, molto inferiore al secondo…).
Mentre il secondo con un kernel un po’ meno qualitativo, ma con un
resto e un contorno da far paura(!!!!), a cominciare dal supporto
dei `file-system’ a cui GNU/Linux gli manco solo l’invidiato ZFS,
per non parlare poi di una compatibilita’ hardware di mooolto piu’
elevata nei confronti di FreeBSD.
Certo se poi alla fine un `kernel’ e/o motore/engine fa proprio
schifo da fare pieta’, il discorso allora cambia…
Pero’ non e’ ne’ il caso di GNU/Linux, ne’ della Red Bull…
FORTUNATAMENTE!!
Ehm…
Scusatemi dell’OT, dentro all’OT…
> Nel mio lavoro ho la possibilità tutti i giorni di confrontare
> sistemi operativi e compilatori dei tipi più disparati, e le idee
> che mi sono fatto derivano dall’esperienza, non da sentimenti
> umanitari nei confronti dell’etica GNU, nè tantomeno per ideali o
> questioni filosofico-religiose.
Si ma, io non metto in dubbio la tua esperienza che e’ importante,
pero’ non mi puoi venire a dire che la tua e’ una verita’ assoluta,
mentre quella degli altri non vale nulla, perche’ non ci credo.
Io non dico che il GCC sia il compilatore ideale, pero’ affermare
che e’ un cesso… beh, e’ bella forte come frase…
Poi se non sbaglio stavi discutendo con Alessandro Pedarra e a me
quest’ultimo non mi pare uno sprovveduto…
Ciao
Reilly
Uhmmmpp… questo WordPress fa innervosire!
Vabbe’, ci riprovo per l’ultima volta…
TheKaneB ha scritto:
> @Luigi: tu scegli il software da usare in base a criteri
> “umanistici”, io in base al lavoro che devo fare e quindi in
> base a considerazioni tecniche.
Si, ma non e’ neanche poi tanto vero, visto che come ti ho detto
nell’altro post a breve voglio acquistare un altro hard-disk da
1 TB soltanto per installarci su FreeBSD.
In verita’ io FreeBSD ce l’ho gia’ installato in una partizione da
25 GB, pero’ sai com’e’, ce lo vedo un po’ stretto… e poi io se
non ho una `/home’ del tutto separata e da almeno 200/250 GB non
mi posso ritenere contento. :-)
Per non parlare poi di:
1) swap 16/32 GB
2) / 25 GB (forse in READ-ONLY mode)
3) /var 40GB
4) /tmp 16GB
5) /usr 160 GB (in READ-ONLY mode)
> Si, quello su GCC è una provocazione.
Ah, apprezzo l’onesta’. :-)
> Ma con tutte le ragioni di questo mondo, visto che posso mostrare
> tonnellate di papers, ricerche, benchmark e quant’altro per
> sostenere la mia tesi del fatto che GCC sia un compilatore
> veramente scritto coi piedi.
Si ma, tutto quello che vuoi tu… sostenere la propria tesi per
la verita’ assoluta non e’ carino… come se poi non ci fossero
altri esperti del settore con: “tonnellate di papers, ricerche,
benchmark, ecc ecc…” per poterti smentire…
Cioe’, le tue tesi valgono, mentre quelle degli altri -magari ancor
piu’ bravi- non valgono?
Hai la scienza infusa?
Sei onnisciente?
Sai tutto di tutto? Io non credo…
E le migliaia e migliaia di persone di tutto il mondo che usano
il GCC che vanno da: professionisti, semplici appassionati e/o
hobbysti, informatici, geek, lamer, hacker, cracker, sviluppatori
professionisti e non professionisti, semplici smanettoni, ecc…
Insomma, tutti questi qui sono dei cretini e la loro opinione non
vale nulla?
Ma poi le decine e decine di aziende che hanno scelto di adottarlo
e che se lo sono persino customizzato ( rischiando pure tra
l’altro…)? Del tipo: AMD, CISCO Systems, Sun, ecc… anche questi
sono degli stupidi?
E non dimentichiamoci che ancora per adesso FreeBSD, OpenBSD e
Solaris sono compilati col GCC, che tu ritieni essere un cesso.
E fino a qualche mese fa anche il Mac OS X della Apple era compilato
col GCC…
E forse forse anche AmigaOS 4 e Haiku vengono compilati col GCC…
(pero’ su questi ultimi due posso sbagliarmi…)
Io credo che il `kernel’ per i sistemi operativi sia un po’ come il
motore per un auto-vettura, che e’ si importante (forse la piu
importante), ma e’ anche importante quello che gli costruisci
attorno… per esempio in Formula 1 e’ importante una piu’ che buona
scocca soltanto ed esclusivamente per fini aereodinamici, l’impianto
frenante, il sistema delle sospensioni… un *ottimo* set di gomme
che e’ quasi una prerogativa nel mondo dei motori… insomma, tante
cose…
Per esempio, restando nel mondo della Fromula 1 io quando penso
alla Red Bull, penso a GNU/Linux… motore non tanto ottimo, ma con
un contorno da far paura!!
No perche’ altrimenti non si spiegano i risulati strepitosi che sta
avendo quest’anno.
Io non credo che il motore Renault sia pari a quello della Mercedes
o meglo ancora a quello della Ferrari… pero’ neanche deve far
cosi’ schifo visti i risulati fin qui ottenuti dalla Red Bull…
Lo stesso vale per: FreeBSD vs GNU/Linux.
Il primo con un kernel *si* migliore, ma con un resto e un contorno
molto povero ( per non parlare di una compatibilita’ hardware di
molto, molto inferiore al secondo…).
Mentre il secondo con un kernel un po’ meno qualitativo, ma con un
resto e un contorno da far paura(!!!!), a cominciare dal supporto
dei `file-system’ a cui GNU/Linux gli manco solo l’invidiato ZFS,
per non parlare poi di una compatibilita’ hardware di mooolto piu’
elevata nei confronti di FreeBSD.
Certo se poi alla fine un `kernel’ e/o motore/engine fa proprio
schifo da fare pieta’, il discorso allora cambia…
Pero’ non e’ ne’ il caso di GNU/Linux, ne’ della Red Bull…
FORTUNATAMENTE!!
Ehm…
Scusatemi dell’OT, dentro all’OT…
> Nel mio lavoro ho la possibilità tutti i giorni di confrontare
> sistemi operativi e compilatori dei tipi più disparati, e le idee
> che mi sono fatto derivano dall’esperienza, non da sentimenti
> umanitari nei confronti dell’etica GNU, nè tantomeno per ideali o
> questioni filosofico-religiose.
Si ma, io non metto in dubbio la tua esperienza che e’ importante,
pero’ non mi puoi venire a dire che la tua e’ una verita’ assoluta,
mentre quella degli altri non vale nulla, perche’ non ci credo.
Io non dico che il GCC sia il compilatore ideale, pero’ affermare
che e’ un cesso… beh, e’ bella forte come frase…
Poi se non sbaglio stavi discutendo con Alessandro Pedarra e a me
quest’ultimo non mi pare uno sprovveduto…
Ciao
Reilly
Ah!
Meno male, stavolta e’ andato.
Chiedo scusa a tutti!!
Ciao
Reilly
E’ open source: puoi prendere i sorgenti e correggere i bug. O:-)
A parte gli scherzi, cerca di non usare minore e/o maggiore, e dovrebbe andare tutto bene.
Comunque se ti sposti sul sito di TheKaneB è meglio, così potete chiarirvi senza inquinare ulteriormente il thread. Grazie. :)