di  -  mercoledì 21 aprile 2010

La disamina dei chipset che hanno popolato queste gloriose macchine è terminata con l’articolo che ha discusso dell’AGA , ma una menzione merita sicuramente l‘Amiga Advanced Architecture (AAA), prodotto che ancora oggi fa sognare milioni di amighisti e che, purtroppo, non ha mai visto la luce.

Questo non lo classifica come leggenda metropolitana, in quanto il chipset era sostanzialmente pronto per andare in produzione, com’è attestato da questa intervista (di cui ringrazio il lettore jpx per aver fornito il link in un commento al mio articolo sull’AGA) all’ingegnere Ed Hepler che ha partecipato alla progettazione del suo successore (il progetto Hombre).

Purtroppo come siano andate le cose lo sappiamo bene: la scheda madre che lo doveva utilizzare non era ancora stata finalizzata, e presentava dei problemi, ma soprattutto Commodore decise di cancellare il progetto perché ritenuto troppo costoso e non in linea con l’evoluzione della concorrenza (i PC e le console).

Punto di vista, questo, che come utente di lunga data, ma soprattutto come programmatore, di questi meravigliosi sistemi non condivido assolutamente, in quanto per l’Amiga si trattava di un eccellente chipset nonché l’autentica rivoluzione attesa da troppo tempo, che peraltro poneva delle solide basi per il futuro.

Infatti con l’AAA gli ingegneri avevano finalmente messo mano all’intero comparto hardware, migliorandolo. Non c’è stato elemento che non sia stato ripreso e migliorato a differenza dell’AGA, dove soltanto la palette, il numero di bitplane, e la risoluzione degli sprite erano stati aggiornati, lasciando tutto il resto (audio, disco, seriale, Copper e Blitter) assolutamente invariato.

Al solito, i cambiamenti a cui si presta maggiormente attenzione, forse per una psicologica e patologica corsa alla “misura”, è la risoluzione video, che arriva adesso fino a 1280×1024 pixel, passando per numerose risoluzioni intermedie grazie alla programmabilità del segnale video.

Eredità, questa, dell’ECS, col quale risulta per buona parte compatibile, a differenza dell’AGA di cui praticamente non v’è alcuna traccia, se non a livello di caratteristiche tecniche “sovrapponibili”.

Di fatto con questa mossa gli ingegneri (mi scuserete se non amo dar meriti a Commodore, perché a questo nome continuo ad associare il management incapace che ha portato al collasso la società e ucciso i sogni di milioni di persone) hanno deciso di rompere la compatibilità col passato, ma ciò a beneficio dell’evoluzione anche futura.

Quindi con un’eventuale macchina dotata di AAA potevamo dire addio all’intero parco giochi AGA: non ne avrebbe funzionato nemmeno uno, Pinball Fantasies incluso! Mentre i vecchi titoli che sfruttavano l’OCS, e per quei pochi che andavano a toccare eventualmente qualche registro dell’ECS, qualche speranza di vederli girare c’era, ma sempre a patto che i programmatori non avessero dato fondo alle loro perversioni, come purtroppo sanno bene gli utenti di macchine AGA, che hanno sofferto di problemi analoghi.

La compatibilità con OCS ed ECS è, però, rimasta esclusivamente per facilitare la transizione verso il nuovo (evitando un bagno di sangue), perché i successori dell’AAA certamente non l’avrebbero mantenuta, com’è possibile appurare dall’intervista di cui ho parlato prima e dal documento redatto da Dave Haynie per questo chipset.

Col medesimo principio avrebbero, però, potuto fare lo stesso anche con la compatibilità AGA, ma questo avrebbe complicato notevolmente il chipset. Conoscendone il funzionamento, so bene che questo rappresenta una grossolana e arrabattata pezza che è stata messa sull’ECS, per cercare di mantenere un po’ di competitività nei confronti della concorrenza.

Penso sia chiaro dalle mie parole che non ho digerito particolarmente le soluzioni tecniche che hanno portato all’AGA, e credo che chi ha avuto modo di lavorarci condivida quest’opinione, sebbene i risultati siano stati apprezzabili grazie anche al lavoro degli sviluppatori che hanno cercato di sfruttarle come meglio potevano.

D’altra parte AAA ha dalla sua talmente tanta “potenza di fuoco”, che pensare di continuare a programmare direttamente l’hardware, come si è fatto quasi sempre, diventa non soltanto anacronistico, ma anche pericoloso, in considerazione dei rapidi progressi tecnologici e coi sistemi RTG (ReTargetable Graphics, così erano chiamate le schede grafiche avanzate e non compatibili col chipset dell’Amiga) alle porte.

Il futuro è chiaramente rappresentato dall’uso del sistema operativo, l’AmigaOS, quale intermediario con l’hardware, come peraltro avviene con tutti i s.o. moderni. Ciò, oltre a sgravare il programmatore da numerosi compiti, permette di realizzare applicazioni portabili che, quindi, avrebbero potuto girare anche su macchine completamente diverse.

Tornando alle caratteristiche tecniche, oltre alla risoluzione ovviamente è possibile cambiare la frequenza del segnale (o refresh video che dir si voglia), grazie alla succitata programmabilità, ma è bene sottolineare che con questo chipset assistiamo a un altro sostanziale, ma pregevole, elemento di rottura: non siamo più legati intrinsecamente alla frequenza del segnale televisivo, sia esso NTSC, PAL, o SECAM.

L’Amiga è sempre stata una macchina perfettamente sincrona col clock del segnale televisivo (lo capiremo meglio in un prossimo articolo in cui esaminerò il funzionamento del sistema), che ne regolava ogni aspetto (a parte la CPU, unica ad avere la possibilità di svincolarsi da ciò) e ne ha rappresentato anche un gravoso vincolo.

Con AAA adesso sono a disposizione fino a 8 diversi clock che regolano il funzionamento del chipset, e che possono essere utilizzati per generare diversi segnali video. Singolare è la possibilità di poter scegliere un clock diverso per il recupero di ogni riga di raster visualizzata, ma a occuparsi della generazione del segnale video e della sincronizzazione degli accessi in memoria per prelevare la grafica, armonizzando il tutto, è Andrea, il chip che prende il posto del vecchio Agnus (OCS ed ECS) e di Alice (AGA).

Sempre continuando con la grafica, i bitplane utilizzabili sono passati dai 6 dell’OCS/ECS e dagli 8 dell’AGA, a ben 16. Questo ha consentito, oltre che di visualizzare 256 colori da una palette di 16 milioni (più un bit per l’overlay video, da utilizzare eventualmente con un genlock) come l’AGA, di poter disporre di una modalità dual playfield (due schermi indipendenti) da 8 bitplane ciascuno.

Oltre a ciò troviamo una nuova modalità HAM10 (che, come si può intuire, utilizza 10 bitplane, che si affianca all’HAM8 arrivata con l’AGA), in grado di visualizzare immagini cromaticamente più accurate, avendo a disposizione una palette base di 256 colori (contro i 64 dell’HAM8), e la possibilità di cambiare tutti e 8 i bit delle componenti rosso, verde e blu (l’HAM8 poteva cambiare soltanto i 6 bit più alti, “ereditando” il valore corrente per i 2 bit bassi).

La parte del leone la fanno però le nuove modalità, fra le quali le tanto attese “chunky che sono adesso disponibili il diverse versioni. Half-Chunky consente di definire pixel da 2, 4 o 8 bit, coi bit ovviamente “impacchettati”, in quanto viene fatto uso di un solo bitplane in cui risiedono tutti i bit dell’immagine.

Tanto per fare un esempio, coi pixel Half-Chunky a 2 bit, il bit 0 e il bit 1 si trovano uno a fianco all’altro, per cui nel primo byte del “bitplane” (non dovremmo nemmeno chiamarlo così ormai) ritroviamo memorizzati 4 pixel da 4 colori ciascuno.

Ovviamente la più comoda e che sarebbe stata sicuramente usata nei giochi 3D rimane l’Half-Chunky a 8 bit, simile alla modalità a 256 colori della VGA che ha fatto la fortuna del PC in ambito videoludico.

La modalità Chunky utilizza, invece, 16 bit fissi, che sono internamente suddivisi in 5 bit per ogni componente cromatica, più un bit di overlay da utilizzare al solito coi genlock. Corrisponde alla modalità HiColor (o, impropriamente, TrueColor a 16 bit) dei PC, e consente di visualizzare 32768 colori contemporaneamente, senza utilizzare la palette (che rimane sfruttabile dagli sprite).

Hybrid è, invece, una particolare modalità che risulta una combinazione (un “ibrido”, appunto, come si evince dal nome) dei concetti di bitplane e chunky. In pratica si fruttano 3 bitplane, ognuno dei quali conserva un valore “chunky” a 8 bit, che serve a definire la corrispondente componente cromatica.

Si tratta senza dubbio di un enorme passo in avanti, perché in questo modo è possibile visualizzare fino a 16 milioni di colori senza i compromessi di HAM8 e HAM10, ma richiede 3 passaggi per manipolare la grafica, al contrario della classica modalità TrueColor disponibile su PC e Mac (che ovviamente manca nell’AAA). E’ anche vero che in questo modo è possibile realizzare qualche effetto grafico particolare, agendo soltanto sulle singole componenti.

Sono presenti altre due strane modalità, chiamate PACKLUT e PACKHY, che suddividono lo schermo in blocchi di 4×4 pixel, e nei quali per ogni pixel viene fatto uso soltanto 2 e 4 bit rispettivamente. Ogni blocco definisce soltanto 2 colori (dalla palette a 8 bit nel primo caso, mentre genera un colore a 24 bit nel secondo caso). Non ci sono altri dettagli sul loro funzionamento, ma credo siano state pensate per visualizzare animazioni compresse, impiegando pochi bit e, quindi, poca banda per essere memorizzate e visualizzate.

Per riuscire a supportare risoluzioni, refresh, e profondità di colore così elevati, che richiedono una notevole banda passante, il sistema prevede l’uso di memorie VRAM, oltre che le classiche DRAM, e una configuazione chiamata “dual”, che fa uso di 6 chip anziché 4, facendo così passare l’accesso alla memoria da 32 a 64 bit. I sistemi “dual” sono pensati per soluzioni high-end, mentre la configurazione “single” per quelle consumer.

Da questa potenza e flessibilità ne trae vantaggio anche la CPU, che adesso può arrivare ad accedere alla chip ram alla stessa velocità della fast ram a 32 bit. Inoltre in presenza di VRAM il sistema consente, se predisposto con un’apposita circuiteria, anche di poter acquisire un segnale video esterno, che viene campionato e memorizzato esclusivamente in una delle modalità Chunky o Hybrid.

Pochi cambiamenti hanno riguardato, invece, gli sprite, che adesso possono essere larghi fino a 128 pixel, mentre con OCS/ECS erano fissi a 16, e con l’AGA sono arrivati a 32 e 64 pixel di larghezza.

Modifiche molto più consistenti ci sono stati per il Copper, che è ora in grado di lavorare con istruzioni a 32 bit, in quanto tutti i nuovi registri dell’AAA sono, appunto, di questa dimensione (mentre rimangono a 16 bit i 256 registri di OCS/ECS), ed è finalmente presente un’istruzione che permette di caricare in un colpo solo più registri.

Decisamente utile è anche la possibilità di poter ricevere interrupt dal Blitter (e dal segnale di vertical blanking), quando quest’ultimo termina un’operazione per cui era stato programmato. In questo modo è possibile schedulare tramite il Copper tutta una serie di operazioni senza l’intervento della CPU, similmente al concetto di display list da processare presente in altri sistemi.

Inutile dire che l’elemento che ha subito più cambiamenti è proprio il Blitter, che si è svincolato dal lavorare esclusivamente con bitplane e per giunta con dati a 16 bit. Adesso è in grado di manipolare dati a 32 bit, e di qualsiasi natura: bitplane o chunky. D’altra parte l’introduzione delle nuove modalità chunky e ibride ha costretto gli ingegneri a ripensarne profondamente il funzionamento.

Questo si riflette anche in una maggior facilità di programmazione. Adesso non è più necessario impostare “maschere” e affini (di cui, anche qui, parleremo in un futuro articolo) per farlo lavorare correttamente con bitplane non perfettamente allineati a 16 bit, ma è sufficiente specificare la dimensione dei pixel (da 1 a 16 bit, per potenze di 2) e la loro posizione, per far sì che provveda automaticamente a farsi carico di tutte le operazioni di allineamento e mascheramento. E i programmatori, vi assicuro, ringraziano!

Ma la carne sul fuoco non era ancora abbastanza per gli ingegneri, che hanno pensato bene di arricchire la tipologia di operazioni da eseguire. Adesso il Blitter è in grado di contare il numero di volte che un pixel di un determinato colore si trova in un’area rettangolare, ed è perfino in grado di eseguire un ordinamento di tipo Bubble sort sui “pixel”.

Operazioni strane per un componente di questo tipo, a cui però ne sono affiancate altre “canoniche”, per così dire, come quella di somma e sottrazione, tenendo conto di eventuali saturazioni, come pure il calcolo della media, e altre che il documento di Haynie liquida, purtroppo, con un “etc.”.

Se a qualcuno vengono in mente le famigerate estensioni SIMD che ormai dominano sia nelle CPU che nelle GPU, beh, non è andato lontano. Tutt’altro.

E’ ancora presente la modalità di disegno delle linee, che è stata chiaramente potenziata tenendo conto di tutti questi cambiamenti, e permette di specificare adesso anche un pattern a 32 bit (prima era soltanto a 16 bit). Inoltre è stata aggiunta la possibilità di definire un rettangolo per il clipping.

Questo vuol dire che si può definire una zona rettangolare entro la quale il tracciamento deve rimanere vincolato, e il Blitter si farà carico di tutti i calcoli e controlli, senza che si debba scomodare la CPU. Ancora una volta, i coder e Intuition ringraziano.

Ovviamente tutto questo ben di dio viene eseguito molto velocemente dal Blitter, vuoi per l’implementazione interna che è stata completamente rivista (ma è presente ancora la completa compatibilità con quella “a 16 bit” di OCS/ECS/AGA), vuoi per la maggior banda a disposizione coi nuovi sistemi.

Arriva, infatti, a essere anche 10 volte più veloce nel solo trasferimento dei dati, senza tener conto dei notevoli incrementi dovuti alle nuove operazioni che è in grado di eseguire. Roba da infarto, insomma, per un programmatore che ha dovuto fare i conti a manina cercando di risparmiare anche un solo ciclo di clock…

La grafica e tutto ciò che è essa legato è e rimarrà sempre l’argomento che occupa più spazio, perché c’è parecchio di cui discutere, ma non meno importanti sono le innovazioni apportate al comporta audio, dove il chip che se ne faceva carico, Paula, era rimasto praticamente inalterato dalla sua prima incarnazione, datata 1985.

Passiamo finalmente dai 4 agli 8 canali indipendenti (con relativi nuovi canali DMA assegnati alle “new entry”), dagli 8 ai 16 bit (ovviamente è possibile utilizzare indifferentemente l’uno o l’altro “taglio” in totale autonomia), e dai 29Khz di frequenza massima ai 64Khz attuali.

Il volume subisce anch’esso un netto miglioramento, considerato che prima erano disponibili 6 soli bit (64 livelli), e adesso ben 12 (4096 livelli), quindi con una granularità decisamente più fine. A ciò aggiungiamo inoltre la possibilità di poter scegliere liberamente quali canali devono essere presenti nell’uscita di sinistra, e quali in quella destra, mentre in precedenza due (0 e 3) erano fissi sul sinistro e gli altri due (1 e 2) su quello destro.

Come per la sezione video, anche per l’audio è possibile campionare un segnale esterno, anche se, purtroppo, soltanto a 8 bit (e stereo); per il supporto a 16 bit è necessario un ADC esterno. Molto più importante è, invece, la possibilità di poter disporre di un’uscita digitale, che soltanto negli ultimi anni è ormai diffusa nei PC.

Anche l’accesso al disco e il relativo controllo hanno rappresentato la classica “croce e delizia” degli Amiga. Se, da una parte, il meccanismo era estremamente versatile nella definizione dei formati, dall’altra la scarsa banda a disposizione di soli 500Kb/s consentiva di leggere soltanto floppy a bassa densità.

Con Mary, il sostituto di Paula, si superano gli 11MB/s e, quindi, si possono leggere e scrivere i floppy ad alta densità (da 1,44MB per i PC, ma fino a 2MB con l’Amiga), ma anche a quadrupla densità (da 2,88MB per PC, ma fino a 4MB con l’Amiga).

Il controller in ogni caso è estremamente evoluto, essendo in grado di leggere anche CD-ROM, ma anche particolari hard disk, e perfino i famigerati floppy del Macintosh che, come da tradizione Apple, avevano un formato e un meccanismo di memorizzazione dei dati tutto loro.

Oltre al supporto alla lettura “raw” (dati grezzi, che poi erano lo standard per l’Amiga; la decodifica MFM, infatti, avveniva in software) e al vecchio GCR, Mary ha supporto in hardware per le codifiche MFM, RLL(2,7) e Biphase-Mark.

Sempre in hardware supporta la lettura e scrittura di singoli settori (soltanto di intere tracce in precedenza), del formato CD, può gestire il CRC e permette di utilizzare un clock esterno per sincronizzare i dati.

Infine, e a testimonianza che proprio ogni aspetto dell’hardware è stato migliorato, alla porta seriale già presente su Paula se ne aggiunge un’altra su Mary, ed entrambe sono bufferizzate con una FIFO da 4 byte, che consente di ridurre notevolmente l’intervento della CPU (che riceve meno interrupt per la ricezione dei dati), ma soprattutto di poter lavorare a frequenze molto più elevate.

Scusandomi per la lunghezza del pezzo, credo non ci sia altro da aggiungere. Le conclusioni le lascio a voi. Le mie, purtroppo, le ho già realizzate parecchi anni fa, ma a questo punto penso possiate immaginarle…

75 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    iva
     scrive: 

    maledetto Cesare, mi pubblichi il nuovo articolo nella giornata piu’ incasinata al lavoro di tutto il 2010!!! :)

  • # 2
    moklev
     scrive: 

    Che Irving Gould e Mehdi Ali brucino all’inferno.

  • # 3
    ncc2000
     scrive: 

    grazie per l’articolo…davvero perché credevo di essere un “bravo” amighista, ma sinceramente non conoscevo così approfonditamente le caratteristiche di questo chipset…del futuro; ma ahimé, devo riconoscere che, se fosse uscito, a mio personale parere, non avrebbe ripetuto i fasti dei primi amiga, almeno in ambito grafico/gaming…insomma, avrebbe bissato negli esigenti videogiocatori la parziale delusione nel precedente passaggio all’AGA. Deduco infatti, sempre a mio parere, che la macchina avrebbe potuto avvicinarsi, come prestazioni, ad un “VIRTUA RACING” (e lo ammetto, scusate se è poco…), ma con la playstation dietro l’angolo, e con le mirabilia pronte ad uscire di lì a breve…beh..l’amiga AAA avrebbe potuto fare ben poco.

  • # 4
    Caterpillar
     scrive: 

    A che pro si sincronizzava tutto con il segnale del televisore? Anche io da studente di ingegneria faccio fatica a seguire certe cose eheh

  • # 5
    TheKaneB
     scrive: 

    sigh… sob…

    viene quasi da piangere :,-(

    pazienza… ormai possiamo solo aspettare, per vedere se gli eredi di Amiga sapranno cogliere il testimone, con l’imminente AmigaOne X1000 e AmigaOS 4.2 (rispettivamente di A-Eon e Hyperion) che dovrebbero dare una ventata di nuovo sul panorama amighista moderno.
    E’ un peccato, comunque, che oggi solo una piccola nicchia di appassionati si stringa attorno a quel che rimane di una piattaforma che, 25 anni fa, dettava legge in termini di esperienza utente e tecnologia.

    Per quel che mi riguarda continuo ad usare Amiga quando posso, sperando in un futuro risveglio (anche se la vedo mooolto dura)…

    Ciao!

  • # 6
    D
     scrive: 

    Rifaccio la domanda: nessuno ha mai pensato di andarli a legnare quei due bastardi ?
    Ma dov’è che questa roba non era in grado di reggere contro i pc ?
    Volendo fare un paragone proprio con i pc a quale generazione dovremmo saltare per avere un confronto di parità ?
    I Pentium Pro ? Gli MMX ? Il P2 o forse addirittura il P3 ?
    (certo, escludiamo il lato grafico che come esposto nell’articolo sarebbe stato presto ceduto alle schede RTG, ma limitiamoci a vedere le prestazioni lato chipset )

  • # 7
    D
     scrive: 

    “(anche se la vedo mooolto dura)…”

    Se la X1000 sarà veramente la macchina dei sogni sufficientemente moderna come si spera e se qualcuno a sorpresa annunciasse almeno un netbook (meglio un subnotebook) magari basato sulla sam460, credo che almeno per un paio di anni la questione tecnica potrebbe essere risolta e rimarrebbe solo quella economica da combattersi a colpi di marketing, supporto hw come si deve ecc.ecc.

  • # 8
    Cesare Di Mauro (Autore del post)
     scrive: 

    @ncc2000: la PlayStation, per quanto un bell’oggetto, rimane soltanto una console. Un Amiga con l’AAA è qualcosina di diverso e di più ampio raggio.

    @Caterpillar: nello specifico mi riferivo al clock, che negli Amiga era un multiplo esatto della frequenza del segnale necessario a generare le immagini a seconda dello standard televisivo, e che serviva a sincronizzare tutto.

    Ne parlerò meglio in un prossimo articolo, come promesso.

  • # 9
    ncc2000
     scrive: 

    ..si..è vero, l’amiga 4000 è qualcosa di diverso da una console da 300.000 lire, ma è anche vero che, quando noi pensiamo ad amiga, pensiamo ad un evoluto pezzo da novanta di hardware, sotto ogni aspetto, compreso quindi quello grafico (non possiamo difatti dimenticare che entro’ nel cuore di milioni e milioni di appassionati proprio per le sue innarrivabili, per almeno un lustro abbondante, capacità multimediali..in pratica il psone se lo sarebbe dovuto magnà…pur rimanendo imbattibile anche in ambiti piu’ prettamente professionali). L’amiga era infatti unico e peculiare, figlio del genio e del cuore di persone che già nel 1990 aveva lasciato la piattaforma (si erano dedicati alla console portatile atari lynx prima, e al 3DO dopo)..un modo di intendere e di vedere l’hardware informatico che già, ricordi “alla mano”, era svanito negli amiga immediatamente successivi, ormai vie di mezzo tra cloni potenziati di una macchina della prima metà degli anni ’80 e pc ibm compatibili…nè carne e nè pesce in finale. Ben diverso, a proposito di strade mantenute, il discorso apple, che non ha mai smarrito la sua mission (a parte una defaillance nella seconda metà degli anni ’90…brrrrrr…)ed ora domina in leadership tecnologica…come la commodore, negli anni ’80, appunto.

  • # 10
    Alex
     scrive: 

    L’Amiga è stato il primo computer e la programmazione a basso livello in assembly il mio primo linguaggio di programmazione! Non conoscevo questo AAA ma sinceramente dubito che sarebbe rimasto sulla cresta dell’onda per anni come l’ECS. Sui PC all’epoca già era in uso l’espandibilità dell’architettura attraverso schede grafiche o audio. Una architettura così chiusa non avrebbe potuto portare alla fine grossi benefici…lo dico a malincuore ma il modello open dei personal computer ha permesso l’evoluzione dell’hardware in ogni comparto ad esempio la grafica. In pratica ogni 6 mesi esce una nuova scheda grafica, ed ogni due anni una generazione completamente nuova di schede grafiche. Non vedo come l’Amiga o peggio la Commodore avrebbe potuto spingere in questa direzione.

    Per il resto grazie di cuore Amiga…ti devo tutto.

  • # 11
    D
     scrive: 

    Ed è una bella cosa secondo te ? Perdiamo più tempo a comprare, montare, cercare di far funzionare (poi, anzi prima, c’è anche lavorare per pagare certi mostri) schede che a godercele sul serio.
    La stragrande maggioranza dei giochi è fatta letteralmente con i piedi, non uno straccio di ottimizzazione, anche solo accennata, tentata. La parola d’ordine è “SPENDI UN BOTTO PER FARE LA SUPER MACCHINA”, se un gioco gira male non è la software house che s’è svegliata con la luna di traverso e sta cercando di far calcolare alla cpu tutti i numeri del pi greco, ma sei te pezzente che non spendi miliardi per cambiare pc ogni momento.
    L’unico divertimento che trasmette un pc è quando gli si tira il collo con l’overclock (dal momento che sono stufette trattiamoli come tali)
    Col senno di poi sono dell’idea che il modello amiga di avere un computer base uguale per tutti era veramente vincente e chi voleva fare cose maggiori espandeva.
    Ah e ovviamente giusto per non farsi mancare niente: ma sul AAA ci girava crysis ? :P

  • # 12
    andres
     scrive: 

    Concordo con D.
    Sul Pc ci sono software stupendi al giorno d’oggi (io, in particolare, parlo per la musica), ottimizzati così male da girare 1000 volte più lenti di quel che dovrebbero, ma belli.
    Però il sistema su cui girano (Windows, ma anche Linux sinceramente) è di una noia mortale, non trasmette nulla, è, è… banale, privo di originalità. Brutto. Privo di fantasia.
    Nel prossimo futuro vorrei tornare ad Amiga come sistema quotidiano e usare il Pc solo per lavorare, aspetto con ansia l’X1000…

  • # 13
    jpx
     scrive: 

    @Cesare
    Di niente, figurati! ;)

    @moklev
    sottoscrivo…

    @#? (chicca amighista ;)

    Attenzione: non dobbiamo dimenticarci che, sempre stando alle parole di Haynie, se le cose fossero andate come dovevano andare (sigh!), questo chipset avrebbe visto la luce su piattaforma Acutiator, vale a dire una motherboard estremamente modulare come siamo abituati a concepire i PC oggigiorno (forse ben più).
    Inoltre, il reparto R&D era già al lavoro su Hombre, quindi una scheda 3D sarebbe stata pronta di lì a qualche mese (anno?). Immaginatevi + o – la potenza di una Ps1 unità alla filosofia Amiga… Non dimentichiamoci poi dell’AmigaOS: sempre stando ai documenti dell’ultimo DevCon, alla voce “future directions” c’era tanta carne al fuoco da mettere il pepe al sedere a qualunque concorrente (e credo nessuno possa contraddire il fatto che all’epoca qualunque OS concorrente fosse..beh, non fatemi dire altro!) ;)
    Vi basti sapere che, ad esempio, estensioni come la MUI erano già state previste e codificate (in quest’ottica, si comprende che MUI sia stato solo un tentativo di terze parti di mettere -l’ennesima- pezza al sistema dopo la morte di CBM). Stesso discorso per il sistema RTG integrato nell’OS a livello di graphics.library (IIRC) (CyberGrafX e Picasso96, ebbene si, anche loro ennesime postume pezze di terze parti).
    Insomma, Amiga si stava preparando a cambiare pelle e in meglio sotto numerosi punti di vista!
    Quindi, caro Moklev: sottoscrivo! Dio, come sottoscrivo!!!

  • # 14
    jpx
     scrive: 

    @D

    Su AAA: no!
    Su Hombre: si! ;)

  • # 15
    Cesare Di Mauro (Autore del post)
     scrive: 

    @jpx: concordo, e aggiungo che bisogna anche conoscere la situazione del mercato all’epoca. A mio avviso nel ’94 sarebbe potuto arrivare benissimo qualche macchina, se solo Commodore avesse voluto.

    L’AAA era sostanzialmente pronto. Ci si lavorava già da anni. Ci sono mail nel sito di Dave Haynie, datate 1991, dove c’erano già parecchi dettagli di bassissimo livello sul chipset. E il documento di presentazione che è rimasto ai posteri, sintesi di altri documenti di centinaia e centinaia di pagine, risale al ’93.

    Ricordo, inoltre, che Wolfenstein 3D arrivò nei PC nel ’92, e sfruttava esclusivamente la CPU per tutti i calcoli, con la modalità chunky a 8 bit a 256 della VGA standard. Doom arrivò l’anno dopo, e operava nelle stesse condizioni.

    E’ vero che la PlayStation arrivò nel ’94 e integrava un chip 3D, ma PC ed Amiga non erano messi tanto male. Per quest’ultimo ricordo la demo di un gioco 3D, Breatless, con un engime migliore di Doom fatta girare all’IPISA ’94 a Milano su un normale Amiga 4000 ed era fluidissimo pur lavorando interamente con la CPU e questo utilizzando una routine di conversione chunky-to-planar per visualizzare la grafica.

    Il primo chip a offrire una forma di accelerazione 3D per PC arrivò soltanto un anno dopo, nel ’95: era la GPU della S3 Virge.

    Insomma, a mio avviso AAA aveva tutte le carte in regole per sfondare e diventare un punto di riferimento per l’Amiga. Per potenziarlo col 3D, come ricordi tu, c’era già il progetto Hombre che sarebbe arrivato da lì a un paio d’anni.

    Rimango, pertanto, convintissimo delle mie conclusioni.

  • # 16
    Giacomo
     scrive: 

    probabilmente l’AAA aveva abbastanza potenza da emulare in software l’ECS o l’AGA

  • # 17
    g4be
     scrive: 

    azz…altro articolo spettacolare, ma scrivici su un libro completo (ammesso che non l’abbia già fatto), dico seriamente, evoluzione storica dell’hardware amiga dall’ottica di un programmatore. La passione con cui tratti l’argomento non è molto comune…e ancor meno la competenza.

    Per un attimo a metà lettura mi è sembrato di star divorando la competente e dettagliata recensione di una rivoluzionaria novità hardware appena uscita… ero quasi tornato agli inizi degli anni 90!

  • # 18
    D
     scrive: 

    Io aspetto una serie di articoli sulla realizzazione da zero di un home computer basato su z80 :)

  • # 19
    Cesare Di Mauro (Autore del post)
     scrive: 

    @Giacomo: tecnicamente l’AAA ne faceva polpette dell’AGA (e con l’ECS era già quasi del tutto compatibile).

    Ma emularne le specificità no (mi riferisco all’architettura, cioè a come lavoravano tutti i registri): serve parecchia potenza di calcolo.

    @g4be: intanto ti ringrazio per i complimenti. Comunque stiamo pensando a qualche soluzione per valorizzare meglio gli articoli di Appunti Digitali, per cui idee come quelle che hai espresso sono benvenute. :)

    @D: su quello personalmente non ti posso aiutare. :|

  • # 20
    D
     scrive: 

    Cioè scusa riesci a fare articoli che trattano la complessità di amiga e non riesci a fare niente nei confronti di un clone di spectrum ? Non dovrebbe essere più semplice e soprattutto d’aiuto a capire perchè certe scelte negli amiga erano valide ?

  • # 21
    Cesare Di Mauro (Autore del post)
     scrive: 

    Decisamente no: la progettazione di un home computer è una materia completamente diversa.

    Ricorda che il mio rimane il punto di vista di un programmatore che smanetta con l’hardware (ma per “spremerlo”, non per progettarlo né tanto meno per realizzare un sistema che lo integri).

  • # 22
    fog76
     scrive: 

    @D “scrive:

    Io aspetto una serie di articoli sulla realizzazione da zero di un home computer basato su z80 :)”

    Un inglese lo ha realizzato, completo di OS!!! Se siete interessati, ve lo monta e ve lo spedisce per meno di 100€

    ecco il link: http://www.retroleum.co.uk/

    Ciao

  • # 23
    Marco
     scrive: 

    “Una architettura così chiusa non avrebbe potuto portare alla fine grossi benefici…”

    Concordo in pieno. Purtroppo prima o poi ci si sarebbe comunque dovuti arrendere. Già alla fine degli anni ’80 l’architettura PC x86 dominava il mercato.
    IMHO avrebbero fatto meglio a puntare tutto sullo sviluppo dell’OS.

  • # 24
    Marco
     scrive: 

    @D
    A cavallo fra gli anni 70 e 80 Nuova Elettronica propose proprio un computer con z80:

    http://www.z80ne.com/ita/articoli.html

    E’ in italiano, spiegato molto bene e completissimo.

  • # 25
    D
     scrive: 

    “Ricorda che il mio rimane il punto di vista di un programmatore”

    Ma è proprio quello il punto: come programmatore riesci ad apprezzare e spiegare ai comuni mortali i vantaggi ed i svantaggi di determinate scelte in hardware.
    Prendi il buffer qua sopra dei 4 bytes, come avremmo potuto capire noi comuni mortali quale differenza apportava una memoria di ben 4 caratteri in più ?
    Nella mia proposta mi riferisco allo spectrum perchè è proprio l’esempio di un sistema quasi scabroso dalla mancanza di un chip per l’audio, al color clash, la z80 che era una cpu velocissima penalizzata dal dover fare lavori per i quali non era stata pensata.
    Perchè alla fine tolti i nostalgici e gli appassionati, tutti gli altri mica riescono a capire cosa ci fosse di tanto orgasmico dentro questi chipset

  • # 26
    Cesare Di Mauro (Autore del post)
     scrive: 

    A parte che lo Z80 non era proprio veloce come processore :D , capisco il tuo punto di vista, ma a me mancano delle competenze di elettrotecnica ed elettronica necessarie alla progettazione di un home computer.

    Poi su come funziona, le potenzialità, ecc., diciamo che grazie alla mia esperienza riesco a cavarne qualcosa. :)

  • # 27
    Massimo M
     scrive: 

    Io ho sempre avuto un dubbio. Dato che anche Apple era “preoccupata” di Amiga (che aveva anche un emulatore funzionante!) ed anche molti altri non dormivano sonni tranquilli ci sia stata una cospirazione per poter affossare questo sistema. Certo: era un ambiente chiuso e PC e compagnia avrebbero fatto la differenza. Ma PS1 e successive dove le mettiamo? Se Amiga si fosse ancora evoluta certamente il sistema si sarebbe aperto quel tanto che bastava per non “sfigurare” con la concorrenza.
    Non dimentichiamo inoltre che accantonado i PC Apple (Macintosh ai tempi ma anche ora) e le console erano e sono sistemi BLINDATI!
    Io sono convinto che Amiga dava fastidio a molti. Altrimenti non mi spiego una simile disfatta, continuata anche negli anni a venire! Cospirazione? per me è molto probabile!

  • # 28
    Gennaro Tangari
     scrive: 

    @Massimo M
    >Io sono convinto che Amiga dava fastidio a molti.
    >Altrimenti non mi spiego una simile disfatta,
    >continuata anche negli anni a venire! Cospirazione?
    >per me è molto probabile!

    Con queste idee non si va molto avanti! :-P

    Un prodotto non vende quando (1) non è buono, (2) non ha mercato e (3) chi lo vende non lo sa vendere.

    Dato per scontato che il punto (3) è perfetto per Commodore e che comunque a parte il “nicchia” video/animazione anche (2) nel segmento “professionale” non è infondata.

    Certo era una macchina dalle capacità/potenzialità enormi … peccato che si sia persa per strada …

  • # 29
    jpx
     scrive: 

    Per quelli che insistono sull'”architettura chiusa”, una volta per tutte:
    http://www.amigahistory.co.uk/acutiator.html

    @marco
    “Concordo in pieno. Purtroppo prima o poi ci si sarebbe comunque dovuti arrendere. Già alla fine degli anni ‘80 l’architettura PC x86 dominava il mercato.
    IMHO avrebbero fatto meglio a puntare tutto sullo sviluppo dell’OS.”

    Opinabile e, come dimostrato a più riprese, anche abbastanza sbagliata come analisi.
    Da notare poi che “puntare tutto sullo sviluppo dell’OS” è quello che stanno pateticamente cercando di fare da 10 anni a questa (parte con i risultati che sono sotto gli occhi di tutti).
    Si, anche se fosse portato su x86.
    E di certo a suo tempo la Commodore, che era soprattutto un costruttore hardware, perché mai avrebbe dovuto investire tutto su un OS già allora “di nicchia”?

  • # 30
    Gennaro Tangari
     scrive: 

    #jpx
    > perché mai avrebbe dovuto investire tutto su un OS già
    >allora “di nicchia”?

    Perché sarebbe stato l’unico modo per evitare di chiudere la baracca in prospettiva! :-)

    PS: Mi ha sempre incuriosito la storia della Commodore nei suoi ultimi anni di vita … voi volenterosi conoscitori del marchio avete qualche link (magari in italiano) affidabile??

  • # 31
    D
     scrive: 

    “A parte che lo Z80 non era proprio veloce come processore”

    Beh 3 e passa Mhz VS uno scarso (e pure meno) ad esempio del 6502, volevano pur dire qualcosa. Il C64 infatti vinceva solo grazie al lavoro di squadra fatto con il VicII ed il Sid.

    “ci sia stata una cospirazione per poter affossare questo sistema”

    Le cospirazioni si fanno per cercare di affondare qualcuno che funziona. Commodore era destinata a fallire con le proprie mani nel momento in cui aveva optato per un’evoluzione lenta del chipset per risparmiare sui costi.

  • # 32
    joe4th
     scrive: 

    Mi chiedo se dei prototipi siano mai stati realizzati del tripleA (e se si chi ce li ha, forse dave haynie a casa…?).
    Tutto sommato anche oggi non è che l’oggetto sarebbe così anacronistico. Di anacronistico noto solo l’interesse fatto per supportare i floppy disk…(chi li usa ancora parte aggiornare i BIOS, se ci stanno)?

    Io credo che di particolare di Amiga non c’era l’architettura hardware. La cosa più particolare di Amiga era l’utenza, e lo è ancora. Siamo ancora qui a parlare delle emozioni che suscitavano l’uso di quella macchina e l’annuncio di nuovi chipset…, la rabbia per le scelte fatte, come traditi da una ba***cca, ma di cui in fondo in fondo ancora innamorati… :-)

  • # 33
    Cesare Di Mauro (Autore del post)
     scrive: 

    A chi lo dici… -_-

    Di macchine AAA funzionanti non mi sembra ce ne siano in giro. C’erano dei prototipi di schede madri, ma non funzionanti.

    @D: sulla questione “mito dei Mhz” e, nello specifico, 6502 vs Z80, ho scritto un articolo: http://www.appuntidigitali.it/2774/e-piu-veloce-un-6502-a-1mhz-o-uno-z80-a-35mhz/ ;)

  • # 34
    Turrican3
     scrive: 

    Veder parlare di Amiga nel 2010 in modo così appassionato e approfondito è indubbiamente piacevole, a dir poco. Complimenti!

    Grande ammirazione per una macchina che mi ha dato tantissimo, sia con utilizzo “serioso” (home computer) che strettamente ludico. Peccato che dei manager inetti abbiano vanificato il brillante lavoro di Miner, Mical e soci, ma anche coloro che raccolsero il testimone da loro lasciato, come il celeberrimo Dave Haynie.

    Consiglio a tutti (ma immagino sia conosciuto da tanti Commodoriani) la lettura di “On the Edge”, testo in inglese sulla storia della CBM dai primi passi sino al fallimento.

  • # 35
    jpx
     scrive: 

    @Gennaro Tangari
    “Perché sarebbe stato l’unico modo per evitare di chiudere la baracca in prospettiva! :-)”

    Si chiama “senno di poi”. Troppo facile! ;)
    Per quel che riguarda le info su CBM degli ultimi tempi (ma anche dei primi), come suggerisce Turrican3: “On The Edge” dice più o meno tutto, purtroppo non in italiano.

    @joe4th
    Non era poi così anacronistico un floppy nel 1991 (anno di concepimento del chipset), così come non lo era nel ’93 (anno in cui sarebbe dovuto uscire).

    Se ben ricordo, di prototipi funzionanti sia di chipset che di motherboard ce ne fu almeno uno:
    http://www.youtube.com/watch?v=hHI7_pU0y70#t=2m17s

    (tratto da Deathbed Vigil, il video ormai mitico del solito Haynie. Nella versione con audio c’è il buon Dave che spiega i vari componenti e accende il monitor per dimostrare che esisteva ed era pronto…)

  • # 36
    joe4th
     scrive: 

    Z80 vs 6502, Spectrum vs C64, chi non l’ha vissuto… Avendoli avuti e programmati (LDA, STA, INX…) tutti e due, per me il C64 era superiore…

    Mi chiedo se mai ci sarà qualcuno che possa raccogliere simbolicamente i testimoni di Miner e co.; oramai vedo solo più cloni dei cloni (alla Pepsi vs Coca) e macchine o sistemi che apparentemente vengono su per emozionare, ma sotto sotto far soldi (iPAD dixit)…

    P.S.: c’e’ un modo per postare i commenti senza passare da quel me-CAPTCHA. A malapena riesco a leggerci qualcosa io ma non sono un replicante, o forse sì?

    E soprattutto si possono correggere i piccoli refusi a posteriori, magari semplici errori di ortografia?

  • # 37
    Gennaro Tangari
     scrive: 

    @jpx
    >Si chiama “senno di poi”. Troppo facile! ;)

    Beh, i principali player del settore l’avevano capito da lungo tempo … potevano arrivarci anche quei geni della Commodore!! ;-)

  • # 38
    Turrican3
     scrive: 

    @jpx
    Per quel che ne so di motherboard Nyx/AAA ne esistono più d’una; se non ricordo male quella di Haynie è stata venduta su Ebay secoli fa, le altre le hanno… prese in fretta e furia dei top manager Commodore, quindi penso che per tutte quante si possa affermare, a meno che non ci sia in giro qualche insider di quelli tosti, che non se ne sa nulla.

  • # 39
    joe4th
     scrive: 

    @jpx: di anacronistico ci trovavo solo le modalità superavanzate per fare stare più dati, 2.88 o 4MB, magari erano solo un effetto collaterale di Mary.
    Ma sui floppy c’erano sempre problemi di affidabilità (ricordo vagonate di floppy per installare la slackware A1..A4, Z1…Z99…). A fine ’94, quindi non distante dal 1993 io acquistai un Iomega ZIP100. E da li a poco dopo (o prima?) uscì LS120 che se non ricordo male doveva essere “compatibile” con i floppy 1.44. Per la cronaca dal 1991 al 2010 non ho mai incontrato nemmeno un floppy da 2.88…

    Come si trasferivano i dati da un PC all’altro o dalla rete nel 1991? Ovviamente si, hai ragione, fino al 1994 o 1995 oltre vagonate di floppy. Poi gli Iomega-ZIP. I masterizzatori costavano troppo e non li trovavi ovunque. I CD vergini i primi erano 25-30 mila lire. Ricordo che avendo solo un Amiga, avevo scritto un piccolo programmino (che aspettava e metteva una pausa) per spezzare un file da PC e metterlo in floppy da 720…(altro che ARJ multifile…) gli unici leggebili da Amiga (quelli da 1.76 costavano troppo e ci voleva il A3000 o A4000 che avevano solo i ricconi…).

  • # 40
    jpx
     scrive: 

    @joe4th

    Propendo anche io per l'”effetto collaterale”! ;)
    Non dimentichiamoci però che c’era anche il controller CDROM integrato (cosa che comunque CBM già aveva fatto con CDTV e CD32 e che -finalmente!- arrivava anche sui sistemi desktop).

    ZIP100!!! Quanti ricordi! Io mi “convertii” nel ’95 e non tornai più indietro! ;D
    C’è da dire che grazie all’Amiga ho metabolizzato (cannibalizzato?) tutte le tecnologie delle varie epoche senza traumi: ZIP, masterizzatori… ora per spostare dati (oltre alla LAN e WLAN) si usano le memorie CF, figurati! :)

    @Gennaro Tangari
    E chi erano questi “principali player”? La Apple, che ha rischiato di fallire a fine secolo prima della seconda venuta di Jobs, dell’iMac e dell’iPod? La Sun, che ha fatto la fine che sappiamo? La Silicon Graphics? Idem. Microsoft faceva solo software quindi non conta. Guarda che non sto facendo l’antipatico: te lo sto chiedendo sul serio, perché onestamente non ricordo molte aziende che “facevano tutto in casa” come CBM (chip inclusi) e nella prima metà degli anni novanta mi sfugge chi fu a parlare e investire solo nell’OS.

  • # 41
    Gennaro Tangari
     scrive: 

    @jpx
    > E chi erano questi “principali player

    Microsoft dice niente?

    >a Apple, che ha rischiato di fallire a fine secolo prima della seconda
    >venuta di Jobs, dell’iMac e dell’iPod?

    GIà la Apple dove con tutti i limiti (molti) del Mac OS comunque avevi un OS per cui sviluppare non un hardware!

    > La Sun, che ha fatto la fine che sappiamo? La Silicon Graphics? Idem.

    Sono aziende che stanno andando male da relativamente poco tempo …

  • # 42
    Gennaro Tangari
     scrive: 

    Oh intendiamo non voglio fare l’antipatico neanche io … però mi sembra chiaro che a differenza di altri Commodore non ha capito capito l’importanza del software e non ha saputo vendere un ottimo prodotto: alla fine il mercato pur con tutti i suoi “limiti” quando un prodotto è attraente in qualche modo lo premia … vedi la quasi scomparsa di Apple nella seconda metà degli anni ’90 …

  • # 43
    jpx
     scrive: 

    @Gennaro

    Hey, non vale! avevo escluso M$ a priori!!! ;)
    Ribadisco: Microsoft c’entra poco o proprio nulla con il business model (ammesso che ne avesse mai avuto uno) di Commodore. Non puoi paragonare mele e arance. Una software house con il pallino del dominio del mondo contro un’azienda che se avesse potuto avrebbe stampato in casa anche gli imballaggi! ;)

    A proposito di mele: “GIà la Apple dove con tutti i limiti (molti) del Mac OS comunque avevi un OS per cui sviluppare non un hardware!” . In che senso?!?! Se la interpreto a modo mio, non sta né in cielo né in terra!

    Sun va male da relativamente poco, OK. Ma non porta acqua al tuo mulino perché ha rinunciato all’OS (Solaris) per concentrarsi sull’hardware di tipo server. Quindi l’esatto contrario di quello che suggerisci avrebbe dovuto fare CBM per sopravvivere.

    Silicon Graphics, mi spiace contraddirti, ma è praticamente fallita nel 2000, ben dieci anni fa!
    Dico praticamente perché sebbene sia “crollata” solo di recente, nel 2000 ha subito la prima grande decimazione di personale R&D (molti dei quali, guarda un po’, son finiti all’Nvidia) e riassetto degli obiettivi aziendali (qualcuno si ricorda le terribili workstation NT?).

    Commodore non ha capito l’importanza di MOLTE cose, se è per questo ti do tutta la ragione di questo universo. Ma non solo del software e di certo questo non sarebbe stato determinate a lungo termine, come tutti i casi appena analizzati dimostrano.
    Leggiti “On The Edge”, è molto illuminante. Guardati il dvd “Deathbed Vigil”, guardati e leggiti le interviste di Haynie. Commodore era votata al suicidio e al martirio. E’ talmente incomprensibile e illogico da risultare grottesco e paradossalmente comico. Ad un reparto R&D composto di geni mossi da pura passione (c’era gente che letteralmente VIVEVA nei laboratori) fa da contraltare un management degno solo di una piazza con vista su ghigliottina! ;)

    Scusate il lungo semi-OT.

  • # 44
    Cesare Di Mauro (Autore del post)
     scrive: 

    Sei stato troppo buono: la ghigliottina fu progettata per ridurre al nulla il dolore causato per la pena di morte…

  • # 45
    Gennaro Tangari
     scrive: 

    @jpx
    >Ribadisco: Microsoft c’entra poco o proprio nulla
    >con il business model (ammesso che ne avesse mai avuto uno)
    >di Commodore. Non puoi paragonare mele e arance.
    >Una software house con il pallino del dominio del
    >mondo contro un’azienda che se avesse potuto avrebbe
    >stampato in casa anche gli imballaggi! ;)

    So benissimo che non si può confrontare una software house con un’azienda che costruisce pezzi di ferro, ma ho citato Microsoft proprio per rispondere alla tua osservazione sul fatto che la gente ha capito che l’importante era il software solo col senno di poi!

    >A proposito di mele: “GIà la Apple dove con tutti i limiti
    >(molti) del Mac OS comunque avevi un OS per cui sviluppare
    >non un hardware!” . In che senso?!?! Se la interpreto a
    >modo mio, non sta né in cielo né in terra!

    Interpretala così: Mac OS classico aveva molti limiti tecnici (in primis multitasking cooperativo ed assenza della memoria protetta) ma comunque era quello l’essenza del Mac. Di solito su Mac non si andava a fondo a sviluppare sull’HW perché tra te e il computer c’era (ed c’è ancora) un layer software importante!

    >Sun va male da relativamente poco, OK. Ma non porta
    >acqua al tuo mulino perché ha rinunciato all’OS (Solaris)
    >per concentrarsi sull’hardware di tipo server. Quindi
    >l’esatto contrario di quello che suggerisci avrebbe
    >dovuto fare CBM per sopravvivere.

    Contestualizza quello che si dice all’epoca di Commodore non oggi ;-)

    >Silicon Graphics, mi spiace contraddirti, ma è
    >praticamente fallita nel 2000, ben dieci anni fa!
    >Dico praticamente perché sebbene sia “crollata” solo
    >di recente, nel 2000 ha subito la prima grande
    >decimazione di personale R&D (molti dei quali, guarda
    >un po’, son finiti all’Nvidia) e riassetto degli
    >obiettivi aziendali (qualcuno si ricorda le
    >terribili workstation NT?).

    Ribadisco l’osservazione di prima: nei primi anni ’90, cioé quando Commodore chiudeva i battenti sia SUN che SG non erano assolutamente in crisi.

  • # 46
    jpx
     scrive: 

    Chiudo qui perché siamo oramai nelle pericolose lande dell’OT estremo! ;)

    Non hai ancora dimostrato in alcun modo che se Commodore avesse investito nel software sarebbe sopravvisuta (e quando poi? Ha chiuso nel ’94 quando tutti gli altri stavano comunque bene, come fai notare tu: sia che stessero facendo sw, sia hw)

    OK, caliamoci nello scenario del 1992, quando c’era ancora un fievolissimo barlume di speranza.
    Silicon Graphics andava a gonfie vele perché vendeva a Hollywood workstation da 500000 dollari a botta.
    Sun andava bene perché faceva di tutto: processori, server, workstation, software, OS e stava già iniziando a lavorare su Java. Ma dire Sun è come dire IBM. Troppa carne al fuoco.
    Apple era in pieno boom PPC e non mi venire a dire che investiva più sul sw che sull’hw. Per schifo che facessero, i Mac dell’epoca erano fortemente “custom” rispetto a qualunque PC. Era proprio macOS l’anello debole della catena Apple a quei tempi, altroché! Mi spiace fartelo notare, ma anche su Apple la tua analisi non è propriamente corretta…
    Microsoft: non puoi dirmi “ho citato Microsoft proprio per rispondere alla tua osservazione sul fatto che la gente ha capito che l’importante era il software solo col senno di poi!”
    Microsoft è nata negli anni 70 facendo software per altri e poi per se stessa! ;)
    Sarebbe come dire che avevano già capito nel 1975 che bisognava investire solo sul software!
    (un po’ fantastoria, ti pare?) ;)

    Ora chiudo sul serio. Mi pare chiaro che entrambi abbiamo delle convinzioni molto forti maturate nel corso degli anni. E’ giusto e sacrosanto che sia così, ognuno fa le sue esperienze, le somma, le analizza, trae conclusioni. I miei (luuuunghi) anni su Amiga (2010 incluso) rimangono il periodo “informaticamente” più felice della mia vita. I miei lunghi (oramai 12) anni su Mac son fatti di un po’ di alti e molti bassi (scrivo da un MacBook). I miei lunghi anni su PC (in senso DOS/Win) son come andare dal medico: ci vai se ci devi e se ci vai non ci vai volentieri. Sul mondo *nix in senso stretto non mi pronuncio perché non ho proprio esperienza, ma so di aver sbavato a lungo sulla depliantistica Silicon Graphics dei tempi d’oro quando avevo 17/18 anni! ;)
    Questo per dire cosa? Solo che, come si era capito, il mondo è bello perché è vario! :)

    Back OT (o quasi)…
    ebbene si, espongo con fierezza il mio punto di vista fermo, palesemente contrapposto al tuo:
    fantastoria o no, son CONVINTO che se l’AAA fosse uscito nel 1992, ora starei scrivendo queste righe da un notebook Amiga con dio-solo-sa che CPU, dio-solo-sa che chipset, dio-solo-sa che OS. ;)

  • # 47
    Gennaro Tangari
     scrive: 

    @jpx
    >Non hai ancora dimostrato in alcun modo che se
    >Commodore avesse investito nel software sarebbe
    >sopravvisuta (e quando poi? Ha chiuso nel ‘94 quando
    >tutti gli altri stavano comunque bene, come fai notare
    >tu: sia che stessero facendo sw, sia hw)

    E come diavolo farei a dimostrarlo? O__o
    Qui si parla di congetture l’unico dato di fatto è che Commodore è fallita, ed è sul perché è fallita che ognuno ha le sue idee!

    > Per schifo che facessero, i Mac dell’epoca erano
    >fortemente “custom” rispetto a qualunque PC.
    >Era proprio macOS l’anello debole della catena Apple
    >a quei tempi, altroché! Mi spiace fartelo notare, ma
    >anche su Apple la tua analisi non è propriamente corretta…

    No mi sa che non ci capiamo … la Apple vendeva bene e vendeva perché la gente era interessata ad usare un computer con Mac OS non perché dentro un Mac c’era un PowerPC piuttosto che un Pentium o un 68040.
    Che poi Mac OS fosse all’altezza o meno dei concorrenti è un’altra storia.

    >Sarebbe come dire che avevano già capito nel 1975
    >che bisognava investire solo sul software!
    >(un po’ fantastoria, ti pare?) ;)

    Centrato … sono stati i più furbi a capire che se si vuole “comandare il mondo” bisogna investire sul software e non sull’HW.

    Il problema di Commodore (ed di Apple ad un certo punto) è che volevano “conquistare il mondo” con l’HW e questo non è possibile. Apple l’ha capito e s’è ritagliata la sua nicchia …

    >fantastoria o no, son CONVINTO che se l’AAA fosse
    >uscito nel 1992, ora starei scrivendo queste righe
    >da un notebook Amiga con dio-solo-sa che CPU,
    >dio-solo-sa che chipset, dio-solo-sa che OS. ;)

    Ed io resto convinto che sarebbe cambiato poco, non per le indiscusse capacità dell’AAA ma perché Commodore non l’avrebbe saputo vendere :-)

  • # 48
    jpx
     scrive: 

    @Cesare Di Mauro

    Hai ragione. Sempre nel succitato Deathbed Vigil DVD, c’è una scena del party dei dipendenti che ben ritrae la giusta pena: rogo! ;D

  • # 49
    jpx
     scrive: 

    trovato: al minuto 49 e 30 secondi http://video.google.com/videoplay?docid=-6995843800661768793#
    Buona visione! ;)

  • # 50
    Marco
     scrive: 

    “son CONVINTO che se l’AAA fosse uscito nel 1992, ora starei scrivendo queste righe da un notebook Amiga”

    Questa è “(un po’ fantastoria, ti pare?)” ;)

    Il fatto è che nel ’92 abbiamo avuto l’AGA, e che Commodore era già messa male dopo decenni di allegra gestione (vedi i capitoli “Curse of Commodore”). Con un team R&D smembrato, processi di produzione (CSG) residuati dagli anni ’70, credibilità ai minimi presso istituti di credito, rivenditori, utenza professionale, mancanza di un minimo di supporto, di una visione e di un piano aziendale.
    Anche se l’AAA fosse stato completato, PC & co. nel giro di poco (uno o due anni) l’avrebbero probabilmente raggiunto e sorpassato nelle prestazioni (ammesso che partisse in vantaggio), vanificando gli investimenti.

    Lo stesso Haynie ne parla così nel ’99:
    “Gateway/AI would have been insane to continue AAA. It would have been revolutionary if released in 1990, pretty cool in 1992, ok in 1994 (the earliest it could have been released on the schedule we had, with a healthy Commodore). Today, it would be a horribly expensive thing with less graphics performance than any old everyday $10 PCI-based SVGA graphics chip.”
    Evidentemente perfettamente conscio di quella che era l’evoluzione hardware dell’altra sponda.

  • # 51
    jpx
     scrive: 

    Questa è “(un po’ fantastoria, ti pare?)” ;)

    Ne sono perfettamente cosciente, grazie. ;)

  • # 52
    g4be
     scrive: 

    io penso che l’amiga sia vissuto sicuramente NON quanto molti avrebbero voluto(io per primo), ma abbastanza per aver oggettivamente detto la sua nella storia informatica anche se ancora oggi si fatica non so perchè a riconoscerlo; il resto però è abbastanza soggettivo e dipende da come la si vuole vedere: in un ottica nostalgica romantica essa è stata uccisa e forse addirittura consapevolmente; ma non dimentichiamo che quello era un altro periodo storico… molti di noi erano addirittura adolescenti o poco più e tutta l’informatica ancora relativamente giovane, e non per sempre un computer sarebbe apparso come un che di magico… prima o poi ci si sarebbe smaliziati capendo che contavano anche i numeri, la potenza, la velocità, la modularità, la compatibilità ecc ecc … cioè la consapevolezza di aver tra le mani uno strumento di lavoro e basta. Questo un po’ è stato dimostrato anche dalla separazione del videogioco dai personal computer, con il successo esponenziale delle console.

  • # 53
    D
     scrive: 

    “Hai ragione. Sempre nel succitato Deathbed Vigil DVD, c’è una scena del party dei dipendenti che ben ritrae la giusta pena: rogo! ;D”

    Troppo buoni. Io avrei optato per una pena tipica irachena: due cavi elettrici attaccati ai OO il tutto collegato alle batterie di un camion

  • # 54
    Wilfrick
     scrive: 

    Ho visto spezzoni di quel video, vabbé che di inglese-americano comprendo poco, ma perchè tutti questi ingegneri e dipendenti se la ridono? cosa c’è da ridere? io quando ho visto i magazzini Commodore vuoti, gli uffici deserti e le scrivanie razziate mi son sentito malissimo… ho riprovato completamente le medesime sensazioni che nel ’94 ebbi quando in ufficio mi giunse la notizia del fallimento… ho riprovato le stesse cose, atroce! mi era caduto un mondo allora… e loro invece ridono…. questi geniali progettisti che si sono visti sacrificare l’AAA, anni di studio, progettazione, notti in ufficio, il posto di lavoro, svaniti, volatilizzati, e loro ridono. E alura? forse erano così convinti che qualcuno (uno dei nomi era gvp) comprasse baracca e burattini e loro finalmente potessero vedere prendere vita le loro “creature”?
    boh…. non capisco….

  • # 55
    Cesare Di Mauro (Autore del post)
     scrive: 

    Finalmente ho potuto guardarlo anch’io. Concordo con Wilfrick: non c’era nulla da ridere. E spero che sia stato soltanto un attimo di insana follia dovuta alla tragedia che si stava consumando ormai…

  • # 56
    Sergio
     scrive: 

    Allora ovviamente stiamo parlando di una partita che la Commodore ha perso 10-1, quindi ormai è inutile recriminare su quello che sarebbe stato (sigh).

    Possiamo solo parlare di quello che era Amiga all’epoca e cioè un sistema altamente tecnologico con un costo accessibile per tutte le tasche, io avevo 16-17 anni quando comprai il mio primo Amiga 2000 (putroppo versione A :””( ), avevo investito tutti i miei risparmi, ma potei comprarmelo. Non avrei potuto comprare un PC (e per farne che? c’era solo DOS all’epoca) e men che meno un Macintosh (all’epoca si chiamava così :P era un’ epoca seria quella, niente nomignoli ahah ).

    Quindi da questo io dico che l’uscita del chipset AAA sarebbe stata un’ulteriore innovazione per il mercato dei Computer Amiga, penso che la data di uscita di AAA che di AGA sia state posticipate per motivi economici.

    Il fatto che Commodore non slegasse il SO dal HW era perché all’epoca non si poteva, non era scritto in C o almeno non tutto ed era letteralmente cucito addosso all’HW, e poi su quale HW dell’epoca avrebbe potuto girare? Quale HW permetteva di fare tutto quello che c’era nel Chipset Amiga? Su Apple era in sostanza impossibile, sui PC inutile?
    Vi ricordo solo la potenza del Multitasking SW e HW dell’Amiga che permetteva di Formattare un Floppy mentre leggevamo da un’altro :p non credo che si possa fare neanche oggi sugli altri HW :)))))

    La Apple si è salvata in quell’epoca grazie alla base di installato nelle Tipografie e Giornali, altrimenti avrebbe fatto la stessa fine di Commodore.

    Purtroppo per Commodore non c’era la stessa facilità di aprire una Televisione Nazionale e diffondere video multimediali come lo era per i giornali e le riviste, altrimenti si sarebbe presa quel mercato e non l’avrebbe più lasciato ancora oggi. Alcune emittenti TV usano ancora Amiga con Scala, o l’hanno usato fino a pochi anni fà e con un HW nettamente inferiore a quello presente nello stesso tempo sul mercato. Un pò come facevano i tipografi prima che uscisse Mac OS.

    L’uso di Floppy da 4MB avrebbe, per esempio, consentito la riduzione da 7 a 2 dischetti di un SO. Io vendevo PC Assemblati e la gente, fino a 2 anni fà, mi chiedeva di installare Floppy Disk Drive, anche sé già esistevano le penne USB, per la semplice ragione che su alcuni Uffici di privati o di Enti Pubblici c’erano ancora vecchi PC che non disponevano di porte USB :D.

  • # 57
    Marco
     scrive: 

    “Vi ricordo solo la potenza del Multitasking SW e HW dell’Amiga che permetteva di Formattare un Floppy mentre leggevamo da un’altro :p non credo che si possa fare neanche oggi sugli altri HW :)))))”

    Ricordo che avevo fatto un TSR in assembly per il mio 286 che faceva la formattazione in background: una manciata di istruzioni fra l’altro, dato che il controller era molto più evoluto (o meglio dire ad alto livello) di quello integrato in Paula.

    Il massimo era il C=1541 attaccato al C=64:

    OPEN 1,8,15,”N:EMPTY,01″:CLOSE 1

    iniziava la formattazione e potevi anche spegnere il computer :D

  • # 58
    D
     scrive: 

    Eh grazie il C=1541 era praticamente un computer a se.
    L’Amiga è stato praticamente il primo prototipo di sistema casalingo multicore.

  • # 59
    Marco
     scrive: 

    “Il fatto che Commodore non slegasse il SO dal HW era perché all’epoca non si poteva, non era scritto in C o almeno non tutto ed era letteralmente cucito addosso all’HW, e poi su quale HW dell’epoca avrebbe potuto girare?”

    Non è del tutto esatto, vedi ad esempio il DraCo di MacroSystem.

  • # 60
    jpx
     scrive: 

    Pessimo esempio! :)
    DraCo era compatibile solo con applicazioni OS-friendly e povero te se una di queste applicazioni si sognava soltanto di andare a cercare l’hw nativo Amiga.
    (Almeno così ricordo: liberissimo di sbagliare! ;D)

    Diciamo che l’unico scopo di DraCo era quello di far girare il MovieShop e il Samplitude per fare NLE. Dio, come avrei voluto averne uno! :)

    In un certo senso, è stato una specie di pallida fotocopia della negativa di quello che sarebbe dovuto essere Acutiator! ;)

  • # 61
    Marco
     scrive: 

    “Pessimo esempio! :)”

    Mi sembra che calzi a pennello invece, voleva solo dimostrare che AmigaOS poteva funzionare anche senza chip custom.
    Sulla compatibilità hai pienamente ragione, ovviamente non funzionava niente che accedesse direttamente all’hardware (come peraltro sconsigliato dalle linee guida C=).

  • # 62
    Bruno
     scrive: 

    Dopo aver letto questo articolo e vari commenti mi è venuto in mente che l’Amiga è così rimpianto forse anche perché è stato l’ultimo “home” computer, l’ultimo tutto integrato nella tastiera (ovviamente non parlo dei modelli “fascia alta”), l’ultimo a metà tra console e computer, l’ultimo “ci gioco, ma volendo posso usarlo per cose serie”… i PC sono nati come macchine da ufficio e nonostante gli anni si avverte ancora oggi.

  • # 63
    Cesare Di Mauro (Autore del post)
     scrive: 

    @Marco: allora com’è che ha pubblicato l’Amiga Hardware Reference Manual? O:-)

    @Bruno: io ho avuto prima un Amiga 2000 e poi un 1200, e ci facevo di tutto. Anche far girare l’emulatore PC per lavorare in Turbo Pascal e assembly 8086 per la scuola (frequentavo l’ITIS). :P

  • # 64
    joe4th
     scrive: 

    Mitico Transformer, Norton Sysinfo 0.2 (1.0 = XT) su MC68000…però che fatica…

  • # 65
    Cesare Di Mauro (Autore del post)
     scrive: 

    Altro pezzo di storia, in effetti. :D Ma io usavo IBeM, e poi PC-Task. :P

  • # 66
    joe4th
     scrive: 

    PCTask era per i ricconi con il 4000 o la BigBang… ;-)

  • # 67
    Cesare Di Mauro (Autore del post)
     scrive: 

    Col mio 1200 “liscio” funzionava abbastanza bene, devo dire. Ed era molto veloce, specialmente utilizzando l’eseguibile per 68020+.

    P.S. Ovviamente il mio emulatore 80186 era molto più veloce. O:-)

  • # 68
    Marco
     scrive: 

    @Cesare

    Non ho sotto mano i RKM, ma sono sicuro di averlo letto lì.
    Avevo anche della documentazione di qualche DevCon (i famosi quaderni spiralati con la copertina blu), dove si diceva di non accedere direttamente ai registri un quanto i futuri chipset (sigh) non sarebbero stati compatibili.

    In merito all’Amiga Hardware Reference Manual:
    “The hardware bangers manual for the original chipset (OCS).
    Explains what all the hardware registers mean and how to get them to work for you. Some assembly examples. Since Commodore now officially dissuades from directly accessing the hardware, and has no plans for publishing an AGA hardware manual, this book is actually still fairly useful for those who have to know how their computer works on the hardware level”

    Quindi si è trattato di un cambiamento di rotta, proprio in vista dell’uscita dell’AAA o di altri cambiamenti radicali nel chipset.

    Su wikipedia fra l’altro si legge:
    “While the decision to release the documentation was a popular one and allowed the creation of fast, sophisticated sound and graphics routines in games and demos, it also contributed to system instability as some programmers lacked the expertise to program at this level. For this reason, when the new AGA chipset was released, Commodore declined to release documentation for it, forcing most programmers to adopt the approved software routines.”

    Ah, anch’io usavo IBeM su un 68000 liscio per programmare in Turbo Pascal 5 ai tempi dell’ITIS ;)
    Poi per fortuna è arrivato un 286 :D

  • # 69
    Cesare Di Mauro (Autore del post)
     scrive: 

    Mi sa che abbiamo avuto un percorso molto simile. :) Ho iniziato al terzo anno dell’ITIS col Turbo Pascal 3.0 (e con le famigerate inline di codice macchina), al quarto con la versione 4.0, e al quinto con la 5.0 e 5.5.
    Data la lentezza, con IBeM si poteva vedere a occhio il ridisegno dei menù (e delle finestre) con la CUI del TP 4.0+. :D Tranne con le routine che scrivevo io. O:-)

    Per quanto riguarda la programmazione diretta dell’hardware dell’Amiga, è possibile che ci sia stato un cambiamento di rotta, ma ormai era troppo tardi, perché la pratica era diffusissima. Tra l’altro proprio l’Hardware Manual non faceva opposizione, anche se metteva in chiaro le cose:

    The examples in this book all demonstrate direct manipulation of the Amiga hardware. However, as a general rule, it is not permissible to directly access the hardware in the Amiga unless your software either has full control of the system, or has arbitrated via the OS for exclusive access to the particular parts of the hardware you wish to control.
    […]
    The Amiga operating system is designed to operate the Amiga hardware within spec, adapt to different hardware and RAM configurations, and generally provide upward compatibility with any future hardware upgrades or “add ons” envisioned by the designers. For maximum upward compatibility, it is strongly suggested that programmers deal with the hardware through the commands and functions provided by the Amiga operating system.
    If you find it necessary to program the hardware directly, then it is your responsibility to write code which will work properly on various models and configurations.
    […]
    If you are programming at the hardware level, you must follow hardware interfacing specifications. All hardware is NOT the same. Do not assume that low level hacks for speed or copy protection will work on all drives, or all keyboards, or all systems, or future systems. Test your software on many different systems, with different processors, OS, hardware, and RAM configurations.

    Ai registri si poteva accedere, ma seguendo le rigide regole dettate, sempre nel manuale:

    Do not write spurious data to, or interpret undefined data from currently unused bits or addresses in the custom chip space. All undefined bits must be set to zero for writes, and ignored on reads.

    Do not write data past the current end of custom chip space. Custom chips may be extended or enhanced to provide additional registers, or to use currently undefined bits in existing registers.

    All custom chip registers are read only OR write only. Do not read write only registers, and do not write to read only registers.

    Quindi, come vedi, l’accesso all’hardware era lecito, ma non indiscriminato. Le linee guide erano ben chiare e, soprattutto, ferree.

    Sull’AGA hai perfettamente ragione, e si sapeva che il futuro hardware molto probabilmente non sarebbe stato compatibile coi suoi registri (la dimostrazione è proprio l’AAA).

    Nonostante tutto ciò, i programmatori si adoperarono ben diversamente, calpestando le linee guida (vabbè, anche con OCS & ECS di porcate ne ho viste a non finire -_-).

    Il problema, per chi doveva sviluppare giochi, era però concreto: la potenza di calcolo non era eccelsa, e si cercava di spremere il più possibile quel che c’era a disposizione. Per cui da programmatore li posso ben capire, anche se non ho difficoltà ad ammettere che eticamente quel comportamento fosse assolutamente deprecabile.

    Ovviamente mi ci metto in mezzo: sono stato fra i primi a disassemblare le copper list generate da AmigaOS 3.0 per capire “cosa c’era sotto” e, poi, a cercare documentazione più specifica per sfruttare tutte le possibilità offerte dall’AGA. Come sviluppatore non avevo altra scelta all’epoca.

  • # 70
    jpx
     scrive: 

    Non furono gli stessi progettisti a calare le braghe a un certo punto e dire: “vabbeh, mi sa che è meglio se accedete all’hw direttamente”? Anche qui i ricordi si fan nebulosi: ricordo che Haynie e Porter battevano molto sull’utilizzo delle librerie di sistema, ma da lì a qualche mese qualcuno (non ricordo chi, purtroppo) ammise che era impossibile sfruttare decentemente la macchina se non scendendo a bassissimo livello. Ricordo qualcosa a proposito della fantomatica specialfx.library che avrebbe dovuto fare da tramite con le intime caratteristiche del chipset, ma che venne rimandata a più riprese (dall’AGA, all’AAA, all’oblio).

  • # 71
    Cesare Di Mauro (Autore del post)
     scrive: 

    Questo non lo ricordo, ma da “metal basher” sono ben consapevole delle limitazioni imposte utilizzando esclusivamente le API del s.o..

    Non c’è proprio paragone, sia per la CPU “consumata” che, soprattutto, per la memoria a disposizione.

    Figurati che io non usavo nemmeno gli interrupt per risparmiare preziosi cicli di clock aspettando il Blitter, ad esempio: usavo polling specifico a più non posso.

    Ovviamente la mia macchina di riferimento era un Amiga 500 dotato di espansione da 512KB di “fast” (in realtà “slow”) ram.

  • # 72
    Turrican3
     scrive: 

    Riguardo le risate nel filmato: a mio parere (è da un bel po’ che non guardo The Deathbed Vigil -mi mette sempre parecchia tristezza- quindi non sono in grado di affermare con certezza se vi fosse un commento specifico di Haynie) è da interpretare come una sorta di “sfogo” nei confronti di un’amministrazione che non fece altro che frustrare/vanificare gli sforzi dei progettisti.
    Idem dicasi per il… rito, sempre presente in TDBV, in cui fanno letteralmente a pezzi le tastiere. :|

    Per quanto concerne il futuro di Commodore/Amiga: non saprei dire se e quanto sarebbero andati avanti, forse sarebbero ancora sul mercato (guardate Apple com’è rinata, sembrava spacciata e invece…), ma che sia finita in quel modo e in quei tempi per colpa di Medhi Ali & Co. credo vi siano ben pochi dubbi.

  • # 73
    BMK
     scrive: 

    Cesare Di Mauro sei un mito!

    Le tue recensioni commuovono!

    Complimenti!

  • # 74
    Marino
     scrive: 

    Buon giorno a tutti, non so se questo è il sito giusto per parlare di certi argomenti, ma volevo chiedere solamente un informazione e a chi unque potesse rispondermi gli sono molto grato, per favore alla mia email: tigroninja@yahoo.it Dunque la domanda è, io possiedo il computer cdtv Amiga intero completo di tutto, ma vorrei sruttare ed utilizzare meglio i suoi programmi e giochi nel mio pc con windows xp, qualcuno sa dirmi se è possibile e se mi invia le spiegazioni più dettagliate possibili, e magari quale versione è più adeguata di pc e che possa comunicare dal pc ai programmi dctv, un domani lo potrei anche vendere, ma ora sono ancora molto affezzionato e per comodità vorrei provare ad utilizzarli così questi programmi. gerazie a chi unque mi possa dare una risposta e un aiuto.

  • # 75
    Cesare Di Mauro (Autore del post)
     scrive: 

    CDTV e PC con Windows XP non sono compatibili.

    L’unico modo per far girare il software del CDTV sul secondo è tramite WinUAE, un emulatore molto diffuso e accurato che riproduce esattamente il funzionamento del primo.

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.