Delle meraviglie dell’OCS, il primo chipset dell’Amiga, abbiamo già parlato in un precedente articolo che ne esponeva in maniera più o meno dettagliata (ma non troppo tecnica) le innovazioni e le caratteristiche peculiari che hanno giustamente contribuito alla fama della macchina che lo montava.
Era il 1985, e passando gli anni si sente, però, il bisogno di apportare dei miglioramenti. D’altra parte non si può innovare una volta per poi campare di rendita, come si suol dire, anche perché il mondo attorno a noi è sensibile all’avanzare della tecnologia, e si adegua di conseguenza.
Sebbene qualche chip dell’ECS fosse stato utilizzato in precedenti modelli, è soltanto nel 1990 che l’ECS fa ufficialmente la sua apparizione nella sua interezza, con le versioni potenziate (chiamate “super”) di Agnus e Denise, cioè gli integrati che si occupano rispettivamente della gestione della memoria (e dei canali DMA) e della generazione della grafica, elementi di innovazione su cui agisce concretamente questo chipset.
L’Amiga 3000 è il primo computer a farne uso (ricordo ancora come fosse oggi la presentazione a quello SMAU ’90; fiera di culto, ai tempi, in cui venivano presentate tecnologie di spessore), e sarà seguito poi a ruota dall’Amiga 500+ (o “Plus” che dir si voglia), e dal più compatto Amiga 600; macchine di cui magari ci parlerà Alessio in qualche futuro articolo.
Tornando al chipset, col nuovo arrivato Commodore ha risolto una delle più grosse lacune: la mancanza di programmabilità del segnale video. Infatti l’OCS non aveva altra possibilità che generare un segnale perfettamente aderente a uno dei due standard video, l’NTSC (usato principalmente in USA e Giappone) e il PAL (per lo più europeo).
L’unica libertà concessa era nella scelta fra bassa (320×200 NTSC, 320×256 PAL) o alta risoluzione (640×200 NTSC, 640×256 PAL), con la possibilità, per ognuna di esse, di poter abilitare l’interlacciamento e, quindi, raddoppiare la risoluzione verticale (a 400 e 512 linee rispettivamente per NTSC e PAL).
ECS permette, invece, di poter definire minuziosamente ogni aspetto del segnale video: di quanti cicli clock è costituita una riga di raster, i cicli di clock per il bordo sinistro e quello destro, quante linee di raster devono essere presenti in un fotogramma, e di queste quante in alto e quante in basso per i rispettivi bordi. Un controllo completo, insomma, che permetteva di definire minuziosamente ogni aspetto, come tra l’altro accadeva già da tempo coi chip video di altre piattaforme (PC in primis).
Viene introdotta anche un’ulteriore modalità video, chiamata super-hires (super alta risoluzione), che raddoppia il numero di punti orizzontali rispetto all’hires, portandoli quindi a ben 1280 e permettendo, pertanto, di poter visualizzare immagini molto più definite (alla quale, al solito, si può applicare l’interlace). Il prezzo da pagare è, però, il dimezzamento del numero di colori visualizzabili, che passa dai 16 masssimo dell’hires ai 4 massimo del super-hires.
Stessa sorte capita per la risoluzione VGA (640×480 a 60Hz) e SuperVGA (800×600 a 72Hz; in realtà la risoluzione effettiva è 848×614 a 70Hz), quest’ultima ottenibile esclusivamente in modalità interlacciata, entrambe frutto della citata programmabilità del segnale video.
Questa povertà della tavolozza dei colori, e l’obbligatoria presenza dell’interlace nell’ultimo caso, è dovuta esclusivamente a un motivo: la banda. La chip ram (così era chiamata la memoria video) non ne mette a disposizione abbastanza per poter abilitare più dei 2 bitplane massimi con queste modalità, in quanto è limitata dai 7Mhz circa del clock, e dai 2 cicli di clock necessari per poter leggere una word a 16 bit.
Particolare attenzione è stata rivolta alle funzionalità legate al genlock. Questo grazie alla meritata fama che Amiga s’è guadagnata nel campo della produzione video, per la quale è rimasta per parecchi anni leader indiscussa, e che ha visto le macchine di casa Commodore impiegate nei più disparati studi televisivi, dai fotografi, e dagli amatori di videocamere e montaggi video.
ECS porta delle novità molto interessanti, prima fra tutte la possibilità di poter scegliere liberamente quali colori della palette poter “forare” per lasciar intravedere la sottostante sorgente video. Con l’OCS soltanto il primo colore, con indice 0, era possibile utilizzare allo scopo. Col nuovo chipset, il bit più significativo (il 15) di ogni colore specifica, se impostato, che può essere “forato”.
Oltre a ciò, è possibile anche scegliere un bitplane da utilizzare allo scopo. Specificandolo, tutti i bit a 1 appartenenti al bitplane comporteranno il “foramento” del relativo pixel. Può sembrare uno spreco dedicare un intero bitplane soltanto per il genlock, ma in questo modo è possibile realizzare in maniera estremamente semplice ed efficiente tutta una serie di effetti sfruttando il gioiello a cui fa capo il nome di Blitter, particolarmente abile nel manipolare proprio queste regioni rettangolari.
Infine, si può decidere se riprodurre un bordo attorno all’immagine visualizzata, oppure no. Questo perché in precedenza il colore con indice 0 veniva utilizzato anche nella riproduzione del bordo. Con ECS, invece, si può decidere se visualizzare comunque un bordo (di colore nero) o renderlo trasparente (per genlock e apparecchi di questo tipo).
Anche gli sprite hanno avuto un miglioramento, e adesso infatti si possono visualizzare anche all’interno del bordo dello schermo. In precedenza, invece, venivano “tagliati” dai bordi, quindi seguivano la stessa sorte dell’area visibile dello schermo.
Sul fronte di Agnus (finora abbiamo parlato soltanto di Denise) si rileva finalmente l’estensione a 2MB dell’indirizzamento della chip ram, contro i 512KB dell’OCS e 1MB delle versioni più aggiornate di FatAgnus e delle schede madri degli Amiga 2000.
La chip ram è la memoria più importante dell’architettura dell’Amiga, in quanto è l’unico luogo in cui possono risiedere i bitplane di schermi e grafica, gli sprite, i campioni audio, i buffer del disco, e i programmi del Copper. In buona sostanza, i canali DMA ad essi associati riescono a leggere o scrivere soltanto in quest’area di memoria, e oggettivamente il mezzo mega messo a disposizione dai primi modelli ha rappresentato un grossissimo limite per gli sviluppatori.
Infine anche al Blitter tocca un’innovazione: la possibilità di poter lavorare con bitplane di dimensione massima di 32mila x 32mila pixel, contro i 1024×1024 dell’OCS. Sembrerà una funzionalità ridicola, se consideriamo che la modalità video più utilizzata era la 320×200 per l’NTSC e la 320×256 per il PAL, che poi erano quelle utilizzate in tutti i giochi.
In realtà proprio i programmatori di videogiochi hanno trovato negli 1Kx1K un grosso e fastidioso limite, in quanto era consuetudine, per i più esperti, allocare i bitplane in quella che veniva chiamata in gergo “modalità interleaved“. Questa consisteva nel fatto che i bitplane di uno schermo non erano allocati separatamente in memoria, ma le righe erano disposte in cascata: all’inizio c’era la prima riga di tutti i bitplane in sequenza, poi la seconda di tutti i bitplane, ecc., in una sorta di “sandwich“.
Questo trucchetto permetteva di poter operare in un colpo solo su tutti i bitplane, senza richiedere la programmazione del Blitter separatamente per ognuno di essi. Da qui il limite del vecchio Blitter: con uno schermo di 320×256 con 5 bitplane era necessario spezzare in due le operazioni che operavano sull’intera area verticale dello schermo (256 * 5 = 1.280 pixel).
Un appunto lo faccio sulla famigerata modalità Ultra-hires, che avrebbe permesso di visualizzare schermi da ben 1024×1024 pixel (ma esclusivamente in versione interlacciata), sebbene con un solo bitplane (2 colori). Nella documentazione dell’hardware dell’Amiga sono presenti delle informazioni in merito, che non è chiaro se si riferiscano a particolari versioni del chipset studiate per macchine dedicate (workstation grafiche da usare per settori come il CAD o il desktop publishing).
Personalmente serbo ancora un ricordo delle pagine di prestigiose riviste dell’epoca (fine anni ’80), quali MC MicroComputer e Commodore Gazette, che mostravano un Amiga collegato con un monitor professionale monocromatico e le didascalie che parlavano di una risoluzione massima di 1008×1024 pixel, ma la mia memoria, purtroppo, si ferma qui, e spero vogliate scusare la mia lacuna, ma era quanto meno doveroso parlarne, visto che in giro informazioni di questo tipo sono difficili da trovarsi.
Con l’ECS la carne sul fuoco sembra tanta, e ci si potrebbe chiedere come mai il titolo azzardi un’irriverente “spolverata” al chipset. Il motivo è presto detto: nulla è stato fatto sul fronte della tavolozza dei colori, che è rimasta sempre a 12 bit (4096 tonalità massime), e sul numero di bitplane utilizzabili, che è rimasto anch’esso fermo a 6 massimo (per un totale di 64 colori visualizzabili contemporaneamente, modalità HAM esclusa).
Insomma, proprio sui fattori più importanti, quelli più tangibili per la stragrande maggioranza degli utenti (a cui di super-hires, programmabilità del segnale video, e genlock interessava ben poco), Commodore non è intervenuta, e questa è senz’altro un’enorme pecca se consideriamo che nel ’90 (anno di presentazione dell’ECS) Mac e PC potevano vantare risoluzioni molto più elevate, con solido refresh rate, ma soprattutto visualizzavano schermi con 16 milioni di colori senza ricorrere alle palette…
Articolo discreto e abbastanza preciso…..l’unica cosa più grossolana tralasciata inerente al chipset ECS è quella inerente al fatto che con L’AMIGA600 Commodore raggiugeva un altro primato per l’epoca…..la miniaturizzazione della scheda madre che per la prima volta al mondo in ambito consumer introduceva su home computer la tecnologia SMT (o SMD). Tale tecnologia usata nel produrre/assemblareb la scheda madre dell’amiga600 prevedeva l’uso del chipset ECS direttamente saldato sulla scheda madre senza “zoccoli” o saldature visibili che rimanevano invece sotto i componenti stessi. Una scheda elettronica così fatta all’epoca creava un certo “brivido” il solo averla tra le mani ed era proprio una cosa spettacolare non comune anche per la fascia di costo del prodotto. Tutto questo si traduceva in bassa probabilita di DOA o guasti durante la vita del prodotto.
Attendiamo naturalmente l’articolo sull’ultima evoluzione del chipset AMIGA e cioò l’AGA (advanced graphic archtecture).
Bell’articolo, come al solito, ma solo un dubbio: siamo proprio sicuri che “nel ‘90 (anno di presentazione dell’ECS) Mac e PC potevano vantare risoluzioni molto più elevate, con solido refresh rate, ma soprattutto visualizzavano schermi con 16 milioni di colori senza ricorrere alle palette…”?
;)
Io mi ricordo al massimo qualche scheda ultraprofessionale a 16 (e non 24) bit, ma la stragrande maggiornaza di PC e Mac erano a 8bit…ma forse è la mia di memoria a venire meno qui! ;D
@PATOP69: l’articolo ha soltanto nominato l’Amiga 600 in quanto integrava l’ECS, ma lo scopo non era quello di particolare di questa macchina.
Penso che in futuro ci sarà qualche articolo dedicato proprio all’A600, che metterà in evidenza anche quanto hai giustamente riportato.
@jpx: nel ’90 c’era già il Mac II, che permetteva di montare schede grafiche che arrivavano a 1156×870, fino a 16 milioni di colori, e con refresh di almeno 60Hz.
Per quanto riguarda il PC, nel ’90 erano sicuramente disponibili schede che permettevano di visualizzare 32K o 64K colori. Per i 16M di colori non ho trovato riferimenti.
Si ma era proprio il cipset ECS ad essere stato progettato anche con un package per uso SMT/SMD oltre ad essere anche disponibile in package tradizionale DIP……l’AMIGA600 fu la prima macchina a montare la ultramoderna verisone a package SMT/SMD a montaggio superfciale e con possiblita’ di miniaturizzazione………quindi il tutto era una peculiaarita’ del chipset innovativo anche in quell’ambito!
Per quanto concerne le schede grafiche PC se non erro si affacciavano sul mercato le famose prime versioni TSENG LAB ma sicuramente non a inizio anni 1990….a mio avviso comunque le peculiarita’ grafiche nel complesso, al di la della massima risoluzione e profondita’ colore su immagini satiche, rimanevano sempre superiori quelle del chipset ECS visto anche la flessibilita’ di programmazione e il fato che le feature erano standard (come le console odierne).
“@jpx: nel ‘90 c’era già il Mac II, che permetteva di montare schede grafiche che arrivavano a 1156×870, fino a 16 milioni di colori, e con refresh di almeno 60Hz.”
Non penso sia un esempio molto onesto da farsi. l’ECS era un chipset saldato, l’equivalente moderno di una scheda video integrata con tutti i pro ed i contro.
Sono sicuro che se ci mettiamo a cercare in quel sito che fa da database del hw per amiga troviamo la stessa scheda se non superiore per il 2000 o il 3000.
ottimo articolo (come sempre)
solo una precisazione: è vero che la concorrenza (già nel 1990) offriva prestazione ben superiori in ambito grafico ma proporzionate al prezzo. Con quello che costava una svga all’epoca ci si comprava un amiga 5/600 :)
@PATOP69: non metto in dubbio che l’Amiga 600 utilizzasse una tecnologia costruttiva innovativa, ma l’articolo era incentrato sulle funzionalità del chipset.
Per quanto riguarda le schede grafiche del PC, non c’era soltanto Tseng Labs a produrne, ma diverse altre. Nel 1990 c’erano sicuramente schede grafiche che permettevano di visualizzare 32K/64K colori. Nel 1991 c’erano sicuramente schede grafiche che visualizzavano 16M di colori. Non ho trovato al momento riferimenti sicuri a schede grafiche che lo permettevano già nel 1990, ma considera comunque che l’Amiga 3000 è stato presentato a giugno del 1990…
Per quanto riguarda la programmazione dell’ECS, beh, posso dirti che è stato sfruttato pochissimo, proprio perché la tendenza era quella di usare soltanto l’OCS in quanto “minimo comune denominatore”.
Un gioco non si poteva permettere di avere due codici diversi, uno per OCS e uno per ECS, perché la base installata per il primo era di gran lunga superiore rispetto al secondo, e inoltre come funzionalità sfruttabili l’ECS non offriva nulla di concreto (a parte che il Blitter che poteva lavorare su bitmap 32Kx32K, ma questo era utile solo in particolari casi, e in genere si risolveva spezzando la “blittata” singola in un paio).
L’unica novità succulenta era rappresentata dalla possibilità di avere 1 o 2MB di chip ram, ma anche qui il problema era la base installata, e la memoria extra veniva utilizzata generalmente come la slowmem o come area di caching (per evitare le letture al disco).
@D: l’ECS era saldato con l’Amiga 600, quindi stiamo parlando del 1992 (anno di presentazione di questa macchina) e di lì a poco la tecnologia SMT sarebbe stata diffusa ovunque.
Di schede grafiche per Amiga ce n’erano diverse, ma il grosso problema era che il s.o. era stato pensato per lavorare col chipset e le sue peculiarità.
C’è voluto l’AmigaOS 2.0 prima e il 3.0 poi per mettere in piedi un sistema di API e strutture dati che consentisse di poter sfruttare le schede grafiche avanzate senza bagni di sangue, come pure applicazioni scritte sfruttando questi strumenti e che non facessero ricorso direttamente all’hardware o facendo assunzioni particolari sulle strutture dati.
@Giullo: senza dubbio il prezzo è stato uno dei fattori vincenti di queste stupende macchine.
Comunque non vorrei che sembrasse che l’articolo l’abbia scritto esclusivamente per sparare bordate su questo chipset per questioni di “fede”.
Io sono stato e rimango amighista, nel senso di persona affezionata a queste macchine (sia come s.o./applicazioni che come hardware), ma come utilizzatore e, soprattutto, programmatore non posso ignorare le loro pecche.
Per controllare, ho in mano una rivista di Aprile 1990, che ho conservato. Ci sono pubblicità per assemblatori di PC, come era uso all’epoca. Si va dalla monocromatica Hercules a 85’000 lire a alla VGA/EGA 256kb (quelle iniziali che arrivavano a 640×480 con 16 colori o 320×200 con 256 colori) a 450’000 lire, iva esclusa. Roba per pochi. Un anno dopo era più abbordabile e l’avevo sul mio 286. In quell’anno da noi l’aula d’informatica era stata innovata con degli IBM 8086 con FFD da 3,1/2″ e grafica CGA e monitor b/n, un paio di fascinosi Olivetti M24 con monitor a fosfori verdi e flopponi da 5 1/4. In segiuto si aggiunsero qualche Mac, fra i primi a colori, forse l’anno dopo. Non ricordo il modello esatto di quei Mac, mi pare fossero degli LC (low cost color, abbastanza compatti). Molti Mac dell’epoca erano ancora in bianco e nero. Sul sito della Apple comunque anche i Mac II leggo al max 8 bit per pixel.
Forse c’era qualche superscheda professionale di quelle che costavano milioni.
Negli anni seguenti però schede a 16 milioni di colori hanno cominciato a diffondersi. Ho un catalogo di aprile 1993 di una catena di computer che si chiamava Master. Si andava da 800×600 a 16 colori con 54’000 lire, a 1280 x 1024 a 16 milioni con prezzi intorno a 300’000 lire. C’é poi da dire che nel ’93 il monitor più economico in catalogo capace di quella risoluzione costava 650’000 lire.
Nel ’90 penso che difficilmente si andasse oltre 640×480, però il comparto grafico dei PC e relativi monitor, si evolvevano velocissimamente come risoluzione e profondità di colore, a differenza di Amiga.
Per quanto riguarda i Mac II, dai un’occhiata a http://www.mc-online.it/ numero 95 (aprile 1990) e pagina 111 nella colonna a destra.
Per quanto riguarda i PC, stesso numero a pagina 14-15 ci sono PC con schede video che arrivano a 1024×768. Comunque appena ho un po’ di tempo cercherò qualcos’altro.
> Non penso sia un esempio molto onesto da farsi.
Esatto, considerando anche il fatto che un Macintosh Plus costava 2.5M, un SE 4M (ambedue monocromatici e con un 68K) e un Mac II 9.3M.
Non vedo perché: l’articolo è di carattere tecnico ed espone quanto disponibile all’epoca in termini tecnologici.
Sui costi non ho speso una sola parola, proprio per questo motivo.
Il problema dei costi a mio avviso andrebbe affrontato in articoli in cui si parla delle macchine, che possono coprire anche quest’aspetto.
Perché all’epoca schede con le caratteristiche citate erano disponibili anche per Amiga e Atari?
Con l’Amiga 3000 e l’arrivo del KickStart / AmigaOS 2.0, il mercato delle schede grafiche c’è stato anche con l’Amiga, sebbene non fossero sfruttabili da tutte le applicazioni (men che meno nei giochi) a causa di quel che dicevo prima (era l’OCS il modello di riferimento).
Per l’Amiga 2000 non ho idea onestamente se ce ne fossero disponibili. E’ passato troppo tempo e non ricordo bene.
Per quanto riguarda l’Atari ST, c’erano delle schede video, ma non ricordo in quale periodo hanno cominciato a essere commercializzate.
In ogni caso, anche per l’ST, si trattava di schede specializzate e utilizzabili in determinati ambiti applicativi (principalmente desktop publishing per l’ST, per grafica 2D e 3D per Amiga).
La modalità 1024×1024 era disponibile solo ed esclusivamente sul monitor A2024. Il refresh era a 10 o 15hz!!!!!!
Con l’A2024 era stata distribuita anche una versione beta di AmigaOS 1.4 (mai uscito).
Sì, il refresh era molto basso (causa limitazioni della banda di memoria della chip ram). Grazie per l’informazione (non ricordavo il nome del monitor).
L’AmigaOS 1.4 era una versione beta di quello che poi divenne AmigaOS 2.0..
Qui:
screenshot di A2024
http://www.gregdonner.org/workbench/wb_2024.html
gregdonner.org: gran sito!
Bellissimo articolo!Complimenti ^^
Bellissimo articolo! Complimenti ^^
@Cesare, questa è la vecchia rivista che avevo fra gli scaffali, che prendevo all’epoca più che altro per il floppy:
http://img413.imageshack.us/img413/4454/prezzi199004.jpg
era una rivista piccola e non ce ne sono altri e può darsi che l’inserzione non fosse aggiornatissima o che non fosse precisato, in fondo con 256k si può arrivare anche a 800×600 con 4bpp (16 colori). Comunque è vero, su MC (che era grande rivista tra l’altro!) ci sono inserzioni di schede con diverse risoluzioni, ma anche con strani divari di prezzo. Sarà che all’epoca non specificavano modelli ecc., ma non so. I prezzi degli HD mi sembrano già più allineati. Ad es. a pagina 32 leggo “scheda grafica ris. VGA L.490’000” a pag 58 una VGA con 256k (quindi max 800×600 a 4bpp = 16 colori) e una con 512k (max 1024×768 a 4 bpp), a pagina 63 vendono ancora le CGA/Hercules fra i vari modelli.
Molto interessante. :)
Ho dato un’occhiata veloce anche al numero di dicembre e leggo che vendevano già delle schede con 1Mb. Erano già quelle truecolor?
Sì, quelle con 1MB in genere permettevano di visualizzare la 640×480 con 16M di colori e/o la 800×600 con 32K/64K colori.
Purtroppo all’epoca non era comune specificare la marca e il modello della scheda grafica. Anche perché, come vedi anche nella tua stessa rivista, lo spazio era tiranno e cercavano di infilare quanti più prodotti possibili.
Complimenti per l’articolo, davvero molto interessante e completo.
Leggere dell’amiga mi fa ritornare in mente i bei tempi, così ricchi di ricordi, che la commodore ha donato a tutti noi “amighisti”.
Caro Cesare di Mauro, capisco che l’articolo possa avere solo risvolti di tipo tecnico……ma a mio avviso (e vedo anche per gli altri commenti) non è plausibile parlare allora delle specifiche tecniche o delle relative “pecche” (così le chiami) e fare confronti con le altre piattaforme (quindi partire dal chipset per poi confrontarlo con piattaforme PC e MAC) senza considerare , in tal caso, il rapporto costo/prestazioni o la specificità di una particolare scheda grafica che da se magari costava quanto metà AMIGA 500!!!!! Se si fanno paragoni e non ci si limita a considerare/esaminare le mere specifiche tecniche del chipset occorre di conseguenza paragonare PERE con PERE e MELE con MELE ed è qua che entra in gioco la fascia di costo!
Caro Cesare di Mauro, capisco che l’articolo possa avere solo risvolti di tipo tecnico……ma a mio avviso (e vedo anche per gli altri commenti) non è plausibile parlare allora delle specifiche tecniche o delle relative “pecche” (così le chiami) e fare confronti con le altre piattaforme (quindi partire dal chipset per poi confrontarlo con piattaforme PC e MAC) senza considerare , in tal caso, il rapporto costo/prestazioni o la specificità di una particolare scheda grafica che da se magari costava quanto metà AMIGA 500!!!!! Se si fanno paragoni e non ci si limita a considerare/esaminare le mere specifiche tecniche del chipset occorre di conseguenza paragonare PERE con PERE e MELE con MELE ed è qua che entra in gioco (e non è trascurabile) la fascia di costo!
L’articolo non è che potrebbe avere risvolti tecnici: l’articolo E’ tecnico.
Quanto ai confronti, proprio per non paragonare pere con mele, ho confrontato le caratteristiche TECNICHE e NON i PREZZI. Proprio perché di dettagli tecnici parla l’articolo, e non fa NESSUN accenno ai prezzi.
“Sui costi non ho speso una sola parola, proprio per questo motivo.”
Però da come hai esposto la cosa sembra che volessi criticare commodore di qualcosa. Tutt’ora esistono supercomputer infinitamente superiori tecnicamente ai più potenti i7 ma nessuno si sogna di creare un confronto proprio per le enormi differenze di prezzo.
Per quanto concerne AMIGA600 e chipset ECS in tecnologia SMT, prima non ho potuto rispondere in quanto il sito dava problemi all’invio dei commenti, Cesare Di Mauro non ha capito quanto dicevo e che ribadisco riguarda il chipset e non L’AMIGA600 (la scheda madre revisione 1 dell’amiga600 è stata progettata nel e resa operativa nel gennaio 1991 per poi essere commercializzata nel febbraio 1992). Durante lo studio del chipset ECS commodore aveva già previsto a livello progettuale la sua costruzione in due package distinti….il primo con classico packge DIP per l’upgrade delle macchine precedenti e l’altro con package SMT/SMD per il montaggio superficiale……poi quest’ultima versione fu introdotta per la prima volta sul mercato con l’AMIGA600………ma la peculiarità era già del chipset al momento di progettazione dello stesso.
@D: la critica a Commodore è quella di non aver realizzato un chipset aggiornato, dopo ben 5 anni dall’introduzione del primo Amiga (il 1000).
Poi se vogliamo parlare di prezzi, vi ricordo che l’Amiga 3000, che è la prima macchina a montare l’ECS, costava ben 5.500.000 lire. Non proprio bruscolini, no?
@PATOP69: sulla tecnologia costruttiva nulla da dire, come già detto, ma l’Amiga 600 è arrivato tardino, e tra l’altro l’SMT non portò alcun vantaggio, visto che nel luglio del ’92 l’Amiga 500 Plus costava 635.000 lire, mentre il 600 (che l’avrebbe dovuto rimpiazzare) ben 705.000 lire…
Ma se l’articolo giudica l’aspetto puramente tecnico come afferma l’autore quello che importa non è il prezzo di amiga500 confrontato con quello di amiga 600……..dal punto di vista tecnico il montaggio superficiale SMT/SMD introdotta con il chipset ECS permise di avere macchine meno soggette a guasti e quindi più affidabili….il tutto correlatoad ua maggiore miniaturizzazine dei circuiti (AMIGA600 era la metà in dimensione di AMIGA500).
Ribadisco che del prezzo nell’articolo non c’è alcuna traccia, come pure della tecnologia costruttiva.
Detto ciò, l’SMT ha pure i suoi difetti: sostituire qualcosa che s’è rotto non è così semplice ed economico come cambiare un chip dotato di apposito zoccoletto.
E, ripeto, l’Amiga 600 era tutt’altro che economico rispetto ai modelli precedenti, pur utilizzando l’SMT…
“E, ripeto, l’Amiga 600 era tutt’altro che economico rispetto ai modelli precedenti, pur utilizzando l’SMT…”
Per gli utenti no, ma probabilmente a Commodore produrre un A600 costava la metà di un 500.
Sembra che, invece, Commodore avesse problemi anche in tal senso.
Che tipo di problemi?
Se volete a questo indirizzo c’e’ tutto il manuale tecnico del chip ocs/ecs ed in puro stile amigaguide. Quanto eravamo avanti!!
http://www.natami.net/dev/
@Marco: problemi col l’utilizzo dell’SMT, che le hanno fatto lievitare i costi di produzione.
@Davide: come sviluppatore Amiga di lunga data, avevo già tutto (ho ancora i Rom Kernel Manuals da qualche parte in garage), ma in formato elettronico sono decisamente comodi da consultare quando serve, grazie. :)
“problemi col l’utilizzo dell’SMT, che le hanno fatto lievitare i costi di produzione.”
Non ho trovato riferimenti, mi potresti citare la fonte?
Grazie!
http://groups.google.com/group/comp.sys.mac.hardware.misc/browse_frm/thread/5764fad95e014a91/7d5c82eca35f0eb7?lnk=st&pli=1
Dave Haynie: The A600 was supposed to be $50-$60 cheaper than the A500, but it came in at about that much more expensive than the A500.
“Dave Haynie: The A600 was supposed to be $50-$60 cheaper than the A500, but it came in at about that much more expensive than the A500.”
Beh, non parla mica di problemi con la produzione con relativi aumenti dei costi, ma semplicemente del fatto che Commodore l’abbia venduto ad un prezzo maggiore del 500.
In genere si fanno delle previsioni sul costo dei componenti e dell’assemblaggio, ed erano quelle cifre che Dave aveva riportato.
L’Amiga 600 inizialmente doveva essere una macchina a basso costo e si sarebbe dovuta chiamare Amiga 300. Non era un rimpiazzo del 500.
Infatti anche a livello di componentistica non era un granché: si tratta di uno scatolotto paragonato a 500 o un 500+, ed era talmente low-cost come posizionamento che avevano risparmiato pure sul tastierino numerico (che mancava).
L’unica motivazione sensata che vedo a tutto ciò era il costo di produzione troppo elevato rispetto alla previsioni. D’altra parte Commodore ha dovuto investire capitali per poter rinnovare la sua catena produttiva col l’SMT, e generalmente una nuova tecnologia comporta maggiori costi iniziali che soltanto col tempo e il suo relativo affinamento sono ammortizzati e ne rendono l’impiego economicamente conveniente.
L’Amiga 600, purtroppo, ha pagato lo scotto di questo passaggio.
Componenti e assemblaggio di un pcb smt notoriamente costano molto meno di un corrispettivo through-hole, quindi l’ipotesi più attendibile è che i creditori abbiano spinto per un piano di ammortamento forzato e accelerato degli impianti di produzione (in particolare quello nelle Filippine) e spinto Commodore ad un margine di guadagno tale che rendeva poco competitivo il prodotto.
BTW A600 forniva alcuni “plus” rispetto ad A500, quali il controller IDE e lo slot PCMCIA, che magari secondo il marketing avrebbero pure giustificato l’aumento di prezzo.
Hanye non parla esplicitamente di prezzo alla produzione, potrebbe riferirsi a quello di vendita.
Da wikipedia ma senza fonte: “Surface-mount technology used on the A600 led to a failure rate under warranty of 0.78%, compared to the A500’s failure rate of 8.25%.”
Ergo, se vero, grossi problemi produttivi legati alla tecnologia non ce ne sono stati.
Quello è il failure rate, che è migliorato, ma è una cosa diversa dai di costi di produzione legati alla tecnologia SMT.
Sì, la tua ipotesi sul piano di ammortamento potrebbe essere una spiegazione valida, ma al momento non ho trovato informazioni in merito.
Sugli “addon” concordo, ma la relativa circuiteria era integrata in un chip (lo stesso che si troverà poi sul 1200), quindi abbastanza economici da produrre. Rimarrebbero i rispettivi connettori, ma non credo che solo questi siano stati in grado di produrre questo sbalzo nel costi.
Il tutto ovviamente IMHO.