di  -  giovedì 24 giugno 2010

Nell’ultima parte avevamo affrontato l’argomento relativo agli errori introdotti in un processo di quantizzazione reale. Avevamo anche visto che, per quanto sia possibile eliminare o ridurre alcune componenti del rumore, sia fondamentale avere, anche in ingresso al quantizzatore, un buon livello del SNR.

Nelle precedenti puntate avevamo anche analizzato, in breve, le diverse componenti del cosiddetto “rumore digitale”, avendo cura di suddividerle in base al tipo di pattern e allo stadio dell’elaborazione in cui quel particolare tipo di rumore è generato. Quello che ancora non è stato analizzato, ma solo accennato, è che la percezione del rumore stesso varia a seconda che lo stesso sia imputabile alle cosiddette componenti di crominanza oppure alla luminanza; così come non è ancora stato analizzato l’impatto che il rumore stesso ha, sulla qualità dell’immagine, al variare della frequenza. Questo è quello che, molto in breve, ci proponiamo di fare in questa puntata che è anche l’ultimo capitolo dedicato al rumore digitale.

Iniziamo, dunque, col parlare del rumore generato dalle “componenti cromatiche” e dall’intensità della luce incidente. Il primo è dovuto ad errori nell’interpretazione del corretto valore del colore in un determinato pixel o su un certo insieme di pixel: le cause sono da ricercarsi in una o più componenti di “rumore” tra quelle viste nelle precedenti puntate. La seconda, invece, deriva dalle fluttuazioni dell’intensità luminosa per pixel ed è attribuibile, in massima parte, al photon shot noise.

In basso è riportato un esempio di rumore digitale con le sue due componenti dovute a luminanza e crominanza

Come è evidente, il primo si presenta come una sorta di grana più o meno fine, assimilabile al tipico rumore presente nelle pellicole, mentre il secondo è caratterizzato da macchie di colore, anche in questo caso, a grana più o meno grossa che, in alcuni casi, danno all’immagine un’aspetto “blocchettoso”.

E’ chiaro che il rumore dovuto alla crominanza appaia più fastidioso ma il fastidio, come vedremo, dipende anche da un’altro componente, ovverola frequenza. Prima di passare ad esaminare quest’altro aspetto del digital noise, completiamo il quadro relativo a “luma” e “chroma” noise, dicendo che entrambi presentano componenti con pattern variabile nel tempo e, di conseguenza, impossibili da eliminare del tutto.

L’unico accorgimento che si può prendere è quello di cercare di ridurne l’impatto negativo sulla qualità d’immagine. Per farlo nel modo migliore è opportuno separare le componenti di crominanza da quelle di luminanza e trattarle in maniera distinta. L’occhio umano è sensibile alle variazioni relative di intensità luminosa e lo è, in particolare, nelle zone scure

Questo significa che, oltre a compensare la caratteristica lineare di ingresso/uscita mediante l’applicazione di una curva tonale che, sul modello di quella dell’occhio umano, assegni più valori alle parti scure dell’immagine, la fotocamera deve intervenire anche, nelle operazioni di riduzione del rumore, soprattutto nelle zone d’ombra. Inoltre, c’è da tener conto di un altro fattore: l’occhio unano è sensibile ai contrasti ma solo quando questi superano il 2% ed è massima per il bianco e nero.

Questo significa che una variazione di colore tra pixel contigui che presentano una più o meno marcata differenza di tipo monocromatico risulterà meno evidente all’occhio rispetto ad una variazione tra zone adiacenti di colore diverso. In altre parole, l’occhio presenta una maggiore sensibilità alle variazioni di luminanza che a quelle di crominanza. La conseguenza è che la componente di luminanza si presenta con bordi e dettagli ben marcati e definiti, mentre quella di crominanza sarà caratterizzata da contorni poco definiti e dettagli difficili da distinguere

Quindi, un algoritmo che si deve occupare di trattare il rumore da “crominanza” e quello da “luminanza” deve occuparsi, nel primo caso, di intervenire preservando il più possibile dettagli e contorni, soprattutto nelle zone più scure dell’immagine, mentre, per la seconda tipologia, può intervenire più pesantemente nella riduzione del rumore senza timore di perdere dettagli fini.

Un altro aspetto di cui tener conto ha, ancora una volta, a che fare con le caratteristiche dell’occhio umano, ovvero la sua maggiore sensibilità alle componenti cromatiche nella banda del verde e del giallo. Una delle misure prese è quella di fare uso di 2 fotositi “verdi” insieme ad uno rosso ed uno blu nei sensori con pattern di tipo bayer; questo permette di avere, sul canale del verde, il doppio delle informazioni rispetto agli altri due.

Poiché il photon shot noise, una delle componenti più importanti del rumore di tipo random pattern, soprattutto ad alti ISO, cresce con la radice quadrata del numero di fotoni incidente, mentre il segnale aumenta linearmente con il numero dei fotoni, questo accorgimento permette di avere un miglior SNR proprio sulla componente cromatica a cui l’occhio umano è più sensibile. In maniera analoga, è possibile ottenere un miglioramento della qualità d’immagine, ad alti ISO, sacrificando un po’ di risoluzione spaziale, grazie alla tecnica del pixel binning.

Come accennato in precedenza, un altro aspetto importante è costituito dalla frequenza del rumore stesso. Ciascuno dei vari tipi di rumore digitale esaminati hanno una loro distribuzione in frequenza; questa distribuzione influenza in maniera determinante la percezione del rumore stesso elaborata dal sistema occhio-cervello.

I migliori algoritmi  di riduzione del rumore  sono quelli che riescono a “spalmare” nella maniera più uniforme il rumore in frequenza, mentre quelli meno efficienti e più economici presentano una distribuzione con densità maggiore alle basse frequenze. Gli algoritmi che distribuiscono in modo più uniforme il rumore in frequenza, permettono il ricorso a filtri meno aggressivi che permettono di preservare i dettagli fini.

Al contrario, algoritmi più “economici” costringomno ad usare filtri più aggressivi, all’aumentare della sensibilità (quindi al salire degli ISO) che finiscono col “piallare” i dettagli fini, per poter contenere gli effetti del rumore.

Ultimo aspetto da considerare è che il rumore è un segnale, seppure indesiderato, e come ogni segnale è caratterizzato da una distribuzione in frequenza a da un’ampiezza. Quest’ampiezza influenza direttamente la qualità dell’immagine. Ad ampiezze maggiori corrispondono cifre di rumore più elevate, maggior contrasto tra aree adiacenti, ovvero tutti fenomeni che tendono ad evidenziare ogni possibile elemento riconducibile al rumore digitale.  Questo, a parità di tipologia di rumore, di frequenze, ecc, introducono un maggior degrado del segnale stesso

E qui torniamo al punto di partenza, ovvero alla necessità primaria di avere valori di rumore più bassi possibile o, per meglio dire, valori di SNR più favorevoli. Come abbiamo visto nei precedenti articoli, per avere il miglior segnale utile si devono ridurre al minimo tutte le possibili forme di rumore, da quello elettrico alle interferenze tra pixel contigui, a quello derivante dalla distribuzione random dei pochi fotoni catturati dal singolo fotosito, ecc, ma si deve cercare anche di massimizzare la quantità di luce che colpisce ogni singolo fotosito.

Quindi è meglio avere pixel più grandi e meno densi, sistemi più efficienti di microlenti, algoritmi di NR più sofisticati, lenti di qualità superiore. In alcuni casi, per ridurre al minimo i disturbi con pattern temporalmente variabile si prelevano più scatti della stessa immagine e si fa la loro composizione  come avviene, ad esempio, in alcuni modelli di Hasselblad, sfruttando il principio che lo shot noise cresce con la radice quadrata e il segnale in maniera lineare con il numero di fotoni incidenti.

In realtà, il sistema Hasselblad, tra uno scatto e l’altro, sposta anche il sensore dello spazio di un fotosito, per ottenere, ad ogni singolo scatto, che tutti i fotodiodi che compongono un pixel si trovino nelle stesse “condizioni di luce”, questo al fine di ridurre al minimo alcuni tipi di artefatti

Ovviamente,il sistema Hasselblad, di cui ho riportato solo 2 delle 4 posizioni previste in modalità “scatto multiplo” se è ottimo per lo still life non si presta molto bene ad altri tipi di fotografia che richiedono raffiche molto veloci. Altre tecniche si basano sul sovracampionamento dell’immagine, in maniera simile a quanto avviene nele operazioni di antialiasing.

In ogni caso, come si sarà capito, è di fondamentale importanza che ciascun fotosito raccolga la maggior quantità di informazioni possibile e questo, in fotografia, significa il più alto numero di fotoni.

La luce è, dunque, l’elemento fondamentale, la base su cui poggia tutta la successiva elaborazione, come emerge chiaramente anche da questo schema a blocchi di una fotocamera

Al di là delle tecnologie implementate, è basilare conoscere la luce, cercare quella giusta, imparare ad adoperarla, sia essa “naturale” o artificiale, prodotta dal sole o da flash e faretti. Imparare a giocare con essa, creando gli effetti voluti o inventandone di nuovi.

In conclusione, pur essendo tra i più convinti assertori della teoria che un buon mezzo aiuta sia il principiante che il fotografo esperto, sono qui, al termine di una serie di capitoli dedicati agli aspetti tecnologici di un sensore digitale, ad esortare chi legge a mettere da parte le teorie e ad andare a cercare la luce migliore.

18 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    streamX
     scrive: 

    Ciao, yoss i tuoi prossimi articoli verteranno sempre sui sensori fotografici o riprenderai con le GPU/Grafica 3D?

    Scusami per il disturbo.

  • # 2
    Brando
     scrive: 

    Grazie, aspettavo la fine della serie. Anche se non ho capito tutto tutto posso dire di avere idee più chiare in merito.

    GRAZIE!

    brando

  • # 3
    Fede
     scrive: 

    Molto ineteressante l’argomento del rumore … però io mi sono sempre chiesto come mai nessuno ci ha mai pensato a quello che sto per dire e che magari per il mondo delle compatte non è applicabile per ragioni di costi ma nelle reflex professionali si potrebbe applicare

    Se noi mettessimo dentro il corpo di una fotocamera digitale una superficie che filtri/separi le tre componenti della luce rossa verde e blu, ed ogniuna di queste la mandassimo ad un ripsettivo sensore dedicato alla particolare componente della luce, insomma per farla breve una fotocamera con tre sesnoir ciacuno per una sola delle tre componenti fondamentali della luca, così facendo aumenteremmo la sensibilità in modo esponenziale potremmo fare a meno dei processi di demosaicizzazione e con più informazioni alla mano per ciascun pixel dell’immagine finale potremmo ottimizzare il processo di eliminizazione del rumore ottenendo risultati qualitativamente mai visti; questa cosa è fattibilissima si tratta solo di costi finali per questo ho scritto che nelle fotocamere digitali professionali e quelle usate nei laboratori di ricerca (per esempio quelli astronomici) varrebbe la pena un approccio tecnologico come quello che ho descritto.

    Domanda ….

    come mai non ho visto fotocamere così fatte? Insomma fotocamere con tre sensori?

  • # 4
    Roberto
     scrive: 

    @Fede

    Perchè sei giovane o ti interessi da poco di fotografia digitale :D

    http://sds.com/mug/rd175.html

    Lo fanno ancora sulle videocamere, non dirmi che non hai mai visto la scritta “3CCD” :D

    Il problema è che separando la luce ogni sensore ne riceve di meno, quindi non hai poi dei vantaggi così grossi, e poi i corpi macchina diventano enormi.

  • # 5
    Fede
     scrive: 

    Si lo so che nelle videocamere si fa ma le videocamere non hanno i sensori delle fotocamere, sono sensori molto piccoli paragonabili a quelle delle compatte, poi le videocamere non potranno mai avere le ottiche di assoluto ripsetto di quelle montate nelle reflex digitali che come ben sai contribuiscono e non di poco alla sensibilità del sensore.

    Per quanto riguarda il fatto di ricevere meno luce, secondo me è da verificare visto che il numero di sensori per ciascuna delle tre componenti della luce diverrebbe nettamente più elevato perché tutti i fotodiodi del sensore sono adetti a raccogliere la gamma verde, tutti addetti alla gamma rossa, tutti addetti alla gamma blu, e poi ripeto parte del problema è compensabile con l’uso di ottiche di assoluta qualità nelle quali alcuni elementi sono magari lenti a bassa dispersione come le lenti ED che monta nikon, io non ho mai visto nelle fotocamere montate ottiche di qualità come quelle montate nelle fotocamere professionali.
    E poi infine forse dimentichi che sui sensori attuali delle attuali macchine fotografiche digitali si montano delle microlenti che filtrano ugualmente la luce esattamente come ho scritto io con la sola di differenza
    che per un pixel dell’mmagine occorre impegnare 3 fotodiodi di dello stesso sensore.
    Insomma ho forti dubbi sul fatto che i sensori riceverebbero meno luce.
    Poi aggingici il fatto che con tre sensori si eviterebbero molti cicli di calcolo ai processori embedded interni alle fotocamere stesse per i processi di demosaicizzazione e di ricostruzione dell’immagine finale e tutta la potenza elaborativa verrebbe utilizzata per la velocità di ripsosta della fotocamera e per eleiminare residui di rumore in modo più efficiente e con risultati assolutamente di qualità, tenendo conto del fatto che le fotocamere per essere tali non hanno bisogno di gestire ad alta velocità e in brevissimo tempo i frame di una ripresa video (va be che a partire dalla reflex Nikon D90 anche di questo si occupano le fotocamere)

  • # 6
    Fede
     scrive: 

    per quanto riguarda il problema di ingombri a mio avviso non è un problema perché come ho scrito eventuali reflex a tre sensori sono ovviamente destinate ad uso professionale e in quell’ambito il discorso degli ingombri è molto relativo, il fotografo professionista non si pone il problema di dover mettere in tasca la sua attrezzatura

  • # 7
    Fede
     scrive: 

    scusatemi nel commento # 5 volevo scrivere VIDEOCAMERE e invece ho scritto per errore FOTOCAMERE, riporto la frase per evidenziare l’errore:

    ‘…. io non ho mai visto nelle FOTOCAMERE montate ottiche di qualità come quelle montate nelle FOTOCAMERE professionali …’

  • # 8
    Fede
     scrive: 

    @ Roberto

    Se proprio esistesse il problema che separando la luce ogni sensore ne riceve di meno, si può tranquillamente risolvere così utilizzando tutto cio che gia sappiamo fare e la tecnoloiga che già abbiamo anzi sarebbe ancora più semplice ed efficace:

    Il pentaprisma interno alle reflex si occuperebbe non solo di dirigere la luce senza filtrarla e senza separarla nelle sue tre componenti cromatiche verso il mirino ma indirizzerebbe la luce così come entra attravero l’ottica sulla superficie dei tre sensori, quest’ultimi si differenzieranno dai sensori attualmente utilizzati nelle reflex digitali solo per il fatto che la matrice di microlenti del sensore addetto alla componente blu filtrerà solo la componente blu, la matrice di microlenti del sensore addetto alla componente rossa filtrerà solo la componente rossa e infine la matrice di microlenti del sensore addetto alla componente verde filtrerà solo questa componente.
    Come vedi sarebbe un sistema molto semplice da realizzare la sola differenza sta nel mettere tre sensori, il resto è solo una questione di riflessioni, ma quello che si semplifcherà maggiormente sono gli algoritmi per codificare i segnali provenientii dai tre sensori e comporre l’immagine finale, il vantaggio che se ne trarrebbe a mio avviso a parte una qualità degli scatti superba ma anche una maggior velocità di risposta della fotocamera, un maggior controllo del rumore solo per il fatto che verrebbero a amcncare i rumori dovuti all’elaborazione, e infine anche una maggior economia di scatti con la batteria agli ioni di litio ricaricabile

  • # 9
    Fede
     scrive: 

    E poi con tre sensori i pixel dell’immagine finale sarebbero fedeli alla scena reale ( a parte il discorso della corretta espposizione, del bilanciamento del bianco ecc. ecc.) mentre nei sistemi attuali di fatto la demosaicizzazione introduce pixel artificiali per interpolazione.

    ovviamente bisogna curare il fatto che il percorso della luce sia lo stesso per i tre sensori altrimenti andremo incontro ad altre problematiche

  • # 10
    Fede
     scrive: 

    @ Roberto

    Ti ricordo che i processi di interpolazione come quelli applicati dalla demosaicizzazione contribuiscono e non di poco a peggiorare la qualità dell’immagine, è facile verificarlo prova con Photoshop ad ingrandire un ‘immaggine ricampionandola, photoshop non fa altro che interpolare per aggiungere nuovi pixel e la differenza la noterai è come l’immagine ingrandita è qualitativamente peggiore di quella da cui sei partito

  • # 11
    Fede
     scrive: 

    Ho dimenticato che il pentaprisma a specchio nelle reflex si occupa anche di inviare la luce sui sensori per il rilevamento del contrasto di fase che serve per la funzionalità di messa a fuoco automatica (sicuramente nelle nikon D3000, D5000, D40/40X e D80 non è vero questo infatti per avere l’autofocusa devi montare ottiche che internamente hanno il sistema autofocus incorporato perché il corpo delle fotocamere ne è completamente privo)

    P.S. dimenticavo di dire a Roberto che è vero sono pocchi anni che mi interesso di fotografia cioè di scattare foto ma qui si parla di elettronica, di sistemi diottrici che praticamente anche un fotografo professionista non è tenuto necessariamente a conoscere a fondo soprattutto ad un livello ingegneristico e comunque credo di avere sufficiente cultura per affrontare simili argomenti.

  • # 12
    Fede
     scrive: 

    ancora un errore …

    la D80 implementa nel suo corpo l’autofocus la D60 no infatti dovevo scrivere D60

  • # 13
    Fede
     scrive: 

    @ Roberto

    Ad ogni modo solo ora ho avuto tempo per leggere la pagina web che mi hai indicato, be il modello di fotocamere Minolta che ivi è descritto usa 3 CCD quindi evidentemente la mia idea che non sapevo essere già applicata alle fotocamere non è poi tanto malvagia (delle videocamere lo sapevo ma il confronto con la qualità dell’ottica e del sensore delle fotocamere reflex non lo reggono).
    Certo che in quella pagina web dalle caratteristiche si capisce che deve essere una vecchissima fotocamera (infatti a parte la positiva caratteristica dei tre sensori CCD le altre caratteristiche fanno ridere persino ad una comunissima comaptta di oggi) e giù in basso vi è scritto l’anno 1997, ad ogni modo non mi torna qualche cosa percheé quella fotcamera Minolta non doveva essere un modello chi sa ché perché ricordo benissimo che in quell’anno sono stato invitato alla laurea di un mio amico ed un’altro amico comune, pure lui invitato, aveva una fotocamera digitale da 5 MegaPixel ma non ricordo il brand di qella fotocamera, lo ricordo benissimo perché comunque io mi sono sempre informato sulle tecnologie nuove e rimasi sbalordito per quella fotocamera e allora 5 MegaPixel erano veramente tanti, non ricordo la marca , credo era una nikon ma posso pure sbagliarmi, sembrava una reflex ma non sono sicuro se lo era al limite aveva il mirino elettronico, ricordo il particolare che oltre ai 5 MegaPixel il display LCD era flottante, cioè lo potevi ruotare a tua piacimento , Insomma era veramente una macchina fotografica innovativa, vagamente ricordo il codice del modello comunque era qualche cosa del tipo 850 o 8500 booooooooooooo!!

  • # 14
    Roberto
     scrive: 

    @Fede

    Quella è una delle prime reflex digitali costruite da qualcuno che non fosse Kodak, e ti assicuro che per l’epoca era una bomba da 13.000 dollari.
    Nel 1997 5mpxl non erano solo tanti, erano pura fantasia: le uniche macchine con una risoluzione del genere (ma 6Mpxl) erano le reflex ibride con sensore Kodak su corpo Canon o Nikon, da decine di migliaia di euro e senza display rotante… tu forse ti riferisci alle Coolpix con corpo snodato, molto in voga in quegli anni ma dalle risoluzioni ridicole per gli standard attuali: le due cose insieme, display basculante e 5Mpxl, non esistevano nel 1997 perchè le reflex non avevno il display basculante (non esisteva il live view) e le compatte spesso non superavano risoluzioni di 640×480 e solo le migliori arrivavano a 1280×1024. Sono passati 13 anni, probabilmente ricordi male.

    La RD175 è del 1995.

    Qui http://www.digicamhistory.com/ trovi tutte le fotocamere suddivise per anno, fatti un gire e vedrai cosa proponeva il mercato nel 1997.

    L’idea, che a te pare brillante, è stata completamente scartata dall’industria per i motivi che ti ho detto, tant’è che come tu stesso asserisci non è più stata utilizzata.
    Fermati a ragionare: a parità di obiettivo (quindi con la stessa luce in uscita dallo stesso), dividerla su 3 sensori significa che ognuno riceverà 1/3 della luce, obbligandoti ad aumentare la sensibilità per mantenere inalterata la coppia tempo/diaframma. Il sistema Minolta era già come lo pensi tu: non si scomponeva la luce nelle 3 componenti RGB, si indirizzava (come tu dici) 1/3 della luce su ogni sensore, opportunamente filtrato verde, verde e rosso/blu: sai vero che i pixel verdi sono il doppio dei blu o dei rossi, no? Usando dei sensori dovresti filtrarne due verdi e uno rosso/blu, o mettere 4 sensori!!!!

    Per quanto riguarda gli ingombri: i professionisti usano sensori FF, quella Minolta usava dei sensorini 6.4 x 4.8 mm da compatta ed era grande come una medio formato, immaginati se ci avessero messo dentro sensori FF o medio formato… è il motivo per il quale nelle videocamere possono farlo: i sensori sono molto piccoli rispetto anche solo agli APS delle reflex.

    Credimi, è una strada non praticabile tanto che l’industria si è inventata metodi alternativi per ottenere lo stesso risultato, uno è il sensore X3 Foveon, l’altro il sistema Hasselblad che sposta il sensore come ha descritto Yossarian. Ti pare che se la strada dei 3 sensori fosse stata superiore a queste due non l’avrebbero percorsa?

  • # 15
    Roberto
     scrive: 

    Mi correggo, ricordavo male… la Minolta usava un filtro dicroico

  • # 16
    Fede
     scrive: 

    @ Roberto

    No Roberto sono sicurissimo che non era una coolpix del tipo snodabile come per esempio la coolpix 990, purtorppo non ricordo molto bene ma somigliava molto ad una reflex, aveva 5 Megapixel (questo lo ricordo con assoluta certezza perché era la caratteristica che più mi sbalordiva), aveva il diplay basculante, il miirino non lo ricordo bene ma forse credo che era elettronico ricordo solo che riportava una marea di informazioni, era possibile attivare anche una griglia verde/gialla per la regola dei terzi, l’ottica non la ricordo affatto riordo solo che sporgeva parecchio dal corpo e anche il diametro non era neanche tanto piccolo. Come ricordo che era possibile scattare foto sia usando il display e sia usando solo il mirino però devo dire che il mirino sembrava enorme insomma non dava l’effetto tunnel. Infine ti assicuro che era il 1997, di questo ne sono certo perché nello stesso anno dopo qualche mese questo mio amivco che abveva questa fotocamera digitale morì in un incidente. Mi colpì tanto quella fotocamera che ancora oggi ogni tanto ci penso e mi chiedo chisà che modello era e di che marca

  • # 17
    yossarian (Autore del post)
     scrive: 

    @ streamX

    non so di preciso. Voglio concordare la cosa con Matteo Fossati. Stiamo portando avanti un progetto sulla fotografia, in cui lui si occupa degli aspetti più direttamente connessi alla tecnica fotografica ed io di quelli tecnologici.
    L’idea è quella di arrivare partire da due aspetti della stessa materia per arrivare a convergere. Quindi devo coordinare il lavoro insieme a lui. E’ abbastanza probabile che tornerò ad alternare i due argomenti.

    @ Fede
    Roberto ti ha spiegato i motivi per cui l’utilizzo di tre sensori distinti è una strada poco e per nulla praticabile in fotografia. Le immagini statiche necessitano di una qualità decisamente superiore rispetto a quelle in movimento e, per questo, i sensori devono essere in grado di catturare più informazioni e, quindi, più luce. Per questo motivo, i sensori delle fotocamere hanno dimensioni e risoluzioni nettamente superiori rispetto a quelli delle videocamere.
    L?adozione di tre sensori di dimensioni all’incirca comparabili con quelle di una reflex digitale, porterebbe ad avere dispositivi delle dimensini, più o meno, di una cinepresa da studio, il che, per una macchina fotografica. è decisamente impraticabile.
    Anche nel settore videocamere, soprattutto per i modelli che raggiungono risoluzioni elevate, si sta percorrendo la strada del sensore unico per avere compattezza unita ad elevata qualità d’immagine. Un esempio è questo
    http://www.red.com/cameras/tech_specs/

  • # 18
    yossarian (Autore del post)
     scrive: 

    @ Fede # 16

    Sicuro che fosse il 1997? Perchè, in quel periodo, come ha già detto Roberto, non c’erano fotocamere con 5 Mpixel (o più) che non fossero reflex (ricordo un paio di modelli Kodak) e queste ultime non avevano il display rotante o basculante.
    Non è che per caso ti riferisci a questa http://www.dpreview.com/reviews/specs/Konica_Minolta/minolta_dimage7.asp

    oppure a quest’altra http://www.dpreview.com/reviews/specs/Konica_Minolta/minolta_dimage7i.asp ?

    oppure ad una di queste due

    http://www.dpreview.com/reviews/specs/Sony/sony_dscf717.asp

    http://www.dpreview.com/reviews/specs/Sony/sony_dscf828.asp ?

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.