di  -  mercoledì 27 gennaio 2010

Un paio di settimane fa, avevamo fatto cenno alla giunzione p-n per introdurre uno dei principi base del funzionamento di un sensore digitale, ovvero la trasformazione di radiazione luminosa incidente in un segnale elettrico in grado di essere decodificato ed elaborato da un processore.

Questo meccanismo è alla base del funzionamento di dispositivi come fotodiodi a fototransistor utilizzati per catturare luce e convertirla in elettricità. Vediamo in che modo, questi dispositivi sono integrati sulla superficie di un sensore digitale, come immagazzinano le cariche elettriche generate dai fotoni incidenti e come queste cariche elettriche diventano un segnale adatto ad essere trasformato in un’immagine.

Cercherò di non appesantire troppo la trattazione con formule matematiche, lasciando, spazio, dove possibile, ad immagini e grafici che possano spiegare, più delle parole e, soprattutto, in maniera più sintetica, concetti magari sempici per gli addetti ai lavori o per chi ha seguito determinati studi, ma ostici o, addirittura, sconosciuti ai più.

Nel farlo, familiarizzeremo anche con alcuni termini che comunemente si incontrano quando si affrontano letture sulle caratteristiche dei sensori digitali.

Coma abbiamo più volte ribadito, dunque, un sensore per la cattura delle immagini ha il compito di trasformare la luce in segnale elettrico e per farlo si serve di fotodiodi o fototransistor basati sul maccanismo della giunzione p-n.

Una delle caratteristiche importanti, dunque, di questi dispositivi, è la loro capacità di convertire i fotoni in elettroni. Una misura di questa capacità è data dalla cosiddetta efficienza quantica (QE), definita come il rapporto tra il numero di coppie elettrone-lacuna prodotte (soprattutto) nella zona di svuotamento della giunzione p-n e quello dei fotoni incidenti.

L’efficienza quantica è un parametro intrinseco del tipo di materiale utilizzato e non presnta un valore uniforme lungo tutta la banda ma dipende dalla lunghezza d’onda della radiazione incidente. Un altro parametro che tiene conto anche dello spessore dei materiali fotosensibili, delle tensioni di alimentazione e di eventuali accoppiamenti ottici, è l’efficienza di rivelazione (DQE), definita come rapporto tra fotoelettroni prodotti e fotoni incidenti. Riassumo la differenza tra QE e DQE in poche parole (anche sesarebbe da parlarne più diffusamente).

Nel computo della QE si deve tener conto di elementi, come vari tipi di rumore o efficienza delle microlenti (s presenti) che non permettono di fare una valutazione assoluta della qualità del materiale fotosensibile. Inoltre, anche a parità di tipologia di sensore, due diverse tensioni di alimentazione generano differenti cifre di rumore.

In parole povere, ad esempio, la QE ci può permettere di dire che il sensore della EOS 40D è più efficiente di quello della Nikon D200; ma non ci permette di dire se ciò è dovuto al fatto che sia effettivamente migliore il materiale fotosensibile utilizzato, oppure se dipende dalla minor quantità di rumore o se ha microlenti di qualità superiore; ci dice soltanto che il segnale elettrico generato in uscita (comprensivo del relativo rumore) rapportato al segnale (ottico) in ingresso, fornisce un valore superiore per una fotocamera anzichè per un’altra.

Il DQE, al contrario, tiene conto di questi fattori, fornendo la misura del rapporto tra i segnali di uscita e di ingresso di un elemento fotosensibile quasi ideale con le caratteristiche di quello reale che stiamo esaminando.

Se la DQE è un parametro utile soprattutto a chi deve progettare un sensore e quindi avere riscontri sulla qualità degli elementi fotosensibili da utilizzare, la QE può essere di interesse per chi acquista una fotocamera o una videocamera, soprattutto in relazione a quanto questo parametro influenzi altri elementi più importanti ai fini della valutazione, come ad esempio, la gamma dinamica o il rumore ad alti ISO.

Altro  parametro che ha influenza sulle prestazioni di un fotorivelatore, è il coefficiente di assorbimento che dà la misura della capacità di uno strato di materiale fotoassorbente di “catturare” la luce incidente. Quando la radiazione luminosa incide su una lastra di materiale fotosensibile o trasparente, una parte di essa si perde da subito, la restante penetra all’interno del materiale e continua ad avanzare, perdendo, man mano intensità, fino a che non viene ocmpletamente assorbita o riesce ad uscire dall’altro lato della lastra.

La capacità di penetrazione dipende, qualitativamente, dal coefficiente di assorbimento, in maniera tale che all’aumentare di quest’ultimo aumenta la quantità di radiazione che si perde per ogni strato del materiale che attraversa. In parole povere, più il materiale è fotoassorbente, più la radiazione non riesce a penetrare in profondità.

Ma anche il coefficiente di assorbimento non è un valore costante ma vari al variare della frequenza della luce incidente, con un andamento del tipo di quello riportato in figura

da cui si può vedere che a lunghezze d’onda minori (400 nm) corrispondono valori di assorbimento maggiori mentre a lunghezze d’onda minori valori inferiori. Ciò significa che nella banda del blu la luce incidente penetra poco i profondità e si ferma negli strati superficiali mentre nella banda del rosso riesce ad arrivare molto in profondità  Questo spiega anche il motivo della costruzione a strati sovrapposti, con, in sequenza, il blu, il verde ed il rosso, dei sensori foveon.

Nella scorsa puntata avevamo visto come una giunzione p-n polarizzata inversamente può avere la capacità di trasformare i fotoni in elettroni; oltre all’elemento atto ad operare questa trasformazione, un fotosito è dotato di elementi in grado di raccogliere questi elettroni generati per effetto fotoelettrico, esattamemte nello stesso modo in cui un vaso raccoglie acqua piovana.

Ad ogni “refresh” si contano quanti elettroni sono stati collezionati da ciascun fotosito e questo conteggi dà la misura dell’intensità luminosa ricevuta. In teoria, al nero dovrebbe corrispondere un contenitore vuoto, mentre al bianco uno completamente pieno. Ovviamente non tutti i contenitori sono di uguali dimensioni e, di conseguenza, non tutti sono in grado di raccogliere la stessa quantità di acqua……pardon, di fotoni.Questa capacità è detta full well capacity. I pixel di dimensioni maggiori avranno una full well capacity superiore rispetto a quelli di dimensioni inferiori.

Questo parametro influenza la QE di un sensore e, di conseguenza, il valore del dymanic range possibile. Infatti un fotosito più grande potrà raccogliere, nello stesso intervallo di tempo, un maggior quantitativo di luce rispetto ad uno di dimensioni minori, aumentando la QE.

Questa capacità permette di ridurre gli effetti del blooming che si manifesta quando il “contenitore” dei fotoni è pieno e i fotoni in eccesso vengono riversati sui pixel adiacenti, provocando alterazioni dell’intensità del segnale rilevato. A questo tipo di effetto sono molto più soggetti i sensori di tipo CCD per i motivi che saranno chiari una volta affrontatane l’architettura.

I moderni sensori hanno installate delle microlenti sempre più perfezionate, in alcuni casi di tipo gapless, in altri casi addirittura disposte in doppio strato per mantenere la QE a buoni livelli anche in caso di riduzione delle dimensioni dei fotositi, come pure presentano delle “trincee”, insensibili alla luce, tra pixel contigui che costituiscono delle vere barriere antiblooming.

Un latro degli aspetti di cui tener conto sia quando si progetta un sensore che quando lo si studia (io, semplicemente, quando si è curiosi di sapere come è fatto e come funziona) è quello relativo alla sensibilità dell’occhio umano alla luce.

L’occhio non presenta lo stesso tipo di risposta a tutte le lungheze d’onda della radiazione incidente (ma chge strano, finora non abbiamo ancora incontrato un “dispositivo che non si comporti in maniera differente in base alla frequenza); questo significa che uguali quantità di energia radiante non sono percepite come avere la stessa intensità. La risposta è del tipo illustrato in figura

da cui si vede che la sensibilità maggiore si ha nella banda del verde-gialloe la minore in quella del rosso. Questo è il motivo per cui un filtro a matrice bayer classica si basa su gruppi di 4 fotodiodi per ogni pixel che presentano una sequenza di colori che prevede un rosso, un blu e due verdi come il primo a sinistra nella successiva figura

Nell’immagine compaiono altri tipi di pattern 2×2; nell’ordine, il secondo è stato ideato da Sony per alcune delle sue fotocamere, soprattutto di tipo bridge, di cui la più celebre è senz’altro la DSC F828, e sostituisce un verde “tradizionale” con un verde smeraldo; questo pattern di tipo RGBE (red, green, blu, emerald) a detta di Sony dovrebbe servire a riprodurre i colori in maniera più fedele a quella che è la visione dell’occhio umano. Non ho potuto verificare quanto ci sia di vero in quesat affermazione. Pare, però, che nelle reflex e, soprattutto in quelle di fascia alta, il sensore adottato sia un comune CMOS di tipo RGB.

Il terzo filtro, di tipo CYYM (ciano, yellow*2, magenta) è usato su alcune fotocamere Kodak, mentre il quarto di tipo CYGM (ciano, yellow, green, magenta) è maggiormente usato sulle videocamere. Caratteristica comune di questi 4 tipi di pattern è la presenza di 2 elementi su 4 apparteneti alla banda del giallo-verde, ossia quella a cui, abbiamo visto che l’occhio è più sensibile.

Il quinto, invece, ai tre classici colori RGB affianca il bianco. Anche questo tipo di cella è stata ideata da Kodak ed esiste in diverse varianti. L’idea è quella di utilizzare un fotodiodo di tipo “panchromatic”, ovvero sensibile a tutte le lunghezze d’onda ed in grado, quindi, di raccogliere una notevole (se rapportata agli altri) quantità di luce.

Difficile valutare l’efficacia di questa soluzione, adottata, al momento, solo su alcuni modelli di fotocamera di fascia bassa e limitatamente ai sensori di tipo CCD. Anche per Kodak vale quanto detto per Sony: nei sensori di fascia alta che produce e vende (a terzi tra cui Hasselblad), non  fa, per ora, esperimenti e continua ad usare, per lo più CCD, abbinati a pattern di tipo RGB classico.

Per i motivi sopra elencati, ovvero per la presenza di due fotodiodi per la banda del giallo-verde,, nei grafici che mostrano il rumore prodotto da un sensore digitale si nota come la componente relativa al verde sia sempre quella che presenta il miglior SNR e, d’altra parte, a parità di condizioni con le altre sarebbe anche quella il cui rumore sarebbe percepito con maggior evidenza. A riprova di ciò, mostro l’endamento del rumore per le varie ocmponenti di colore (oltre che per la luminanza) per la nuova EOS 7D

Dall’immagine si vede che il rumore presenta valori più bassi per il giallo e per il verde lungo tutta la gamma degli ISO. Eppure,  la prima componente di rumore a risultare visibile a 1600 ISO ed a divenire evidentemente fastidiosa a 3200 ISO (immagine in basso) è proprio quella del verde

segno che se non si operasse la scelta di avere un miglior SNR sulle frequenze del verde e del giallo, il rumore risulterebbe evidente già a ISO più bassi e si dovrebbe ricorrere ad algoritmi di NR più aggressivi (con i risultati che si possono immaginare sui dettagli fini).

Con oggi abbiamo concluso la parte relativa alla “raccolta della luce” da parte di un sensore digitale. Nel corso di questi primi tre appuntamenti abbiamo avuto modo di conoscere gli elementi di base di cui è costituito un sensore digitale, dal filtro antimoire alle microlenti, alla matrice di di fotositi. Abbiamo avuto modo anche di approfondire la conoscenza con uno degli elementi costituitenti la matrice fotosensibile, ovverossia, il fotodiodo.

Abbiamo, infine, iniziato a familiarizzare con alcuni dei termini ricorrenti quando si parla di sensori digitali. Nelle prossime puntate proseguiremo questo viaggio, approfndendo altri aspetti dell’architettura di un sensore, facendo la conoscenza con alcuni tipi di disturbo tipici di un sensore digitale (abbiamo già fatto cenno a dark current e blooming)  e con i metodi atti a combattere questi disturbi. Infine faremo una comparativa tra le varie tipologie di sensore, seguendo quella che, finora, è stata l’evoluzione tecnologica che le ha contraddistinte.

10 Commenti »

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.

  • # 1
    Roberto
     scrive: 

    Bel pezzo

    “Questo parametro, insieme alla QE, influenza la QE di un sensore e, di conseguenza, il valore del dymanic range possibile. Infatto un fotosito più grande potrà raccogliere, nello stesso intervallo di tempo, un maggior quantitativo di luce rispetto ad uno di dimensioni minori, aumentando la QE.”

    Nonostante sia una affermazione corretta, se non opportunamente spiegata potrebbe portare a conclusioni sbagliate, infatti noi fotografi non facciamo misure con i sensori ma ci scattiamo foto, e le foto si guardano a parità di dimensione di stampa/visione: un maggiore numero di pixel più piccoli offrono il vantaggio di un minore rumore nell’immagine finale e quindi una maggiore gamma dinamica che in parte compensa lo svantaggio di una full well capacity minore.

  • # 2
    mauro
     scrive: 

    bravo yossarian
    mi piace il tuo approccio a semplificare e rendere un po più comprensibili argomenti difficili. Io scrivo molto difficilmente ma vorrei ringraziarti per questa rubrica!
    Mauro

  • # 3
    K-Christian27
     scrive: 

    Bravo Mauro che hai scritto.. anche se scrivi difficilmente. :-)

  • # 4
    yossarian (Autore del post)
     scrive: 

    @ Roberto

    quello che dici è vero e ne avrei parlato, anzi ne parlerò quando passerò ad analizzare il comportamento dei sensori nel,loro insieme e dopo aver affrontato quello relativo alle diverse tecnologie. Anche noi “tecnici” abbiamo alcuni parametri che tengono conto della risoluzione. Ovviamente, entro certi limiti, un aumento della risoluzione, a parità di tecnologia, può portare ad avere sensori con fotositi di dimensioni inferiori ma capaci di catturare più luce. Il principale è definito proprio “Sensor light collecting ability” ed mentre un altro è detto £Light collecting ability per unit area”. Il primo, in particolare. si ottiene moltiplicando l’efficienza quantica del singolo per il numero di Mpixel.
    Così, sensori ocn fotositi più piccoli e, di conseguenza, con QE minore, possono avere una maggior capacità di catturare la luce.
    Nel link in basso
    http://theory.uchicago.edu/~ejm/pix/20d/posts/tests/D300_40D_tests/
    nelle tabelle 7 e 9 in particolare, è riportata la QE per fotosito e il valore equivalente per sensore (che tiene conto, appunto, della risoluzione).
    Ad esempio, la Nikon D200 fa registrare il valore più basso di QE per fotosito ma supera la EOS 10D con i suoi “soli” 6,3 Mpixel. Nell’analisi prenderò in esame anche le diverse tecnologie di microlenti (ad esempio la D300 con i suoi 12 Mpoixel ha fotositi con QE superiori a quella della 400D che ha soli 10 Mpixel). Differenze anche tra le tecnologie dei modelli di fascia semipro rispetto a quelli entry (vedi 40D vs 400D 20D/30D vs 350D).
    La 50D, invece, ha un’elevata efficienza per unità di superficie del sensore, grazie all’adozione delle microlenti gapless che però non le permettono di superare quella del sensore da 12 Mpixel della D300. Segno che, con ogni probabilità, oltre quella risoluzione i guadagni derivanti dal maggior numero di Mpixel non riecono a compensare le perdite dovute alla minore full well capacity (nonostante la D300 non abbia lenti gapless).
    Ovviamente, come visto anche da questi dati, il discorso maggior risoluzione più luce catturata è valido entro certi limiti di incremento dell’affollamento dei sensori stessi. Anche perchè, per limiti fisici ed elettrici, la distanza tra fotositi non può essere ridotta al di sotto di certi limiti.
    Comunque, non parlerei di aumento della gamma dinamica, in quanto quello è un parametro che dipende soprattutto da dark current e QE del singolo fotodiodo più che da quello dell’intero sensore (comunque, la 50D presenta più rumore della 40D o della D300). All’aumentare della risoluzione, la riduzione del rumore avviene per alcune componenti (ad esempio l’aliasing) ma non per altre (il photon shot noise ad esempio, aumenta al diminuire delle dimensioni dei fotositi).
    Comunque, apprezzo molto i tuoi interventi perchè portano un diverso punto di vista, frutto della tua esperienza in campo fotografico, che contribuisce a stimolare la conversazione (a volte anticipando anche i temi di successivi articoli) e ad arricchire le trattazioni che ammetto essere basate troppo su aspetti tecnici e tecnologici (ma come ho più volte detto, sono solo un aspirante fotografo con, tra l’altro, molto poca esperienza fatta con la pellicola).

    @ Mauro

    Grazie, spero che continuerai a leggere i miei post.

  • # 5
    Roberto
     scrive: 

    Beh Yossarian, in realtà qui sono io quello che sta imparando nuove cose quindi diciamo che sono in debito… ;)

    Con l’aumento di gamma dinamica alludevo al fatto che il segnale si somma semplicemente mentre il rumore si somma in radice quadrata, quindi quattro pixel piccoli hanno un segnale simile (grazie alle microlenti) a quello di un pixel più grande, ma un rumore inferiore e quindi, ad una full well capacity inferiore corrisponde un segnale più pulito che consente di recuperare, in parte, quanto perso sul segnale massimo registrabile.

    Consideriamo poi la maggiore precisione nella determinazione del colore, il maggiore dettaglio ecc… mi fermo qui comunque, non voglio anticipare ancora discorsi che sicuramente toccherai in futuro.

  • # 6
    yossarian (Autore del post)
     scrive: 

    @ Roberto

    grazie per le precisazioni. Ti assicuro che anch’io ho molto da imparare nel campo della fotografia da uno con la tua esperienza.
    A proposito di ciò, ho una proposta da farti via mail.

    Ciao

  • # 7
    Roberto
     scrive: 

    Se puoi vedere la mail dalle risposte al blog usa quella di questo messaggio.

  • # 8
    yossarian (Autore del post)
     scrive: 

    @ Roberto

    te l’ho inviata.

    Fammi sapere

    Ciao

  • # 9
    Roberto
     scrive: 

    non l’ho ricevuta… stai usando opiv@….?

  • # 10
    yossarian (Autore del post)
     scrive: 

    no, ho usato l’altro; te la invio anche su questo

Scrivi un commento!

Aggiungi il commento, oppure trackback dal tuo sito.

I commenti inseriti dai lettori di AppuntiDigitali non sono oggetto di moderazione preventiva, ma solo di eventuale filtro antispam. Qualora si ravvisi un contenuto non consono (offensivo o diffamatorio) si prega di contattare l'amministrazione di Appunti Digitali all'indirizzo info@appuntidigitali.it, specificando quale sia il commento in oggetto.