Durante queste festività, ho trovato un po di tempo per dedicarmi ad uno dei miei hobby: la fotografia.
Questo mi ha fatto venir voglia di tornare a parlare di macchine fotografiche e soprattutto, considerato che non sono un fotografo ma un semplice appassionato alle prime armi con la fotografia ma con studi tecnico scientifici alle spalle, di dispositivi digitali per la fotografia e, in particolare, di sensori digitali, argomento, per altro, già trattato per un altro motivo.
Stavolta voglio parlare delle diverse tipologie di sensori digitali, iniziando con un’introduzione sui meccanismi di funzionamento di questo tipo di dispositivi.
Un sensore per immagini è un dispositivo che converte la luce incidente sulla sua superficie in impulsi elettrici che, a loro volta, sono convertiti in immagini. Questo processo passa attraverso varie fasi e prevede una trasformazione della radiazione incidente (discreta) in un segnale elettrico (continuo) e le successive operazioni di campionamento e quantizzazione di questo stesso segnale che deve essere messo in forma tale da poter essere elaborato dal processore d’immagini e, infine, ricostruito per essere inviato nella memoria dove viene salvato come immagine.
Poichè la luce incidente reca informazioni sull’immagine del mondo reale da “immortalare”, si può dire, senza essere tacciati di scarso rigore scientifico, che si parte da un’immagine contnua (quella del mondo reale) e attraverso una serie di operazioni di quantizzazione/ricostruzione, si torna ad un’immagine continua, la foto, con una serie di passaggi che ricordano molto da vicino quelli che abbiamo visto per la creazione di un’immagine 3D di un film animato o di un videogame.
E come per l’immagine 3D, incontriamo gli stessi problemi (aliasing) anche quando tentiamo di congelare un’istante di vita quotidiana in un’istantanea. Ovviamente, nel fare foto, si incontrano anche altri tipi di problemi legati al sistema, molto complesso e che mette insieme elementi di tipo analogico e di tipo digitale, formato da lente, filtro antimoire, sensore e processore di immagine.
Come detto, dunque, i fotoni incidenti passano attraverso la lente che li guida verso il sensore. La lente, sulle cui caratteristiche non mi dilungherò, ha il compito fondamentale di far pervenire sul sensore quanta più luce possibile, evitando distorsioni e aberrazioni cromatiche di sorta.
Detto ciò, iniziamo con l’introdurre la struttura tipica di un sensore digitale; si tratta di una matrice di pixel nxm, disposti a reticolo. Come ogni dispositivo digitale, anche i sensori delle fotocamere e delle videocamere fanno uso dei soliti 3 colori (rosso, verde e blu) che combinati tra di loro, con la luminanza (ovvero l’intensità luminosa registrata) a fare da funzione peso, permettono di ricavare tutti gli altri colori. In pratica esistono due tipi di sensore, indipendentemente dalla tecnologia adottata e dalla forma dei pixel: quelli a matrice bayer e quelli che adottano la tecnologia X3 di Foveon.
I primi presentano una disposizione dei 3 colori che chiameremo, impropriamente, di base, sullo stesso piano; i secondi presentano una disposizione di tipo stratificata, con il blu a comporre lo strato superiore con a seguire il verde ed il rosso.
Nei sensori con pattern di tipo bayer, sul sensore, che è di tipo monocromatico, è applicata una maschera su cui, per ogni pixel, si attua una suddivisione in 4 subpixel, 1 rosso, 1 blu e 2 verdi (perchè l’occhio umano è più sensibile al verde e, di conseguenza, è opportuno che su quelle frequenze l’informazione catturata sia massima) nel modo indicato in figura
Il sensore vero e proprio, quello al di sotto della maschera, cattura l’intensità luminosa ed è formato, sia che si parli di cmos che di ccd, di una matrice di fotodiodi; la maschera fornisce le informazioni sul colore, filtrando le componenti indesiderate; in pratica, la maschera non fa altro che permettere alle componenti del colore indicato per ogni subpixel, di attraversarla per raggiungere il sensore, riflettendo tutte le altre (per questo motivo si schematizza con quadratini rossi, blu e verdi).
Il processore, ricevute le informazioni necessarie, abbina al colore corrispondente ad una determinata locazione sulla maschera la relativa intensità luminosa ricevuta. Quindi fa lo stesso per i subpixel contigui e, interpolando i 4 valori di un rosso, un blu e due verdi, ricava il valore di un singolo pixel.
Nell’immagine, ad esempio, il primo pixel lo si ricava partendo dal subpixel rosso in alto a sinistra e, muovendosi in senso orario, andndo a toccare il subpixel verde al suo fianco e poi, in oordine, il blu ed il verde posti al di sotto dei primi due. Il pixel successivo, sulla stessa riga, invece, lo si ricava partendo dal subpixel verde immediatamente successivo al primo rosso e così vie.
Quindi, ad esclusione dei subpixel sui bordi, tutti gli altri vengono utilizzati per ricavare informazioni per 4 pixel. Appare chiaro che questo tipo di sensore, per ogni locazione, riesce a catturare una sola componente di colore e richiede una necessaria operazione di demosaicing ai fini della composizione dell’immagine (l’immagine, di fatto, è composta dalle tessere di un mosaico), come illustra la seguente figura
da cui si vede in che maniera, partendo da 16 subpixel sia possibile ricavare 9 pixel. Esistono diversi tipi di algoritmi di demosaicing, più o meno sofisticati, che si occupano non solo di interpolare i valori di subpixel noti ma anche di ricostruire quelli di subpixel mancanti.
Gli algoritmi di ricostruzione più semplici sono basati sulla conoscenza dei valori relativi ad un solo colore: ad esempio, se mancano o sono di difficile lettura i dati di un subpixel rosso, queati saranno ricostruiti partendo dai valori degli altri subpixel rossi i cui valori sono conosciuti. Gli algoritmi più complessi, invece, lavorano utilizzando anche i valori dei subpixel contigui a quello che si deve ricostruire, compresi quelli di diverso colore.
L’operazione di demosaicing, per quanto possa essere sofisticata, dà luogo ad artefatti, il più comune tra i quali è noto come moire e risulta evidente quando si tenta di ricostruire qualcosa assimilabile ad un reticolo periodico utilizzando un altro reticolo periodico a diversa frequenza spaziale, oppure con differente angolo (il pattern del sensore). Nelle immagini in basso, uno schema che spiega la formazione del moire in caso di pattern con differente angolazione
e l’effetto che si determina
La presenza di questo tipo di artefatti che rientrano nella categoria di quelli classificabili come aliasing spaziale, obbligano all’uso di appositi filtri che, nella fattispecie, sono di tipo fisico, costituiti da una lente posta sul sensore che ha il compito fare quello che solitamente viene fatto dal filtro antialiasing che abbiamo imparato a conoscere negli articoli dedicati a quella tipologia di fenomeni.
In pratica, il filtro antimiore, definito anche filtro antialiasing, non fa altro che fare operazione di blurring tra 4 subpixel contigui, secondo uno schema riconducibile ad un pattern di tipo rotated grid; in tal modo, si riduce l’effetto dell’aliasing ma si rendono più morbide le immagini.
Alcuni metodi per ridurre il moire sono quelli di aumentare la frequenza di campionamento spaziale, ovvero aumentare la risoluzione del sensore, ma, oltre un certo limite, si può incorrere in problemi derivanti dalla diffrazione e si ha un incremento del rumore digitale ad alti ISO.
Alcuni produttori scelgono di implementare filtri antimoire meno aggressivi (ad esempio Pentax con la K20D) col risultato di aumentare il potere risolvente del sistema lente sensore (quella che in gergo si definisce risoluzione assoluta e si misura in LPH) ma di diminuire la risoluzione di estinzione a causa del moire.
Di concezione differente il sensore X3 di Foveon. In questo caso, si sfrutta il principio che una radiazione incidente è in grado di penetrare tanto più in profondità quanto più è grande la sua lunghezza d’onda. Quanto asserito è riportato quantitativamente nell’immagine seguente
Alle lunghezze d’onda inferiori (la cui capacità di penetrazione è molto ridotta) corrisponde la banda del blu, a quelle superiori quella del rosso. Partendo da questo principio, un sensore foveon si compone di tre strati di silicio, uno per ogni colore, nel modo seguente
Come è possibile vedere da questo schema, formalmente ogni pixel è ancora scomponibile in subpixel questa volta nel numero di 3 e disposti in verticale e non sullo stesso piano; come per il sensore bayer, è ancora necessaria l’operazione di interpolazione tra le 3 componenti cromatiche di base per ottenere la crominanza del singolo fotosito.
Quello che cambia è il fatto che, in questo caso, i subpixel di un singolo pixel sono usati solo per determinare il valore cromatico di quel pixel e non sono riutilizzati per determinare anche i valori dei pixel vicini.
Contrariamente ai filtri di tipo bayer, non è dunque necessaria l’operazione di demosaicing anche se si deve, comunque ricorrere ad un’interpolazione. Questo diminuisce l’impatto dell’aliasing e permette alle fotocamere che fanno uso di sensore X3 di non avere il filtro antimoire.
Quindi, ricapitolando e volendo schematizzare al massimo, un sensore è un collettore di fotoni a cui sono collegati dei circuiti elettronici che hanno il compito di “leggere” l’intensità luminosa per ogni componente cromatica delle tre di base, tradurla in segnali elettrici (una carica o un livello di tensione a seconda della tipologia di sensore) interpretabili da un processore che ha il compito di ricostruire l’immagine finale.
Per svolgere al meglio questo compito, la matrice di fotodiodi di cui è composto ils ensore, ha bisogno di raccogliere quanta più informazione possibile, cercando di evitare o ridurre interferenze o disturbi di varia natura (qualcuno lo vedremo le prossime settimane). A tal fine, il sensore deve essere “aiutato” tramite l’uso di lenti di buona qualità, deve avere opportune dimensioni dei fotositi, non inferiori a certe dimensioni (per evitare la diffrazione e per raccogliere il maggior quantitativo di fotoni) e, spesso, viene dotato di dispositivi, come microlenti focalizzanti, per concentrare il maggior quantitativo possibile di fotoni sulla parte fotosensibile del pixel.
Quello riportao qui sopra è lo schema tipico di un sensore, sia esso cmos, ccd, nmos (i live mos di Olympus) o X3 di foveon (qualcuno avrà notato la forma ottagonale dei pixel, il che non lascia adito a dubbi sul fatto che si tratta di uno schema di un superccd di Fuji, ma di questo parleremo in una prossima puntata).
Ovviamente, a seconda della tipologia di sensore, alcuni elementi possono o meno essere presenti: ad esempio, alcune medio formato con risoluzioni non troppo elevate, hanno sensori privi di microlenti, oppure le fotocamere (Sigma) con sensore X3 non hanno il filtro antimoire; alcune fotocamere non hanno filtro per infrarossi. In altri casi, per i sensori più “affollati” e con fotositi più piccoli, le microlenti sono di tipo gapless o, addirittura, presentano un doppio strato di microlenti, uno di tipo gapless ed uno, più interno, di tipo tradizionale, come si vede in basso
Dopo questa breve introduzione sui sensori digitali, nelle rpossime settimane approfondiremo la conoscenza sulla loro architetutra e funzionalità, introducendo anche delle distinzioni tra le varie tecnologie adottate (magari sfatando qualche mito come quello del minor costo dei sensori cmos, ad esempio); faremo un tour tra le varie soluzioni adottate per migliorare alcune delle caratteristiche basilari (risoluzione, gamma dinamica, velocità di acquisizione delle immagini, rumore ad alti ISO), facendo la conoscenza con alcuni dei parametri con cui ci si deve cimentare quando si progetta un sensore digitale.
Vedremo come alcuni produttori si siano sbizzarriti a cercare soluzioni alternative (la matrice bayer a 4 colori di Sony, quella con matrice di tipo complementare utilizzata soprattutto nelle videocamere) e daremo un’occhiata ad una delle tecnologie più promettenti, ovvero quella dei sensori di tipo back illuminated (per la serie “a volte ritornano”).
Tanti auguri a tutti.
Ho letto anche l’altro articolo sul disco di Airy. Mi scuso in anticipo se non è opportuno riportare questo commento qui.
La forma sembra del tipo sinc, ma bidimensionale. Quindi con una deconvoluzione potrebbe essere corretta: questo vale per qualsiasi effetto che può essere modellizzato con una convoluzione. Verificato questo, basta trovare la PSF (point spread function) acquisendo una sorgente luminosa il più puntiforme possibile (corrispondente alla risposta all’impulso nel campo dei segnali monodimensionali, ad esempio quelli audio) e deconvolvere l’immagine con l’immagine acquisita della sorgente puntiforme. Il problema dell’aumento della risoluzione è a questo punto ridotto solo ad un problema di rumore, perchè la deconvoluzione, se corregge un effetto del tipo passa basso, lo aumenta. Quindi a bassi ISO, a costo di un aumento di rumore, è ancora possibile ottenere una risoluzione superiore (posto che il sensore abbia sufficienti megapixel). E’ il classico compromesso risoluzione/rumore, molto critico nel campo dell’imaging medico (campo in cui lavoro), a parità di tempo di acquisizione (penso alle PET e in genere agli esami di medicina nucleare, scarsi di risoluzione e abbondanti di rumore, alle TAC, alla risonanza magnetica…)
@ bjt
ciao, la funzione è una funzione di bessel del primo tipo, parente stretta di una sinc. Il problema della deconvoluzione deriva, innanzitutto, dalla difficoltà connessa ad un’operazione che deve avvenire al volo o at runtime o on the fly, se preferisci e deve poter variare a seconda dell’apeertura scelta. Quindi si tratterebbe di un algortmo di tipo adattativo che dovrebbe, tra le altre cose, differire anche a seconda del valore di f e di quanti pixel sono coinvolti dalla convoluzione.
Guarda, ad esmepio, ad f/22, con una powershot, cosa avviene
http://www.cambridgeincolour.com/tutorials/diffraction-photography.htm
Ho letto il link.
In effetti nel mio post di prima ho totalmente ignorato la complessità computazionale. Bisognerebbe calcolare la funzione con i relativi parametri e farne la deconvoluzione. La matrice dovrebbe essere teoricamente grande quanto l’intera immagine, ma una matrice di pochi pixel dovrebbe bastare. Il problema è che la PDF varia, come hai giustamente osservato, con l’apertura del diaframma, il colore e c’è anche il problema del fatto che c’è il pattern bayer… Come correzione del primo ordine potrebbe andare bene, a patto che il processore sia sufficientemente potente. Per una DSLR ciò potrebbe essere valido. Per una compatta no. Perchè già per un kernel di poche decine di punti, su un PC ci vuole qualche decimo di secondo per fare la convoluzione, figuriamoci su un DSP. Però se si trasferisce il file RAW su un PC, è fattibilissimo farlo off-line…
Per farlo on-line anche su un DSP di una fotocamera, il kernel dovrebbe essere separabile (avere simmetria circolare). Sembrerebbe di si, a guardarlo. Se è così, la convoluzione 2D potrebbe essere spezzata in 2 convoluzioni 1-D, risparmiando tantissimi calcoli.
Ho scritto, principalmente in Matlab, vari programmini di denoising, sharpening ecc. Ma non mi ero mai posto il problema della formula che avesse il blur. Supponevo sempre che fosse gaussiano. In prima approssimazione si potrebbe anche usare una deconvoluzione con kernel gaussiano, ma leggendo i metadati sull’apertura del diaframma e i dati della fotocamera, sarebbe teoricamente possibile fare una deconvoluzione più precisa.
yossarian, finalmente un pezzo scritto anche per i non addetti ai lavori… però questa semplificazione mi pare abbia portato ad alune imprecisioni di troppo che potrebbero generare più confuzione che altro. Ad esempio:
“Nei sensori con pattern di tipo bayer, sul sensore, che è di tipo monocromatico, è applicata una maschera su cui, per ogni pixel, si attua una suddivisione in 4 subpixel, 1 rosso, 1 blu e 2 verdi”
Sembra che un fotodiodo (eviterei il termine pixel per gli elementi del sensore, che per definizione non sono elementi dell’immagine, ma credo che su questo punto potremmo dibattere per mesi, e magari sto pure sbagliando) venga suddiviso in 4 “sotto-fotodiodi”. Non è così, come si vede nell’immagine dove ogni fotodiodo riceve la luce filtrata dal rispettivo elemento della matrice Bayer.
Ancora… io non sono certo un esperto, ma mi pare di aver capito che il moirè è una forma di aliasing (“Moiré (pronounced “more-ay”) is another type of aliasing artifact – sempre cambridgeincolour), quindi perchè cambiare il comunemente accettato termine di filtro anti-aliasing o passa-basso, visto che taglia le frequenze spaziali attorno a Nyquist, con “anti-moirè” confondendo le menti meno preparate? Le reflex con sensori X3, privi di filtro AA, non soffrono di moirè perchè non devono inventarsi i colori alle frequenze spaziali più elevate, ma soffrono di aliasing… in questo caso, se avessero un filtro, il loro si chiamerebbe anti-aliasing e quello delle altre anti-moirè?
Insomma, ok i toni meno accademici ma senza rinunciare alla precisione che contraddistingue solitamente i tuoi articoli… ;)
@ Roberto
ciao, dall’immagine si vede che ogni subpixel o fotodiodo (i termini sono perfettamente intercambiabili visto che, fisicamente, si tratta di fotodiodi ma dal punto di vista “elettronico” sono visti come componenti di un pixel) viene interpolato con altri 3 per ottenere il valore di un singolo pixel. Il modo in cui vengono interpolati è indicato nella stessa figura dove si vede come da 16 fotodiodi si ricavino 9 pixel.
Quello che dici è vero, e cioè ogni fotodiodo riceve la luce filtrata dal corrispondente elemento della matrice bayer ma per poter parlare di pixel si devono interpolare i valori di 4 fotodiodi.
Ricapitolando, ogni fotodiodo riceve la luce ma non corrisponde ad un pixel; per fare un pixel si ha bisogno di 4 fotodiodi che corrispondano ai colori RGBG.
Per quanto riguarda il moire, si tratta di un tipo di aliasing spaziale. Anche le matrici X3 di foveon sono soggette a moire perchè sono sempre costituite da una griglia periodica di elementi con cui si tenta di riprodurre altre griglie di elementi con frequenze o angoli differenti. Il vantaggio del foveon è che non si fa interpolazione tra fotodiodi per ricavare un pixel, il che riduce notevolmente gli effetti visibili del moire.
Le fotocamere hanno, oltre al filtro fisico (utile a combattere principalmente il moire) sistemi di riduzione dell’aliasing di tipo elettronico. Le macchine ocn sensore foveon hanno solo questi ultimi.
Esistono dei fotodiodi che utilizzino uno spazio colore diverso dall’RGB? Sfruttando uno YUV o LAB, anche con pattern Bayer, a naso penso che si dovrebbero ottenere immagini migliori, perché l’informazione “che conta” per i nostri occhi è già codificata in maniera ottimale.
Si, ad esempio i sensori di molte videocamere hanno pattern YUV e anche su alcune fotocamere, ad esempio di Panasonic, c’è lo stesso tipo di pattern
yossarian, il dubbio mi rimane… se il sensore è da 10,3 megapixel e l’immagine finale è da 10,1 megapixel, significa che ogni fotodiodo compone un pixel nell’immagine ad eccezione del caso particolare dei bordi. Nel Raw infatti abbiamo 10,1 milioni di punti monocromatici e solo con la demosaicizzazione otteniamo 10,1 milioni di punti colorati, il cui valore è determinato dall’interpolazione dei valori dei punti adiacenti secondo l’algoritmo utilizzato. Parlando di subpixel la mente vola subito agli lcd dove c’è una risoluzione fisica in pixel, costituiti ognuno da 3 subpixel, ovvero a 2 milioni di pixel ne corrispondono 6 di subpixel…
@ Roberto
il tuo dubbio è legittimo e nasce dal fatto che stai considerando la fase dell’acquisizione. In questa fase ogni fotodiodo riceve la luce filtrata dal corrispettivo elemento della matrice e concorre, attenzione, non a formare l’immagine finale ma a fornire informazioni su come formare l’immagine finale. Questo eprchè nell’immagine finale, che è quella ricostruita (anche in raw) il colore attribuito ad ogni pixel non può derivare da uno solo dei tre componenti la matrice bayer (o YUV, ecc) ma da una somma pesata delle tre componenti. Altrimenti avresti tutti pixel monocromatici anche nell’immagine finale.
Ora, se consideriamo il numero di fotodiodi, allora la risoluzione reale e quella nominale coinciderebbero; questo non avviene mai; ad esempio, per la eos 7D la prima è pari a 18 Mpixel mentre la seconda a 19 Mpixel; la 1D Mark IV ha 17 miioni di fotodiodi ma una risoluzione di 16,1 Mpixel, ecc.
Questo perchè come pixel si assume l’elemento della matrice dell’immagine finale, ricavato interpolando le informazioni su luminanza e crominanza trasmesse dai 4 elementi fotosensibili che compongono “quello specifico pixel”
Infatti, non avviene perchè ai bordi non è possibile determinare con accuratezza il valore del pixel, è il motivo per cui nell’esempio di sesore da 16 fotodiodi riusciamo a trarre solo 9 pixel. In generale però, esclusi i bordi, ad ogni fotodiodo (che porta il valore certo di una componente) corrisponde un pixel d’immagine il cui valore è calcolato grazie a quello dei valori dei fotodiodi circostanti secondo l’algoritmo utilizzato.
Io più che di subpixel, che sembrano essere una suddivisione del fotodiodo, parlerei semplicemente di interpolazione del valore del fotodiodo per ottenere un pixel d’immagine. Ovvero, ogni fotodiodo porta solo una parte dell’informazione necessaria alla determinazione del valore RGB del pixel, le parti mancanti vengono dedotte dai valori rilevati dai fotodiodi vicini.
@ Roberto
……secondo il pattern stabilito.
Stiamo dicendo la stessa cosa usando terminologie in parte differenti.
Ti ringrazio per gli appunti e, nei prossimi post, cercherò di esporre le cose in maniera semplificata senza perdere la rigorosità a livello di terminologia.
Per quanto riguarda la semplicità, capisci bene che non in tutti in casi e per tutti gli argomenti trattati è possibile scrivere in maniera accessibile a tutti. Ad esempio, mi vengono in mente gli articoli sui bilanci energetici dei chip; in quel caso era l’argomento in sé ad essere ostico e la sua trattazione in maniera semplifcata era estremamente difficile per non dire impossibile.
yossarian resta pure sul tencnico, c’è sempre tempo per studiare quello che non si è compreso.
E poi ci sono i commenti in fondo al testo :)
Guarda che quella del Foveon non è affatto interpolazione. Le informazioni separate di \quanto verde\, \quanto rosso\, \quanto blu\ non si fondono mai tra loro, sono mantenute non solo nel file raw, ma anche nel jpeg o nel tiff. Quando il tuo software di visualizzazione legge il jpeg, ancora una volta le ha separate, e se la scheda video è collegata digitalmente col dvi al monitor, ancora una volta ha questi tre valori separati per ogni pixel. Il monitor riceve i valori separati, accende i subpixel rossi, i subpixel verdi e i subpixel blu (http://it.wikipedia.org/wiki/File:Liquid_Crystal_Display_Macro_Example_zoom.jpg). È il tuo occhio, in senso traslato, se vuoi, che li interpola come unica informazione ma il Foveon in linea teorica a dimensioni immagini effettive non ha bisogno di nessuna interpolazione (http://en.wikipedia.org/wiki/Interpolation).
@ Rocky
hai ragione
Ciao, intanto complimenti per gli articoli molto ben fatti. Sono un po’ dubbioso anche io (come lo è stato a suo tempo Roberto) riguardo alla spiegazione di Bayer che ancora non mi ha convinto. Tu dici “Nei sensori con pattern di tipo bayer, sul sensore, che è di tipo monocromatico, è applicata una maschera su cui, per ogni pixel, si attua una suddivisione in 4 subpixel”. Dunque, io non ho ancora capito cosa tu intendi per subpixel ma se con “suppixel” intendi una scomposizione del pixel in parti più piccole allora, da quello che ho capito studiando un po’ questo argomento, non c’è in realtà alcuna divisione in subpixel. Semplicemente a ogni “quadratino” corrisponde un pixel il cui colore è poi ricostruito attuando una certa interpolazione (es.: bilineare) con i “quadratini” adiacenti.
Nel caso volessi rispondermi ti vorrei proporre prima questo video-spegazione di 6 minuti che mi sembra corretto: https://www.youtube.com/watch?v=2-stCNB8jT8
Sono sicuro che sia questione di terminologia. Sarei felicissimo per una tua risposta, yossarian :)
(L’immagine dei 16 subpixel e relativi 9 pixel non la capisco :P)
Ciao Federico, la risposta è nel link che tu stesso hai postato. All’inizio del filmato, la voce “narrante” dice chiaramente che “a complete bayer set is made of four pixel of three colors, two green stacked with one blu and one red”. Quella che io definisco pixel è, di fatto, un set bayer di tipo completo; questo non significa che la risoluzione debba essere divisa per 4 perché ogni fotorecettore corrisponde ad un pixel, ma ogni recettore, da solo, fornisce informazioni solo sull’intensità luminosa relativa al colore corrispondente nella matrice sovrastante. Il che significa che non potrà mai “colorarsi” di giallo o di viola o di bianco se non viene abbinato ad altri pixel contigui di “colori diversi”. La base per questi abbinamenti è costituita dai 4 pixel (2G, 1B, 1R), ovvero il minimo indispensabile per sapere di che “colore” sarà ognuno dei 4 pixel in oggetto (ciascuno fornisce informazioni sulla colorazione degli altri). Nel filmato che hai linkato si fa l’esempio di un pixel messo in relazione con gli 8 contigui; in questo modo il calcolo risulta più accurato di quello possibile con un set bayer ma si possono coinvolgere ancora più pixel organizzati in differenti maniere a seconda del livello di accuratezza che si vuole (e si può) raggiungere. Utilizzando gli 8 fotodiodi centrali rispetto ad un pixel “target” scelto, si raddoppia il numero dei fotorecettori per ciascun colore ma questo numero può essere incrementato ulteriormente scegliendo, ad esempio, un’area nxn del sensore per “definire” il colore di ciascun pixel. Nel prosiequo del filmato fa vedere come si ricavino gli altri colori partendo dai tre di base e a ciascun colore corrisponde un pixel e viceversa. Quindi è solo una questione di terminologia: quelli che tu definisci pixel io li chiamo fotorecettori (fotodiodi o fototransistor) mentre ogni pixel è formato dalla combinazione di almeno 4 di questi fotorecettori (meglio se di più).
Salve è da qualche giorno che giro per il web per cercare di capire il funzionamento di un sensore CCD, devo dire che il suo articolo è molto esaustivo e che mi ha chiarito parecchie incertezze. Mi rimane però un dubbio sul funzionamento del CCD durante la visione notturna; dagli articoli letti in precedenza avevo capito che il filtro di Bayer lasciasse passare solo le frequenze relative ai colori rosso, verde e blu riflettendo tutte le altre tra cui l’infrarosso, quindi per la visione notturna si rende necessaria la rimozione di tale filtro in modo che l’infrarosso possa irraggiare i fotodiodi, che restituiranno un’immagine in bianco e nero. Dalla figura inserita nel suo articolo (schema tipico di un sensore) vedo che il filtro infrarosso è un componente a se, e che il filtro di bayer è situato in una posizione in cui è difficile da rimuovere. Le sarei grato se potesse darmi qualche chiarimento in merito.
Cordiali saluti
Antonio.
ciao Antonio, il filtro bayer funziona facendo passare solo la componente di luce di “quello specifico colore” ma sulla matrice bayer sono installati anche un filtro AA (oggi in molte fotocamere è assente o sostituito con un suo surrogato che permette di avere un maggior potere risolvente, riducendo o eliminando l’effetto blurring introdotto da tale filtro e che serve ad eliminare l’aliasing) e un filtro IR che serve ad eliminare le componenti di lunghezza d’onda superiore a quelle dello spettro visibile che possono alterare i colori in un normale scatto (nello spettro visibile). Per poter scattare foto nello spettro IR si deve rimuovere questo filtro. Tentare semplicemente di toglierlo da davanti alla matrice bayer è un’operazione rischiosa che rischia di danneggiare la matrice stessa se non si è molto pratici. Ci sono laboratori che si occupano di modificare le fotocamere sostituendo il blocco di filtri davanti alla matrice bayer con altri analoghi ma privi, ad esempio, del filtro AA o del filtro IR (o di tutti e due)).
Ti giro un link al riguardo
http://www.luminous-landscape.com/REVIEWS/cameras/infrared%20dslr.shtml