Appunti di tecnica fotografica
 

(11) Fotografia digitale


Come funziona

Proprio come farebbe una macchina fotografica tradizionale, la macchina digitale registra un’immagine, che attraverso un sistema ottico e un otturatore, che controlla il tempo di esposizione, raggiunge un dispositivo sensibile alla luce. Solo che, in questo caso, il piano focale non è costituito da emulsione ai sali d’argento, ma da un particolare sistema elettronico.

Il CCD (Charge Coupled Device, dispositivo ad accoppiamento di carica) costituisce il primo tipo di sensore ottico utilizzato nelle fotocamere.
Il sensore, campiona la luce e la converte in segnali elettrici che adeguatamente amplificati da un circuito elettronico vengono convertiti in formato digitale, elaborati da un computer e immagazzinati su un supporto di memoria.
Attualmente anche le riprese astronomiche vengono effettuate quasi esclusivamente con speciali sensori, e i risultati sono straordinari, come dimostrano le eccezionali immagini riprese dai telescopi spaziali.
Ingrandendo notevolmente un’immagine digitale, ci si può rendere conto di come questa sia in realtà composta da un reticolo di pixel, cioè di quadratini, che le conferiscono un aspetto simile a quello di un mosaico.
Come per un mosaico ogni tessera ha un certo colore e una certa luminosità, anche ogni singolo pixel (quadratino) di una foto digitale ha una tinta specifica e una determinata intensità luminosa.
Ma essendo, le immagini, composte da milioni di punti, guardando la stampa o guardando la stessa foto ad ingrandimento normale su un monitor di computer, non si noteranno i singoli pixel che anzi sembreranno fondersi per creare un insieme continuo di luci e colori, proprio come in una tradizionale stampa fotografica o diapositiva proiettata su schermo.
I sensori della maggior parte delle fotocamere digitali seguono lo schema del reticolo a celle quadrate e perpendicolari, ad eccezione alcuni, (super CCD SR) della Fuji che hanno due elementi sensibili per ogni pixel dell'immagine, di forma ottagonale e posti in diagonale, con una disposizione simile a quella delle celle negli alveari. Con questa particolare disposizione sembra possibile ottenere risultati qualitativamente migliori dal punto di vista sensibilita'  alla luce , anche se poi in fase di elaborazione digitale i calcoli necessari per riportare il tutto ad un sistema ortogonale inseriscono alcune perdite di qualità
I sensori ottici sono costruiti con diverse tecnologie:
“CCD”, che forniscono in uscita un segnale analogico, che deve essere amplificato e convertito in formato digitale singolarmente per ogni pixel da un circuito elettronico esterno al sensore. Per questo i sistemi basati su CCD sono piu' lenti di quelli che utilizzano CMOS,
“CMOS” che forniscono un segnale direttamente in forma digitale, dal momento che al loro interno incorporano un convertitore analogico/digitale per ogni pixel, risultano più economici alla produzione, non soffrono del problema del rumore termico, ma hanno difetti dovuti alla uniformita' dei dati forniti, perche' non e' possibile costruire tanti convertitori digitali tutti perfettamente uguali.
Inoltre, questo tipo di sensore ha una certa tendenza a trattenere le ombre relative a riprese precedenti, e richiede che i costruttori adottino strategie per ottenere una sorta di cancellazione elettronica del sensore fra la ripresa di un'immagine e l'altra.
“FOVEON” utilizzato dalla “Sigma”, sempre di tipo CMOS, ma con un sistema di acquisizione dell'immagine basato su diversi strati sovrapposti, piu' simile alla pellicola fotografica e totalmente diverso dai sistemi basati su maschere filtranti colorate.
Questa tecnologia permette di acquisire per ogni pixel, tutte e tre le componenti colore, senza ricorrere a complicati algoritmi di demosaicizzazione, ed inoltre, non avendo un filtro infrarosso integrato, e' possibile asportarlo per effettuare riprese all'infrarosso.
Matrice Bayer               Foveon


Sistemi a confronto
(pro e contro)

Esistono termini di valutazione del numero di dettagli che è possibile catturare in una ripresa digitale.
Con risoluzione, parametro relativo, espresso in pixel per pollice (Ppi), si definisce la densita' di punti da cui e' formata l'immagine.
La dimensione assoluta di un'immagine digitale, e' invece data dal numero totale di pixel che la compongono.
Maggiore e' il numero di pixel che compongono un'immagie e maggiore e' la possibilita' di ingrandimento, senza mettere in evidenza il mosaico da cui e' composta.
La qualità tecnica di un’immagine digitale dipende dunque soprattutto dal numero di punti (pixel) di cui è composta?!?
Ma quanti sono i pixel necessari per far sì che un’immagine digitale si possa definire di buona qualità?
Dipende da molti fattori:
• per un’immagine da pubblicare in una pagina Web possono bastarne anche solo 100.000.
• una videocamera ha bisogno di poco più di 400.000 pixel, se ad alta definizione arriva ad un massimo di 2 milioni di pixel, dato che le immagini in movimento andranno viste principalmente su un televisore, questa dimensione risulta piu' che sufficiente.
• Se si produce un'immagine che dovra' essere visualizzata sullo schermo di un computer, si parte da mezzo milione di pixel per arrivare a 1 o 2 milioni.
• Se infine la si desidera stampare su carta di grandi dimensioni (per intendersi, 20x30 cm o superiori), e necessaria una quantita molto grande di pixel, 14 milioni e più, che possiamo ottenere dalle fotocamere amatoriali e professionali.

Risoluzioni a confronto
 
Risoluzione (punti)
Numero di punti (pixel)
Televisore 724X576 417.000
Monitor Computer (medio) 1024X768 786.482
Televisore o monitor Full-HD 1920 X 1080 2.073.600
Fotocamera digitale (compatta) 3800X2600 9.880.000
Fotocamera digitale (reflex) 4500X3000 13.500.000
Pellicola tradizionale (35 mm) 6000X4000 24.000.000
Occhio umano 11000X11000 121.000.000
Il confronto non si può fermare naturalmente alla sola quantita' di pixel catturati dal sensore, ma deve estendersi anche ad altri parametri.
Osservado il diagramma a lato, si puo' notare come un sensore digitale sia più lineare nella risposta alla luce.
Esso non soffre del difetto di reciprocità tipico delle pellicole fotografiche. Possiede un intervallo di utilizzo dove il rapporto fra sensibilità minima e saturazione è di 1:500.000, rapporto che nella pellicola è appena di 1:500, quindi capace di restituirci una quantita' di toni di grigio elevatissima rispetto ad una pellicola fotografica.
Un’immagine su pellicola tradizionale (24X36mm), in funzione della sensibilita' alla luce per cui e' prodotta, può contare su una definizione di circa 20/30 milioni di punti, cosa che i sensori più evoluti, e utilizzati in fotocamere reflex di alto livello hanno ormai raggiunto.
Sarebbe quindi logico pensare che la fotografia digitale si trovi ad avere un grosso vantaggio rispetto alla fotografia tradizionale, soprattutto per quel che riguarda le riprese in condizioni difficili di luce.
Come vedremo in seguito la realtà delle cose non è esattamente questa e dovremo tenere conto di una certa quantità di altri fenomeni più o meno influenti sulla qualità finale delle immagini prodotte.

Matrice colore
(Filtro Bayer)

A parte i sensori di tipo FOVEON che hanno tre strati direttamente sensibili ai colori Rosso,Verde, Blu, gli altri sensori non sono in grado di catturare le tre componenti cromatiche per ogni pixel dell'immagine, ma si limitano a campionare la quantità di luce presente nei vari punti dell’immagine inquadrata.
Per ottenere un’immagine a colori sono necessari alcuni artifizi di carattere meccanico-costruttivo (Hardware), e di carattere logico-matematico (Software).

Tralasciando i sistemi lenti, come i multiscansione, i più complessi e costosi sistemi a sensori multipli, prenderemo per ora in esame quello più utilizzato nelle fotocamere commerciali, sia di tipo compatto, che reflex con ottiche intercambiabili.
A livello costruttivo viene applicato, ad ogni singola cella del sensore, un filtro colorato che la rende sensibile esclusivamente a uno dei tre colori primari (rosso, verde, blu), questo insieme di filtri prende il nome di matrice filtro colore (color filter array o maschera Bayer).
Da notare che nella matrice, le celle filtrate in verde sono il doppio di quelle blu o di quelle rosse, questo per avvicinare la visione cromatica del sensore a quella tipica dell’occhio umano che è molto più sensibile al verde che agli altri colori.
Il sistema di colori primari RGB (rosso, verde, blu), è il più utilizzato, anche se alcune aziende, utilzzano il tipo di filtratura CYGM (ciano, giallo, verde, magenta). Indipendentemente dal filtro utilizzato, ciò che il sensore vede in realtà, sono una serie di immagini parziali e monocromatiche che se  venissero semplicemente combinate, darebbero un risultanto visivo ben diverso dalla realtà.

Per realizzare un’immagine a colori corretta, viene utilizzato un sistema di interpolazione matematica molto sofisticato. Per fare un esempio molto semplice diciamo che se al computer della macchina viene trasmesso un punto (pixel) di colore rosso brillante che alla sua destra ha un punto blu brillante e sopra e sotto di essi vi sono punti di colore verde brillante, ci verrà sicuramente restituito un punto bianco perché questa è l’ipotesi più probabile.
Gli algoritmi utilizzati per tutto il procedimento detto di “demosaicizzazione”, considerati i milioni di punti e il numero di sfumature che compongono un’immagine sono davvero estremamente complessi.
Un buon processo di demosaicizzazione è frutto di studi e collaudi e mentre alcune apparecchiature si limitano a testare i 4 punti adiacenti, i processi più sofisticati, analizzano regioni più vaste intorno al punto da calcolare, restituendo immagini con colori più naturali e grande quantità di particolari
.
A parita' di pixel catturati da fotocamere diverse, la precisione del processo di demosaicizzazione, contenuto in ognuna di esse, è un parametro molto determinante per la qualità delle immagini ottenute e dell’apparecchio fotografico.
Nonostante questo, resta di fatto che e' un computer con calcoli matematici e sequenze predeterminate, a decidere di che colore saranno i punti della nostra immagine.

Altro parametro determinante è il rapporto fra il numero di pixel e la dimensione del sensore elettronico. A parità di numero di pixel, è senz’altro preferibile l’apparecchitura col sensore di dimensioni maggiori, perché ad esso corrispondono celle singolarmente più grandi, con maggiore sensibilita', maggiore dinamica, minore necessità di amplificazione del segnale emesso e quindi minore introduzione di disturbi di vario genere.
Maggiore dimensione significa anche maggiore capienza e quindi, si riduce il rischio di saturazione nel caso che un elemento venga colpito da un alto valore di lunimosità.
Esiste inoltre minore possibilità di influenza parassita fra celle adiacenti.
             
<<< Indietro