La gamma è un'operazione non lineare utilizzata per codificare e decodificare i valori di luminosità nelle immagini fisse e in movimento. È usato per definire in che modo il valore numerico di un pixel si riferisce alla sua effettiva luminosità.
Sebbene la gamma sia estremamente difficile da comprendere nella sua interezza, è importante per i fotografi digitali capire come si applicano alle immagini. La gamma influisce notevolmente sul modo in cui un'immagine digitale appare sullo schermo di un computer.
Capire la gamma nella fotografia
Il termine gamma è applicabile in termini fotografici quando vogliamo visualizzare immagini su monitor di computer. Il concetto è importante da comprendere (anche solo in superficie) perché l'obiettivo è quello di realizzare un'immagine digitale che sia il migliore possibile su monitor calibrati e non calibrati.
Ci sono tre tipi di gamma coinvolti nelle immagini digitali:
- Image Gamma - Utilizzato dalla fotocamera o dal software di conversione delle immagini RAW per convertire l'immagine in un file compresso (JPG o TIFF).
- Display Gamma - Utilizzato dai monitor dei computer e dalle schede video per regolare l'output di un'immagine. Una gamma di display alta creerà immagini che appaiono più scure e con più contrasto.
- System Gamma - Chiamato anche 'viewing gamma', è rappresentativo di tutti i valori gamma usati per visualizzare l'immagine: essenzialmente, le immagini e le gamme di visualizzazione combinate. Ad esempio, la stessa immagine visualizzata su un monitor con una gamma di visualizzazione diversa non sarà la stessa perché la "gamma di visualizzazione" risultante è diversa.
Dalla fotocamera al monitor: come funziona la gamma
Ad ogni pixel di un'immagine digitale viene assegnato un valore che ne determina il livello di luminosità. Il monitor del computer utilizza questi valori durante la visualizzazione delle immagini digitali. Tuttavia, i monitor CRT e LCD devono fare uso di questi valori in modo non lineare, vale a dire che i valori devono essere regolati prima di essere visualizzati.
Immediatamente dalla scatola, un monitor per computer ha solitamente una gamma di 2,5. Le fotocamere DSLR più moderne riprendono con uno spazio colore di sRGB o Adobe RGB e funzionano su una gamma di 2.2.
Se lo schermo di un computer non è calibrato per corrispondere a questa gamma 2.2, le immagini di una DSLR possono sembrare troppo scure e completamente diverse dalle immagini scattate in primo luogo!
Perché la calibrazione del monitor è importante?
Per tutti questi motivi, è stata impostata una serie di standard in modo che l'immagine sul monitor assomigli alla stessa immagine sul monitor del vicino. Il processo è chiamato calibrazione e viene utilizzato per ottenere una lettura gamma specifica simile a qualsiasi altro monitor calibrato al mondo.
Nessun fotografo, sia esso dilettante o professionista, dovrebbe lavorare con le immagini senza avere un monitor calibrato. È un piccolo investimento che assicurerà che ogni fotografia che condividi online o che invii a un laboratorio fotografico per la stampa appaia come tu intendi. Non fa assolutamente bene creare un'immagine che ti sembra bella e che sembra orribile per tutti gli altri!
È possibile utilizzare una varietà di metodi per calibrare il monitor, incluse le opzioni hardware e software.
L'utente medio del computer non è in grado di calibrare il proprio monitor. Questo può rappresentare un problema per i fotografi che cercano di mostrare (o vendere) le loro immagini. Tuttavia, se il tuo monitor è calibrato, hai fatto il meglio che puoi per mostrare le tue immagini nel miglior modo possibile. Il meglio che puoi fare è spiegare la calibrazione a qualsiasi spettatore che vede un'immagine "troppo scura" o "troppo leggera".