TheSpack, la qualità celata: cosa si nasconde dietro allo sviluppo del file

A volte si pensa che i profili colore siano un semplice modo per cambiare i toni della propria immagine scegliendo tra una moltitudine di filtri in fase di sviluppo, la realtà dei fatti è però molto differente.

In questa serie di articoli analizzeremo qual è l’importanza dei profili colore nel mondo dell’immagine digitale oggi, quali sono gli effetti del loro utilizzo e come interagiscono sulle immagini in fase di sviluppo.
I profili colore sono alcuni degli interpreti tra i dati registrati dalla fotocamera e il software di sviluppo utilizzato.

Questa frase, semplice e diretta ne è l’estrema sintesi: migliori sono i profili colore, migliore sarà il risultato della traduzione (ovvero la conversione) dei dati.

Vediamo ora il processo di nascita e conversione del file e cerchiamo di capire cosa succede.

 

 

Parte 1 di 4

 

IL SENSORE

I sensori hanno formalmente sostituito la pellicola analogica e sono il cuore di tutte le fotocamere digitali. Differenti tra loro, hanno la prerogativa di registrare le informazioni acquisite da una serie di micro cellule sensibili alla luce e immagazzinarle in un file.

In pratica i suddetti “pixel” non sono altro che dei piccolissimi fotoricettori che leggono la quantità di luce ricevuta che poi, tramite un sistema complesso di elettronica e software, viene tradotta in dati.
Migliore è la qualità del sensore (il complesso di fotoricettori, elettronica e software) migliore è il risultato ottenuto.

La maggior parte di questi strumenti legge la luce per quello che è, non sono in grado ad oggi di separarla in canali o colori, semplicemente forniscono dei dati di intensità. Per ovviare a questo problema, davanti ai singoli fotoricettori sono stati inseriti dei filtri colorati che modificano la luce nei colori primari della sintesi additiva ovvero RGB (rosso, verde, blu).

 

SCHEMA DI UN SENSORE CON FILTRO DI BAYER

 

La maggior parte dei sensori adotta oggi il filtro di Bayer, ovvero uno schema nel quale appaiono due pixel filtrati con il verde, uno con il rosso e uno con il blu. E qui il gioco si fa complesso.
Perché hanno messo due verdi? Chi ha avuto questa malsana idea?

In realtà non è un errore, il canale del verde aggiuntivo viene usato come verifica della luminosità e aiuta a rendere più fedele la riproduzione dei contrasti e correggere gli artefatti. Prendete questa affermazione per vera e non stiamo qui ad approfondire, il problema reale è un altro: se ho quattro pixel differenti e se ogni pixel ha un solo colore, come faccio poi a riprodurre tutte le sfumature che vi sono in pixel adiacenti?

Ecco, questo compito tocca al software di sviluppo. Un poco come un tempo l’immagine latente veniva sviluppata in camera oscura tramite un processo chimico viene ora sviluppata nel computer tramite un processo digitale. Cuore di questo processo è l’algoritmo che permette la conversione dei dati da file RAW a file raster, ovvero traduce un file non gestibile come immagine in un’immagine sviluppata.

Benché si possa pensare che le maggiori differenze tra software siano relative all’interfaccia d’uso e alle funzionalità dei medesimi, ai fini dello sviluppo, la reale differenza è ben più profonda e si chiama algoritmo di demosaicizzazione (demosaicing algorithm). Il processo di conversione da pixel di singolo colore a pixel in grado di identificare una reale sfumatura di colore costituita da tonalità, luminosità e saturazione, passa attraverso una serie di operazioni. Questo processo, ottimizzato da software a software, è la chiave e la radice della qualità del prodotto finale.

L’idea che un sistema nascosto determini le differenze qualitative tra le nostre immagini è sempre stata nota ma mai propriamente analizzata da coloro che gestiscono le fotografie digitali.

È più comodo aprire le immagini sul nostro computer e valutarle per come appaiono confrontando fotocamere tra loro differenti piuttosto che andare a fondo al problema. E il problema è tremendamente grande!

 

Come notiamo dalle immagini, differenti algoritmi producono risultati diversi tra loro, per quanto possano sembrare simili, i bordi e i dettagli mutano a seconda dell’algoritmo utilizzato e le minime variazioni incidono fortemente sui risultati finali.

Queste differenze si estendono anche agli algoritmi proprietari di ogni singolo software, pertanto non sempre quello che noi visualizziamo a monitor corrisponde alla reale potenzialità della fotocamera.

 

Torniamo un attimo al sensore, esso produce dati numerici, è un sistema di lettura della luce che immagazzina informazioni. Contrariamente a quanto si possa pensare l’immagine RAW non ha sensibilità, non ha tonalità, non ha colori, non ha bilanciamento del bianco o altre informazioni. È semplicemente un contenitore di dati, senza poesia, senza gusto, senza personalità, senza identità, ha solo delle indicazioni e preferenze scritte tra
una moltitudine di 1 e di 0, è un’immagine latente nella più chiara delle accezioni. Siamo noi in fase di sviluppo a ricalcolare tutte le informazioni e come lo facciamo? Tramite un algoritmo e un profilo colore. Le informazioni passano dalla forma latente a quella sviluppata mediante un processo il cui cuore è una funziona matematica e il cui riferimento o traduttore è un profilo colore, ovvero una serie di matrici e tabelle che consentono il controllo delle funzioni. Lo so, questa è cattiveria, come incasinare la vita di una persona e vivere felici e contenti!
Se l’algoritmo processa i dati, lo fa in funzione di parametri specifici ma disinteressandosi di altre variabili. L’algoritmo funziona allo stesso modo per tutte le fotocamere, non fa distinzione, non è clemente, accondiscendente, simpatico o flessibile. Da X va a Z sempre nello stesso modo. È una formula riproducibile all’infinito.

Ciò che varia, invece, è la fotocamera e il suo sensore, le prerogative del quale sono “tipiche” del prodotto con cui fotografiamo. Il sensore di marca A è diverso dal sensore di marca B non perché siano necessariamente prodotti da aziende differenti o semplicemente perché siano prodotti differenti, possono essere lo stesso prodotto realizzato dal medesimo produttore di sensori, ma A è diverso da B perché lo sviluppatore, ovvero colui che ha deciso di realizzare e distribuire una specifica fotocamera, ha richiesto implementazioni produttive differenti, e quali possono essere queste implementazioni? Semplice: nella maggior parte dei casi possono essere differenti filtri davanti al sensore, differenti tonalità di colore (RGB) per i singoli filtri davanti ai singoli fotoricettori, differenti tarature del sensore per ottenere una stabilità ottimale non in linea con i competitor, un differente firmware che scrive i dati in modo proprietario o ne altera le informazioni per migliorarle. Tante piccole differenze che rendono due prodotti identici alla nascita totalmente diversi tra loro nella commercializzazione finale. Questi prodotti determineranno pertanto risultati differenti con tarature differenti e sfumature colore diverse, ma qui ci viene in aiuto la logica: se due sensori non sono uguali ma l’algoritmo del software sviluppa tutto allo stesso modo, come faccio a riprodurre il colore reale? Ma soprattutto, come fa un software a capire che due sensori che lavorano in modo differente devono produrre un’immagine digitale identica?

I software, leggendo le informazioni contenute nel file, convertono per prima cosa i documenti in un proprio flusso di lavoro al fine di ottimizzare il rendimento dell’algoritmo, in seguito processano l’immagine prendendo come riferimento il profilo colore e di conseguenza ottengono la corretta miscelazione finale.

 

 

Se però ho un maglione di colore rosso, come faccio a riprodurlo correttamente e avere un colore fedele? In questo processo cosa viene modificato dal mio sensore e cosa dallo sviluppo?

La logica è ciò che ci ha sempre fregato. Beata ignoranza, quando non ti poni dubbi e accetti tutto per buono. Ecco, questa logica, queste domande, ci portano a considerare l’importanza del profilo colore, esso è il tramite tra un dato numerico e la realtà. Non è un compito da poco, qualcuno potrebbe dire che il profilo colore migliora semplicemente la fedeltà cromatica di un’immagine, vero, ma non è propriamente così. Un profilo colore può determinare la qualità di ripresa in modo inequivocabile e senza possibilità di appello, rovinando l’immagine o migliorandola durante l’apertura della stessa. E lo può fare in tutti i casi, siano essi file RAW provenienti da sensori multi-shot, con filtro di Bayer, sensori Foveon, X-Trans o altro. L’algoritmo di sviluppo e il flusso di lavoro del software interagiscono con i diversi sistemi compatibili ma non con i colori, per la loro gestione entra in campo il profilo che determina il risultato finale.

 

DIFFERENZE COLORE TRA LE FOTOCAMERE E NEUTRALIZZAZIONE CON THESPACK

Si sente parlare spesso di qualità delle lenti, qualità del sensore, correzione delle aberrazioni, latitudine di posa, lettura nelle ombre, resa tonale, tante belle cose e possiamo continuare a elencarle all’infinito facendo la lista di ciò che determina la qualità di una fotocamera secondo i più, ma c’è qualcosa che viene troppo spesso ignorata: tutte le informazioni registrate da un sensore, o vengono sviluppate in macchina e producono quindi file jpg o Tiff passando per profili e algoritmi proprietari, oppure, se vengono sviluppate su un computer per ottenere il massimo della qualità, passano attraverso un software e questo ha più impatto sulla qualità dell’immagine di un buon obiettivo o un buon sensore!

Eresia! Sicuramente qualcuno avrà gridato che questa è un’eresia, la qualità ottica, la qualità costruttiva,
il sensore, queste differenze sono inopinabili. E per questo rispondo, certo, tutte differenze inopinabili, il
massimo rende sempre al massimo, ma non dimentichiamoci la fase di sviluppo. Quella conta, è sempre stata fondamentale in fotografia.

Le dispositive sono state a lungo un esempio lampante della differenza di qualità tra i vari prodotti, ma esse stesse non erano omogenee tra loro nei vari lotti di produzione, non parliamo poi della rivoluzione compiuta dalla Fujifilm Velvia che ha imposto a molti laboratori la modifica di una linea di sviluppo per uniformarsi a esigenze differenti rispetto alle pellicole Kodak. In pratica vi erano pellicole che si adattavano e pellicole che si discostavano molto per chimici, temperature e tempi di sviluppo e questo determinava un risultato finale differente. E che dire dei negativi? Quante persone fotografavano in negativo a colori per poi ottenere le proprie stampe? La maggior parte dei fotografi portava le proprie immagini in laboratori amatoriali chiedendo un servizio economico, altri, invece, consapevoli della spesa fatta per la qualità della fotocamera acquistata, le inviavano esclusivamente a laboratori professionali. Ai tempi i risultati erano così marcatamente diversi tra loro che una pellicola scadente in un laboratorio mediocre appiattiva tutte le differenze di qualità e di valore del nostro sistema, mentre una pellicola di qualità sviluppata in un laboratorio professionale acuiva le differenze tra le fotocamere con lenti economiche e quelle con lenti di altissima qualità.

Ma la guerra commerciale nel mercato della fotografia digitale ha cancellato ogni traccia di questi ricordi, si
sono spostati gli interessi della comunicazione su valori tangibili e facilmente fruibili dai consumatori spingendo
la qualità dei prodotti a repentini miglioramenti. Megapixel, stabilizzazione, autofocus, dimensione sensore e
tanti altri “prodotti” vendibili e facilmente comprensibili dalla maggior parte delle persone sono diventati il metro di paragone della qualità prendendo piano piano il sopravvento su ciò che realmente conta e è sempre stato fondamentale in fotografia: la fase di ripresa e di sviluppo.

Si è cercato in pratica di sopperire alle lacune del mercato con un confronto tangibile fatto di dati e numeri trasmettendo l’idea che maggior risoluzione ottica e maggior numero di punti nel sensore potesse ovviare al problema della demosaicizzazione che abbiamo visto precedentemente. Purtroppo, con i troppi dispositivi
oramai adatti alla realizzazione e riproduzione di fotografie, le troppe battaglie dedicate alla guerra dei numeri, la mancanza di una formazione di base come un tempo esisteva nel doposcuola, le persone hanno perso interesse e ritrovato il piacere e la comodità in uno smartphone semplice da usare e munito di software in grado di sviluppare le immagini a piacimento, e come si è diffuso tutto questo? Con delle semplicissime pre-impostazioni. Dispositivo comodo, software di sviluppo comodo, toni selezionabili a piacimento e colori fantasiosi per ottenere qualcosa di innaturale ma visivamente coinvolgente nei pochi istanti di vita su un social network. In effetti, un dispositivo portatile e facile da usare è divenuto il portale a cui rivolgersi per avere i risultati un tempo offerti ai professionisti e ora comodamente selezionabili da qualsiasi amatore. Basta laboratori economici, lamentele e frustrazioni, ora tutto diventa gratuito, semplice e diretto e soprattutto a portata di un click.

Ma, in questo panorama, non sono venute meno le esigenze di coloro che non possono fotografare con uno smartphone, coloro che ricercano un gusto di immagine particolare, un ripresa con un’ottica ultra grandangolare, una situazione più articolata e un percorso oggettivamente differente e vogliono o devono avere senza mezzi termini una qualità ineccepibile.

Il mercato non è stato pronto a garantire a tutti questo supporto, il grande interesse verso numeri confrontabili ha fatto perdere l’attenzione a ciò che avviene in realtà, ovvero il confronto che ogni utente fa visualizzando l’immagine sul suo monitor. E in questo caso, non ottimizzando il flussi di lavoro, i software sono diventati i laboratori amatoriali sotto casa, che forniscono stampe e prodotti utili a tutti e dedicati alla massa.
Oggi abbiamo infatti diversi prodotti per lo sviluppo, ognuno con i suoi pregi e i suoi difetti, tutti dotati di stili e preset, un poco come i cellulari, ma incompleti alla base, il metro di paragone tra questi, infatti, è sempre stata l’interfaccia d’uso e non il reale flusso di lavoro.

Di solito si guarda una bella automobile per la linea e non si fa molto caso alle gomme, spesso è lo stesso brand
a far pensare che il prodotto sia eccellente solo perché è un’icona, ma come la storia insegna, le automobili come la Bugatti Veyron che superano i 400Km/h hanno potuto essere commercializzate solo dopo aver trovato gli pneumatici adatti. Sembra una banalità, ma in questo è raccolto il senso della fotografia digitale: inutile spendere cifre folli in attrezzature e cambiare i propri corredi per qualcosa di nuovo se non si sono sfruttati appieno. In effetti, il più delle volte, è come se si andasse dal laboratorio amatoriale sotto casa a chiedere uno sviluppo economico per poi lamentarsi della qualità del nostro sistema, vendere tutto e passare a un prodotto più costoso, migliorativo e teoricamente di maggior qualità… Teoricamente, però, poiché appiattendo la qualità in fase di sviluppo vengono ridotte anche le differenze tra i nostri prodotti. La domanda sorge quindi spontanea, è veramente importante l’interfaccia di un software o come questo agisce in profondità?

 

INTERFACCIA UTENTE DI ALCUNI SOFTWARE COMUNEMENTE DIFFUSI

 

 

 

Simone Bassani

TheSpack

NOC SENSEI è un modo nuovo di vedere, vivere e condividere la passione per la fotografia. Risveglia i sensi, allarga la mente e gli orizzonti. Non segue i numeri, ma ricerca sensazioni e colori. NOC SENSEI è un progetto di New Old Camera srl

Lascia un commento

error: Contenuto protetto. ©NOCSensei