L’HDR appena introdotto iOS 4.1, il nuovo sistema operativo mobile di Apple , è una tecnica di fotografia digitale che consente di arricchire di dettagli le zone sottoesposte e le zone sovresposte delle fotografie. In pratica, l’immagine finale viene ricostruita a partire da diverse foto dello stesso soggetto, ognuna scattata con un’esposizione diversa; nella fattispecie, iOS usa tre immagini. Le fotografie più chiare serviranno a dare i dettagli alle aree molto scure, mentre nelle fotografie sottoesposte le zone sovresposte non lo saranno, fornendo tutti i dettagli delle aree luminose.
Un algoritmo di tonemapping si incarica di restituire i colori all’immagine finale per ottenere un risultato armonioso e il più realista possibile.
Abbiamo testato le capacità dell’HDR fornito in iOS 4.1 su un iPhone 4. Abbiamo poi chiesto il parere di Sira Ferradans e Marcelo Bertalmío, ricercatori presso l’Image Processing Group dell’Università Pompeu Fabra di Barcellona, i quali ci hanno gentilmente aiutato ad interpretare i risultati dei test.
La maggior parte delle prove presenti in rete non sembrano sfruttare le reali capacità della fotografia HDR, che dovrebbe ridare dettagli a fotografie molto contrastate o con condizioni di luce non uniforme. In seguito analizziamo diverse immagini e i limiti dell’algoritmo di Apple. La fotografia non trattata è mostrata sulla sinistra, mentre il risultato dell’HDR e del tonemapping sulla destra.
Foto in esterni
Iniziamo con il caso più ricorrente e semplice per l’algoritmo di HDR: una foto in buone condizioni di luce, scattata all’esterno. Apparentemente non vi sono grandi differenze fra la fotografia originale e l’immagine ottenuta dopo il trattamento HDR. Però si nota che i colori appaiono più naturali nella foto segnata come HDR: l’area al sole è chiara come dovrebbe essere, senza riflessi giallastri. Anche l’ombra dell’albero sembra acquistare più dettagli, inoltre a sinistra dell’albero appaiono delle nuvole che sono assenti nella fotografia non trattata.
In situazioni di luce, l’HDR di iOS 4.1 riesce a dare colori più naturali e a fornire più dettagli alle fotografie. “Un buon risultato”, ci dice Sira Ferradans, “anche se sembra che l’algoritmo di iOS dia precedenza alle zone luminose piuttosto che a quelle scure”.
Foto con alto contrasto
Abbiamo fotografato una finestra con oggetti in primo piano in penombra. L’occhio umano riesce a catturare tutti i dettagli della scena, ma in fotografia normalmente si deve scegliere se esporre l’immagine relativamente alla zona in ombra o allo sfondo ben illuminato.
Nella prima foto, abbiamo impostato l’esposizione prendendo come riferimento la zona fuori dalla finestra. Nell’immagine originale, il primo piano è scuro e senza nessun dettaglio.
In questo caso l’immagine in HDR non aggiunge quasi nessun dettaglio alla zona sottoesposta: in primo piano vi sono due piante e dei libri, ma i titoli rimangono praticamente illeggibili. Le zone luminose all’esterno (il grattacielo) sembrano perdere contrasto, mentre le zone intermedie guadagnano luminosità (le macchine parcheggiate e le foglie delle piante). Ripetendo quanto supposto prima, sono le zone luminose che guadagnano di più, come i dettagli delle nuvole che vengono risaltati.
In questa seconda foto, l’esposizione è stata impostata prendendo riferimento sugli oggetti in primo piano. Lo sfondo è completamente “bruciato” e la finestra appare come un rettangolo bianco. La versione HDR della foto ha colori più naturali per gli oggetti in primo piano e riesce a visualizzare qualche dettaglio del paesaggio esterno.
Il range dinamico della foto in HDR non è molto esteso apparentemente, in altre parole, l’intervallo fra l’immagine più oscura e quella più luminosa non è moto grande. Come risultato, non si recuperano tutti i dettagli nella fotografia finale.
Foto in controluce
In questa foto, l’ambiente era più luminoso dei casi precedenti. Infatti il soggetto in primo piano viene rappresentato con più dettagli nella foto HDR. Ma sembra ancora una volta che siano le aree più luminose a guadagnarci: il cielo acquista colore e nuvole con il procedimento HDR.
Foto in movimento
“La vera sfida dell’HDR oggi è gestire immagini di soggetti in movimento”, ci dice il dottor Bertalmío. “Per immagini statiche, la teoria dell’HDR è molto ben conosciuta ed esistono già ottime implementazioni commerciali”.
Le foto necessarie a costruire un’immagine con i dettagli arricchiti devono essere perfettamente sovrapponibili. Per questo le tre foto che usa iOS vengono scattate in rapida successione. Ma questo non basta: solo l’esposizione deve cambiare da una foto all’altra, perché se cambiasse l’apertura del diaframma (la quantità di luce che entra nell’obbiettivo per unità di tempo), cambierebbe anche la profondità di campo, rendendo gli oggetti in lontananza più o meno sfocati e quindi rendendo la foto inservibile agli scopi dell’HDR.
Nel test che riportiamo, il soggetto muoveva rapidamente le braccia. Se la foto normale scattata dall’iPhone è ottima, nella foto in HDR si vedono alcuni errori dovuti alla mancata sovrapposizione delle immagini (le mani e la manica della maglietta). Ciononostante, il risultato non è orribile e non appaiono “fantasmi” come avviene in certi altri casi: potrebbero comparire 3 mani o 3 braccia, ma questo effetto indesiderato non appare troppo evidente.
Conclusioni
L’HDR in iOS 4.1 è un ottimo prodotto, sopratutto se consideriamo che è implementato in uno smartphone. Esistono fotocamere semi-professionali che integrano le stesse tecniche (creazione di una fotografia HDR e poi ricostituzione di una fotografia LDR mediante algoritmo di tonemapping), ma il loro prezzo è proibitivo per l’utente medio, senza necessità particolari.
L’algoritmo di Apple sembra dare priorità alle zone luminose, con scarsi risultati per le aree oscure. Si otterranno buoni risultati quindi con foto in esterni piuttosto che in condizioni di poca luce.
Il range dinamico appare poco esteso, questo vuol dire che l’HDR di iOS 4.1 non ottiene buoni risultati nei casi di forte contrasto, ossia nelle foto che realmente necessitano di un trattamento HDR spinto. Questo è dovuto alle limitazioni di tempo della fotocamera e al ridotto numero di fotografie usate nel processo.
Il problema del movimento è lungi dall’essere risolto, ma i suoi effetti indesiderabili vengono mantenuti entro limiti accettabili.
Un peccato è che non si dia la possibilità di salvare tutte e tre le foto che servono a ricomporre l’immagine finale, perché vi sono ottimi programmi per computer disponibili per trattare l’HDR. In questo modo, l’utente potrebbe decidere il range di esposizione per la sua foto, scegliendo al meglio le aree da risaltare con maggiori dettagli e quali no. Sarebbe anche possibile sperimentare altri algoritmi di tonemapping, ottenendo effetti che vanno dal realistico al decisamente irreale (alcuni ottimi esempi si incontrano su Flickr).
L’HDR per iOS è un software molto buono quindi, sopratutto se consideriamo che le fotografie non vengono scattate con un tripode. Rimangono certi limiti dell’implementazione di Apple che fanno sì che l’HDR di iOS 4.1 va usato con profitto in situazioni di luce, mentre è meglio usare un altro tipo di fotocamera quando la scena è poco illuminata. Però l’impressione che ci resta è particolarmente buona per un prodotto e un dispositivo non professionali.
[ringraziamo Nir e Marco per la disponibilità e le fotografie]