logo

Cosa significa HDR?

Magestic film - Produzione e post-produzione video Piacenza - Milano - conversione dcp - digital cinema package - imf - color correction

L’acronimo HDR è ormai diffuso ampiamente a livello tecnologico ed è associato in maniera quasi schizofrenica ad applicazioni foto e video, cinema, monitor per computer, TV, servizi streaming e videogiochi malgrado poche volte venga chiarito in maniera esaustiva di che cosa si tratta effettivamente.

HDR significa high dynamic range, è un termine slegato dal concetto di risoluzione e che si riferisce a immagini caratterizzate da un alto range dinamico (o ampia gamma dinamica), ovvero immagini che presentano una differenza tra dettagli scuri e dettagli chiari molto più alta risultando più ricche sia a livello di luminosità che di cromia rispetto a immagini non create e riprodotte con questo stesso standard.

Si tratta di uno standard di registrazione e riproduzione delle immagini decisamente avanzato rispetto a quello che oggi viene definito SDR, ovvero standard dynamic range, in pratica tutto ciò che non è HDR o che non lo supporta.

Nonostante la principale differenza tra HDR e SDR sia la luminosità delle immagini (un normale schermo SDR lavora a circa 100 nits, l’unità di misura della luminanza, mentre uno schermo consumer HDR può superare i 1000 nits) va detto che per ottenere un video a tutti gli effetti HDR è necessario passare attraverso processi di lavorazione genericamente complessi (parlare semplicemente di HDR è infatti decisamente riduttivo oltre che riferirsi quasi esclusivamente alla fase della riproduzione delle immagini) e che prevedono l’utilizzo di strumentazione da mastering di altissimo profilo oltre che naturalmente il possesso di uno schermo in grado di supportare questo standard per poterne godere in piena forma.

HDR video e HDR fotografico

Lo standard video HDR non va confuso però con l’HDR fotografico (utilizzato anche per la creazione delle HDRI usate per l’image based lighting in ambito CGI, ovvero l’utilizzo di una immagine HDR a 360° per illuminare la scena) nonostante vi siano molteplici somiglianze in termini concettuali. Nel mondo fotografico si parla sempre di immagini ad alto range dinamico ma è la tecnica con cui vengono realizzate a essere differente. Per creare un’immagine HDR in fotografia è necessario realizzare molteplici scatti dello stesso soggetto utilizzando esposizioni differenti (l’esposizione è la quantità di luce registrata dal sensore in un determinato lasso di tempo) in modo da ottenere informazioni dettagliate sia negli scuri che nei chiari per poi unirle ottenendo l’immagine desiderata. Si tratta per esempio della tecnica con cui qualsiasi smartphone oggi scatta fotografie HDR.

Nel mondo video funziona in maniera un po’ diversa nonostante negli anni passati alcune cineprese abbiano introdotto la tecnica di ripresa HDR utilizzando lo stesso metodo di registrazione dell’esposizione multipla (come ad esempio lo strumento HDRx delle camere RED). Oggi infatti tutte le cineprese, oltre che molte mirrorless, hanno la possibilità di registrare direttamente utilizzando uno spazio colore e una gamma dinamica che supporta nativamente una maggior ricchezza di luminosità e cromia, con la possibilità di ottenere immagini HDR senza la necessità di effettuare esposizioni multiple.

Come dicevamo la creazione di un’opera in HDR è un processo complesso e che non riguarda solo il come un video deve essere registrato e con che cosa ma anche come deve essere trattato in post-produzione e soprattutto come deve essere riprodotto dall’utente finale. Concentriamoci quindi sulla riproduzione delle immagini HDR, un concetto con cui qualsiasi possessore di TV di ultima generazione si può essere scontrato, per capire effettivamente come districarsi all’interno di un mare di termini spesso confusionari e che possono sembrar voler dire più o meno le stesse cose.

Una sola parola, molti standard

Prima di tutto va chiarito il fatto che esistono diversi tipi di standard HDR e ha sicuramente contribuito a creare confusione sia tra i normali utenti che tra gli addetti ai lavori meno informati o poco abituati a lavorare su progetti di alto profilo, e non tutti gli schermi o i televisori supportano tutti questi formati. Oltre a questo, servizi come Netflix, Amazon o Apple lavorano tutti con vari standard, diversi a loro volta da quelli adottati da provider di contenuti come ad esempio la BBC. Sempre più confusi?

HDR10, HDR10+, Dolby vision, HLG

I principali standard attualmente in uso sono HDR10, HDR10+, Dolby vision e HLG. Vediamoli velocemente nel dettaglio:

HDR10

Sviluppato dalla Consumer Technology Association, si tratta del primo standard HDR creato e in generale del più diffuso, è open source e utilizzabile quindi senza il pagamento di licenze particolari da parte dei costruttori, per questo è supportato da tutti i dispositivi HDR e da tutti i servizi streaming oltre che da videogiochi e contenuti home video. Offre naturalmente una maggior qualità visiva rispetto allo standard SDR ma non è particolarmente avanzato rispetto all’HDR10+ e soprattutto al Dolby vision principalmente a causa del fatto che supporta solamente metadati statici. Fondamentalmente va compreso che un contenuto il cui produttore ha deciso che deve essere finalizzato in HDR viene lavorato primariamente con questo standard in mente e solo successivamente ne viene ricavata una versione SDR per i dispositivi che non supportano l’alta gamma dinamica. Questa conversione viene realizzata rimappando luminosità e colori mediante l’ausilio di software e specifici strumenti e le informazioni vengono registrate sotto la forma di particolari file di testo, proprietari o meno, utilizzati poi in fase di visione per mappare correttamente l’immagine in base al dispositivo che la sta riproducendo. Nel caso dell’HDR10 questi metadati sono statici, ovvero identici per tutta la durata dell’opera, sia che vi siano scene buie o luminose, aprendo quindi le porte a potenziali problemi per utenti che non possiedono schermi particolarmente performanti o in grado di interpretare questi dati correttamente. Questi problemi sono stati invece risolti nei formati HDR10+ e Dolby Vision grazie all’introduzione di metadati dinamici in grado di rimappare le immagini da HDR a SDR (o a schermi HDR con differente luminosità) inquadratura per inquadratura adattando il video a ogni tipo di situazione di riproduzione.

HDR10+

La versione evoluta dello standard HDR10 introdotto da Samsung, supporta i metadati dinamici e funziona fondamentalmente come il suo predecessore ma non è supportato da tutti i dispositivi e da tutti i servizi di streaming. Nonostante Samsung renda disponibile l’uso di questa tecnologia gratuitamente anche ad altri produttori resta comunque per ora poco diffuso.

Dolby vision

Lo standard HDR sviluppato da Dolby, un passo deciso in avanti da un punto di vista tecnologico e attualmente il più diffuso in assoluto, supportato da molti produttori di schermi sia per computer che da salotto e adottato da servizi streaming come Netflix, Amazon e iTunes oltre che presente in videogiochi e Bluray. Supporta una maggior luminosità e metadati dinamici strutturati in modo da perfezionare la visione dei contenuti HDR masterizzati con questo profilo su una grande quantità di schermi dotati di differenti performance. Si tratta di uno standard proprietario e utilizzabile solo in partnership con Dolby. Sicuramente per ora lo standard maggiormente a prova di futuro, anche grazie alla ormai decennale esperienza che Dolby porta sulle spalle nell’ambito di ricerca e sviluppo di tecnologia cinematografica.

HLG – Hybrid log gamma

Standard gratuito sviluppato dalle emittenti BBC e NHK per la trasmissione di un segnale HDR in ambito broadcast. Qualitativamente inferiore agli standard HDR10 e Dolby vision per via della peculiarità del metodo di trasmissione e codifica, in questo caso infatti il segnale è unico, senza metadati e retrocompatibile con schermi gli SDR, per questo è tra le altre cose molto diffuso e ben supportato nonostante non sia ancora nella sua fase di completo sviluppo.

Lo stato attuale

Dolby vision è sicuramente al momento lo standard HDR più diffuso e promettente e il fatto che provider di contenuti come Netflix e Amazon lo abbiano sposato non può che aumentarne ancora di più la diffusione, da questo punto di vista la situazione ricorda un po’ la battaglia tra Bluray e HD DVD, vinta poi dal Bluray grazie alla diffusione della Playstation 3 di casa Sony, allora la prima console da gioco dotata di un lettore per questo formato.

In ogni caso nuovi formati HDR già esistono anche se ancora in sviluppo, sicuramente spicca lo standard Advanced HDR di Technicolor, una delle società più prolifiche nell’ambito dello sviluppo di tecnologia cinematografica. Si tratta di uno standard ancora non diffuso, sposato solo da LG (che attualmente supporta tutti i tipi di HDR) e che al suo interno racchiude diverse soluzioni di trasmissione (SL-HDR1,SL-HDR2,SL-HDR3) basate su HDR10 e HLG in base alla tipologia di utilizzo, certamente ne sapremo di più prossimamente non appena verrà definito effettivamente lo standard in tutte le sue caratteristiche. Attualmente non esistono contenuti fruibili in questo formato se non test demo.

In tutto l’articolo non è poi stata fatta alcuna menzione alla tecnologia utilizzata nel cinema parlando fondamentalmente solo di schermi televisivi, esistono infatti diverse soluzioni HDR anche per la sala cinematografica come Dolby EDR ed Eclair HDR ma varrebbe la pena parlarne in un prossimo approfondimento. Si tratta naturalmente di standard non solo relativi ai file digitali e a come vengono creati ma anche e soprattutto alla tecnologia di proiezione, basata principalmente su proiettori laser e schermi LED, impianti comunque ancora molto poco diffusi e presenti in particolari venues di alto profilo.

Commenti disabilitati