Qualche settimana fa in occasione dell’annuncio della Blackmagic URSA PRO 12K un amico ha lanciato sul piatto un quesito che ci ha subito fatto accendere la lampadina dell’interesse, parlando infatti di alta risoluzione si è posto il problema di dove andremo a finire, la corsa alla definizione sempre più alta porterà a produrre sensori in grado di registrare immagini composte da un numero sempre maggiore di pixel? Ieri 4K, poi 8K, a breve 12K, poi? Quindi l’idea, possibile che anche il futuro delle immagini riprese risieda nel vettoriale? Si tratta di un quesito interessante e potrebbe trattarsi della svolta definitiva, una tecnica per slegarsi definitivamente dal concetto di risoluzione di ripresa tenendo conto esclusivamente del medium di riproduzione, esattamente come già oggi viene fatto nella grafica pubblicitaria o in alcuni tipi di animazione. Ma quanto è concreta questa possibilità? Facciamo un passo indietro.
Le immagini si dividono in due categorie principali, raster o vettoriali. Un’immagine raster è composta da una griglia di pixel con valori di luminosità e cromia differenti. Ogni camera digitale attualmente sul mercato produce immagini di questo tipo, che sono sempre comunque legate a livello di dimensioni alla quantità di pixel contenuti nell’immagine generata dal sensore. Un’immagine raster può senza problemi essere ridotta in dimensioni senza alcuna perdita di qualità ma non può essere ingrandita. Un’immagine vettoriale invece è renderizzata in tempo reale dal software che la interpreta e riproduce ed è composta da tracciati descritti da formule matematiche che ne rappresentano forma, posizione, dimensione e colore invece che da pixel. Questo metodo di rappresentazione grafica slega l’utente dal concetto di risoluzione con la possibilità di lavorare a qualsiasi dimensione senza perdite di qualità esportando direttamente i progetti in formati vettoriali, destinati ad esempio alla stampa, o raster per applicazioni video o web.
Nonostante poi il vettoriale sia quasi esclusivamente relegato al mondo delle immagini statiche esistono eccezioni anche per quanto riguarda quelle in movimento, basti pensare a formati per animazione come Flash o al mondo della grafica 3D in tempo reale dei videogiochi, le mesh che compongono gli asset sono infatti costantemente descritte da formule matematiche e sono scalabili anche in termini di risoluzione dinamicamente, lo stesso vale nell’ambito della grafica pre-renderizzata per il cinema o per le animazioni digitali, fino al momento in cui il progetto viene finalizzato quasi tutto è costantemente descritto da algoritmi e rientra concettualmente nella categoria di vettoriale. Tecnicamente si potrebbe anche dire che gli stessi codec che rappresentano i segnali e le informazioni all’interno dei formati più conosciuti siano vettoriali, il problema è che la loro capacità di descrizione si limita alla qualità e alla risoluzione del materiale sorgente, non possono infatti aggiungere informazione dove non esiste, al limite possono interpretarla o interpolarla – detto in parole povere ma in effetti è ciò di cui consiste la compressione – ma non possono creare qualcosa che non sia già disponibile in origine.
Ma allora come mai anche un’immagine ripresa non può essere vettoriale?
In realtà non è scritto da nessuna parte che una camera non sia in grado di produrre immagini vettoriali, semplicemente al momento ancora non esiste, andrebbe completamente ripensata la tecnologia con cui avviene la ripresa, i normali sensori digitali infatti lavorano esattamente restituendo immagini composte da pixel rossi, verdi e blu grazie alla presenza di particolari e minuscoli fotodiodi in grado di trasformare gli impulsi luminosi catturati in segnali elettrici. Con la tecnologia attuale non è quindi possibile generare immagini vettoriali direttamente in camera ma sono convinto che non sia un’idea così impensabile e credo che questa possa effettivamente essere una possibilità per il futuro della tecnologia multimediale, provate a immaginare un mondo in cui è possibile riprendere qualsiasi soggetto e decidere successivamente a quale risoluzione lavorare. Semplicemente incredibile da un punto di vista tecnologico e creativo.
Il codec vettoriale
Abbiamo comunque la certezza comunque di non essere i primi a fare qualche ragionamento, nel 2012 infatti alcuni ricercatori dell’Università di Bath in Inghilterrà hanno presentato un paper relativo a un codec vettoriale in grado di descrivere le immagini con linee e colori invece che con pixel. Cliccando QUI è possibile leggere il comunicato stampa originale e QUI è possibile visionare un filmato di test, purtroppo di scarsissima qualità, presentato lo stesso anno presso la European Conference on Visual Media Production. Non sono reperibili ulteriori informazioni. I ricercatori ci lasciano con riflessioni riguardo la necessità di coinvolgere ulteriori società nello sviluppo del codec e nessun aggiornamento in questi ultimi 8 anni, non fa certamente ben sperare ma allo stesso tempo sappiamo che almeno in linea teorica, se non addirittura pratica, l’esistenza di un codec di fruizione totalmente vettoriale è possibile.
La luce e lo spazio
Sempre nel 2012, la società Lytro ha commercializzato la prima fotocamera in grado di riprendere registrando informazioni di profondità della scena. Una tecnologia chiamata Light field in sviluppo fin dai primi anni ’90 con cui è possibile modificare il fuoco di porzioni di immagine anche in post-produzione. Un’operazione possibile grazie alla presenza di una griglia di lenti multiple poste di fronte al sensore, essenziali per catturare la luce proveniente da varie direzioni.
Successivamente, nel 2015, l’azienda ha presentato il prototipo di una cinema camera destinata a produzioni cinematografiche, effetti visivi e realtà virtuale. La camera era fondamentalmente in grado di riprendere gli oggetti registrandone la posizione nello spazio senza trasformarli in pixel ma mantenendo la loro essenza di dati tridimensionali. Nel video di presentazione rilasciato dalla società appariva chiaro come fosse possibile manipolare i dati in post-produzione e non solo modificare il fuoco della scena ma anche cambiare liberamente impostazioni di otturazione, frequenza di fotogrammi e soprattutto mascherare senza problemi alcuni oggetti presenti sul set alterando in totale libertà colori e fondali. Una sorta di rappresentazione olografica CGI della scena ripresa, renderizzata continuamente in tempo reale in base alle impostazioni in uso. QUI una video intervista realizzata con Lytro da No film school al NAB 2016. Nel filmato è possibile anche vedere alcuni test di post-produzione realizzati grazie a un plug-in scritto per Nuke.
Lytro oggi non esiste più – anche se altre camere Light field di tiro più basso sono state realizzate per uso industriale, AR e VR ad esempio dalla società Raytrix – e il progetto per la cinepresa sembra sia stato abbandonato dopo la chiusura della società nel 2018. Sicuramente si trattava di una tecnologia acerba caratterizzata da costi di sviluppo enormi e impossibili (o insensati) per essere sostenuti a cuor leggero, crediamo però che senza volerlo fossero state gettate le basi per quello che potrebbe effettivamente essere il passo verso il vero vettoriale nelle immagini riprese. Prima di tutto, da quello che sappiamo queste camere erano in grado di registrare la luce mantenendo le informazioni relative agli oggetti senza alcuna restrizione qualitativa dal punto di vista del segnale, oltre a questo erano in grado di tracciarne i movimenti nello spazio e di conoscere lo spazio stesso in cui essi si muovevano e agivano; certo non abbiamo grandi certezze sull’effettivo funzionamento di questa tecnologia ma a noi il risultato di una ripresa con questa macchina ricorda tanto ciò con cui oggi siamo abituati a lavorare utilizzando un qualsiasi scanner 3D per la creazione di asset digitali: una massa di punti colorati disposti in un ambiente 3D da cui è possibile ricavare modelli ad alta risoluzione degli oggetti. Un altro punto a sfavore della cinepresa digitale Lytro è stata sicuramente la potenza computazionale richiesta per elaborare le immagini in post-produzione, si parlava infatti di quantità enormi di dati al secondo e addirittura di un server rack direttamente collegato alla macchina per poterne garantire l’operatività, qualcosa che oggi decisamente non viene ricercato in termini di flessibilità nel flusso di lavoro di un progetto…
Quindi, un po’ come è possibile scansionare una scarpa trasformandola in una mesh perfettamente texturizzata crediamo sia possibile con il tempo arrivare a digitalizzare una scena con la stessa tecnologia o quasi, non crediamo nemmeno si tratti di una prospettiva così lontana, soprattutto in questo particolare momento storico in cui la realtà virtuale sta veramente iniziando a prendere il sopravvento sulla cinematografia canonica grazie agli enormi risultati ottenuti sul fronte dei motori grafici, basti pensare alle molteplici applicazioni di software real-time come Unreal engine e Unity, originariamente pensati per lo sviluppo di videogiochi ma sempre più utilizzati anche per importanti produzioni cinematografiche e televisive come la recente serie TV Disney The mandalorian.
Non meno importante potrebbe rivelarsi inoltre l’influenza dello sviluppo di intelligenze artificiali a cui siamo abituati ormai da alcuni anni, tecnologie già ampiamente utilizzate nei più svariati settori con altrettante innumerevoli funzioni. Quale migliore applicazione di un IA se non la perfetta ricostruzione di porzioni mancanti di un’immagine a partire da un database nutrito di asset da cui trarre ispirazione?
Certo siamo ancora lontani da uno scenario di questo genere, i produttori di cineprese continuano a inseguire la massima risoluzione possibile e il miglior range dinamico con i propri sensori ma credo che non sia così impensabile abbandonare questi concetti, concentrarsi esclusivamente da un punto di vista creativo, semplicemente pensare “dove dobbiamo proiettarlo?” e cliccare Export.