Il SIGGRAPH 2020 andrà a sviluppare un virtuale non è un ostacolo per la presentazione degli sviluppi più interessanti rispetto a nuove tecnologie grafici con possibili applicazioni nel mercato consumer. Quindi, se non si fa nulla, abbiamo avuto un record per il progresso di Facebook nello sviluppo di spettatori olografica della realtà virtuale, ora il dipartimento di I+D, il social network ha presentato una tecnologia il supersampling che promette di ridurre drasticamente i requisiti hardware.

L’utilizzo di tecniche di il supersampling per elevare la risoluzione grafica finale scenari di realtà virtuale non è nuovo, ma la complessità dei calcoli necessari per implementare ha fatto molti sviluppatori sono inclini a esplorare percorsi come il rendering foveado, che segue occhi per ridurre il dettaglio grafico dove l’occhio non prestare attenzione ad esso. La tecnica sviluppata da Facebook è radicalmente diverso.

Il carta inviato da Facebook di Ricerca descrive l’uso di reti neurali per inserire un immagine ad una risoluzione molto bassa, e ricostruire con fino a sedici volte più pixel, e la generazione di nuovi dettagli perso da un’intelligenza artificiale allenato con i nativi, immagini in alta risoluzione. Mettere in modo molto semplificato, il computer o il visualizzatore autonoma di rendering in realtà un’immagine a bassa risoluzione, che viene quindi ridimensionata ad alta risoluzione, utilizzando IA.

Più di un giocatore sarà di avere un déjà-vu in questi momenti. Vagamente (e anche non così grande), il funzionamento della tecnologia di Facebook è analoga per l’Apprendimento Profondo Super Campionamento o DLSS realizzata da Nvidia sul loro schede GeForce RTX, ma secondo gli ingegneri del social network, il metodo presenta un minor numero di artefatti visivi, e non fa uso di “tecnologie proprietarie e/o hardware che potrebbe non essere disponibile su tutte le piattaforme”.

La descrizione iniziale della carta dettagli il supersampling di Facebook è “facile da integrare in gioco i motori moderni”, anche se è ancora molto lontano dall’essere in grado di essere sfruttato commercialmente. Esso deve ancora essere perfezionato e c’è ancora la questione dell’hardware necessario (le prove di addestramento e neuronali generazione sono stati eseguiti con una GeForce Titan V), ma a priori mi sembra una tecnica promettente, da soli o potenzialmente in combinazione con altri come il foveado.