Il colore a 10 bit e l'HDR sono la stessa cosa?
No. Il colore a 10 bit significa solo dimensioni del campione di 10 bit (ciascuno) per il rosso, il verde e il blu. Le apparecchiature video digitali professionali hanno usato a lungo 10 bit nell'acquisizione video, nella commutazione e negli effetti per mantenere qualsiasi artefatto introdotto dall'elaborazione al di sotto del livello visibile. All'inizio, questi bit extra sono stati usati nel video a gamma dinamica standard. Nelle immagini fisse, le persone hanno usato 12 o 16 bit per campione quando necessario.
High Dynamic Range (HDR) cambia il modo in cui l'intensità è codificata in un'immagine. Invece di memorizzare l'immagine con una luminosità massima che è leggermente al di sopra del bianco della scena, la codifica HDR fornisce spazio per diversi f-stop aggiuntivi al di sopra del bianco di picco prima del clipping. (Ad esempio, il bianco massimo potrebbe ora essere 10 volte più luminoso del bianco opaco, invece di solo 1,3 volte il bianco opaco).
Tuttavia, 8 bit forniscono solo 256 valori di intensità diversi. Usando la codifica non lineare (correzione gamma), questo fornisce appena abbastanza codici per coprire la gamma di luminosità delle immagini a gamma dinamica standard senza vedere artefatti di banding. Quando si rende la gamma di intensità memorizzata diverse volte più grande in HDR, c'è bisogno di più bit per tenere l'intera gamma senza che i passi tra i valori di codice adiacenti diventino visibili. Così, nel video, il contenuto HDR usa generalmente 10 bit per campione (invece di 8 bit) fino al consumatore. Inoltre, le codifiche HDR passano a una EOTF (funzione di trasferimento elettro-ottico) più complessa, che è più efficiente nell'usare i bit disponibili. Ci sono diverse EOTF disponibili per questo.
Quindi, il colore a 10 bit non implica necessariamente immagini HDR, ma il contenuto a 10 bit potrebbe essere HDR. Il contenuto HDR richiede praticamente una trasmissione a 10 bit per evitare artefatti.
Articoli simili
- Perché HDR è solo 8+2 bit = 10 bit, non 8*4=32 bit quando 4K = Full HD x4 pixel?
- Perché molti programmi hanno il download di default a 32 bit invece che a 64 bit anche se la maggior parte delle persone usa finestre a 64 bit?
- Qual è la differenza tra HD, HDR, Full HD, UHD, Quad HD e HDR 10+ in TV/smartphone?
- Perché alcuni computer portatili sono preinstallati con il sistema operativo a 32 bit quando sono capaci di 64 bit?