Qual è la differenza tra 4k HDR e 4k?
(Supponendo UHD, dato che HDR è una cosa UHD/Rec.2020, non una cosa 4K/cinema)
TL;DR: HDR = 12-bit per componente, EDR=10-bit per componente, unmarked = sconosciuto o 8-bit per componente.
HDR sta per High Dynamic Range. Tecnicamente, si riferisce al numero di bit per pixel. Il numero di bit (bit per componente) è essenzialmente il numero di passi tra off e on per ogni componente (rosso, blu, verde) che fanno i pixel sul display. Ogni bit raddoppia il numero di passi. Pensate ad un interruttore della luce. La maggior parte degli interruttori della luce sono a 1 bit: la luce è accesa o spenta al 100%. Diciamo che c'è un dimmer che ha 2 impostazioni tra on e off: 33% e 66%. Ora avete 4 impostazioni: off, 33% on (dim), 66% on (bright), 100%on (brightest). Quattro impostazioni sono 2 bit. Con un'immagine a 8 bit, ci sono 256 posizioni sul dimmer.
L'HD doveva essere a 10 bit. Le apparecchiature professionali erano per lo più a 10 bit. I televisori di consumo erano di solito a 8-bit o 6-bit. Per un componente in un pixel, un display a 10-bit ha 1024 passi, inclusi on e off. Un display a 6 bit ha solo 64 passi.
L'UHD doveva essere a 12 bit. (4096 passi). Tuttavia, i produttori si sono lamentati che era troppo costoso costruire display a 12 bit, così hanno iniziato a fare TV UHD a 8 bit. Molti produttori hanno ora rilasciato alcuni modelli di fascia alta con display a 10-bit. AFAIK, nessuno ha rilasciato un display consumer a 12-bit.
Oggi nel mercato UHD ci sono TV che sono a 8-bit e 10-bit (e alcuni monitor professionali che sono a 12-bit). Ma il contenuto deve essere creato alla stessa profondità di bit, o non c'è alcun beneficio per un televisore con una maggiore profondità di bit. Il contenuto marcato HDR è codificato con (una specie di) 12-bit per componente, EDR o HDR10 - (grazie Ryan) a 10-bit per componente, e se dice solo 4K o UHD, la profondità di bit è sconosciuta, ma è probabilmente 8-bit, specialmente se sta usando il codec AVC (MPEG4). Per il contenuto, è abbastanza semplice. Per i televisori, ci sono siti web che testano i pannelli e riportano la loro profondità di bit. Etichette come "HDR Ready" su un televisore di solito significano che gli ingressi HDMI accetteranno un segnale HDMI HDR, ma il display non è un display HDR... il televisore butta via i passaggi extra.
Articoli simili
- Qual è la differenza tra HD, HDR, Full HD, UHD, Quad HD e HDR 10+ in TV/smartphone?
- Qual è la differenza tra full HD & HDR smart TV LED?
- Qual è la differenza tra HDR e full HD?
- Qual è la differenza tra HDR e Ultra HD 4K in Netflix?
- Qual è la differenza tra HDR, P3, Rec. 709 e Rec. 2020? Come influisce sui monitor che stiamo usando come OLED, IPS, LED e LCD?