Cos'è meglio, 36 bit per pixel o 24?
Direi 24. Ecco perché.
24 bit di colore significa 8 bit ciascuno per i canali R, G e B. (A volte si arriva a 32, con il quarto byte che designa il canale alfa, che codifica la trasparenza dell'immagine, ma non lo considereremo). Ciò significa che ogni pixel può avere 256*256*256=16777216 colori. Sì, quasi 17 milioni. Questo è un sacco di colori, più di quanto l'occhio umano medio possa distinguere.
Contrasta questo con il colore a 36-bit. Il primo problema è che l'elaborazione a 36 bit è una reliquia degli anni '60 e '70 e non è mai stata una cosa comune per i microprocessori; si vede davvero solo nell'emulazione di sistemi come il DEC PDP-10, che è un po' una nicchia di retrocomputing. Il secondo è che, supponendo che tu non stia usando un canale alfa, stai facendo 12 bit per ogni colore primario; che è 2^36=68719476736. Non hai bisogno di 70 miliardi di colori. Nessun occhio umano può risolvere 70 miliardi di colori. Anche se lo dividi in quattro canali, tre byte da nove bit sono ovviamente ancora più di quelli che ti servono.
Per farla breve, perché sprecare la memoria per qualcosa che i tuoi occhi non possono usare?
Articoli simili
- Perché HDR è solo 8+2 bit = 10 bit, non 8*4=32 bit quando 4K = Full HD x4 pixel?
- Perché molti programmi hanno il download di default a 32 bit invece che a 64 bit anche se la maggior parte delle persone usa finestre a 64 bit?
- È meglio un audio a 16 bit o a 24 bit?
- Perché alcuni computer portatili sono preinstallati con il sistema operativo a 32 bit quando sono capaci di 64 bit?