QNA > C > Cos'è Meglio, 36 Bit Per Pixel O 24?

Cos'è meglio, 36 bit per pixel o 24?

Direi 24. Ecco perché.

24 bit di colore significa 8 bit ciascuno per i canali R, G e B. (A volte si arriva a 32, con il quarto byte che designa il canale alfa, che codifica la trasparenza dell'immagine, ma non lo considereremo). Ciò significa che ogni pixel può avere 256*256*256=16777216 colori. Sì, quasi 17 milioni. Questo è un sacco di colori, più di quanto l'occhio umano medio possa distinguere.

Contrasta questo con il colore a 36-bit. Il primo problema è che l'elaborazione a 36 bit è una reliquia degli anni '60 e '70 e non è mai stata una cosa comune per i microprocessori; si vede davvero solo nell'emulazione di sistemi come il DEC PDP-10, che è un po' una nicchia di retrocomputing. Il secondo è che, supponendo che tu non stia usando un canale alfa, stai facendo 12 bit per ogni colore primario; che è 2^36=68719476736. Non hai bisogno di 70 miliardi di colori. Nessun occhio umano può risolvere 70 miliardi di colori. Anche se lo dividi in quattro canali, tre byte da nove bit sono ovviamente ancora più di quelli che ti servono.

Per farla breve, perché sprecare la memoria per qualcosa che i tuoi occhi non possono usare?

Di Simpson Epps

Cosa causa linee in uno schermo LCD? :: Come affilare una lama di rasoio diritto
Link utili