Che risoluzione è 2560x1600?
Ha bisogno di un nome per qualcosa? Dire "2560 x 1600" ti dice praticamente tutto quello che devi sapere su questa risoluzione in pixel. Ma non a cosa serve necessariamente. Ma possiamo dedurlo e tirare a indovinare.
La risoluzione in pixel negli standard video
Scommetto che si tratta di una risoluzione per monitor. Non ha senso come risoluzione di una macchina fotografica digitale, e non è una risoluzione standard per l'elettronica di consumo, quindi probabilmente non è nemmeno legata al video. Questo è un numero di rapporto di aspetto 16:10, il che significa che è probabile che sia per un monitor di PC, non per un televisore. O forse un tablet...
I televisori e le apparecchiature video seguono le risoluzioni pixel standard dei consumatori: Alta definizione (1280x720, a volte chiamato HD o HD-720), Full High Definition (1920x1080, anche FHD o HD-1080), UltraHD-4K (3840x2160, aka "consumer 4K"), ecc. Non c'è niente di speciale nei nomi, è solo che l'industria dell'elettronica di consumo preferisce i nomi per le cose, piuttosto che avere solo specifiche.
L'industria dei computer ha fatto così per le risoluzioni dello schermo per un po': CGA, VGA, XGA, WXGA, ecc. Ma dopo un po', un nome in più diventa molto meno utile che dichiarare effettivamente la risoluzione in pixel.
In teoria, i computer e l'elettronica di consumo si sono riuniti nella Grande Alleanza, che ha riunito la televisione, i video, i CE, Hollywood e l'industria informatica sugli stessi standard, un display 16:9 a 1280x720 o 1920x1080. Naturalmente, una volta che l'accordo fu completato e l'HDTV divenne una cosa, i monitor dei computer offrivano ancora molto spesso schermi in 16:10, ma almeno si lasciavano alle spalle il 4:3. E nel tempo, il 16:10 è in gran parte scomparso, in gran parte perché la risoluzione standard CE ha portato a volumi molto, molto più alti per i pannelli di visualizzazione. Quindi qualsiasi monitor HD/FHD alla fine userebbe un pannello televisivo in 16:9.
Per i monitor mainstream dalla Grande Alleanza, l'industria dei PC lavora più o meno con quel quadro, almeno quando ne hanno voglia. Così 2560x1440 è diventato un monitor "QuadHD" abbastanza comune, 4x dello standard 1280x720. E così 2560x1600 è fondamentalmente una versione 16:10 di un monitor QHD. Questo non è mai stato uno standard industriale CE, quindi c'è meno incentivo finanziario ad attenersi al 16:9. Per la cronaca, due dei miei monitor sono 2560x1440.
E da quando la risoluzione è diventata programmabile nella grafica per PC e nell'hardware della GPU, non c'è il tipo di necessità che l'industria CE ha per gli standard. Il monitor e il driver grafico devono accordarsi sulla risoluzione in pixel, ma questo è fondamentalmente un accordo privato. Le risoluzioni CE devono essere supportate dai creatori di media: Hollywood, TV, Netflix, YouTube, Blu-ray, ecc.
Il mio altro monitor è 3440x1440, che è un display widescreen 21.5:9. Perché non 3840x1440 per un display 24:9? Solo Samsung lo sa con certezza!
Risoluzione logica vs. risoluzione fisica
Ora, naturalmente, sto parlando di risoluzioni in pixel, risoluzioni digitali, risoluzioni logiche. L'unica metrica utile per i dati in uno spazio digitale puro sono le misure logiche che si possono fare su un'entità astratta: 2560x1440 pixel a 24 bit su uno schermo senza nome, o 5184 x 3888 pixel a 12 bit nelle immagini grezze sulle schede SD della mia fotocamera.
Una volta che questo entra nel mondo reale, può avere una misura più tradizionale, analogica. La versione più antica di cui sono a conoscenza è quella dei cicli per millimetro o delle coppie di linee per millimetro usata in fotografia (e probabilmente nell'ottica prima che ci fosse la fotografia, ma io non c'ero a quei tempi). Un ciclo è una coppia luce/buio, quindi il nome alternativo "coppie di linee". Naturalmente, stiamo usando i millimetri qui perché tutti i migliori produttori di lenti erano tedeschi nei primi giorni della fotografia.
Come ho detto, questo era usato fin dai primi giorni della fotografia, ma può essere applicato oggi. Probabilmente conoscete il sensore della vostra macchina fotografica in termini di "megapixel", che vi dice la costruzione fisica del sensore e anche la risoluzione digitale in pixel dei file che la macchina produce. Ma se lo confrontate con una tabella di risoluzione ottica come questa (beh, la versione completa e correttamente stampata di questa), potreste scoprire che la vostra vera risoluzione ottica è significativamente inferiore. Questo è uno dei motivi per cui gli organismi di standardizzazione non amano l'uso della parola "risoluzione" per riferirsi ai pixel.
Un'idea simile è stata adottata per il mondo dell'elettronica. Così per un monitor, che avevo intuito essere l'obiettivo di questa domanda, si vorrebbe una misura di pixel per pollice. Certamente avrebbero potuto usare i millimetri o i centimetri, ma la rivoluzione dei personal computer è iniziata negli Stati Uniti, e noi stiamo ancora, ovviamente, usando unità di misura antiquate. Quindi diciamo che avete un display desktop 2560 x 1600 come i miei monitor di "classe 28" a casa. Questo probabilmente significa che il display è in realtà circa 27,5″ sulla diagonale, 23,3″ x 14,6″, quindi circa 109ppi. Il mio Samsung Galaxy Tab S4 ha uno schermo da 10,5″ e quel 2560 x 1600, quindi è una risoluzione di 287ppi. Il Galaxy Note Edge era un altro dispositivo da 2560 x 1600, ma con uno schermo molto più piccolo da 5,6″, si arriva a 539ppi.
Quando si lavora su una foto per la stampa, si lavora con la risoluzione, in pixel per pollice, data dal laboratorio di stampa. In generale, circa 300ppi è considerato il minimo per una stampa di qualità fotografica. Ma se hai usato una stampante a getto d'inchiostro a colori, potresti aver visto risoluzioni molto, molto alte menzionate in punti per pollice. La mia Epson Surecolor P600 dichiara 5760 x 1440 dpi. Le stampanti non stampano in pixel, ma in punti, e solo con relativamente pochi colori - la P600 ha sei colori e tre inchiostri nero/grigio. I vostri veri pixel stampati sono composti da molti, molti punti a diverse densità e dimensioni delle gocce per corrispondere almeno a una quantità ragionevole della gamma dinamica dei colori di una macchina fotografica. Che naturalmente misuriamo in bit nel mondo virtuale, ma forse in dB o f-stop nel mondo reale.
Articoli simili
- L'occhio umano vede una risoluzione 2K meglio della risoluzione FHD?
- Quale risoluzione di un Android TV Box dovrei scegliere tra 720p o 1080p per un televisore con una risoluzione di 1366x768?
- Devo impostare la risoluzione di un gioco esattamente alla risoluzione di lavoro del computer, o va bene abbassarla e alzarla?
- Che risoluzione è 200 DPI?