L'occhio umano vede una risoluzione 2K meglio della risoluzione FHD?
Primo, per "risoluzione 2K" presumo che tu intenda una risoluzione dell'immagine di "DCI 2K", che è 2048 x 1080. Questo è lo stesso numero di pixel verticali del Full HD, ma circa il 7% in più in orizzontale. È corretto? (Il termine 2K è più generale; può riferirsi a qualsiasi immagine larga circa 2000 o 2048 pixel, con un'altezza arbitraria).
In questo caso, dipende da quanto si è vicini ai due dispositivi che stanno visualizzando l'immagine. Se la vostra distanza di visualizzazione è lo stesso multiplo dell'altezza dell'immagine per entrambi i display, allora la risoluzione angolare di entrambe le immagini è esattamente la stessa, ma il display 2K è leggermente più largo. Se la tua distanza di osservazione è lo stesso multiplo della larghezza dell'immagine per entrambi i display, allora il display 2K ha una risoluzione leggermente superiore (più pixel nello stesso angolo) ma è leggermente meno alto.
La vera ragione della differenza tra (DCI) 2K e FHD è la larghezza extra dell'immagine. Quando lo standard televisivo USA stava passando dalla definizione standard a 480 linee all'HD, la gente voleva rendere i display più larghi per essere più simili ai film. Ma la tecnologia di visualizzazione di allora era CRT, e i produttori di CRT dicevano che non potevano praticamente fare la bottiglia di vetro per CRT più larga di 16:9. (Un precedente standard giapponese per l'HDTV usava il formato 5:3 o 15:9). Così il nuovo standard televisivo divenne 16:9 o 1.78 AR, e tutti i nuovi display e telecamere per HDTV erano di quel rapporto d'aspetto. Questo rimane vero anche se non ci sono più CRT costruiti per la TV; tutto è ora costituito da pannelli piatti di qualche tipo che potrebbero essere prodotti in qualsiasi rapporto d'aspetto.
Il cinema si è convertito al digitale molto più tardi. I film non hanno usato un rapporto d'aspetto 4:3 per molti decenni, e anche 1.66 non era più comune. I rapporti d'aspetto più comuni per i film erano 1.85 widescreen (girato con lenti sferiche, chiamato "flat") e 2.39 per il CinemaScope con lenti anamorfiche (chiamato "scope"). Se il DCI (che doveva stabilire gli standard per il cinema digitale) avesse scelto lo standard HDTV esistente per il cinema digitale con il suo 1.78 AR, allora entrambi i formati di uscita dei film (che sono più larghi) avrebbero sprecato parte dell'altezza verticale del fotogramma HD su ogni film. Allargando l'immagine alla prossima potenza superiore di 2 (2048), hanno ottenuto un aspect ratio di 1.89, che è tra 1.85 e 2.39. Quindi il contenuto "piatto" 1.85 usa l'intera altezza (1080 linee) del contenitore DCI, ma non l'intera larghezza. "Il contenuto 2.39 usa l'intera larghezza (2048 pixel) ma non l'intera altezza. E apparentemente il modesto aumento della larghezza a 2048 potrebbe essere gestito da gran parte dell'attrezzatura video esistente, quindi gli standard video come SDI potrebbero ancora essere usati per trasportare le immagini.
Articoli simili
- La tecnologia delle fotocamere supererà mai l'occhio umano in termini di capacità? (l'occhio umano è calcolato per osservare 576 megapixel)
- Abbiamo bisogno di video 4K? A che punto l'aumento della risoluzione non fa alcuna differenza per l'occhio umano?
- Qual è la differenza tra '1080p FHD (18.7:9)' e '1080p FHD (60fps)'? E quale è meglio per la registrazione?
- Come influisce la luce blu di cellulari e computer sull'occhio umano?