Puoi suggerire uno smartphone la cui qualità video in condizioni di scarsa luminosità è impressionante?
No. Non ci sono smartphone con una capacità "impressionante" in condizioni di scarsa luminosità. Ci sono quelli che sono scarsi, quelli che sono cattivi, e quelli che sono davvero cattivi, almeno se li si confronta con una fotocamera reale decente.
La migliore fotocamera del telefono, questa settimana comunque, è quella del Google Pixel 2. Entrambi i modelli hanno la stessa fotocamera. Potete trovare altre valutazioni su DxO, sono fondamentalmente lo standard industriale per le valutazioni delle immagini delle fotocamere, ma la loro valutazione composita copre un certo numero di cose, quindi la valutazione più alta non garantisce per certo le migliori prestazioni in condizioni di scarsa illuminazione. Vedi DxOMark. Intendo praticamente "questa settimana" perché, fino a quando non sono stati testati il Galaxy Note 8 e il Pixel 2, l'iPhone 8 era la migliore fotocamera per cellulari che DxO avesse mai testato. E alcuni nuovi devono essere testati, come l'LG V30 (il mio V10 aveva il miglior punteggio per una fotocamera nel 2015, ma oggi è un po' nella media). Ogni produttore di smartphone sa che la fotocamera viene giudicata, quindi stanno tutti migliorando un po' ogni anno. Ma non vinceranno mai sulla fisica.
La fotografia riguarda la luce. Nella fotografia digitale, la vostra immagine è il risultato di fotoni raccolti da fotodiodi, che liberano elettroni per fluire e li raccolgono nel corso di un'esposizione. Su uno smartphone il rumore proviene da due fonti principali. Una è chiamata rumore di scatto - ci sono così pochi fotoni raccolti che non si ha un flusso di fotoni uniforme da pixel a pixel, anche con la stessa luce. Quindi si ottiene un modello di rumore di campo scuro che è puramente casuale. L'altro è che, quando si raccolgono così pochi fotoni, il gruppo sensore della fotocamera deve amplificare il segnale (questo è ciò che l'impostazione ISO sullo smartphone controlla), permettendo al rumore di sistema del telefono di mostrarsi come rumore casuale nell'immagine.
Per raccogliere più luce, è possibile creare un obiettivo più ampio (numero f/number inferiore) o un sensore più grande. Tutti gli smartphone moderni offrono sensori più o meno a metà tra le dimensioni dei due più piccoli mostrati qui, 1/2.3″ e 1/3.2″. La maggior parte sembra usare 1/2.6″ o giù di lì, anche se Apple stava ancora usando 1/3″ l'ultima volta che ho controllato.
Pensate a questo: con lo stesso obiettivo di apertura, una fotocamera full-frame sta raccogliendo tra 31x e 56x più luce di uno smartphone. Anche una fotocamera Micro Quattro Terzi raccoglie tra 8x e 14x di luce. E posso schiaffare un obiettivo f/1.4, f/1.2, o f/0.95 sulla mia fotocamera Micro Quattro Terzi per l'uso in condizioni di scarsa illuminazione.
Non c'è molto che possano fare. Il pubblico ha per lo più rifiutato i telefoni più spessi, ma per inserire un sensore più grande, è necessario un obiettivo di lunghezza focale maggiore. Le lenti degli smartphone di oggi sono di solito 4-5mm di lunghezza focale, bene per un telefono spesso 7-8mm. I teleobiettivi vanno a lunghezze focali più lunghe, e sì, un paio di aziende - Apple per esempio - hanno messo un obiettivo a lunghezza normale sui loro telefoni. Ma hanno un po' barato. Sono passati a un obiettivo da 6 mm, ma hanno anche abbassato il sensore a 1/3.5″ o giù di lì, il che aumenta effettivamente l'ingrandimento. E di solito sono intorno a f/2.5-f/2.8 o più lenti, poiché una lente più lunga deve avere un'apertura più ampia per fornire la stessa apertura.
L'unica cosa che ho visto di recente che potrebbe aiutare è la fotocamera monocromatica. Il P9 di Huawei e altri telefoni che hanno fatto con Leica includono fotocamere abbinate, una a colori e una monocromatica. Anche l'Essential Phone ha recentemente adottato questa configurazione. La vittoria qui viene dal filtraggio. Quei fotodiodi che raccolgono la luce non vedono il colore, solo la luminanza. Quindi, per fare un sensore di colore, si lascia cadere una serie di filtri sopra il sensore. Di solito è il Bayer Pattern, inventato da Bryce Bayer alla Kodak:
Ogni filtro taglia circa 2/3 della luce che entra nel sensore. Quindi, se si rimuove quel filtro, il sensore non può vedere il colore, solo la luminanza, ma non è circa 3 volte più sensibile, o 1 e 1/2 f-stop di miglioramento.
Tragmaticamente, né l'implementazione di Huawei né quella di Essential si sono ancora dimostrate così grandi. Ma questa è un'area in cui queste aziende possono andare. E, con un software intelligente, scattare foto a colori e monocromatiche insieme e poi fonderle come un'unica immagine migliorerà lo scatto complessivo, in particolare in condizioni di scarsa illuminazione. Questo è particolarmente efficace perché siamo più sensibili al rumore di luminanza che a quello di colore, e quindi fare la media di due scatti sulla luminanza ridurrebbe circa la metà del rumore casuale che troviamo più fastidioso.
È anche vero che il rumore nelle immagini monocromatiche è semplicemente meno fastidioso. Le foto in bianco e nero dell'epoca della fotografia classica usavano spesso pellicole sgranate per velocità più elevate (al liceo usavo sempre il Tri-X 400 per la fotografia in interni... a quei tempi, sì, ISO400 era la massima velocità a cui si voleva andare, anche se potevo spingere il Tri-X a 1600).