QNA > L > Le Fotocamere Da 64 Megapixel Fanno Davvero La Differenza?

Le fotocamere da 64 megapixel fanno davvero la differenza?

main-qimg-f7cc6f8d59577110ad0f0411dd8f6c17

Beh, sì, più o meno... le fotocamere da 64 megapixel faranno qualche differenza, ma non esattamente per il motivo che la maggior parte delle persone si aspetta. Samsung ha fatto il primo di questi chip, chiamato ISOCELL Bright GW1, che, come il 48 megapixel IMX586 di Sony, può fornire un output a risoluzione piena e ridotta.

La grande vittoria qui non è la risoluzione, ma la dimensione del chip. La GW1 utilizza celle di pixel da 0,8μm... e lo stesso vale per la IMX586. Dato che la lunghezza d'onda della luce rossa è di circa 0,7μm, ho la sensazione che le cose diventino strane se i pixel diventano molto più piccoli. E finora non è stato così - tutti questi chip ad alta risoluzione usano pixel da 0,8μm, indipendentemente dalla risoluzione. Quindi più pixel, più grande diventa il chip. Più grande è il chip, più luce raccoglie. Questa è una buona cosa™ se volete un'immagine migliore.

Quindi l'IMX586 è su un chip da 1/2″, 30,7mm², mentre la GW1 è su un chip da 1/1,7″, 43,3mm². Lo standard defacto della fotocamera principale nei telefoni oggi è il chip da 1/2.55″, che è circa 24mm². Questa è la buona notizia.

La cattiva notizia è che dovrete far crescere il tipico obiettivo grandangolare da 4,5 mm a 6 mm o più per fornire la stessa vista su questo sensore più grande. Questo è possibile, ma fondamentalmente al limite di ciò che può essere gestito con un telefono spesso circa 8 mm e con una gobba della fotocamera non troppo folle. Questo suggerisce che siamo abbastanza vicini ai limiti fisici di questo. Tuttavia, Samsung sta costruendo una versione da 108 megapixel della stessa tecnologia, che sarà su chip da 1/1.3″, circa 84mm². Questo farà un telefono più grasso o almeno una grande gobba.

main-qimg-200c227dbf4e7b162726c1ae3929f622

L'altro fattore qui che è nuovo in questa ultima corsa alla risoluzione è l'organizzazione del filtro colore. Sony lo chiama Quad Bayer, Samsung lo chiama Tetracell, ma in entrambi i casi la matrice di colore è diversa. Se si prendesse un sensore da 16 megapixel con pixel da 1,6μm e fondamentalmente si dividesse ciascuno in quattro pixel, mantenendo lo stesso filtro, si avrebbe il Tetracell di Samsung. Questo significa che, in condizioni di scarsa luminosità, i gruppi di quattro pixel lavorano essenzialmente come uno solo, consentendo un'immagine più sensibile e con meno rumore.

In piena luce, viene letta l'intera immagine da 64 megapixel. Ma non è proprio così semplice, perché il solito mosaico Bayer usato per l'interpolazione dei colori per pixel non c'è. La cosa più semplice - quella che stanno facendo ora - si chiama ri-mosaicizzazione. Mischiano i pixel in gruppi 4x4 di campioni RGGB per creare un mosaico standard Bayer che può essere inviato a un normale motore di de-bayering, a un codificatore JPEG, ecc. Tuttavia, questa rimosaicizzazione porterà a ulteriori errori di colore e alla perdita di risoluzione, oltre a quella di un sensore Bayer standard. Ma è un compromesso utile per fornire una migliore risoluzione in piena luce senza uccidere le prestazioni in condizioni di scarsa luminosità.

E c'è un ulteriore trucco. I chip Samsung hanno una lettura a doppio livello. Fondamentalmente, metà dei pixel può essere ad un livello ISO, metà ad un altro, così il chip può fornire una gamma dinamica estesa on-chip in un solo colpo, piuttosto che occuparsi della fotografia computazionale. Questa è una cosa con cui Fujifilm ha pasticciato sui sensori per un bel po', ma senza successo. Forse fa più sensore una volta che abbiamo questo tipo di risoluzione... la mia vecchia X-F1 deve scendere da 12 megapixel a 6 megapixel per offrire uno scatto HDR.

E ci sono già compagnie telefoniche che parlano di una migliore de-matrixing per la matrice Tetracell/Quad Bayer. Algoritmi più avanzati sono già utilizzati per separare l'output di un sensore Bayer in piani R, G e B separati e utilizzare i gradienti del piano intero e altre analisi intelligenti dell'immagine per interpolare, piuttosto che la più semplice interpolazione lineare dai pixel vicini come fatto nella maggior parte dell'hardware di de-matrizzazione. Quindi questo sta già producendo immagini migliori, ma può avere un po' di spazio per muoversi in direzioni migliori.

L'unico avvertimento è la quantità di dati qui. Se si guarda al Pixel di Google e agli iPhone di Apple, due delle migliori fotocamere telefoniche guidate dal software in circolazione, in entrambi i casi, l'innovazione principale nell'hardware ultimamente è stata una lettura più veloce del sensore di immagine. Questa è un'altra ragione per rimanere con i chip da 12 megapixel - sono meno dati da elaborare quando si impilano 6, 8, 15 foto per una singola immagine di calcolo. È certamente vero che questi nuovi chip possono supportare letture a risoluzione inferiore, ma stanno anche considerando la velocità di elaborazione delle immagini? Anche questo resta da vedere.

Leggi tutto

Le fotocamere dei telefoni da 64 megapixel fanno davvero la differenza?

Samsung ha appena presentato un nuovo sensore da 64 megapixel e sappiamo dove sta andando

La prima foto del sensore da 64 megapixel di Samsung è davvero impressionante

Di Edmunda Brasch

Qual è la differenza tra una fotocamera DSLR da 350 dollari con 24 megapixel e il mio telefono da 250 dollari con 48 megapixel? :: La tecnologia delle fotocamere supererà mai l'occhio umano in termini di capacità? (l'occhio umano è calcolato per osservare 576 megapixel)
Link utili