QNA > C > Come Fa Il Google Pixel 2 A "Dividere I Pixel" Per Eguagliare Le Prestazioni Fotografiche Di Altri Smartphone Con Doppia Fotocamera?

Come fa il Google Pixel 2 a "dividere i pixel" per eguagliare le prestazioni fotografiche di altri smartphone con doppia fotocamera?

Lo scopo originale dei pixel doppi, che risale alle prime DSLR Canon che lo usavano, è l'autofocus a rilevamento di fase. Il PDAF ti dice la direzione e l'ampiezza che sei fuori fuoco. Questo è ciò che lo rende veloce da mettere a fuoco. Per la fotografia normale, questo ottiene l'autofocus veloce e accurato di Google.

Per i ritratti di per sé - una lente più lunga per caratteristiche facciali più lusinghiere - il Pixel 2 non si confronta con due dispositivi con fotocamera. In quasi tutti i casi, la seconda fotocamera è più lenta nell'apertura e basata su un chip più piccolo, quindi è di uso limitato in condizioni di scarsa luminosità. Ma in buona luce, è un vantaggio rispetto a una sola buona fotocamera.

main-qimg-e36e5050cba1888de2e8822af637dccc.webp

Profondità di campo ridotta con una vera fotocamera.

L'altra cosa è questo trucco fotografico computazionale che's utilizzato a volte con una società's "portrait mode", il trucco della "profondità di campo ridotta". Questo è uno sforzo per sfocare lo sfondo e possibilmente il primo piano, nel modo in cui un vero obiettivo ad ampia apertura lo farà su una fotocamera a grande sensore. Questa è una tecnica creativa usata dai fotografi per isolare il soggetto dallo sfondo, ed è impossibile da fare naturalmente su un telefono, a causa soprattutto delle lenti molto corte, di solito 4-5mm, usate sulle fotocamere dei telefoni. Ottengono praticamente tutto a fuoco in un tipico scatto a distanza di un ritratto, probabilmente meno di un metro all'infinito.

Lo sforzo più sottile, che viene introdotto più comunemente nel software del telefono, è cercare di ricreare il "bokeh", una certa qualità delle parti fuori fuoco dell'immagine. C'è stato un bel po' di lavoro su questo, cercando di modellare l'aspetto dei punti di luce fuori fuoco, ecc.

Le vecchie versioni di questo hanno cercato di analizzare l'immagine e analizzare il soggetto contro lo sfondo. Queste a volte funzionavano, e a volte fallivano in modi comicamente spettacolari. I sistemi più recenti lavorano tutti sulla base di una mappa di profondità. Utilizzando due telecamere, la differenza tra le due immagini scattate con ciascuna telecamera, chiamata parallasse, può essere utilizzata per determinare la profondità. Google sta usando le sue informazioni PDAF per costruire questa mappa di profondità.

Secondo Google, il loro metodo a doppio pixel non è così buono come alcuni dei metodi di parallasse. Incorporano anche l'intelligenza artificiale nella ripresa di ritratti. Hanno un'intelligenza artificiale abbastanza sofisticata che può capire i soggetti umani per aiutare a isolarli. Per i soggetti non umani, si basano solo sulla mappa di profondità a doppio pixel e fanno ancora abbastanza bene.

Leggi di più

https://ai.googleblog.com/2017/10/portrait-mode-on-pixel-2-and-pixel-2-xl.html

Bella sfocatura per ritratti da smartphone: Come funziona l'effetto bokeh - AndroidPIT

Di Cassey

Qual è il modo più veloce per caricare un iPhone? :: È meglio Honor V10 o OnePlus 5T?
Link utili