Quale algoritmo viene utilizzato nell'app Google Photos per la classificazione/etichettatura?
Questo è al di fuori della mia competenza principale (mi concentro sull'infrastruttura e sulla scalabilità/affidabilità) ma farò del mio meglio per descriverlo ad alto livello. Non entrerò troppo nei dettagli per evitare di fare l'errore di descrivere il sistema in modo errato o di svelare cose di cui non si è ancora parlato pubblicamente.
Il flusso di alto livello è che inviamo foto a un "sistema di riconoscimento visivo" che etichetta le foto con vari tag in base al contenuto dell'immagine. Il sistema potrebbe rispondere con tag come: "Gatto - 90% di fiducia", "Divano - 50% di fiducia", "Torre Eiffel - 80% di fiducia", ecc.
Queste etichette sono calcolate (per lo più) usando reti neurali addestrate con Google Brain. Ci sono stati alcuni articoli e documenti scritti su questo:
Come funziona il riconoscimento delle immagini di Google
Migliorare la ricerca fotografica: A Step Across the Semantic Gap
Pagina su image-net.org (pdf)
Mi scuso se la mia risposta non è soddisfacente - come sospetto debba essere per chiunque abbia un minimo di familiarità con il machine learning applicato alle immagini. Sono d'accordo che i risultati sono spesso ridicolmente buoni. Vorrei potermi prendere anche solo una piccola parte del merito :-)
Articoli simili
- L'algoritmo di Dijkstra è un algoritmo greedy o un algoritmo di programmazione dinamica?
- Quale algoritmo viene utilizzato per determinare dove appaiono geograficamente i Pokémon in Pokémon GO?
- Come unire Google Photos con Apple Photos
- Qual è il miglior strumento di etichettatura delle immagini per il rilevamento degli oggetti?