Cos'è il motore neurale di Apple?
Apple non ha rivelato molto sulla tecnologia, a prima vista, Apple ha incorporato il modulo simile a una GPU all'interno del loro ultimo processore per il loro nuovo smartphone per far fronte alla nuova domanda di applicazioni AI in questa nuova ondata di Deep Learning / Machine Learning.
All'inizio Apple ha abilitato le proprie funzioni di sistema, ad es. FaceID e Anmoji per sfruttare le capacità di elaborazione della rete neurale, e come la roadmap di AI per Apple diventa più chiara, lo sviluppatore dovrebbe aspettarsi che Apple si apra per l'applicazione di terze parti per utilizzare lo stesso.
Il requisito di base per l'elaborazione AI è l'esecuzione di un gran numero di operazioni di matrice contemporaneamente lasciare gli estranei una buona ipotesi questo motore neurale è realizzato per prestazioni ottimizzate con molte di queste operazioni, come un processore GPU nVidia, che è fondamentale per le prestazioni in tempo reale delle applicazioni AI mobile. Tra tutte le applicazioni AI comunemente previste, ognuna con più varianti di modelli di Deep Learning, la gente si aspetta la Computer Vision utilizzando InceptionV4, ResNet e Mask R-CNN, questi sono i compiti più impegnativi per la potenza di elaborazione neurale. E qualsiasi operazione di inferenza della rete neurale di riconoscimento visivo in tempo reale per un singolo fotogramma dovrebbe funzionare ben al di sotto dei 50-80 millisecondi. Inoltre, l'esecuzione di modelli NLP "pesanti", come ad esempio, grandi Transformer/LSTM/GRU con attenzione, attivazione del parlato e riconoscimento del parlato a bassa latenza su smartphone è molto attesa.
Per quanto riguarda i processori concorrenti e i modelli di programmazione, e considerare l'intero ciclo di vita dalla formazione all'inferenza, il mobile è ancora un'arena altamente competitiva e nessuno standard importante sta ancora uscendo, e la comunità degli sviluppatori AI in questo momento è ancora molto confusa su cosa fare per creare applicazioni AI ad alte prestazioni su mobile, cioè non c'è una soluzione chiara in questo momento.
Come Google sta dominando in TPU per la nuvola, fornendo la piattaforma di programmazione Data Science più preferita Tensorflow, e avendo la più grande quota di mercato degli smartphone con Android, vorrei suggerire a chi è interessato a Apple Neural Engine di guardare anche Tensorflow Lite, che supporta Android, Apple iOS e dispositivi embedded come Raspberry Pi troppo. Per la riduzione dell'addestramento e dell'inferenza in virgola mobile, che è comunemente FP32 su una configurazione PC standard basata su GPU, o su un server cloud AI, si deve ridurre a FP16 come nVidia TensorRT offre come soluzione, Google con Tensorflow Lite offre Quantization che è un simile approccio di trade-off che bilancia i requisiti del processore rispetto alla precisione di previsione. Credo che Apple fornirà qualcosa di simile per raggiungere lo stesso obiettivo.
Gli scienziati dei dati stanno cercando il supporto di Tensorflow, Torch e Caffe che permetta loro di eseguire applicazioni esistenti sui prodotti e sulle piattaforme di Apple senza soluzione di continuità. A meno che Apple non stia davanti alla concorrenza e fornisca una nuova libreria tensoriale personalizzata e decisamente più performante sul mercato mobile su questo nuovo motore neurale.
Articoli simili
- Cosa c'è di speciale nel chip bionico A11 e nel motore neurale dell'iPhone X?
- Come vengono impiegati di solito i modelli di rete neurale?
- Qual è la spiegazione formale del perché il modello avversario come l'attacco di un pixel funziona contro la rete neurale?
- Come potrei scegliere il valore del decadimento del peso per la regolarizzazione della rete neurale?