QNA > Q > Quali Sono Le Altre Alternative Alla Gpu Nvidia Per L'apprendimento Automatico?

Quali sono le altre alternative alla GPU NVIDIA per l'apprendimento automatico?

Il supporto GPGPU per il machine learning è attualmente discontinuo, ma il supporto non-NVIDIA sta aumentando rapidamente.

Se avete una scheda AMD, siete fortunati per il futuro. Controllate la piattaforma ROCm di AMD, che attualmente supporta alcune importanti librerie di apprendimento automatico come TensorFlow e PyTorch. AMD ha in programma di espandere la piattaforma, quindi tenete d'occhio ROCm! Mi collegherò al loro sito[1] nelle note se siete interessati.

A prescindere dalla vostra GPU o CPU, probabilmente potete accelerare il vostro carico di lavoro utilizzando PlaidML. La loro piattaforma è open-source, ben supportata e facile da usare. Supporta Onyx, nGraph, e semplicemente modelli Keras / TensorFlow; l'unico requisito è una GPU che supporti OpenCL 1.2 come minimo.

Se avete una scheda NVIDIA da questo lato del 2005, siete a posto, poiché OpenCL viene fornito con i driver NVIDIA. Le schede AMD, alcuni core grafici basati su ARM, e anche la maggior parte della grafica integrata Intel funzionano con PlaidML. Cosa c'è di più, vi daranno dei risultati impressionanti, alla pari con quello che otterrete dalla piattaforma CuDNN di NVIDIA. PlaidML continuerà a crescere nelle prestazioni e nel supporto della GPU, quindi aspettatevi risultati decenti da qualsiasi hardware gli darete nei prossimi anni.

Vi collego alla pagina di PlaidML[2] qui sotto, e raccomando caldamente la piattaforma a chiunque lavori in Python - un'installazione pip, una procedura guidata di tre domande e una singola riga di codice nel vostro modello Keras o TensorFlow offrirà alcuni impressionanti aumenti di velocità, e non dovrete toccare una singola parte della catena di strumenti NVIDIA. Buon modellismo!

-Adam

Note

[1] https://www.amd.com/en/graphics/servers-solutions-rocm[2] plaidml/plaidml

Di Gayla Flatt

Perché NVIDIA sta assumendo ingegneri di machine learning? :: NVIDIA RTX 2070 Super è adatta al deep learning?
Link utili