Qual è il miglior portatile da acquistare nel 2021 per l'apprendimento profondo?
Dipende interamente dal vostro carico di lavoro,
Diciamo che siete specializzati nell'elaborazione del linguaggio naturale, la maggior parte dei recenti progressi in NLP è basata su modelli basati sull'auto-attenzione (Language Modeling). Se doveste mettere a punto questi modelli per il vostro specifico dominio di dati, avreste bisogno di una grande GPU. Ci sono due cose da notare qui, per adattare il modello alla memoria della GPU durante l'addestramento è necessario cercare quella che ha una buona quantità di VRAM e poi, quanto velocemente si può elaborare ogni batch dipende dal numero di cuda core (non tensor core) disponibili sulla vostra GPU. Potete facilmente controllarli nelle specifiche della vostra GPU.
Se state cercando di fare solo inferenza per grandi modelli, cosa di cui dubito, allora vedete che tipo di modelli usate quotidianamente e controllate il loro utilizzo della GPU per avere una comprensione di base del consumo di risorse, (usate GoogleColab) e poi decidete.
Parliamo della CPU, è molto importante avere una buona CPU multi-core, soprattutto se non siete in grado di acquistare una GPU che abbia una VRAM più alta, allora i vostri modelli ricadranno nell'implementazione della CPU e useranno la vostra CPU per l'allenamento e l'inferenza. Potreste non essere in grado di addestrare alcun modello linguistico (ci vogliono giorni per l'epoch), ma dovreste essere in grado di addestrare modelli con pochi milioni di parametri. Insieme a questo, la CPU multi-core è anche necessaria per pre-elaborare i dati o fare alcuni calcoli che non possono essere fatti sulla GPU. Se si parla di scelte tra AMD o Intel, è una chiamata difficile, ci sono molte librerie python che utilizzano la libreria MKL di Intel, in questi casi i processori Intel brillano, ma le CPU AMD sono buone anche in molti altri casi. Suggerirei di andare con Intel. Beh, la velocità di clock e il numero di core (idealmente 6 o più core) dipende interamente dal budget. Se puoi avere più core, allora puoi fare più cose in parallelo. Se hai una buona GPU, vai con l'i5 di decima generazione, altrimenti è preferibile l'i7. Tenete a mente la generazione di CPU, cercate di andare per una gen più recente.
Ora, veniamo alla RAM. Se avete una RAM più grande, allora può gestire/tenere una maggiore quantità di dati in memoria, il che porta a un'elaborazione più veloce e al tempo di formazione. Idealmente, una ram DDR4 dovrebbe essere un'opzione. C'è anche la velocità della RAM (idealmente intorno a 2666mhz+), se hai una RAM più veloce, più dati possono essere alimentati da e verso la CPU, ma è meglio avere più RAM che una RAM più veloce. Se hai una RAM più veloce, le pipeline di dati saranno più veloci durante la formazione del modello, più RAM porta a tenere il set di dati in memoria che è abbastanza veloce rispetto alla lettura da disco (anche da un ssd sarà lento). Cercate di trovare un equilibrio in base al budget.
Anche il disco gioca un ruolo cruciale durante il caricamento dei dati, suggerirei sicuramente di andare con un SSD (se potete permettervelo) piuttosto che un HDD, specialmente se state pensando di andare per un portatile. So che gli HDD sono più economici e offrono maggiori opzioni di archiviazione, ma credetemi, lungo la strada mi ringrazierete per avervi suggerito di prendere un SSD.
P.S. Io spenderei il 50-60% del mio budget sulla GPU, e dividerei il resto su altri componenti. E, andrei con il desktop a causa della flessibilità di aggiornamento dei componenti, dal momento che il panorama del deep learning sta cambiando abbastanza velocemente.
Articoli simili
- Qual è attualmente la migliore GPU per l'apprendimento profondo?
- Quali sono alcune scoperte recenti e potenzialmente imminenti nell'apprendimento profondo?
- Qual è la differenza tra apprendimento supervisionato e apprendimento per rinforzo?
- Qual è il miglior portatile da gioco economico da acquistare nel 2021 in India?