La Nvidia GTX 1660 Ti CUDA è compatibile e pronta per l'apprendimento automatico?
Realisticamente parlando, qualsiasi scheda NVIDIA GTX degli ultimi 5 anni circa con un prezzo superiore ai 100 dollari può fare machine learning abbastanza bene. Tuttavia, con le nuove schede RTX, NVIDIA ha aggiunto i "Tensor Cores", chip fatti apposta per accelerare l'apprendimento automatico.
Purtroppo la 1660 Ti non ha questi chip, tuttavia la GTX 1660 Ti è ancora molto buona per il machine learning. La cosa principale da guardare quando si considera se una GPU si comporterà bene nel training di apprendimento automatico è la larghezza di banda della memoria. L'addestramento all'apprendimento automatico implica prendere una grande matrice di dati e regolare i pesi di ogni variabile nella matrice. (Per "grande matrice" intendo lo strato di input; per "pesi", sto parlando degli strati nascosti).
Questi aggiustamenti sono costantemente tenuti nella memoria della GPU, quindi assicurarsi che la GPU abbia (1 abbastanza memoria e (2 un grande memory-bus è MOLTO cruciale. La GTX 1660 Ti ha entrambi i requisiti. Ha 6GB di GDDR6 VRAM e un bus di memoria a 192-bit, che (almeno per l'esecuzione dei giochi) è MOLTO buono!