Benchmark Tensorflow™ Alexnet

Con i suoi servizi, LeaderGPU® mira a cambiare le regole del gioco nel settore del GPU computing. Le caratteristiche di LeaderGPU® dimostrano l'incredibile velocità di calcolo per il modello Alexnet, con una velocità superiore di 2,3 volte rispetto a Google Cloud e di 2,2 volte rispetto a AWS (dati relativi a 8x GTX 1080). Su LeaderGPU®, il costo del leasing della GPU parte da 0,02 euro al minuto, una cifra inferiore di 4,1 volte rispetto a Google Cloud e di 5,35 volte rispetto a AWS (dati aggiornati al 7 luglio 2017).

In questo articolo vengono illustrati i risultati dei test per il modello Alexnet nei servizi offerti da LeaderGPU®, AWS e Google Cloud. Leggendo l'articolo, capirai i motivi per cui LeaderGPU® è la scelta ideale per rispondere alle esigenze di GPU computing.

Tutti i test sono stati svolti utilizzando Python 3.5 e Tensorflow-gpu 1.2 su dispositivi con GTX 1080, GTX 1080 TI e Tesla® P 100, con sistema operativo CentOS 7 installato e libreria CUDA® 8.0.

Per il test sono stati utilizzanti i seguenti comandi:

# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=?(Numero di schede sul server) --model alexnet --batch_size 32 (64, 128, 256, 512)

Istanze GTX 1080

Il primo test del modello Alexnet è stato effettuato con le istanze di GTX 1080. Seguono i dati dell'ambiente di test (con batch di dimensioni 32, 64, 128, 256 e 512):

Ambiente di test:

  • Tipi di istanza:ltbv17, ltbv13, ltbv16
  • GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash:b1e174e
  • Benchmark GitHub hash:9165a70
  • Comando:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4,8) --model alexnet --batch_size 32 (optional 64, 128,256, 512)
  • Modello:Alexnet
  • Data del test:giugno 2017

I risultati del test sono indicati nel seguente grafico:

Alexnet GTX 1080 test results

Istanze GTX 1080TI

Il modello Alexnet è stato quindi testato con le istanze di GTX 1080TI. Ecco i dati dell'ambiente di test (con batch di dimensioni 32, 64, 128, 256 e 512):

  • Tipi di istanza:ltbv21, ltbv18
  • GPU:2x GTX 1080TI, 4x GTX 1080TI
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash:b1e174e
  • Benchmark GitHub hash:9165a70
  • Comando:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model alexnet --batch_size 32 (optional 64, 128,256, 512)
  • Modello:Alexnet
  • Data del test:giugno 2017

I risultati del test sono indicati nel seguente grafico:

Alexnet GTX 1080 TI test results

Istanza Tesla® P100

Per concludere, abbiamo testato il modello Alexnet con le istanze di Tesla® P100. Seguono i dati dell'ambiente di test (con batch di dimensioni 32, 64, 128, 256 e 512):

  • Tipo di istanza:ltbv20
  • GPU:2x NVIDIA® Tesla® P100
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash:b1e174e
  • Benchmark GitHub hash:9165a70
  • Comando:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model alexnet --batch_size 32 (optional 64, 128, 256, 512)
  • Modello:Alexnet
  • Data del test:giugno 2017

I risultati del test sono indicati nel seguente grafico:

Alexnet Tesla P100 test results

Test simili effettuati su Alexnet con Google Cloud and AWS hanno generato i seguenti risultati:

GPU Google cloud AWS
1x Tesla K80 656 684
2x Tesla K80 1209 1244
4x Tesla K80 2328 2479
8x Tesla K80 4640 4853

*I dati forniti sono stati recuperati dalle seguenti fonti:

https://www.tensorflow.org/lite/performance/measurement#details_for_google_compute_engine_nvidia_tesla_k80
https://www.tensorflow.org/lite/performance/measurement#details_for_amazon_ec2_nvidia_tesla_k80

Passiamo ora al calcolo dei costi e dei tempi di elaborazione di 1.000.000 di immagini su dispositivi con LeaderGPU®, AWS e Google. I calcoli specificati sono relativi ai risultati più elevati dei vari dispositivi.

GPU Numero di immagini Tempo Costo al minuto Costo totale
2x GTX 1080 1000000 5m € 0,03 € 0,15
4x GTX 1080 1000000 2m 40sec € 0,02 € 0,05
8x GTX 1080 1000000 1m 46sec € 0,10 € 0,18
4x GTX 1080TI 1000000 2m 5sec € 0,02 € 0,04
2х Tesla P100 1000000 3m 15sec € 0,02 € 0,07
8x Tesla K80 Google cloud 1000000 3m 35sec € 0,0825** € 0,29
8x Tesla K80 AWS 1000000 3m 26sec € 0,107 € 0,36

*Il servizio Google Cloud non offre piani di pagamento al minuto. Il costo al minuto è stato calcolato sulla base del prezzo orario ($5.645).

Come possiamo osservare nella tabella, la velocità di elaborazione delle immagini con il modello VGG16 è la più elevata su 8x GTX 1080 con LeaderGPU®. Inoltre:

il costo del leasing proposto da LeaderGPU® parte da €1,92, inferiore di circa 2,5 volte rispetto alle istanze di 8x Tesla® K80 con Google Cloud e di circa 3,6 volte rispetto alle istanze di 8x Tesla® K80 con AWS;

la velocità di elaborazione è di 38 minuti e 53 secondi, superiore di 1,8 volte rispetto alle istanze di 8x Tesla® K80 con Google Cloud e di 1,7 volte rispetto alle istanze di 8x Tesla® K80 con AWS.

Basandoci su questi risultati, possiamo concludere che LeaderGPU® è una soluzione di gran lunga più conveniente rispetto alla concorrenza. LeaderGPU® consente di raggiungere risultati eccellenti in termini di velocità e prezzi. Noleggia subito le migliori soluzioni GPU a tariffe flessibili su LeaderGPU®!