Tensorflow™ Inception v3-benchmark

LeaderGPU® is een ambitieuze speler op de markt voor GPU-computers, die de huidige stand van zaken wil veranderen. Volgens testresultaten is de snelheid van de berekeningen voor het ResNet-50-model bij LeaderGPU® 3 keer sneller dan Google Cloud en 2,9 keer sneller dan AWS (gegevens worden verstrekt voor een voorbeeld met 8x GTX 1080). De kosten voor het per minuut huren van de GPU bij LeaderGPU® beginnen al vanaf € 0,02. Dat is meer dan 4 keer lager dan de kosten voor het huren bij Google Cloud en meer dan 5 keer lager dan de kosten bij AWS (per 7 juli).

In dit artikel testen wij het Inception v3-model bij diensten zoals LeaderGPU®, AWS en Google Cloud. Wij zullen onderzoeken waarom LeaderGPU® het beste aanbod is onder de onderzochte opties.

Alle testen werden uitgevoerd met python 3.5 en Tensorflow-gpu 1.2 op machines met GTX 1080, GTX 1080 TI en Tesla® P 100 met geïnstalleerd besturingssysteem CentOS 7 en CUDA® 8.0-bibliotheek.

De volgende commando's werden gebruikt om de testen uit te voeren:

# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2(Aantal kaarten in de server) --model inception3 --batch_size 32 (64, 128)

GTX 1080-instanties

Voor de eerste test gebruiken we instanties met de GTX 1080. De testomgevinggegevens (met batchgroottes 32 en 64) staan hieronder:

  • Typen instanties:ltbv17, ltbv13, ltbv16
  • GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash:b1e174e
  • Benchmark GitHub hash:9165a70
  • Opdracht:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model inception3 –batch size 32 (optional 64)
  • Model:Inception v3
  • Testdatum:juni 2017

De testresultaten zijn weergegeven in het volgende diagram:

Inception v3 GTX 1080 test results

GTX 1080Ti-instanties

Nu gebruiken we instanties met de GTX 1080 Ti. De testomgevinggegevens (met batchgroottes 32 en 64) staan hieronder:

  • Typen instanties:ltbv21, ltbv18
  • GPU: 2x GTX 1080TI, 4x GTX 1080TI
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash:b1e174e
  • Benchmark GitHub hash:9165a70
  • Opdracht:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model inception3 --batch_size 32 (optional 64, 128)
  • Model:Inception v3
  • Testdatum:juni 2017

De testresultaten zijn weergegeven in het volgende diagram:

Inception v3 GTX 1080TI test results

Tesla® P100-instantie

Ten slotte is het tijd om het model te testen met de Tesla® P100. De testomgevinggegevens (met batchgroottes 32, 64 en 128) staan hieronder:

  • Typen instanties:ltbv20
  • GPU:GPU: 2x NVIDIA® Tesla® P100
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash:b1e174e
  • Benchmark GitHub hash:9165a70
  • Opdracht:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model inception3 –batch size 32 (optional 64, 128)
  • Model:Inception v3
  • Testdatum:juni 2017

De testresultaten zijn weergegeven in het volgende diagram:

Inception v3 Tesla P100 test results

In onderstaande tabel hebben wij de resultaten verzameld van Inception v3-testen op Google Cloud en AWS (met de batchgrootte 64)

GPU Google cloud AWS
1x Tesla K80 30.5 30.8
2x Tesla K80 57.8 58.7
4x Tesla K80 116 117
8x Tesla K80 227 230

* Gegevens voor de tabel zijn afkomstig uit de volgende bronnen:

https://www.tensorflow.org/lite/performance/measurement#details_for_google_compute_engine_nvidia_tesla_k80
https://www.tensorflow.org/lite/performance/measurement#details_for_amazon_ec2_nvidia_tesla_k80

Laten we de kosten en verwerkingstijd berekenen van 1.000.000 beeld op elke machine van LeaderGPU®, AWS en Google. Berekeningen zijn beschikbaar met een batchgrootte van 64 voor alle machines.

GPU Aantal beelden Tijd Kosten (per minuut) Totale kosten
2x GTX 1080 1000000 88m 41sec € 0,03 € 2,66
4x GTX 1080 1000000 48m 18sec € 0,02 € 0,97
8x GTX 1080 1000000 24m 18sec € 0,10 € 2,43
4x GTX 1080TI 1000000 33m 47sec € 0,02 € 0,68
2х Tesla P100 1000000 64m 18sec € 0,02 € 1,29
8x Tesla K80 Google cloud 1000000 73m 25sec € 0,0825** € 6,05
8x Tesla K80 AWS 1000000 72m 27sec € 0,107 € 7,75

** De Google Cloud-dienst biedt geen betaalplannen per minuut. De berekening van de kosten per minuut is gebaseerd op de uurprijs ($ 5.645).

Zoals uit de tabel kan worden opgemaakt, is de beeldverwerkingssnelheid in het Inception v3-model maximaal met 8x GTX 1080 van LeaderGPU®, waarbij:

de initiële kosten bij LeaderGPU® al beginnen vanaf € 1,77. Dat is ongeveer 3,42 keer lager dan bij instanties van 8x Tesla® K80 van Google Cloud, en ongeveer 4,38 keer lager dan bij instanties van 8x Tesla® K80 van AWS;

de verwerkingstijd 24 minuten 18 seconden bedroeg. Dat is 3,03 keer sneller dan bij de instanties van 8x Tesla® K80 van Google Cloud en 2,99 keer sneller dan bij de instanties van 8x Tesla® K80 van AWS.

De testresultaten laten er geen twijfel over bestaan. LeaderGPU® is een bewezen leider op het gebied van GPU-computing en biedt ongeëvenaarde oplossingen tegen redelijke prijzen. Profiteer vandaag nog van het voordelige GPU-aanbod van LeaderGPU®.