Tensorflow™ – VGG16-Benchmark

LeaderGPU® – ein revolutionärer Service, der es Ihnen ermöglicht, GPU-Computing aus einem neuen Blickwinkel zu betrachten. Die Geschwindigkeit der Berechnungen für das VGG16-Modell in LeaderGPU® ist im Vergleich zu Google Cloud 1,8-mal und im Vergleich zu AWS 1,7-mal höher (die Daten beziehen sich auf ein Beispiel mit 8 GTX 1080). Die Kosten für die Miete der GPUs in LeaderGPU® beginnen bei nur 0,02 Euro pro Minute, was mehr als 4-mal niedriger ist als die Kosten für die Miete in Google Cloud und mehr als 5-mal niedriger als die Kosten in AWS (Stand: 7. Juli 2017).

In diesem Artikel führen wir Tests mit dem VGG16-Modell in verschiedenen Diensten durch, die GPUs zur Miete anbieten, darunter LeaderGPU®, AWS und Google Cloud. Die Ergebnisse der Tests zeigen, warum LeaderGPU® das beste Angebot unter den untersuchten Optionen ist.

Alle Tests wurden mit Python 3.5 und Tensorflow-gpu 1.2 auf Rechnern mit GTX 1080, GTX 1080 Ti und Tesla® P 100 mit dem CentOS 7-Betriebssystem und der CUDA® 8.0-Bibliothek durchgeführt.

Die folgenden Befehle wurden zur Durchführung des Tests verwendet:

# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2(Anzahl der Karten auf dem Server) --model vgg16 --batch_size 32 (64)

GTX 1080-Instanzen

Im ersten Test verwenden wir Instanzen mit GTX 1080. Die Daten der Testumgebung (mit den Stapelgrößen 32 und 64) sind unten aufgeführt:

Testumgebung:

  • Instanztypen:ltbv17, ltbv13, ltbv16
  • GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub Hash:b1e174e
  • Benchmark GitHub Hash:9165a70
  • Befehl:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model vgg16 --batch_size 32 (optional 64)
  • Modell:VGG16
  • Datum des Tests:Juni 2017

Die Testergebnisse sind in dem folgenden Diagramm dargestellt:

VGG16 GTX 1080 test results

GTX 1080 Ti-Instanzen

Lassen Sie uns nun Instanzen mit GTX 1080 Ti testen. Die Daten der Testumgebung (mit den Stapelgrößen 32 und 64) sind unten aufgeführt:

Testumgebung:

  • Instanztypen:ltbv21, ltbv18
  • GPU:2x GTX 1080TI, 4x GTX 1080TI
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub Hash:b1e174e
  • Benchmark GitHub Hash:9165a70
  • Befehl:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model vgg16 --batch_size 32 (optional 64)
  • Modell:VGG16
  • Datum des Tests:Juni 2017

Die Testergebnisse sind in dem folgenden Diagramm dargestellt:

VGG16 GTX 1080TI test results

Tesla® P100-Instanz

Zum Schluss testen wir die Instanzen mit Tesla® P100. In diesem Fall sieht die Testumgebung (mit den Stapelgrößen 32 und 64) wie folgt aus:

Testumgebung:

  • Instanztyp:ltbv20
  • GPU:2x NVIDIA® Tesla® P100
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub Hash:b1e174e
  • Benchmark GitHub Hash:9165a70
  • Befehl:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model vgg16 --batch_size 32 (optional 64)
  • Modell:VGG16
  • Datum des Tests:Juni 2017

Die Testergebnisse sind in dem folgenden Diagramm dargestellt:

VGG16 Tesla P100 test results

Die folgende Tabelle zeigt die Ergebnisse der VGG16-Tests in Google Cloud und AWS:

GPU Google cloud AWS
1x Tesla K80 35.4 36.3
2x Tesla K80 64.8 69.4
4x Tesla K80 120 141
8x Tesla K80 234 260

* Die Daten stammen aus den folgenden Quellen:

https://www.tensorflow.org/lite/performance/measurement#details_for_google_compute_engine_nvidia_tesla_k80
https://www.tensorflow.org/lite/performance/measurement#details_for_amazon_ec2_nvidia_tesla_k80

Wir berechnen die Kosten und die Verarbeitungszeit von 1.000.000 Bildern auf einem LeaderGPU®-, AWS- und Google-Rechner (die Berechnung basiert auf dem höchsten Ergebnis der einzelnen Rechner):

GPU Anzahl der Bilder Zeit Kosten (pro Minute) Gesamtkosten
2x GTX 1080 1000000 96m 13sec € 0,03 € 2,89
4x GTX 1080 1000000 60m 17sec € 0,02 € 1,21
8x GTX 1080 1000000 38m 53sec € 0,10 € 3,89
4x GTX 1080TI 1000000 41m 29sec € 0,02 € 0,83
2х Tesla P100 1000000 114m 45sec € 0,02 € 2,30
8x Tesla K80 Google cloud 1000000 71m 12sec € 0,0825** € 4,84
8x Tesla K80 AWS 1000000 64m 6sec € 0,107 € 6,85

** Der Google Cloud-Dienst bietet keine minutenbasierten Zahlungspläne an. Die Berechnung der Kosten pro Minute basiert auf dem Stundenpreis (5,645 $).

Wie aus der Tabelle hervorgeht, ist die Bildverarbeitungsgeschwindigkeit im VGG16-Modell mit 8 GTX 1080 von LeaderGPU® am höchsten. Hinzu kommt:

Die anfänglichen Mietkosten bei LeaderGPU® liegen bei nur € 0,02 pro Minute, was etwa 4,13-mal niedriger ist als bei den Instanzen mit 8 Tesla® K80 der Google Cloud-Plattform und etwa 5,35-mal niedriger als bei den Instanzen mit 8 Tesla® K80 in AWS.

Die Verarbeitungszeit betrug 38 Minuten und 53 Sekunden, was 1,8-mal schneller ist als bei den Instanzen mit 8 Tesla® K80 in Google Cloud und 1,7-mal schneller als bei den Instanzen mit 8 Tesla® K80 in AWS.

All dies deutet darauf hin, dass LeaderGPU® viel profitabler ist als seine Konkurrenten, da dieser Dienst maximale Geschwindigkeit zu einem günstigen Preis anbietet. Mieten Sie die beste GPU mit flexiblen Preisen noch heute in LeaderGPU®!