Tensorflow™ – Inception V3-Benchmark

LeaderGPU® ist ein ehrgeiziger Akteur auf dem GPU-Computing-Markt, der den aktuellen Stand der Dinge ändern will. Nach den Testergebnissen ist die Berechnungsgeschwindigkeit für das Inception V3-Modell in LeaderGPU® im Vergleich zu Google Cloud 3-mal schneller und im Vergleich zu AWS 2,9-mal schneller (die Daten beziehen sich auf ein Beispiel mit 8 GTX 1080). Die Kosten für die Miete der GPUs in LeaderGPU® beginnen bei nur 0,02 Euro pro Minute, was mehr als 4-mal niedriger ist als die Kosten für die Miete in Google Cloud und mehr als 5-mal niedriger als die Kosten in AWS (Stand: 7. Juli).

In diesem Artikel testen wir das Inception V3-Modell in Diensten wie LeaderGPU®, AWS und Google Cloud. Wir werden sehen, warum LeaderGPU® das beste Angebot unter den untersuchten Optionen ist.

Alle Tests wurden mit Python 3.5 und Tensorflow-gpu 1.2 auf Rechnern mit GTX 1080, GTX 1080 Ti und Tesla® P 100 mit dem CentOS 7-Betriebssystem und der CUDA® 8.0-Bibliothek durchgeführt.

Die folgenden Befehle wurden zur Durchführung der Tests verwendet:

# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2(Anzahl der Karten auf dem Server) --model inception3 --batch_size 32 (64, 128)

GTX 1080-Instanzen

Für den ersten Test verwenden wir Instanzen mit GTX 1080. Die Daten der Testumgebung (mit den Stapelgrößen 32 und 64) sind unten aufgeführt:

  • Instanztypen:ltbv17, ltbv13, ltbv16
  • GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub Hash:b1e174e
  • Benchmark GitHub Hash:9165a70
  • Befehl:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model inception3 –batch size 32 (optional 64)
  • Modell:Inception v3
  • Datum des Tests:Juni 2017

Die Testergebnisse sind in dem folgenden Diagramm dargestellt:

Inception v3 GTX 1080 test results

GTX 1080 Ti-Instanzen

Wir setzen den Test mit GTX 1080 Ti-Instanzen fort. Die Daten der Testumgebung (mit den Stapelgrößen 32 und 64) sind unten aufgeführt:

  • Instanztypen:ltbv21, ltbv18
  • GPU: 2x GTX 1080TI, 4x GTX 1080TI
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub Hash:b1e174e
  • Benchmark GitHub Hash:9165a70
  • Befehl:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model inception3 --batch_size 32 (optional 64, 128)
  • Modell:Inception v3
  • Datum des Tests:Juni 2017

Die Testergebnisse sind in dem folgenden Diagramm dargestellt:

Inception v3 GTX 1080TI test results

Tesla® P100-Instanz

Zum Schluss testen wir das Modell mit Tesla® P100. Die Daten der Testumgebung (mit den Stapelgrößen 32, 64 und 128) sind unten aufgeführt:

  • Instanztypen:ltbv20
  • GPU:GPU: 2x NVIDIA® Tesla® P100
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub Hash:b1e174e
  • Benchmark GitHub Hash:9165a70
  • Befehl:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model inception3 –batch size 32 (optional 64, 128)
  • Modell:Inception v3
  • Datum des Tests:Juni 2017

Die Testergebnisse sind in dem folgenden Diagramm dargestellt:

Inception v3 Tesla P100 test results

In der nachstehenden Tabelle sind die Ergebnisse der Inception V3-Tests in Google Cloud und AWS (mit der Stapelgröße 64) zusammengefasst.

GPU Google cloud AWS
1x Tesla K80 30.5 30.8
2x Tesla K80 57.8 58.7
4x Tesla K80 116 117
8x Tesla K80 227 230

* Die Daten für die Tabelle stammen aus den folgenden Quellen:

https://www.tensorflow.org/lite/performance/measurement#details_for_google_compute_engine_nvidia_tesla_k80
https://www.tensorflow.org/lite/performance/measurement#details_for_amazon_ec2_nvidia_tesla_k80

Berechnen wir nun die Kosten und die Verarbeitungszeit von 1.000.000 Bildern auf einem LeaderGPU®-, AWS- und Google-Rechner. Das Zählen erfolgte auf allen Rechnern mit einer Stapelgröße von 64.

GPU Anzahl der Bilder Zeit Kosten (pro Minute) Gesamtkosten
2x GTX 1080 1000000 88m 41sec € 0,03 € 2,66
4x GTX 1080 1000000 48m 18sec € 0,02 € 0,97
8x GTX 1080 1000000 24m 18sec € 0,10 € 2,43
4x GTX 1080TI 1000000 33m 47sec € 0,02 € 0,68
2х Tesla P100 1000000 64m 18sec € 0,02 € 1,29
8x Tesla K80 Google cloud 1000000 73m 25sec € 0,0825** € 6,05
8x Tesla K80 AWS 1000000 72m 27sec € 0,107 € 7,75

** Der Google Cloud-Dienst bietet keine minutenbasierten Zahlungspläne an. Die Berechnung der Kosten pro Minute basiert auf dem Stundenpreis (5,645 $).

Wie aus der Tabelle hervorgeht, ist die Bildverarbeitungsgeschwindigkeit im Inception V3-Modell mit 8 GTX 1080 in LeaderGPU® am höchsten. Hinzu kommt:

Die anfänglichen Kosten liegen in LeaderGPU® bei nur 1,77 €, was etwa 3,42-mal niedriger ist als bei den Instanzen mit 8 Tesla® K80 der Google Cloud-Plattform und etwa 4,38-mal niedriger als bei den Instanzen mit 8 Tesla® K80 in AWS.

Die Verarbeitungszeit betrug 24 Minuten und 18 Sekunden, was 3,03-mal schneller ist als bei den Instanzen mit 8 Tesla® K80 in Google Cloud und 2,99-mal schneller als bei den Instanzen mit 8 Tesla® K80 in AWS.

Die Testergebnisse lassen keine Zweifel aufkommen. LeaderGPU® ist ein bewährter Marktführer auf dem Gebiet des GPU-Computings und bietet konkurrenzlose Lösungen zu angemessenen Preisen. Profitieren Sie noch heute von dem kostengünstigen GPU-Angebot von LeaderGPU®!