Test comparatif Tensorflow™ Inception v3

LeaderGPU® est un acteur ambitieux sur le marché du calcul GPU qui entend changer la donne actuelle. Selon les résultats des tests, la vitesse de calcul sur le modèle Inception v3 avec LeaderGPU® est 3 fois plus rapide par rapport à Google Cloud, et 2,9 fois plus rapide par rapport à AWS (les données sont fournies pour l’exemple avec 8x GTX 1080). Le coût de location à la minute du GPU sur LeaderGPU® commence à 0,02 euro seulement, ce qui est plus de 4 fois inférieur au coût de location de Google Cloud et plus de 5 fois inférieur au coût d’AWS (au 7 juillet).

Tout au long de cet article, nous testerons le modèle Inception v3 dans les services populaires LeaderGPU®, AWS et Google Cloud. Nous déterminerons pourquoi LeaderGPU® est l’offre leader parmi les options examinées.

Tous les tests ont été effectués en utilisant Python 3.5 et Tensorflow-gpu 1.2 sur des machines configurées avec des cartes GTX 1080, GTX 1080 TI et Tesla® P100, le système d’exploitation CentOS 7 et la bibliothèque CUDA® 8.0.

Les commandes suivantes ont été utilisées pour exécuter les tests :

# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2(Nombre de cartes sur le serveur) --model inception3 --batch_size 32 (64, 128)

Instances GTX 1080

Pour le premier test, nous utilisons des instances avec la carte GTX 1080. Les données de l’environnement de test (avec les tailles de lot 32 et 64) sont fournies ci-dessous :

  • Types d’instance :ltbv17, ltbv13, ltbv16
  • GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash :b1e174e
  • Benchmark GitHub hash :9165a70
  • Commande :
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model inception3 –batch size 32 (optional 64)
  • Modèle :Inception v3
  • Date du test :Juin 2017

Les résultats du test sont présentés dans le diagramme suivant :'

Inception v3 GTX 1080 test results

Instances GTX 1080 Ti

Utilisons maintenant des instances avec la carte GTX 1080 Ti. Les données de l’environnement de test (avec les tailles de lot 32 et 64) sont fournies ci-dessous :

  • Types d’instance :ltbv21, ltbv18
  • GPU: 2x GTX 1080TI, 4x GTX 1080TI
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash :b1e174e
  • Benchmark GitHub hash :9165a70
  • Commande :
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model inception3 --batch_size 32 (optional 64, 128)
  • Modèle :Inception v3
  • Date du test :Juin 2017

Les résultats du test sont présentés dans le diagramme suivant :'

Inception v3 GTX 1080TI test results

Instance Tesla® P100

Enfin, il est temps de tester le modèle avec le carte Tesla® P100. Les données de l’environnement de test (avec les tailles de lot 32, 64 et 128) sont fournies ci-dessous :

  • Types d’instance :ltbv20
  • GPU:GPU: 2x NVIDIA® Tesla® P100
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash :b1e174e
  • Benchmark GitHub hash :9165a70
  • Commande :
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model inception3 –batch size 32 (optional 64, 128)
  • Modèle :Inception v3
  • Date du test :Juin 2017

Les résultats du test sont présentés dans le diagramme suivant :'

Inception v3 Tesla P100 test results

Dans le tableau ci-dessous, nous avons rassemblé les résultats des tests Inception v3 sur Google Cloud et AWS (avec la taille de lot 64)

GPU Google cloud AWS
1x Tesla K80 30.5 30.8
2x Tesla K80 57.8 58.7
4x Tesla K80 116 117
8x Tesla K80 227 230

* Les données du tableau proviennent des sources suivantes :

https://www.tensorflow.org/lite/performance/measurement#details_for_google_compute_engine_nvidia_tesla_k80
https://www.tensorflow.org/lite/performance/measurement#details_for_amazon_ec2_nvidia_tesla_k80

Calculons le coût et le temps de traitement de 1 000 000 d’images sur chaque machine LeaderGPU®, AWS et Google. Le comptage a été effectué avec une taille de lot de 64 pour toutes les machines.

GPU Nombre d’images Temps Coût (par minute) Coût total
2x GTX 1080 1000000 88m 41sec € 0,03 € 2,66
4x GTX 1080 1000000 48m 18sec € 0,02 € 0,97
8x GTX 1080 1000000 24m 18sec € 0,10 € 2,43
4x GTX 1080TI 1000000 33m 47sec € 0,02 € 0,68
2х Tesla P100 1000000 64m 18sec € 0,02 € 1,29
8x Tesla K80 Google cloud 1000000 73m 25sec € 0,0825** € 6,05
8x Tesla K80 AWS 1000000 72m 27sec € 0,107 € 7,75

** Le service Google Cloud n’offre pas de plans de paiement à la minute. Les calculs de coût à la minute sont basés sur le prix horaire (5 645 $).

Comme on peut le conclure à partir du tableau, la vitesse de traitement d’image dans le modèle Inception v3 est maximale avec 8x GTX 1080 de LeaderGPU®, tandis que :

le coût initial sur LeaderGPU® commence à 1,77 € seulement, soit environ 3,42 fois moins que sur les instances de 8x Tesla® K80 de Google Cloud, et environ 4,38 fois moins que sur les instances de 8x Tesla® K80 de Google AWS ;

le temps de traitement était de 24 minutes 18 secondes, soit 3,03 fois plus rapide que sur les instances de 8x Tesla® K80 de Google Cloud, et 2,99 fois plus rapide que sur les instances de 8x Tesla® K80 de Google AWS.

Les résultats des tests ne laissent aucun doute. LeaderGPU® est un leader incontesté dans le domaine du calcul GPU, offrant des solutions inégalées à des prix raisonnables. Profitez dès aujourd’hui de l’offre GPU économique de LeaderGPU !