Índice de referencia Inception v3 en Tensorflow™

LeaderGPU® es un actor ambicioso en el mercado de la computación por GPU que pretende cambiar la situación actual. Según los resultados de las pruebas, la velocidad de los cálculos del modelo Inception v3 en LeaderGPU® es 3 veces más rápida en comparación con Google Cloud y 2,9 veces más rápida en comparación con AWS (datos relativos a un ejemplo con 8x GTX 1080). El precio del alquiler por minuto de GPU en LeaderGPU® comienza desde tan solo 0,02 euros, que es más de 4 veces más bajo que el precio del alquiler en Google Cloud y más de 5 veces más bajo que el precio en AWS (al 7 de julio).

En este artículo, probaremos el modelo Inception v3 en servicios como LeaderGPU®, AWS y Google Cloud. Determinaremos el motivo por el que LeaderGPU® es la oferta líder entre las opciones examinadas.

Todas las pruebas se realizaron utilizando Python 3.5 y Tensorflow-gpu 1.2 en máquinas con GTX 1080, GTX 1080 TI y Tesla® P 100 con sistema operativo CentOS 7 instalado y biblioteca CUDA® 8.0.

Se utilizaron los siguientes comandos para ejecutar las pruebas:

# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2(Número de tarjetas en el servidor) --model inception3 --batch_size 32 (64, 128)

Instancias de GTX 1080

Para la primera prueba, utilizamos instancias con GTX 1080. Los datos del entorno de prueba (con tamaños de lote 32 y 64) se indican a continuación:

  • Tipos de instancias:ltbv17, ltbv13, ltbv16
  • GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash:b1e174e
  • Benchmark GitHub hash:9165a70
  • Comando:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model inception3 –batch size 32 (optional 64)
  • Modelo:Inception v3
  • Fecha de la prueba:junio de 2017

Los resultados de la prueba se muestran en el diagrama siguiente:

Inception v3 GTX 1080 test results

Instancias de GTX 1080TI

Ahora utilicemos instancias con GTX 1080 Ti. Los datos del entorno de prueba (con tamaños de lote 32 y 64) se indican a continuación:

  • Tipos de instancias:ltbv21, ltbv18
  • GPU: 2x GTX 1080TI, 4x GTX 1080TI
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash:b1e174e
  • Benchmark GitHub hash:9165a70
  • Comando:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model inception3 --batch_size 32 (optional 64, 128)
  • Modelo:Inception v3
  • Fecha de la prueba:junio de 2017

Los resultados de la prueba se muestran en el diagrama siguiente:

Inception v3 GTX 1080TI test results

Instancias de Tesla® P100

Por último, es hora de probar el modelo con Tesla® P100. Los datos del entorno de prueba (con tamaños de lote 32, 64 y 128) se indican a continuación:

  • Tipos de instancias:ltbv20
  • GPU:GPU: 2x NVIDIA® Tesla® P100
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash:b1e174e
  • Benchmark GitHub hash:9165a70
  • Comando:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model inception3 –batch size 32 (optional 64, 128)
  • Modelo:Inception v3
  • Fecha de la prueba:junio de 2017

Los resultados de la prueba se muestran en el diagrama siguiente:

Inception v3 Tesla P100 test results

En el cuadro a continuación hemos recogido los resultados de las pruebas con Inception v3 en Google Cloud y AWS (con tamaño de lote 64)

GPU Google cloud AWS
1x Tesla K80 30.5 30.8
2x Tesla K80 57.8 58.7
4x Tesla K80 116 117
8x Tesla K80 227 230

* Los datos del cuadro se extrajeron de las siguientes fuentes:

https://www.tensorflow.org/lite/performance/measurement#details_for_google_compute_engine_nvidia_tesla_k80
https://www.tensorflow.org/lite/performance/measurement#details_for_amazon_ec2_nvidia_tesla_k80

Hagamos un cálculo del coste y del tiempo de procesamiento de 1 000 000 imágenes en cada máquina de LeaderGPU®, AWS y Google. El conteo se realizó con un tamaño de lote de 64 para todas las máquinas.

GPU Número de imágenes Tiempo Coste (por minuto) Coste total
2x GTX 1080 1000000 88m 41sec € 0,03 € 2,66
4x GTX 1080 1000000 48m 18sec € 0,02 € 0,97
8x GTX 1080 1000000 24m 18sec € 0,10 € 2,43
4x GTX 1080TI 1000000 33m 47sec € 0,02 € 0,68
2х Tesla P100 1000000 64m 18sec € 0,02 € 1,29
8x Tesla K80 Google cloud 1000000 73m 25sec € 0,0825** € 6,05
8x Tesla K80 AWS 1000000 72m 27sec € 0,107 € 7,75

** El servicio Google Cloud no ofrece planes de pago por minuto. Los cálculos del precio por minuto se basan en el precio por hora (5645 $).

Sobre la base del cuadro, cabe concluir que la máxima velocidad de procesamiento de imágenes en el modelo Inception v3 se obtiene con 8x GTX 1080 de LeaderGPU®, mientras que:

El precio inicial en LeaderGPU® comienza desde tan solo 1,77 €, que es alrededor de 3,42 veces más bajo que el de las instancias de 8x Tesla® K80 ofrecidas por Google Cloud y alrededor de 4,38 veces más bajo que el de las instancias de 8x Tesla® K80 de AWS;

el tiempo de procesamiento fue de 24 minutos y 18 segundos, que es 3,03 veces más rápido que en las instancias de 8x Tesla® 8x de Google Cloud y 2,99 veces más rápido que en las instancias de 8x Tesla® K80 de AWS.

Los resultados de las pruebas no dejan lugar a dudas. LeaderGPU® es un líder consolidado del sector de la computación por GPU y ofrece soluciones inigualables a precios razonables. ¡Aproveche hoy mismo la oferta de GPU rentables de LeaderGPU®!