Índice de referencia Alexnet en Tensorflow™

Los servicios de LeaderGPU® están orientados a cambiar las reglas del juego del mercado de la computación por GPU. Las características distintivas de LeaderGPU® quedan demostradas por la impresionante velocidad de los cálculos con el modelo Alexnet: 2,3 veces más rápida que con Google Cloud y 2,2 veces más rápida que con AWS (datos relativos a 8x GTX 1080). El precio del alquiler por minuto de GPU en LeaderGPU® comienza a partir de 0,02 euros, que es 4,1 veces más bajo que en Google Cloud y 5,35 veces más bajo que en AWS (al 7 de julio de 2017).

En este artículo, indicaremos los resultados de pruebas realizadas con el modelo Alexnet en servicios como LeaderGPU®, AWS y Google Cloud. Comprenderá por qué LeaderGPU® es preferible para todas las necesidades de computación por GPU.

Todas las pruebas tenidas en cuenta se realizaron utilizando Python 3.5 y Tensorflow-gpu 1.2 en máquinas con GTX 1080, GTX 1080 TI y Tesla® P 100 con sistema operativo CentOS 7 instalado y biblioteca CUDA® 8.0.

Se utilizaron los siguientes comandos para ejecutar las pruebas:

# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=?(Número de tarjetas en el servidor) --model alexnet --batch_size 32 (64, 128, 256, 512)

Instancias de GTX 1080

La primera prueba del modelo Alexnet se realizará con instancias de GTX 1080. Los datos del entorno de prueba (con tamaños de lote 32, 64, 128, 256 y 512) se indican a continuación:

Entorno de prueba:

  • Tipos de instancias:ltbv17, ltbv13, ltbv16
  • GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash:b1e174e
  • Benchmark GitHub hash:9165a70
  • Comando:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4,8) --model alexnet --batch_size 32 (optional 64, 128,256, 512)
  • Modelo:Alexnet
  • Fecha de la prueba:junio de 2017

Los resultados de la prueba se muestran en el diagrama que figura a continuación:

Alexnet GTX 1080 test results

Instancias de GTX 1080TI

El siguiente paso es probar el modelo Alexnet con instancias de GTX 1080TI. Los datos del entorno de prueba (con tamaños de lote 32, 64, 128, 256 y 512) se indican a continuación:

  • Tipos de instancias:ltbv21, ltbv18
  • GPU:2x GTX 1080TI, 4x GTX 1080TI
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash:b1e174e
  • Benchmark GitHub hash:9165a70
  • Comando:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model alexnet --batch_size 32 (optional 64, 128,256, 512)
  • Modelo:Alexnet
  • Fecha de la prueba:junio de 2017

Los resultados de la prueba se muestran en el diagrama que figura a continuación:

Alexnet GTX 1080 TI test results

Instancias de Tesla® P100

Por último, es hora de probar el modelo Alexnet con instancias de Tesla® P100. El entorno de prueba (con tamaños de lote 32, 64, 128, 256 y 512) es el siguiente:

  • Tipo de instancia:ltbv20
  • GPU:2x NVIDIA® Tesla® P100
  • OS:CentOS 7
  • CUDA / cuDNN:8.0 / 5.1
  • TensorFlow GitHub hash:b1e174e
  • Benchmark GitHub hash:9165a70
  • Comando:
    # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model alexnet --batch_size 32 (optional 64, 128, 256, 512)
  • Modelo:Alexnet
  • Fecha de la prueba:junio de 2017

Los resultados de la prueba se muestran en el diagrama que figura a continuación:

Alexnet Tesla P100 test results

Pruebas similares de Alexnet en Google Cloud y AWS mostraron los siguientes resultados:

GPU Google cloud AWS
1x Tesla K80 656 684
2x Tesla K80 1209 1244
4x Tesla K80 2328 2479
8x Tesla K80 4640 4853

* Los datos indicados se obtuvieron de las siguientes fuentes:

https://www.tensorflow.org/lite/performance/measurement#details_for_google_compute_engine_nvidia_tesla_k80
https://www.tensorflow.org/lite/performance/measurement#details_for_amazon_ec2_nvidia_tesla_k80

Ahora calculemos el coste y el tiempo de procesamiento de 1 000 000 imágenes en cada máquina de LeaderGPU®, AWS y Google. El cálculo se realizó sobre la base del resultado más alto de cada máquina.

GPU Número de imágenes Tiempo Coste (por minuto) Coste total
2x GTX 1080 1000000 5m € 0,03 € 0,15
4x GTX 1080 1000000 2m 40sec € 0,02 € 0,05
8x GTX 1080 1000000 1m 46sec € 0,10 € 0,18
4x GTX 1080TI 1000000 2m 5sec € 0,02 € 0,04
2х Tesla P100 1000000 3m 15sec € 0,02 € 0,07
8x Tesla K80 Google cloud 1000000 3m 35sec € 0,0825** € 0,29
8x Tesla K80 AWS 1000000 3m 26sec € 0,107 € 0,36

** El servicio Google Cloud no ofrece planes de pago por minuto. Los cálculos del precio por minuto se basan en el precio por hora (5645 $).

Sobre la base del cuadro, cabe concluir que la velocidad de procesamiento de imágenes en el modelo VGG16 obtiene el mejor resultado en 8x GTX 1080 de LeaderGPU®, mientras que:

El precio inicial del alquiler en LeaderGPU® comienza desde tan solo 1,92 €, que es alrededor de 2,5 veces más bajo que el de las instancias de 8x Tesla® K80 ofrecidas por Google Cloud y alrededor de 3,6 veces más bajo que el de las instancias de 8x Tesla® K80 de AWS;

el tiempo de procesamiento fue de 38 minutos y 53 segundos, que es 1,8 veces más rápido que en las instancias de 8x Tesla® K80 de Google Cloud y 1,7 veces más rápido que en las instancias de 8x Tesla® K80 de AWS.

Sobre la base de estos hechos, cabe concluir que LeaderGPU® es mucho más rentable en comparación con sus competidores. LeaderGPU® permite alcanzar la máxima velocidad a precios óptimos. ¡Alquile hoy mismo las mejores GPU a precios flexibles en LeaderGPU®!