业界 | TensorFlow 携手 NVIDIA,使用 TensorRT 优化 TensorFlow Serving 性能( 二 )

业界 | TensorFlow 携手 NVIDIA,使用 TensorRT 优化 TensorFlow Serving 性能

在此前的一篇博客(https://medium.com/tensorflow/serving-ml-quickly-with-tensorflow-serving-and-docker-7df7094aa008)中,我们向大家介绍了怎样如何借助 Docker 来使用 TensorFlow Serving。而在本文中,我们要展示的是:以同样的方法来运行经 TF-TRT 转换的模型到底有多简单。一如既往地,我们尝试将ResNet 模型部署到生产环境中。下文的所有案例都在配备 Titan-V GPU 的工作站上运行。

在 GPU 上使用 TensorFlow Serving 创建 ResNet

在本次练习中,我们简单地下载一个经过预训练的 ResNetSavedModel:

$ mkdir /tmp/resnet

$ curl -s

https://storage.googleapis.com/download.tensorflow.org/models/official/20181001_resnet/savedmodels/resnet_v2_fp32_savedmodel_NHWC_jpg.tar.gz | tar --strip-components=2 -C /tmp/resnet -xvz

推荐阅读