代码详解:构建一个简单的Keras+深度学习REST API(14)

注意:这里我们假定使用的是默认的单线程Flask服务器 。 如果将其部署到多线程服务器 , 那么即使使用本文前面讨论的“更正确”的方法 , 内存中仍会加载多个模型 。 如果你打算使用专用服务器 , 如Apache或nginx , 则应该考虑使管道更具可扩展性 。

启动你的Keras Rest API

启动Keras REST API服务很简单 。

打开终端 , 执行:

$ python run_keras_server.py

Using TensorFlow backend.

* Loading Keras model and Flask starting server...please wait until server has fully started

...

* Running on http://127.0.0.1:5000

从输出中可以看到 , 首先加载模型 , 然后可以启动Flask服务器 。

现在可以通过http://127.0.0.1:5000访问服务器 。

推荐阅读