ngssss / tensorflow_serving_examples

利用tensorflow/serving进行单模型、多模型、同一模型多版本的部署,并进行模型预测。

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

本项目用于演示如何使用tensorflow/serving进行单模型与多模型部署以及模型预测。

拉取tensorflow/serving镜像:

docker pull tensorflow/serving:1.14.0

单模型部署命令:

docker run -t --rm -p 8551:8501 -v "absolute_path_to_pb_models/pb_models/add:/models/add" -e MODEL_NAME=add tensorflow/serving:1.14.0

多模型部署命令:

docker run -t -d --rm -p 8551:8501 -v "absolute_path_to_pb_models/pb_models:/models" tensorflow/serving:1.14.0 --model_config_file=/models/models.config

模型多版本部署命令:

docker run -t -d --rm -p 8551:8501 -v "absolute_path_to_pb_models/pb_models:/models" tensorflow/serving:1.14.0 --model_config_file=/models/models.config

模型预测:

参考single_tf_serving.pymulti_tf_serving.pyversion_control_tf_serving.py

curl命令:

curl --location --request POST 'http://192.168.1.193:8551/v1/models/add/versions/2:predict' \
--header 'Content-Type: application/json' \
--data-raw '{
    "instances": [{"t": 2}]
}'

输出:

{
    "predictions": [
        8.0
    ]
}

About

利用tensorflow/serving进行单模型、多模型、同一模型多版本的部署,并进行模型预测。


Languages

Language:Python 100.0%