本文主要是介绍Tensorflow-serving部署模型到服务器,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
Tensorflow-serving部署模型到服务器
1.启动docker
systemctl start docker
2.查看已经下载的镜像
docker images
如果没有,那么拉取镜像
docker pull tensorflow/serving
4.在服务器启动docker
docker run -t --rm -p 8501:8501 -v /root/keras_tf_serving_model/my_image_classifier:/models/my_image_classifier -e MODEL_NAME=my_image_classifier tensorflow/serving
/root/keras_tf_serving_model/my_image_classifier这个目录下面是自己导出的model模型,
/models/my_image_classifier这个路径不用管,意思是把上面的目录映射到docker中的这个目录中去,
MODEL_NAME模型名称,在预测时候使用
-t表示是否允许伪TTY
–rm 如果实例已存在,先remove掉,然后再重启实例
-v设置磁盘映射
-p表示端口映射
-e 设置环境变量
5.预测
r = requests.post('http://localhost:8501/v1/models/my_image_classifier:predict', json=payload)
#组合输入的数据,这里的input_image是输入数据的key,在导出模型的时候使用的
payload = {"instances": [{'input_image': img.tolist()}]
}
这篇关于Tensorflow-serving部署模型到服务器的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!