本文主要是介绍TF-Serving从导出模型到部署服务源码,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
TF-Serving从导出模型到部署服务源码(Keras)
1.模型保存好之后,使用Keras的模型保存方法保存模型
model.save('my_model.h5')
常见的模型有h5和.keras
h5文件包含
·模型的结构,以便重构该模型
·模型的权重
·训练的配置(损失函数,优化器等)
·优化器的状态,以便于从上次训练中断的地方开始
2.使用SavedModel将模型导出为tensorflow的标准格式,因Tensorflow和Keras是兼容的,所以方法一样
因SavedModel和语言无关,可以用python训练,可以使用java训练,而且使用TfServing的时候,必须选择SavedModel格式
import tensorflow as tf
import keras
keras.backend.set_learning_phase(0) # Ignore dropout at inference
model = keras.models.load_model('../model/6_layer_rmsprop.h5')
export_path = '../export_model/1'
with keras.backend.get_session() as sess:tf.saved_model.simple_save(sess,export_p
这篇关于TF-Serving从导出模型到部署服务源码的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!