凍結グラフのサポートはTensorflow 2.0または廃止予定で継続しますか? SAVED_MODELからフリーズグラフを作成/最適化するためのスクリプトとAPIを意味します。また、同じに推論を実行するためのAPI。
将来サポートされると仮定すると、Tensorflow 2.0で凍結グラフに推論を実行するための推奨方法は何ですか?
推定量を使用してモデルをバイオリングする場合は、TF.ESTIMATOR.ESTIMATOR.EXPORT_SAVED_MODELを使用してモデルを凍結させることができます。
model = tf.estimator.Estimator(
model_fn=model_fn,
model_dir=model_saved_dir)
def serving_input_receiver_fn():
# in here, my input is 512 x 512 single channel image
feature = tf.compat.v1.placeholder(tf.float32, shape=[None, 512, 512, 1], name="inputs")
return tf.estimator.export.TensorServingInputReceiver(feature, feature)
model.export_saved_model(model_saved_dir, serving_input_receiver_fn)
_
このコードはTensorflow 2.0での作業です
またはKerasを使用するには、公式のWebサイト https://www.tensorflow.org/tutorials/keras/save_and_load#savedmodel_format の手順を参照できます。