web-dev-qa-db-ja.com

APIのTensorFlowを使用して予測をデプロイして提供する方法は?

Googleチュートリアルから、TensorFlowでモデルをトレーニングする方法を知っています。しかし、トレーニング済みモデルを保存してから、本番サーバーで基本的な最小python apiを使用して予測を提供するための最良の方法は何ですか。

私の質問は基本的に、速度とメモリの問題を犠牲にすることなく、モデルを保存してライブサーバーで予測を提供するためのTensorFlowのベストプラクティスです。 APIサーバーはバックグラウンドで永久に実行されるためです。

pythonコードの小さなスニペットをいただければ幸いです。

17
rayhan

TensorFlow Serving は、機械学習モデル向けの高性能なオープンソースサービングシステムであり、本番環境向けに設計され、TensorFlow向けに最適化されています。初期リリースには、C++サーバーとPythonクライアントの例 gRPC に基づく)が含まれています。基本的なアーキテクチャを次の図に示します。

enter image description here

すぐに始めるには、 チュートリアル を確認してください。

15