これはTensorFlowServingという名前のWindowsアプリで、最新リリースは2.13.1.zipとしてダウンロードできます。 ワークステーション用の無料ホスティングプロバイダーOnWorksでオンラインで実行できます。
TensorFlow Serving withOnWorksという名前のこのアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショットは
Ad
TensorFlowサービング
DESCRIPTION
TensorFlow Servingは、機械学習モデル向けの柔軟で高性能なサービングシステムであり、本番環境向けに設計されています。 機械学習の推論の側面を扱い、トレーニング後にモデルを取得してライフタイムを管理し、高性能の参照カウントルックアップテーブルを介してクライアントにバージョン管理されたアクセスを提供します。 TensorFlow Servingは、TensorFlowモデルとすぐに統合できますが、他のタイプのモデルやデータを提供するように簡単に拡張できます。 TensorFlow Servingを使用する最も簡単で簡単な方法は、Dockerイメージを使用することです。 コンテナで実行しても対処できない特定のニーズがない限り、このルートを強くお勧めします。 Tensorflowモデルを提供するには、TensorflowプログラムからSavedModelをエクスポートするだけです。 SavedModelは、言語に依存しない、回復可能なハーメチックシリアル化形式であり、高レベルのシステムとツールでTensorFlowモデルを生成、消費、変換できるようにします。
特徴
- 複数のモデル、または同じモデルの複数のバージョンを同時に提供できます
- gRPCとHTTP推論エンドポイントの両方を公開します
- クライアントコードを変更せずに新しいモデルバージョンの展開を可能にします
- 新しいバージョンのカナリア化と実験モデルのA / Bテストをサポート
- 効率的でオーバーヘッドの少ない実装により、推論時間に最小限のレイテンシを追加します
- GPUでの共同実行のために、個々の推論要求をバッチにグループ化するスケジューラーを備え、構成可能なレイテンシー制御を備えています
プログラミング言語
C + +
カテゴリー
これは、https://sourceforge.net/projects/tensorflow-serving.mirror/からも取得できるアプリケーションです。 無料のオペレーティングシステムのXNUMXつから最も簡単な方法でオンラインで実行するために、OnWorksでホストされています。