これは TorchServe という名前の Windows アプリで、最新リリースは TorchServev0.7.0ReleaseNotes.zip としてダウンロードできます。ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。
OnWorks で TorchServe というアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショットは
Ad
トーチサーブ
DESCRIPTION
TorchServe は、PyTorch Eager モードと TorchServe モデルを提供するための、パフォーマンスが高く、柔軟性が高く、使いやすいツールです。最適化されたワーカーからモデルへの割り当てによるマルチモデル管理。バッチ推論用の REST および gRPC サポート。最適化された推論のためにモデルをエクスポートします。すぐに使用できる Torchscript、ORT、IPEX、TensorRT、FasterTransformer。パフォーマンス ガイド: PyTorch と TorchServe のパフォーマンスを最適化、ベンチマーク、およびプロファイルするための組み込みサポート。表現力豊かなハンドラー: すぐに使用できる多くのサポートにより、ユース ケースの推論を簡単にサポートできる表現力豊かなハンドラー アーキテクチャ。Prometheus エクスポート、カスタム メトリック、PyTorch プロファイラー サポートによるシステム レベルのメトリックのすぐに使用できるサポート。
特徴
- バッチ推論のためのRESTおよびgRPCサポート
- 複数の相互依存モデルを持つ複雑なDAGを展開する
- PyTorchモデルを提供するデフォルトの方法
- 推論を最適化するためにモデルをエクスポートする
- パフォーマンスガイド
- メトリクスAPI
プログラミング言語
Java
カテゴリー
これは、https://sourceforge.net/projects/torchserve.mirror/ から取得できるアプリケーションです。当社の無料のオペレーティング システムの 1 つから最も簡単な方法でオンラインで実行できるように、OnWorks でホストされています。