これは SageMaker Inference Toolkit という名前の Linux アプリで、最新リリースは v1.10.0.zip としてダウンロードできます。 これは、ワークステーション用の無料のホスティング プロバイダーである OnWorks でオンラインで実行できます。
SageMaker Inference Toolkit with OnWorks という名前のこのアプリをオンラインで無料でダウンロードして実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショット:
SageMaker 推論ツールキット
説明:
Amazon SageMaker を使用して、Docker コンテナ内で機械学習モデルを提供します。 Amazon SageMaker は、データ サイエンスおよび機械学習 (ML) ワークフロー用の完全マネージド型サービスです。 Amazon SageMaker を使用して、ML モデルの構築、トレーニング、デプロイのプロセスを簡素化できます。 トレーニング済みのモデルを取得したら、推論コードを実行する Docker コンテナーに含めることができます。 コンテナーは効果的に分離された環境を提供し、コンテナーがデプロイされている場所に関係なく一貫したランタイムを保証します。 モデルとコードをコンテナ化することで、モデルを迅速かつ確実にデプロイできます。 SageMaker Inference Toolkit は、モデルを提供するスタックを実装し、任意の Docker コンテナに簡単に追加できるため、SageMaker にデプロイできます。 このライブラリのサービング スタックは Multi Model Server 上に構築されており、ネイティブの SageMaker サポートを備えた機械学習フレームワークを使用して、独自のモデルまたは SageMaker でトレーニングしたモデルを提供できます。
特徴
- このライブラリのサービス スタックは、Multi Model Server 上に構築されています
- ネイティブの SageMaker サポートを備えた機械学習フレームワークを使用して、独自のモデルまたは SageMaker でトレーニングしたモデルを提供します
- 事前構築済みの SageMaker Docker イメージを推論に使用する場合、このライブラリはすでに含まれている可能性があります
- モデル サーバーによって実行されるハンドラー サービスを実装する
- モデル サーバーを起動するサービング エントリポイントを実装する
- このライブラリは、Apache 2.0 ライセンスの下でライセンスされています
プログラミング言語
Python
カテゴリー
これは https://sourceforge.net/projects/sagemaker-infer-toolkit.mirror/ からも取得できるアプリケーションです。 これは、OnWorks でホストされており、無料のオペレーティング システムの XNUMX つからオンラインで簡単に実行できます。