英語フランス語スペイン語

OnWorksファビコン

Linux 用 BentoML ダウンロード

Ubuntu オンライン、Fedora オンライン、または Debian オンラインでオンラインで実行する BentoML Linux アプリを無料でダウンロード

これは BentoML という名前の Linux アプリで、最新リリースは BentoML-v1.1.7sourcecode.zip としてダウンロードできます。 ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。

BentoML with OnWorks という名前のこのアプリをオンラインで無料でダウンロードして実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。

-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードし、インストールして実行します。

スクリーンショットは

Ad


BentoML


DESCRIPTION

BentoML は、ML モデルの展開を簡素化し、実稼働規模でモデルを提供します。 Tensorflow、PyTorch、XGBoost、Scikit-Learn など、複数の ML フレームワークをネイティブにサポートします。 前処理、後処理、およびアンサンブル モデルを使用してカスタム サービング パイプラインを定義します。 コード、モデル、および依存関係をパッケージ化するための標準の .bento 形式により、バージョン管理と展開が容易になります。 トレーニング パイプラインまたは ML 実験プラットフォームと統合します。 コンピューティング負荷の高いモデル推論ワークロードを並列化して、サービス ロジックとは別にスケーリングします。 アダプティブ バッチ処理は、最適なパフォーマンスのために推論リクエストを動的にグループ化します。 Yatai on Kubernetes を介して、複数のモデルで分散推論グラフをオーケストレーションします。 GPU で推論を実行するための CUDA 依存関係を簡単に構成します。 本番デプロイ用の Docker イメージを自動的に生成します。



特徴

  • REST API または gRPC によるオンライン サービング
  • Apache Spark または Dask を使用したバッチ データセットでのオフライン スコアリング
  • Kafka、Beam、および Flink によるストリーム サービング
  • 本番デプロイ用の Docker イメージを自動的に生成する
  • Kubernetes での大規模なモデル デプロイ
  • あらゆるクラウド プラットフォームでモデルを迅速にデプロイ


プログラミング言語

Python


カテゴリー

フレームワーク、機械学習

これは https://sourceforge.net/projects/bentoml.mirror/ からも取得できるアプリケーションです。 これは、OnWorks でホストされており、無料のオペレーティング システムの XNUMX つからオンラインで簡単に実行できます。


無料のサーバーとワークステーション

Windows と Linux のアプリをダウンロード

Linuxコマンド

Ad