这是名为 BentoML 的 Linux 应用程序,其最新版本可以下载为 BentoML-v1.1.7sourcecode.zip。 它可以在免费的工作站托管提供商 OnWorks 中在线运行。
免费下载并在线运行这个名为 BentoML with OnWorks 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从此网站启动OnWorks Linux online 或Windows online emulator 或MACOS online emulator。
- 5. 从您刚刚启动的 OnWorks Linux 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序,安装并运行。
SCREENSHOTS
Ad
BentoML
商品描述
BentoML 简化了 ML 模型部署并以生产规模为您的模型提供服务。 原生支持多种机器学习框架:Tensorflow、PyTorch、XGBoost、Scikit-Learn 等等! 使用预处理、后处理和集成模型定义自定义服务管道。 用于打包代码、模型和依赖项的标准 .bento 格式,以便于版本控制和部署。 与任何训练管道或 ML 实验平台集成。 并行化计算密集型模型推理工作负载,以独立于服务逻辑进行扩展。 自适应批处理动态分组推理请求以获得最佳性能。 通过 Kubernetes 上的 Yatai 编排具有多个模型的分布式推理图。 轻松配置 CUDA 依赖项以使用 GPU 运行推理。 自动生成用于生产部署的 docker 镜像。
产品优势
- 通过 REST API 或 gRPC 提供在线服务
- 使用 Apache Spark 或 Dask 对批处理数据集进行离线评分
- 使用 Kafka、Beam 和 Flink 提供流服务
- 自动生成用于生产部署的 docker 镜像
- 在 Kubernetes 上大规模部署模型
- 在任何云平台上快速部署模型
程式语言
Python
分类
这是一个也可以从 https://sourceforge.net/projects/bentoml.mirror/ 获取的应用程序。 它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最简单的方式在线运行。