InglésFrancésEspañol

icono de página de OnWorks

Descarga de BentoML para Windows

Descarga gratis la aplicación BentoML para Windows para ejecutar en línea win Wine en Ubuntu en línea, Fedora en línea o Debian en línea

Esta es la aplicación de Windows llamada BentoML cuya última versión se puede descargar como BentoML-v1.1.7sourcecode.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.

Descargue y ejecute en línea esta aplicación llamada BentoML con OnWorks de forma gratuita.

Siga estas instrucciones para ejecutar esta aplicación:

- 1. Descargue esta aplicación en su PC.

- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.

- 3. Cargue esta aplicación en dicho administrador de archivos.

- 4. Inicie cualquier emulador en línea de OS OnWorks desde este sitio web, pero mejor emulador en línea de Windows.

- 5. Desde el sistema operativo OnWorks Windows que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.

- 6. Descarga la aplicación e instálala.

- 7. Descargue Wine desde los repositorios de software de sus distribuciones de Linux. Una vez instalada, puede hacer doble clic en la aplicación para ejecutarla con Wine. También puedes probar PlayOnLinux, una elegante interfaz sobre Wine que te ayudará a instalar programas y juegos populares de Windows.

Wine es una forma de ejecutar software de Windows en Linux, pero no requiere Windows. Wine es una capa de compatibilidad de Windows de código abierto que puede ejecutar programas de Windows directamente en cualquier escritorio de Linux. Esencialmente, Wine está tratando de volver a implementar una cantidad suficiente de Windows desde cero para poder ejecutar todas esas aplicaciones de Windows sin necesidad de Windows.

SCREENSHOTS

Ad


BentoML


DESCRIPCIÓN

BentoML simplifica la implementación de modelos de ML y sirve sus modelos a escala de producción. Admite múltiples marcos de ML de forma nativa: Tensorflow, PyTorch, XGBoost, Scikit-Learn y muchos más. Defina canalizaciones de servicio personalizadas con preprocesamiento, posprocesamiento y modelos de conjuntos. Formato .bento estándar para empaquetar código, modelos y dependencias para facilitar el control de versiones y la implementación. Integre con cualquier tubería de capacitación o plataforma de experimentación de ML. Paralelice las cargas de trabajo de inferencia de modelos con uso intensivo de cómputo para escalar por separado de la lógica de servicio. El procesamiento por lotes adaptativo agrupa dinámicamente las solicitudes de inferencia para un rendimiento óptimo. Organice gráficos de inferencia distribuidos con múltiples modelos a través de Yatai en Kubernetes. Configure fácilmente las dependencias de CUDA para ejecutar la inferencia con GPU. Genere automáticamente imágenes acoplables para la implementación de producción.



Caracteristicas

  • Servicio en línea a través de REST API o gRPC
  • Puntuación sin conexión en conjuntos de datos por lotes con Apache Spark o Dask
  • Servicio de transmisión con Kafka, Beam y Flink
  • Genere automáticamente imágenes acoplables para la implementación de producción
  • Implementación de modelos a escala en Kubernetes
  • Implementación rápida de modelos en cualquier plataforma en la nube


Lenguaje de programación

Python


Categorías

Marcos, aprendizaje automático

Esta es una aplicación que también se puede obtener desde https://sourceforge.net/projects/bentoml.mirror/. Ha sido alojado en OnWorks para poder ejecutarse online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.


Servidores y estaciones de trabajo gratuitos

Descargar aplicaciones de Windows y Linux

Comandos de Linux

Ad