Esta es la aplicación de Linux llamada SageMaker Inference Toolkit cuya última versión se puede descargar como v1.10.0.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada SageMaker Inference Toolkit with OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
Kit de herramientas de inferencia de SageMaker
DESCRIPCIÓN
Sirva modelos de aprendizaje automático dentro de un contenedor de Docker con Amazon SageMaker. Amazon SageMaker es un servicio completamente administrado para flujos de trabajo de ciencia de datos y aprendizaje automático (ML). Puede utilizar Amazon SageMaker para simplificar el proceso de creación, capacitación e implementación de modelos de aprendizaje automático. Una vez que tenga un modelo entrenado, puede incluirlo en un contenedor Docker que ejecuta su código de inferencia. Un contenedor proporciona un entorno aislado de manera efectiva, lo que garantiza un tiempo de ejecución constante independientemente de dónde se implemente el contenedor. Contener su modelo y código permite una implementación rápida y confiable de su modelo. SageMaker Inference Toolkit implementa una pila de servicio de modelos y se puede agregar fácilmente a cualquier contenedor de Docker, lo que lo hace implementable en SageMaker. La pila de servicio de esta biblioteca se basa en Multi Model Server y puede servir sus propios modelos o aquellos que entrenó en SageMaker utilizando marcos de aprendizaje automático con soporte nativo de SageMaker.
Caracteristicas
- La pila de servicio de esta biblioteca se basa en Multi Model Server
- Sirva sus propios modelos o aquellos que entrenó en SageMaker usando marcos de aprendizaje automático con soporte nativo de SageMaker
- Si usa una imagen de SageMaker Docker prediseñada para la inferencia, es posible que esta biblioteca ya esté incluida
- Implementar un servicio de controlador que es ejecutado por el servidor modelo
- Implementar un punto de entrada de servicio, que inicia el servidor modelo
- Esta biblioteca tiene la licencia Apache 2.0 License
Lenguaje de programación
Python
Categorías
Esta es una aplicación que también se puede obtener de https://sourceforge.net/projects/sagemaker-infer-toolkit.mirror/. Ha sido alojado en OnWorks para poder ejecutarse online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.