Il s'agit de l'application Linux nommée SageMaker Inference Toolkit dont la dernière version peut être téléchargée en tant que v1.10.0.zip. Il peut être exécuté en ligne dans le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez en ligne gratuitement cette application nommée SageMaker Inference Toolkit avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN:
Boîte à outils d'inférence SageMaker
DESCRIPTION:
Servez des modèles d'apprentissage automatique dans un conteneur Docker à l'aide d'Amazon SageMaker. Amazon SageMaker est un service entièrement géré pour les workflows de science des données et d'apprentissage automatique (ML). Vous pouvez utiliser Amazon SageMaker pour simplifier le processus de création, de formation et de déploiement de modèles ML. Une fois que vous avez un modèle formé, vous pouvez l'inclure dans un conteneur Docker qui exécute votre code d'inférence. Un conteneur fournit un environnement efficacement isolé, garantissant une exécution cohérente quel que soit l'endroit où le conteneur est déployé. La conteneurisation de votre modèle et de votre code permet un déploiement rapide et fiable de votre modèle. La boîte à outils d'inférence SageMaker implémente une pile de service de modèle et peut être facilement ajoutée à n'importe quel conteneur Docker, ce qui la rend déployable sur SageMaker. La pile de service de cette bibliothèque est construite sur Multi Model Server et peut servir vos propres modèles ou ceux que vous avez formés sur SageMaker à l'aide de frameworks d'apprentissage automatique avec prise en charge native de SageMaker.
Caractéristiques
- La pile de service de cette bibliothèque est construite sur Multi Model Server
- Servez vos propres modèles ou ceux que vous avez formés sur SageMaker à l'aide de frameworks d'apprentissage automatique avec prise en charge native de SageMaker
- Si vous utilisez une image SageMaker Docker prédéfinie pour l'inférence, cette bibliothèque peut déjà être incluse
- Implémenter un service de gestionnaire qui est exécuté par le serveur de modèles
- Implémenter un point d'entrée de service, qui démarre le serveur de modèle
- Cette bibliothèque est sous licence Apache 2.0
Langage de programmation
Python
Catégories
Il s'agit d'une application qui peut également être récupérée à partir de https://sourceforge.net/projects/sagemaker-infer-toolkit.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.