Il s'agit de l'application Linux nommée AWS Neuron dont la dernière version peut être téléchargée sous le nom NeuronSDKRelease-September26,2023.zip. Il peut être exécuté en ligne chez le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez en ligne gratuitement cette application nommée AWS Neuron avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN
Ad
Neurone AWS
DESCRIPTION
AWS Neuron est un kit de développement logiciel (SDK) permettant d'exécuter l'inférence d'apprentissage automatique à l'aide de puces AWS Inferentia. Il se compose d'un compilateur, d'outils d'exécution et de profilage qui permettent aux développeurs d'exécuter des inférences hautes performances et à faible latence à l'aide d'instances Amazon EC2 Inf1 basées sur AWS Inferentia. À l'aide de Neuron, les développeurs peuvent facilement former leurs modèles d'apprentissage automatique sur n'importe quel cadre populaire tel que TensorFlow, PyTorch et MXNet, et l'exécuter de manière optimale sur des instances Amazon EC2 Inf1. Vous pouvez continuer à utiliser les mêmes frameworks ML que vous utilisez aujourd'hui et migrer votre logiciel vers des instances Inf1 avec des modifications de code minimales et sans lien avec des solutions spécifiques au fournisseur. Neuron est pré-intégré dans des cadres d'apprentissage automatique populaires tels que TensorFlow, MXNet et Pytorch pour fournir un flux de travail de formation à l'inférence transparent. Il comprend un compilateur, un pilote d'exécution, ainsi que des utilitaires de débogage et de profilage avec un plug-in TensorBoard pour la visualisation.
Fonctionnalités
- Amazon SageMaker est le moyen le plus rapide et le plus simple de démarrer avec les instances Inf1.
- Le kit SDK AWS Neuron est intégré à des frameworks populaires tels que TensorFlow, PyTorch et MXNet
- Il est préinstallé dans les AMI Amazon Deep Learning et les conteneurs Amazon Deep Learning
- Le SDK AWS Neuron permet une programmation et un accès d'exécution efficaces aux puces Inferentia
- Étant donné que Neuron est intégré à des cadres d'apprentissage automatique courants, les développeurs déploient leurs modèles existants sur des instances EC2 Inf1 avec des modifications de code minimales
- Fournit aux clients la possibilité de compiler et d'exécuter des inférences à l'aide de modèles pré-entraînés
Langage de programmation
Python
Catégories
Il s'agit d'une application qui peut également être récupérée à partir de https://sourceforge.net/projects/aws-neuron.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.