Il s'agit de l'application Windows nommée DeepSpeed MII dont la dernière version peut être téléchargée sous DeepSpeedMIIv0.0.8.zip. Il peut être exécuté en ligne chez le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez gratuitement en ligne cette application nommée DeepSpeed MII avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN
Ad
DeepSpeed MII
DESCRIPTION
MII permet une inférence à faible latence et à haut débit, optimisée par DeepSpeed. La communauté open source Deep Learning (DL) a connu une croissance fulgurante au cours des derniers mois. Des modèles de génération de texte incroyablement puissants tels que le Bloom 176B ou des modèles de génération d'images tels que Stable Diffusion sont désormais disponibles pour toute personne ayant accès à une poignée, voire à un seul GPU via des plates-formes telles que Hugging Face. Même si l’open source a démocratisé l’accès aux capacités de l’IA, leur application reste limitée par deux facteurs critiques : la latence d’inférence et le coût. DeepSpeed-MII est une nouvelle bibliothèque Python open source de DeepSpeed, visant à rendre l'inférence à faible latence et à faible coût de modèles puissants non seulement réalisable mais également facilement accessible. MII offre l'accès à l'implémentation hautement optimisée de milliers de modèles DL largement utilisés. Les modèles pris en charge par MII atteignent une latence et un coût nettement inférieurs à ceux de leur implémentation d'origine.
Fonctionnalités
- MII offre l'accès à une implémentation hautement optimisée de milliers de modèles DL largement utilisés
- Les modèles pris en charge par MII atteignent une latence et un coût nettement inférieurs à ceux de leur implémentation d'origine.
- MII exploite un ensemble complet d'optimisations de DeepSpeed-Inference, telles que la fusion profonde pour les transformateurs.
- Des performances de pointe
- MII prend en charge le déploiement à faible coût de ces modèles à la fois sur site et sur Azure via AML avec seulement quelques lignes de codes
- Découpage tenseur automatisé pour l'inférence multi-GPU, quantification à la volée avec ZeroQuant
Langage de programmation
Python
Catégories
Il s'agit d'une application qui peut également être récupérée sur https://sourceforge.net/projects/deepspeed-mii.mirror/. Il a été hébergé dans OnWorks afin de pouvoir être exécuté en ligne de la manière la plus simple possible à partir de l'un de nos systèmes d'exploitation gratuits.