Il s'agit de l'application Windows nommée CUTLASS dont la dernière version peut être téléchargée en tant que CUTLASS3.2.1.zip. Il peut être exécuté en ligne dans le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez en ligne gratuitement cette application nommée CUTLASS avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN
Ad
CUTLASS
DESCRIPTION
CUTLASS est une collection d'abstractions de modèles CUDA C++ pour la mise en œuvre de la multiplication matricielle haute performance (GEMM) et des calculs associés à tous les niveaux et à toutes les échelles au sein de CUDA. Il intègre des stratégies de décomposition hiérarchique et de déplacement de données similaires à celles utilisées pour implémenter cuBLAS et cuDNN. CUTLASS décompose ces "parties mobiles" en composants logiciels réutilisables et modulaires abstraits par des classes de modèles C++. Ces primitives à l'échelle du thread, à l'échelle de la chaîne, à l'échelle du bloc et à l'échelle de l'appareil peuvent être spécialisées et ajustées via des tailles de mosaïque personnalisées, des types de données et d'autres règles algorithmiques. La flexibilité qui en résulte simplifie leur utilisation en tant que blocs de construction dans les noyaux et applications personnalisés. Pour prendre en charge une grande variété d'applications, CUTLASS fournit un support étendu pour les calculs à précision mixte, fournissant des abstractions spécialisées de déplacement de données et de multiplication-accumulation pour la virgule flottante demi-précision (FP16), BFloat16 (BF16), Tensor Float 32 (TF32), etc.
Caractéristiques
- CUTLASS implémente la convolution haute performance via l'algorithme GEMM implicite
- Le GEMM implicite est la formulation d'une opération de convolution en tant que GEMM, tirant ainsi parti du pipeline GEMM modulaire de CUTLASS
- Construire des convolutions en réutilisant des composants GEMM hautement optimisés à l'échelle de la chaîne et en dessous
- Noyaux de convolution de première couche spécialisés pour un petit nombre de canaux et un alignement réduit
- Opérateurs BLAS3 accélérés par Tensor Cores
- Performances optimales avec CUDA 11.7
Langage de programmation
C + +
Catégories
Il s'agit d'une application qui peut également être récupérée à partir de https://sourceforge.net/projects/cutlass.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.