Englishfrançaisespagnol

Icône de favori OnWorks

alt-nvidia-361-updates-smi - En ligne dans le cloud

Exécutez alt-nvidia-361-updates-smi dans le fournisseur d'hébergement gratuit OnWorks sur Ubuntu Online, Fedora Online, l'émulateur en ligne Windows ou l'émulateur en ligne MAC OS

Il s'agit de la commande alt-nvidia-361-updates-smi qui peut être exécutée dans le fournisseur d'hébergement gratuit OnWorks en utilisant l'un de nos multiples postes de travail en ligne gratuits tels que Ubuntu Online, Fedora Online, l'émulateur en ligne Windows ou l'émulateur en ligne MAC OS

PROGRAMME:

Nom


nvidia-smi - programme d'interface de gestion de système NVIDIA

SYNOPSIS


nvidia-smi [OPTION1 [ARG1]] [OPTION2 [ARG2]] ...

DESCRIPTION


nvidia-smi (également NVSMI) fournit des capacités de surveillance et de gestion
pour chacun des appareils NVIDIA Tesla, Quadro, GRID et GeForce de Fermi
et les familles d'architecture supérieures. Les appareils de la série GeForce Titan sont
pris en charge pour la plupart des fonctions avec des informations très limitées fournies pour
le reste de la marque Geforce. NVSMI est un outil multiplateforme
qui prend en charge toutes les distributions Linux standard prises en charge par les pilotes NVIDIA, comme
ainsi que les versions 64 bits de Windows à partir de Windows Server 2008 R2.
Les métriques peuvent être consommées directement par les utilisateurs via stdout, ou fournies par
via les formats CSV et XML à des fins de script.

Notez que la plupart des fonctionnalités de NVSMI sont fournies par le
bibliothèque NVML C sous-jacente. Voir le lien du site Web des développeurs NVIDIA
ci-dessous pour plus d'informations sur NVML. Les liaisons python basées sur NVML sont
aussi disponible.

Il n'est pas garanti que la sortie de NVSMI soit rétrocompatible.
Cependant, NVML et les liaisons Python sont rétrocompatibles,
et devrait être le premier choix lors de l'écriture d'outils qui doivent être
maintenu dans toutes les versions de pilotes NVIDIA.

NVML SDK: http://developer.nvidia.com/nvidia-management-library-nvml/

Python liaisons : http://pypi.python.org/pypi/nvidia-ml-py/

OPTIONS


GÉNÉRAL OPTIONS
-h, --Aidez-moi
Imprimez les informations d'utilisation et quittez.

RÉSUMÉ OPTIONS
-L, --list-gpu
Répertoriez chacun des GPU NVIDIA du système, ainsi que leurs UUID.

QUERY OPTIONS
-q, --mettre en doute
Afficher les informations sur le GPU ou l'unité. Les informations affichées incluent toutes les données répertoriées dans
les (GPU CARACTÉRISTIQUES) Or (UNITÉ CARACTÉRISTIQUES) sections de ce document.
Certains appareils et/ou environnements ne prennent pas en charge tous les possibles
informations. Toute donnée non prise en charge est indiquée par un « N/A » dans le
sortir. Par défaut, les informations pour tous les GPU ou unités disponibles sont
affiché. Utilisez le -i option pour restreindre la sortie à un seul GPU ou
Unité.

[plus optionnel]
-tu, --unité
Affichez les données de l'unité au lieu des données du GPU. Les données unitaires ne sont disponibles que pour
Boîtiers Tesla de classe S NVIDIA.

-je, --id=identifiant
Affichez les données pour un seul GPU ou unité spécifié. L'identifiant spécifié peut
être l'index basé sur 0 du GPU/Unité dans l'énumération naturelle renvoyée par
le pilote, le numéro de série de la carte du GPU, l'UUID du GPU ou le
ID de bus PCI (comme domaine:bus:périphérique.fonction en hexadécimal). C'est recommandé
que les utilisateurs souhaitant la cohérence utilisent soit l'UUID, soit l'ID de bus PCI, car
l'ordre d'énumération des périphériques n'est pas garanti comme étant cohérent entre
les redémarrages et le numéro de série de la carte peuvent être partagés entre plusieurs GPU
sur le même plateau.

-f DÉPOSER, --filename=FICHIER
Rediriger la sortie de la requête vers le fichier spécifié à la place du fichier par défaut
sortie standard. Le fichier spécifié sera écrasé.

-X, --format-xml
Produisez une sortie XML à la place du format lisible par défaut. Les deux
Les sorties de requête GPU et Unit sont conformes aux DTD correspondantes. Ceux-ci sont
disponible via le --dtd drapeau.

--dtd
Utiliser avec -x. Intégrez la DTD dans la sortie XML.

--debug=FICHIER
Produit un journal de débogage chiffré à utiliser lors de la soumission des bogues à
Nvidia.

-d TAPER, --affichage=TYPE
Afficher uniquement les informations sélectionnées : MÉMOIRE, UTILISATION, ECC,
TEMPÉRATURE, PUISSANCE, HORLOGE, CALCUL, PIDS, PERFORMANCE,
SUPPORTED_CLOCKS, PAGE_RETIREMENT, ACCOUNTING Les indicateurs peuvent être combinés
avec une virgule, par exemple "MEMORY,ECC". L'échantillonnage des données avec max, min et avg est
également renvoyé pour les types d'affichage POWER, UTILIZATION et CLOCK. n'est-ce pas
fonctionne avec les indicateurs -u/--unit ou -x/--xml-format.

-l SECONDE, --loop=SEC
Signaler en continu les données de requête à l'intervalle spécifié, plutôt que
la valeur par défaut d'une seule fois. L'application va dormir entre les deux
requêtes. Notez que sur Linux, les événements d'erreur ECC ou d'erreur XID s'imprimeront
pendant la période de sommeil si le -x le drapeau n'a pas été spécifié. Pressage
Ctrl+C annulera à tout moment la boucle, qui sinon s'exécutera
indéfiniment. Si aucun argument n'est spécifié pour le -l former une valeur par défaut
un intervalle de 5 secondes est utilisé.

SÉLECTIF QUERY OPTIONS
Permet à l'appelant de transmettre une liste explicite de propriétés à interroger.

[une de]
--query-gpu=
Informations sur le GPU. Passez la liste des propriétés séparées par des virgules que vous
voulez interroger. par exemple --query-gpu=pci.bus_id,persistence_mode. Appel
--help-query-gpu pour plus d'informations.

--query-supported-horloges=
Liste des horloges prises en charge. Appelez --help-query-supported-clocks pour en savoir plus
Info.

--query-compute-apps=
Liste des processus de calcul actuellement actifs. Appel
--help-query-compute-apps pour plus d'informations.

--query-accounted-apps=
Liste des processus de calcul comptabilisés. Appelez --help-query-accounted-apps
pour plus d'informations.

--query-pages-retirées=
Liste des pages de mémoire de périphérique GPU qui ont été retirées. Appel
--help-query-retired-pages pour plus d'informations.

[obligatoire]
--format=
Liste d'options de format séparées par des virgules :

· csv - valeurs séparées par des virgules (OBLIGATOIRE)

· noheader - saute la première ligne avec les en-têtes de colonne

· noms - n'imprime pas les unités pour les valeurs numériques

[plus tout de]
-je, --id=identifiant
Afficher les données pour un seul GPU spécifié. L'identifiant spécifié peut être le
l'index 0 du GPU dans l'énumération naturelle renvoyée par le pilote,
le numéro de série de la carte du GPU, l'UUID du GPU ou l'ID du bus PCI du GPU
(comme domain:bus:device.function en hexadécimal). Il est recommandé aux utilisateurs
désireux de cohérence, utilisez l'UUID ou l'ID de bus PCI, car le périphérique
l'ordre d'énumération n'est pas garanti pour être cohérent entre les redémarrages
et le numéro de série de la carte peuvent être partagés entre plusieurs GPU sur le
même planche.

-f DÉPOSER, --filename=FICHIER
Rediriger la sortie de la requête vers le fichier spécifié à la place du fichier par défaut
sortie standard. Le fichier spécifié sera écrasé.

-l SECONDE, --loop=SEC
Signaler en continu les données de requête à l'intervalle spécifié, plutôt que
la valeur par défaut d'une seule fois. L'application va dormir entre les deux
requêtes. Notez que sur Linux, les événements d'erreur ECC ou d'erreur XID s'imprimeront
pendant la période de sommeil si le -x le drapeau n'a pas été spécifié. Pressage
Ctrl+C annulera à tout moment la boucle, qui sinon s'exécutera
indéfiniment. Si aucun argument n'est spécifié pour le -l former une valeur par défaut
un intervalle de 5 secondes est utilisé.

-lms Mme, --loop-ms=ms
Identique à -l,--loop mais en millisecondes.

DISPOSITIF MODIFICATION OPTIONS
[tout UN de]
-pm, --persistence-mode=MODE
Définissez le mode de persistance pour les GPU cibles. Voir le (GPU CARACTÉRISTIQUES)
section pour une description du mode de persistance. Nécessite la racine. Volonté
ont un impact sur tous les GPU à moins qu'un seul GPU ne soit spécifié à l'aide de la -i argument.
L'effet de cette opération est immédiat. Cependant, il ne
persister à travers les redémarrages. Après chaque redémarrage, le mode persistance
par défaut sur "Désactivé". Disponible sur Linux uniquement.

-e, --ecc-config=CONFIG
Définissez le mode ECC pour les GPU cibles. Voir le (GPU CARACTÉRISTIQUES) section
pour une description du mode ECC. Nécessite la racine. Aura un impact sur tous les GPU
à moins qu'un seul GPU ne soit spécifié à l'aide du -i argument. Ce paramètre
prend effet après le prochain redémarrage et est persistant.

-p, --reset-ecc-errors=TYPE
Réinitialisez les compteurs d'erreurs ECC pour les GPU cibles. Voir le (GPU
CARACTÉRISTIQUES) pour une description des types de compteurs d'erreurs ECC.
Les arguments disponibles sont 0|VOLATILE ou 1|AGGREGATE. Nécessite la racine.
Aura un impact sur tous les GPU à moins qu'un seul GPU ne soit spécifié à l'aide de la -i
argument. L'effet de cette opération est immédiat.

-c, --compute-mode=MODE
Définissez le mode de calcul pour les GPU cibles. Voir le (GPU CARACTÉRISTIQUES)
section pour une description du mode de calcul. Nécessite la racine. aura un impact
tous les GPU à moins qu'un seul GPU ne soit spécifié à l'aide de la -i argument. le
l'effet de cette opération est immédiat. Cependant, il ne persiste pas
à travers les redémarrages. Après chaque redémarrage, le mode de calcul sera réinitialisé à
"DÉFAUT".

-dm TAPER, --driver-model=TYPE
-fdm TAPER, --force-driver-model=TYPE
Activer ou désactiver le modèle de pilote TCC. Pour Windows uniquement. A besoin
les privilèges d'administrateur. -dm échouera si un écran est connecté, mais
-fdm forcera le modèle de pilote à changer. Aura un impact sur tous les GPU
à moins qu'un seul GPU ne soit spécifié à l'aide du -i argument. Un redémarrage est
nécessaire pour que le changement ait lieu. Voir Chauffeur Modèle pour plus d'
informations sur les modèles de pilotes Windows.

--gom=MODE
Définir le mode de fonctionnement du GPU : 0/ALL_ON, 1/COMPUTE, 2/LOW_DP
Produits Tesla GK110 de classe M et de classe X de la famille Kepler. Pas
pris en charge sur les produits Quadro et Tesla classe C. LOW_DP et ALL_ON sont
les seuls modes pris en charge sur les appareils GeForce Titan. A besoin
les privilèges d'administrateur. Voir GPU Opération Mode pour plus d'informations
à propos de GOM. Les modifications de GOM prennent effet après le redémarrage. Le redémarrage
l'exigence pourrait être supprimée à l'avenir. Calculer seuls les GOM ne le font pas
prend en charge WDDM (modèle de pilote d'affichage Windows)

-r, --gpu-reset
Déclenchez une réinitialisation du GPU. Peut être utilisé pour effacer l'état du GPU HW et SW
dans des situations qui nécessiteraient autrement un redémarrage de la machine. Typiquement
utile si une erreur ECC double bit s'est produite. A besoin -i basculer vers
appareil spécifique cible. Nécessite la racine. Il ne peut pas y en avoir
applications utilisant cet appareil particulier (par exemple, application CUDA,
application graphique comme le serveur X, application de surveillance comme les autres
instance de nvidia-smi). Il ne peut pas non plus y avoir d'applications de calcul
s'exécutant sur n'importe quel autre GPU du système. Uniquement sur les appareils pris en charge de
Famille Fermi et Kepler fonctionnant sous Linux.

La réinitialisation du GPU n'est pas garantie de fonctionner dans tous les cas. Ce n'est pas recommandé
pour les environnements de production en ce moment. Dans certaines situations, il peut
être des composants matériels sur la carte qui ne parviennent pas à revenir à un
état suivant la demande de réinitialisation. Ceci est plus susceptible d'être vu sur
Produits de la génération Fermi vs Kepler, et plus susceptibles d'être vus si le
la réinitialisation est effectuée sur un GPU bloqué.

Après une réinitialisation, il est recommandé que la santé du GPU soit
vérifié avant toute autre utilisation. L'outil nvidia-healthmon est un bon
choix pour ce test. Si le GPU n'est pas sain, une réinitialisation complète
doit être déclenché en redémarrant le nœud.

Visitez le http://developer.nvidia.com/gpu-deployment-kit pour télécharger le
GDK et nvidia-healthmon.

-ac, --applications-clocks=MEM_CLOCK,GRAPHICS_CLOCK
Spécifie le maximum horloges par paire (par exemple 2000,800)
qui définit la vitesse du GPU lors de l'exécution d'applications sur un GPU. Pour
Appareils Tesla de la famille Kepler+ et GeForce Titan basé sur Maxwell.
Nécessite root à moins que les restrictions ne soient assouplies avec la commande -acp.

-rac, --reset-applications-horloges
Réinitialise les horloges des applications à la valeur par défaut. Pour les appareils Tesla
de la famille Kepler+ et GeForce Titan basé sur Maxwell. Nécessite la racine
à moins que les restrictions ne soient assouplies avec la commande -acp.

-acp, --applications-clocks-permission=MODE
Basculer si les horloges des applications peuvent être modifiées par tous les utilisateurs ou uniquement
par racine. Les arguments disponibles sont 0|UNRESTRICTED, 1|RESTRICTED. Pour
Appareils Tesla de la famille Kepler+ et GeForce Titan basé sur Maxwell.
Nécessite la racine.

-PL, --power-limit=LIMITE_PUISSANCE
Spécifie la limite de puissance maximale en watts. Accepte les nombres entiers et flottants
numéros de points. Uniquement sur les appareils pris en charge de la famille Kepler. A besoin
les privilèges d'administrateur. La valeur doit être comprise entre Min et Max Power
Limite telle que rapportée par nvidia-smi.

-un m, --accounting-mode=MODE
Active ou désactive la comptabilité GPU. Avec la comptabilité GPU, on peut garder
suivi de l'utilisation des ressources tout au long de la durée de vie d'un processus unique.
Uniquement sur les appareils pris en charge de la famille Kepler. Nécessite un administrateur
privilèges. Les arguments disponibles sont 0|DISABLED ou 1|ENABLED.

-caa, --clear-accouted-apps
Efface tous les processus comptabilisés jusqu'à présent. Uniquement sur les appareils pris en charge de
famille Kepler. Nécessite des privilèges d'administrateur.

--auto-boost-default=MODE
Définissez la politique de boost automatique par défaut sur 0/DISABLED ou 1/ENABLED, en appliquant
le changement uniquement après la sortie du dernier client boost. Seulement sur
certains appareils Tesla de la famille Kepler+ et GeForce basé sur Maxwell
dispositifs. Nécessite la racine.

--auto-boost-default-force=MODE
Définissez la politique de boost automatique par défaut sur 0/DISABLED ou 1/ENABLED, en appliquant
le changement immédiatement. Uniquement sur certains appareils Tesla du Kepler+
appareils GeForce de la famille et basés sur Maxwell. Nécessite la racine.

--auto-boost-permission=MODE
Autoriser le contrôle non administrateur/root sur le mode boost automatique. Arguments disponibles
sont 0|SANS RESTRICTION, 1|RESTREINT. Uniquement sur certains appareils Tesla de
la famille Kepler+ et les appareils GeForce basés sur Maxwell. Nécessite la racine.

[plus optionnel]
-je, --id=identifiant
Modifier un seul GPU spécifié. L'identifiant spécifié peut être celui du GPU/de l'unité
Indice de base 0 dans l'énumération naturelle renvoyée par le pilote, le
Le numéro de série de la carte du GPU, l'UUID du GPU ou l'ID du bus PCI du GPU (comme
domaine:bus:appareil.fonction en hexadécimal). Il est recommandé aux utilisateurs
désireux de cohérence, utilisez l'UUID ou l'ID de bus PCI, car le périphérique
l'ordre d'énumération n'est pas garanti pour être cohérent entre les redémarrages
et le numéro de série de la carte peuvent être partagés entre plusieurs GPU sur le
même planche.

UNITÉ MODIFICATION OPTIONS
-t, --toggle-led=ÉTAT
Réglez l'état de l'indicateur LED à l'avant et à l'arrière de l'unité sur
couleur spécifiée. Voir le (UNITÉ CARACTÉRISTIQUES) section pour une description
des états des LED. Les couleurs autorisées sont 0|GREEN et 1|AMBER. A besoin
racine

[plus optionnel]
-je, --id=identifiant
Modifier une seule unité spécifiée. L'identifiant spécifié est l'unité basée sur 0
index dans l'énumération naturelle renvoyée par le pilote.

SPECTACLES DTD OPTIONS
--dtd
Afficher le périphérique ou l'unité DTD.

[plus optionnel]
-f DÉPOSER, --filename=FICHIER
Rediriger la sortie de la requête vers le fichier spécifié à la place du fichier par défaut
sortie standard. Le fichier spécifié sera écrasé.

-tu, --unité
Affichez le DTD de l'unité au lieu du DTD de l'appareil.

stats
Afficher des informations statistiques sur le GPU. Utiliser "statistiques nvidia-smi
-h" pour plus d'informations. Linux uniquement.

Pois
Afficher les informations de topologie sur le système. Utilisez " nvidia-smi topo
-h" pour plus d'informations. Linux uniquement. Affiche tous les GPU que NVML est capable de
détecter, mais les informations d'affinité CPU ne seront affichées que pour les GPU avec
Kepler ou architectures plus récentes. Remarque : l'énumération GPU est la même que
NVML.

vidanger
Affichez et modifiez les états de drain du GPU. Utilisez "nvidia-smi drain -h" pour
Plus d'information. Linux uniquement.

nvlien
Afficher les informations nvlink. Utilisez "nvidia-smi nvlink -h" pour plus
</br>L’Information.

horloges
Interrogez et contrôlez le comportement de synchronisation. Actuellement, cela ne concerne que
boost synchronisé. Utilisez "nvidia-smi clocks --help" pour en savoir plus
</br>L’Information.

RETOUR VALEURE


Le code de retour indique si l'opération a réussi ou échoué et quel
était la cause de l'échec.

· Code retour 0 - Réussite

· Code de retour 2 - Un argument ou un indicateur fourni n'est pas valide

· Code retour 3 - L'opération demandée n'est pas disponible sur
Dispositif cible

· Code retour 4 - L'utilisateur actuel n'a pas la permission de
accéder à cet appareil ou effectuer cette opération

· Code retour 6 - Une requête pour trouver un objet a échoué

· Code retour 8 - Les câbles d'alimentation externes d'un appareil ne sont pas
bien attaché

· Code retour 9 - Le pilote NVIDIA n'est pas chargé

· Code de retour 10 - NVIDIA Kernel a détecté un problème d'interruption avec
un GPU

· Code de retour 12 - La bibliothèque partagée NVML n'a pas pu être trouvée ou chargée

· Code de retour 13 - La version locale de NVML ne l'implémente pas
fonction

· Code de retour 14 - l'infoROM est corrompue

· Code retour 15 - Le GPU est tombé du bus ou a autrement
devenir inaccessible

· Code de retour 255 - Une autre erreur ou une erreur de pilote interne s'est produite

GPU CARACTÉRISTIQUES


La liste suivante décrit toutes les données possibles renvoyées par le -q
option de requête de périphérique. Sauf indication contraire, tous les résultats numériques sont
base 10 et sans unité.

Horodatage
L'horodatage actuel du système au moment où nvidia-smi a été appelé.
Le format est "Jour de la semaine Mois Jour HH:MM:SS Année".

Chauffeur Version
La version du pilote d'affichage NVIDIA installé. C'est un
chaîne alphanumérique.

Attached GPU
Le nombre de GPU NVIDIA dans le système.

Produit Nom
Le nom de produit officiel du GPU. Il s'agit d'une chaîne alphanumérique.
Pour tous les produits.

Présentoir Mode
Un indicateur qui indique si un affichage physique (par exemple un moniteur) est
actuellement connecté à l'un des connecteurs du GPU. "Activée"
indique un affichage attaché. "Désactivé" indique le contraire.

Présentoir Actif
Un drapeau qui indique si un affichage est initialisé sur le GPU
(par exemple, de la mémoire est allouée sur l'appareil pour l'affichage). L'affichage peut être
actif même lorsqu'aucun moniteur n'est physiquement connecté. "Activée"
indique un affichage actif. "Désactivé" indique le contraire.

Persistence Mode
Un indicateur qui indique si le mode persistance est activé pour le GPU.
La valeur est soit « Activé » ou « Désactivé ». Lorsque le mode persistance est
activé, le pilote NVIDIA reste chargé même en l'absence de clients actifs,
tels que X11 ou nvidia-smi, existent. Cela minimise la charge du pilote
latence associée à l'exécution d'applications dépendantes, telles que les programmes CUDA.
Pour tous les produits compatibles CUDA. Linux uniquement.

Comptabilité Mode
Un indicateur qui indique si le mode de comptabilité est activé pour le GPU
La valeur est soit Lorsque la comptabilité est activée, les statistiques sont calculées
pour chaque processus de calcul exécuté sur le GPU. Les statistiques peuvent être interrogées
pendant la durée de vie ou après la fin du processus. L'exécution
l'heure du processus est signalée comme 0 pendant que le processus est en cours d'exécution
et mis à jour au temps d'exécution réel après la fin du processus.
Voir --help-query-accounted-apps pour plus d'informations.

Comptabilité Mode Buffer Taille
Renvoie la taille du tampon circulaire qui contient la liste des processus
qui peut être interrogé pour les statistiques comptables. C'est le nombre maximum
des processus pour lesquels les informations comptables seront stockées avant
les informations sur les processus les plus anciens seront écrasées par des informations
sur les nouveaux processus.

Chauffeur Modèle
Sous Windows, les modèles de pilotes TCC et WDDM sont pris en charge. Le conducteur
le modèle peut être changé avec le (-dm) Or (-fdm) drapeaux. Le pilote TCC
modèle est optimisé pour les applications de calcul. Heures de lancement du noyau IE
sera plus rapide avec TCC. Le modèle de pilote WDDM est conçu pour
applications graphiques et n'est pas recommandé pour les applications de calcul.
Linux ne prend pas en charge plusieurs modèles de pilotes et aura toujours le
valeur de "N/A".

Courant Le modèle de pilote actuellement utilisé. Toujours "N/A" activé
Linux.

En Attente Le modèle de pilote qui sera utilisé au prochain redémarrage.
Toujours "N/A" sous Linux.

Port série Numéro
Ce numéro correspond au numéro de série physiquement imprimé sur chaque carte.
Il s'agit d'une valeur alphanumérique immuable unique au monde.

GPU UUID
Cette valeur est l'identifiant alphanumérique immuable unique au monde de
le GPU. Il ne correspond à aucune étiquette physique sur la carte.

Mineurs Numéro
Le numéro mineur de l'appareil est tel que le nœud de l'appareil Nvidia
fichier pour chaque GPU aura la forme /dev/nvidia[numéro mineur].
Disponible uniquement sur la plate-forme Linux.

BIOS Version
Le BIOS de la carte GPU.

MultiGPU Conseil d'administration
Que ce GPU fasse ou non partie d'une carte multiGPU.

Conseil d'administration ID
L'ID de carte unique attribué par le conducteur. Si deux ou plusieurs GPU ont
le même ID de carte et le champ "MultiGPU" ci-dessus est vrai alors les GPU
sont sur le même plateau.

Infos Version
Numéros de version pour chaque objet dans le stockage d'informations de la carte GPU.
L'inforom est un petit magasin persistant de configuration et d'état
données pour le GPU. Tous les champs d'information de version sont numériques. Ça peut être
utile de connaître ces numéros de version car certaines fonctionnalités du GPU ne sont
disponible avec les inforoms d'une certaine version ou supérieure.

Si l'un des champs ci-dessous renvoie une erreur inconnue, des informations supplémentaires
le contrôle de vérification est effectué et le message d'avertissement approprié est
affiché.

Image(s) Version Version globale de l'image infoROM. Version de l'image juste
comme la version VBIOS décrit de manière unique la version exacte
de l'infoROM a clignoté sur la carte contrairement à
version de l'objet infoROM qui n'est qu'un indicateur de
fonctionnalités prises en charge.

OEM Objet Version pour les données de configuration OEM.

ECC Objet Version pour les données d'enregistrement ECC.

Puissance Objet Version pour les données de gestion de l'alimentation.

GPU Opération Mode
GOM permet de réduire la consommation d'énergie et d'optimiser le débit du GPU en
désactiver les fonctionnalités du GPU.

Chaque GOM est conçu pour répondre aux besoins spécifiques des utilisateurs.

En mode « All On », tout est activé et fonctionne à pleine vitesse.

Le mode "Compute" est conçu pour exécuter uniquement des tâches de calcul. Graphique
les opérations ne sont pas autorisées.

Le mode "Low Double Precision" est conçu pour exécuter des graphiques
applications qui ne nécessitent pas une double précision à bande passante élevée.

GOM peut être modifié avec le (--gom) drapeau.

Pris en charge sur les produits Tesla GK110 de classe M et de classe X du Kepler
famille. Non pris en charge sur les produits Quadro et Tesla de classe C. Meugler
Les modes Double Precision et All On sont les seuls modes disponibles pour
produits GeForce Titan pris en charge.

Courant Le GOM actuellement utilisé.

En Attente Le GOM qui sera utilisé au prochain redémarrage.

PCI
Informations PCI de base pour le périphérique. Certaines de ces informations peuvent changer
chaque fois que des cartes sont ajoutées/retirées/déplacées dans un système. Pour tous les produits.

Autobus Numéro de bus PCI, en hexadécimal

Appareil Numéro de périphérique PCI, en hexadécimal

Domaine Numéro de domaine PCI, en hexadécimal

Appareil Id ID de périphérique du fournisseur PCI, en hexadécimal

Sol Système Id Identifiant du sous-système PCI, en hexadécimal

Autobus Id ID de bus PCI comme "domain:bus:device.function", en hexadécimal

GPU Lien d'information
La génération de liens PCIe et la largeur de bus

Courant La génération et la largeur du lien actuel. Ceux-ci peuvent être
réduit lorsque le GPU n'est pas utilisé.

Maximum La génération et la largeur maximales de liens possibles avec ce
Configuration GPU et système. Par exemple, si le GPU
prend en charge une génération PCIe supérieure à celle du système
prend en charge alors cela signale la génération PCIe du système.

Pont Puce
Informations relatives à Bridge Chip sur l'appareil. La puce du pont
le firmware n'est présent que sur certaines cartes et peut afficher "N/A" pour
quelques nouvelles cartes multiGPU.

Type Le type de puce de pont. Signalé comme N/A si ce n'est pas le cas
exister.

Microcode Version
La version du firmware de la puce bridge. Signalé comme N/A
si n'existe pas.

Replay contrer
C'est le compteur interne qui enregistre diverses erreurs sur le PCIe
autobus.

Tx Cadence de production
Le débit de transmission centré sur le GPU sur le bus PCIe en Mo/s
au cours des 20 dernières ms. Uniquement pris en charge sur les architectures Maxwell et plus récentes.

Rx Cadence de production
Le débit de réception centré sur le GPU sur le bus PCIe en Mo/s sur le
dernières 20 ms. Uniquement pris en charge sur les architectures Maxwell et plus récentes.

Ventilateur Vitesse
La valeur de la vitesse du ventilateur est le pourcentage de la vitesse maximale que l'appareil
ventilateur est actuellement destiné à fonctionner à. Il varie de 0 à 100 %. Noter:
La vitesse indiquée est la vitesse prévue du ventilateur. Si le ventilateur est physiquement
bloqué et incapable de tourner, cette sortie ne correspondra pas au ventilateur réel
la vitesse. De nombreuses pièces ne signalent pas les vitesses des ventilateurs car elles reposent sur
refroidissement via des ventilateurs dans l'enceinte environnante. Pour tous les discrets
produits avec des fans dédiés.

Performance Région
L'état actuel des performances du GPU. Les états vont de P0
(performances maximales) à P12 (performances minimales).

Horloges Étrangler Raisons
Récupère des informations sur les facteurs qui réduisent la fréquence des
horloges. Uniquement sur les appareils Tesla pris en charge de la famille Kepler.

Si toutes les raisons de l'accélérateur sont renvoyées comme "Non actives", cela signifie que
les horloges tournent le plus haut possible.

Idle Rien ne tourne sur le GPU et les horloges sont
passer à l'état inactif. Ce limiteur peut être retiré dans
une version ultérieure.

Application Horloges Paramètres
Les horloges GPU sont limitées par le réglage des horloges des applications.
Par exemple, peut être modifié à l'aide de nvidia-smi
--applications-horloges=

SW Puissance Casquettes L'algorithme SW Power Scaling réduit les horloges ci-dessous
horloges demandées car le GPU consomme trop
Puissance. Par exemple, la limite de puissance SW peut être modifiée avec
nvidia-smi --power-limit=

HW Ralentissez Ralentissement matériel (réduction des horloges du cœur d'un facteur 2
ou plus) est engagé.

C'est un indicateur de :
* La température est trop élevée
* L'assertion de frein de puissance externe est déclenchée (par ex.
l'alimentation du système)
* La consommation électrique est trop élevée et la protection Fast Trigger est
réduire les horloges

Inconnu Un autre facteur non spécifié réduit les horloges.

FB Mémoire Utilisation
Informations sur la mémoire tampon de trame intégrée. La mémoire totale signalée est
affecté par l'état ECC. Si ECC est activé, la mémoire totale disponible est
diminué de plusieurs pour cent, en raison des bits de parité requis. Les
pilote peut également réserver une petite quantité de mémoire pour un usage interne, même
sans travail actif sur le GPU. Pour tous les produits.

Total Taille totale de la mémoire FB.

Occasion Taille utilisée de la mémoire FB.

Gratuit Taille disponible de la mémoire FB.

BARRE1 Mémoire Utilisation
BAR1 est utilisé pour mapper le FB (mémoire de l'appareil) afin qu'il puisse être directement
accédé par le CPU ou par des périphériques tiers (peer-to-peer sur le PCIe
autobus).

Total Taille totale de la mémoire BAR1.

Occasion Taille utilisée de la mémoire BAR1.

Gratuit Taille disponible de la mémoire BAR1.

calcul Mode
L'indicateur de mode de calcul indique si un calcul individuel ou multiple
les applications peuvent s'exécuter sur le GPU.

"Par défaut" signifie que plusieurs contextes sont autorisés par appareil.

« Processus exclusif » signifie qu'un seul contexte est autorisé par appareil,
utilisable à partir de plusieurs threads à la fois.

"Interdit" signifie qu'aucun contexte n'est autorisé par appareil (pas de calcul
applications).

"EXCLUSIVE_PROCESS" a été ajouté dans CUDA 4.0. Versions antérieures de CUDA
pris en charge un seul mode exclusif, ce qui équivaut à
"EXCLUSIVE_THREAD" dans CUDA 4.0 et au-delà.

Pour tous les produits compatibles CUDA.

Utilisation
Les taux d'utilisation indiquent le taux d'occupation de chaque GPU au fil du temps et peuvent être
utilisé pour déterminer combien une application utilise les GPU dans le
système.

Remarque : lors de l'initialisation du pilote, lorsque ECC est activé, on peut voir
Lectures d'utilisation du GPU et de la mémoire. Ceci est causé par la mémoire ECC
Mécanisme de nettoyage effectué lors de l'initialisation du pilote.

GPU Pourcentage de temps au cours de la dernière période d'échantillonnage au cours de laquelle
un ou plusieurs noyaux s'exécutaient sur le GPU. Les
la période d'échantillonnage peut être comprise entre 1 seconde et 1/6 seconde
selon le produit.

Mémoire Pourcentage de temps au cours de la dernière période d'échantillonnage au cours de laquelle
la mémoire globale (de périphérique) était en cours de lecture ou d'écriture. Les
la période d'échantillonnage peut être comprise entre 1 seconde et 1/6 seconde
selon le produit.

Encoder Pourcentage de temps au cours de la dernière période d'échantillonnage au cours de laquelle
l'encodeur vidéo du GPU était utilisé. L'échantillonnage
le taux est variable et peut être obtenu directement via le
API nvmlDeviceGetEncoderUtilization()

Décodeur Pourcentage de temps au cours de la dernière période d'échantillonnage au cours de laquelle
le décodeur vidéo du GPU était utilisé. L'échantillonnage
le taux est variable et peut être obtenu directement via le
API nvmlDeviceGetDecoderUtilization()

Ecc Mode
Un indicateur qui indique si la prise en charge ECC est activée. Peuvent être soit
« Activé » ou « Désactivé ». Les modifications apportées au mode ECC nécessitent un redémarrage.
Nécessite l'objet Inforom ECC version 1.0 ou supérieure.

Courant Le mode ECC sous lequel le GPU fonctionne actuellement.

En Attente Le mode ECC sous lequel le GPU fonctionnera après le
redémarrage suivant.

ECC Erreurs
Les GPU NVIDIA peuvent fournir des nombres d'erreurs pour divers types d'erreurs ECC.
Certaines erreurs ECC sont soit à un bit, soit à double bit, où un seul bit
les erreurs sont corrigées et les erreurs sur deux bits ne sont pas corrigibles. Texture
les erreurs de mémoire peuvent être corrigibles via un renvoi ou non corrigibles si le
le renvoi échoue. Ces erreurs sont disponibles sur deux échelles de temps
(volatil et agrégé). Les erreurs ECC à bit unique sont automatiquement
corrigés par le matériel et n'entraînent pas de corruption des données. Bit double
les erreurs sont détectées mais non corrigées. Veuillez consulter les documents du CEC sur
le Web pour obtenir des informations sur le comportement de l'application de calcul en cas de double bit
des erreurs se produisent. Les compteurs d'erreurs volatiles suivent le nombre d'erreurs
détecté depuis le dernier chargement du pilote. Le nombre total d'erreurs persiste
indéfiniment et ainsi agir comme un compteur à vie.

Remarque sur les décomptes volatils : sous Windows, il s'agit d'une fois par démarrage. Au
Linux, cela peut être plus fréquent. Sous Linux, le pilote se décharge lorsqu'aucun
il existe des clients actifs. Par conséquent, si le mode persistance est activé ou s'il
est toujours un pilote client actif (par exemple X11), alors Linux voit également per-
comportement de démarrage. Sinon, les comptes volatiles sont réinitialisés chaque fois qu'un calcul
l'application est exécutée.

Les produits Tesla et Quadro de la famille Fermi et Kepler peuvent afficher
le nombre total d'erreurs ECC, ainsi qu'une ventilation des erreurs basée sur
emplacement sur la puce. Les emplacements sont décrits ci-dessous.
Les données basées sur l'emplacement pour le nombre d'erreurs agrégé nécessitent Inforom ECC
objet version 2.0. Tous les autres décomptes ECC nécessitent une version d'objet ECC
1.0.

Appareil Mémoire Erreurs détectées dans la mémoire globale de l'appareil.

Enregistrés Fichier Erreurs détectées dans la mémoire du fichier de registre.

L1 Cache Erreurs détectées dans le cache L1.

L2 Cache Erreurs détectées dans le cache L2.

Texture Mémoire Erreurs de parité détectées dans la mémoire de texture.

Total Nombre total d'erreurs détectées sur l'ensemble de la puce. Somme de Appareil
Mémoire, Enregistrés Fichier, L1 Cache, L2 Cache et Texture
Mémoire.

Page Retraite
Les GPU NVIDIA peuvent retirer des pages de mémoire de périphérique GPU lorsqu'elles deviennent
non fiable. Cela peut se produire lorsque plusieurs erreurs ECC sur un seul bit se produisent
pour la même page, ou sur une erreur ECC double bit. Lorsqu'une page est
retiré, le pilote NVIDIA le masquera de telle sorte qu'aucun pilote, ou
les allocations de mémoire d'application peuvent y accéder.

Double Bit ECC Le nombre de pages de mémoire de périphérique GPU qui ont été
retiré en raison d'une erreur ECC double bit.

Simple Bit ECC Le nombre de pages de mémoire de périphérique GPU qui ont été
retiré en raison de plusieurs erreurs ECC sur un seul bit.

En Attente Vérifie si des pages de mémoire de périphérique GPU sont en attente de retrait sur
le prochain redémarrage. Les pages en attente de retrait peuvent toujours être
alloué, et peut causer d'autres problèmes de fiabilité.

Température
Lectures des capteurs de température sur la carte. Toutes les lectures sont en
degrés C. Tous les produits ne prennent pas en charge tous les types de lecture. En particulier,
produits dans des facteurs de forme de module qui reposent sur des ventilateurs de boîtier ou passifs
le refroidissement ne fournit généralement pas de relevés de température. Voir ci-dessous pour
restrictions.

GPU Température du cœur du GPU. Pour tous les discrets et classe S
en vente au détail.

fermeture Temp La température à laquelle un GPU s'arrêtera.

Ralentissez Temp La température à laquelle un GPU commencera à se ralentir
vers le bas pour refroidir.

Puissance Lectures
Les lectures de puissance aident à faire la lumière sur la consommation électrique actuelle du
GPU, et les facteurs qui affectent cette utilisation. Lorsque la gestion de l'alimentation est
a permis au GPU de limiter la consommation d'énergie sous charge pour s'adapter à un
enveloppe de puissance en manipulant l'état de performance actuel. Voir
ci-dessous pour les limites de disponibilité.

Puissance Région L'état de l'alimentation est obsolète et a été renommé en
État des performances en 2.285. Pour maintenir XML
compatibilité, au format XML, l'état des performances est répertorié
dans les deux endroits.

Puissance Gestionnaires
Un indicateur qui indique si la gestion de l'alimentation est
activée. Soit « Supporté » ou « N/A ». Nécessite Inforom
Objet PWR version 3.0 ou supérieure ou appareil Kepler.

Puissance Match nul La dernière consommation d'énergie mesurée pour l'ensemble de la carte, en
watts. Disponible uniquement si la gestion de l'alimentation est prise en charge.
Cette lecture est précise à +/- 5 watts.
Nécessite l'objet Inforom PWR version 3.0 ou supérieure ou
Appareil Kepler.

Puissance limite La limite de puissance du logiciel, en watts. Défini par logiciel
comme nvidia-smi. Disponible uniquement si la gestion de l'alimentation
est pris en charge. Nécessite l'objet Inforom PWR version 3.0
ou supérieur ou appareil Kepler. Sur les appareils Kepler
La limite peut être ajustée à l'aide des commutateurs -pl,--power-limit=.

Forcées Puissance limite
Le plafond de puissance de l'algorithme de gestion de l'alimentation, en
watts. La consommation électrique totale de la carte est manipulée par le
algorithme de gestion de l'alimentation de telle sorte qu'il reste sous cette
valeur. Cette limite est le minimum de diverses limites telles
comme la limite logicielle indiquée ci-dessus. Disponible uniquement si
la gestion de l'alimentation est prise en charge. Nécessite un Kepler
appareil.

Réglage par défaut Puissance limite
Le plafond de puissance de l'algorithme de gestion de l'alimentation par défaut,
en watt. La limite de puissance sera redéfinie sur la puissance par défaut
Limite après déchargement du pilote. Uniquement sur les appareils pris en charge
de la famille Kepler.

Min Puissance limite
La valeur minimale en watts que la limite de puissance peut être définie
à. Uniquement sur les appareils pris en charge de la famille Kepler.

Max Puissance limite
La valeur maximale en watts que la limite de puissance peut être définie
à. Uniquement sur les appareils pris en charge de la famille Kepler.

Horloges
Fréquence actuelle à laquelle certaines parties du GPU s'exécutent. Toutes les lectures
sont en MHz.

Graphiques Fréquence actuelle de l'horloge graphique (shader).

SM Fréquence actuelle du SM (Streaming Multiprocessor)
l'horloge.

Mémoire Fréquence actuelle de l'horloge mémoire.

Video Fréquence actuelle des horloges vidéo (encodeur + décodeur).

Applications Horloges
Fréquence spécifiée par l'utilisateur à laquelle les applications seront exécutées. Pouvez
être modifié avec [-ac | --applications-clocks].

Graphiques Fréquence d'horloge graphique (shader) spécifiée par l'utilisateur.

Mémoire Fréquence d'horloge mémoire spécifiée par l'utilisateur.

Réglage par défaut Applications Horloges
Fréquence par défaut à laquelle les applications seront exécutées.
Les horloges des applications peuvent être modifiées avec [-ac | --applications-horloges]
commutateurs. Les horloges des applications peuvent être définies par défaut à l'aide de [-rac |
--reset-applications-clocks].

Graphiques Fréquence par défaut des applications graphiques (shader)
l'horloge.

Mémoire Fréquence par défaut de l'horloge de la mémoire des applications.

Max Horloges
Fréquence maximale à laquelle les parties du GPU sont conçues pour fonctionner. Tous
les lectures sont en MHz.

Sur les GPU des horloges P0 actuelles de la famille Fermi (rapportées dans Clocks
section) peut différer des horloges maximales de quelques MHz.

Graphiques Fréquence maximale de l'horloge graphique (shader).

SM Fréquence maximale du SM (Streaming Multiprocessor)
l'horloge.

Mémoire Fréquence maximale de l'horloge mémoire.

Video Fréquence maximale de l'horloge vidéo (encodeur + décodeur).

horloge Politique
Paramètres spécifiés par l'utilisateur pour les changements de pointage automatisés tels que l'auto
renforcer.

Voiture Booster Indique si le mode boost automatique est actuellement activé
pour ce GPU (On) ou désactivé pour ce GPU (Off). Spectacles
(N/A) si le boost n'est pas pris en charge. Le boost automatique permet
synchronisation dynamique du GPU basée sur la puissance, la thermique et
utilisation. Lorsque le boost automatique est désactivé, le GPU
tenter de maintenir les horloges précisément au courant
Paramètres des horloges d'application (chaque fois qu'un contexte CUDA est
actif). Avec le boost automatique activé, le GPU continuera
tenter de maintenir ce plancher, mais
augmenter de manière opportune vers des horloges plus élevées lorsque l'alimentation,
la marge thermique et d'utilisation permettent. Ce paramètre
persiste pendant la durée de vie du contexte CUDA pour lequel il
a été demandé. Les applications peuvent demander un mode particulier soit
via un appel NVML (voir NVML SDK) ou en définissant le CUDA
variable d'environnement CUDA_AUTO_BOOST.

Voiture Booster Réglage par défaut
Indique le réglage par défaut du mode boost automatique,
soit activé (On) soit désactivé (Off). Affiche (N/A) si
le boost n'est pas pris en charge. Les applications s'exécuteront par défaut
mode s'ils n'ont pas explicitement demandé un
mode. Remarque : les paramètres Auto Boost ne peuvent être modifiés que si
Le "Mode persistance" est activé, ce qui n'est PAS par défaut.

Appareils horloges
Liste des combinaisons de mémoire et d'horloges graphiques possibles que le GPU
peut fonctionner (sans tenir compte des horloges réduites du frein HW).
Ce sont les seules combinaisons d'horloge qui peuvent être transmises à
--applications-clocks indicateur. Les horloges prises en charge ne sont répertoriées que lorsque -q
-d Les commutateurs SUPPORTED_CLOCKS sont fournis ou au format XML.

Processus
Liste des processus ayant un contexte de calcul ou graphique sur l'appareil.
Les processus de calcul sont signalés sur tous les produits entièrement pris en charge.
Les rapports pour les processus graphiques sont limités aux produits pris en charge
à commencer par l'architecture Kepler.

Chaque entrée est de format "
Utilisation de la mémoire>"

GPU Sommaire Représente l'index NVML du périphérique.

PID Représente l'ID de processus correspondant à l'actif
Contexte de calcul ou graphique.

Type Affiché comme « C » pour le processus de calcul, « G » pour les graphiques
Process, et "C+G" pour le processus ayant à la fois Compute
et les contextes graphiques.

Processus Nom Représente le nom du processus pour le calcul ou les graphiques
processus.

GPU Mémoire Utilisation
Quantité de mémoire utilisée sur l'appareil par le contexte. Pas
disponible sur Windows lors de l'exécution en mode WDDM car
Windows KMD gère toute la mémoire et non le pilote NVIDIA.

Stats (EXPÉRIMENTAL)
Répertorier les statistiques GPU telles que les échantillons de puissance, les échantillons d'utilisation, xid
événements, événements de changement d'horloge et compteurs de violations.

Pris en charge sur les produits basés sur Tesla, GRID et Quadro sous Linux.

Limité à Kepler ou aux GPU plus récents.

Affiche les statistiques au format CSV comme suit :

, , ,
métrique>

Les métriques à afficher avec leurs unités sont les suivantes :

Échantillons de puissance en watts.

Échantillons de température GPU en degrés Celsius.

Exemples d'utilisation du GPU, de la mémoire, de l'encodeur et du décodeur en pourcentage.

Événements d'erreur Xid signalés avec le code d'erreur Xid. Le code d'erreur est 999
pour une erreur xid inconnue.

Changements d'horloge du processeur et de la mémoire en MHz.

Violation due au plafonnement de la puissance avec temps de violation en ns. (Tesla uniquement)

Violation due au plafonnement thermique avec indicateur booléen de violation (1/0).
(Tesla uniquement)

Notes:

Toute statistique précédée de "#" est un commentaire.

L'appareil non pris en charge s'affiche sous la forme "# , Appareil non
prise en charge".

La métrique non prise en charge s'affiche sous la forme " , ,
S/O, S/O".

Violation due à Thermique/Puissance prise en charge uniquement pour les produits basés sur Tesla.
Les violations thermiques sont limitées à Tesla K20 et supérieur.

Appareil Le Monitoring
La ligne de commande "nvidia-smi dmon" est utilisée pour surveiller un ou plusieurs GPU
(jusqu'à 4 appareils) branchés sur le système. Cet outil permet à l'utilisateur de
voir une ligne de données de surveillance par cycle de surveillance. La sortie est en
format concis et facile à interpréter en mode interactif. Le résultat
les données par ligne sont limitées par la taille du terminal. Il est pris en charge sur
Tesla, GRID, Quadro et produits GeForce limités pour Kepler ou plus récent
GPU sous bare metal 64 bits Linux. Par défaut, les données de surveillance
comprend la consommation d'énergie, la température, les horloges SM, les horloges de mémoire et
Valeurs d'utilisation pour SM, Mémoire, Encodeur et Décodeur. Il peut aussi être
configuré pour signaler d'autres métriques telles que l'utilisation de la mémoire tampon de trame,
utilisation de la mémoire bar1, violations de l'alimentation/thermique et agrégat simple/double
erreurs de bits ecc. Si l'une des métriques n'est pas prise en charge sur l'appareil ou
toute autre erreur dans la récupération de la métrique est signalée comme "-" dans la sortie
Les données. L'utilisateur peut également configurer la fréquence de surveillance et le nombre
des itérations de surveillance pour chaque exécution. Il existe également une option pour
inclure la date et l'heure à chaque ligne. Toutes les options prises en charge sont
exclusifs et peuvent être utilisés ensemble dans n'importe quel ordre.

Usage:

1) Réglage par défaut avec aucune arguments

Nvidia-smi démon

Surveille les métriques par défaut pour jusqu'à 4 appareils pris en charge sous naturel
énumération (commençant par l'index GPU 0) à une fréquence de 1 sec. Courses
jusqu'à ce qu'il se termine par ^C.

2) Choisir UN or plus dispositifs

Nvidia-smi démon -i <appareil1, appareil2, .. , appareilN>

Rapporte les métriques par défaut pour les appareils sélectionnés par des virgules séparées
liste des périphériques. L'outil sélectionne jusqu'à 4 appareils pris en charge dans la liste
sous énumération naturelle (commençant par l'index GPU 0).

3) Choisir métrique à be dans

Nvidia-smi démon -s

peut être un ou plusieurs des éléments suivants :

p - Consommation électrique (en Watts) et Température (en C)

u - Utilisation (Utilisation SM, Mémoire, Encodeur et Décodeur en %)

c - Horloges Proc et Mem (en MHz)

v - Power Violations (en %) et Thermal Violations (sous forme de booléen
drapeau)

m - Utilisation de la mémoire Frame Buffer et Bar1 (en Mo)

e - ECC (Nombre d'erreurs ecc agrégées sur un seul bit, sur deux bits)
et les erreurs de relecture PCIe

t - Débit PCIe Rx et Tx en Mo/s (Maxwell et supérieur)

4) Configurez Stack monitoring itérations

Nvidia-smi démon -c <numéro of échantillons>

Affiche les données pour le nombre spécifié d'échantillons et quitte.

5) Configurez Stack monitoring fréquence

Nvidia-smi démon -d in secondes>

Collecte et affiche les données à chaque intervalle de surveillance spécifié jusqu'à ce que
terminé par ^C.

6) Présentoir données

Nvidia-smi démon -o D

Ajoute les données de surveillance avec la date au format AAAAMMJJ.

7) Présentoir fois

Nvidia-smi démon -o T

Ajoute les données de surveillance avec l'heure au format HH:MM:SS.

8) Aide Info

Nvidia-smi démon -h

Affiche des informations d'aide pour l'utilisation de la ligne de commande.

démon (EXPÉRIMENTAL)
Le "démon nvidia-smi" démarre un processus en arrière-plan pour surveiller un ou
plus de GPU connectés au système. Il surveille les GPU demandés
chaque cycle de surveillance et enregistre le fichier au format compressé au
chemin fourni par l'utilisateur ou l'emplacement par défaut dans /var/log/nvstats/. le
fichier journal est créé avec la date du système ajoutée à celui-ci et du format
nvstats-AAAAMMJJ. L'opération de vidage du fichier journal est effectuée tous les
cycle de surveillance alternatif. Daemon enregistre également son propre PID à
/var/run/nvsmi.pid. Par défaut, les données de surveillance à persister incluent
Consommation électrique, température, horloges SM, horloges mémoire et utilisation
valeurs pour SM, Mémoire, Encodeur et Décodeur. Les outils démons peuvent également
être configuré pour enregistrer d'autres métriques telles que la mémoire tampon de trame
utilisation, utilisation de la mémoire bar1, violations de l'alimentation/thermique et agrégat
erreurs ecc à bit unique/double. Le cycle de surveillance par défaut est défini sur 10
secondes et peut être configuré via la ligne de commande. Il est pris en charge sur Tesla,
Produits GRID, Quadro et GeForce pour Kepler ou les GPU plus récents sous nu
métal 64 bits Linux. Le démon nécessite des privilèges root pour s'exécuter, et
ne prend en charge que l'exécution d'une seule instance sur le système. La totalité de la
les options prises en charge sont exclusives et peuvent être utilisées ensemble dans n'importe quel ordre.

Usage:

1) Réglage par défaut avec aucune arguments

Nvidia-smi démon

S'exécute en arrière-plan pour surveiller les métriques par défaut pour un maximum de 4 prises en charge
périphériques sous énumération naturelle (commençant par l'index GPU 0) à un
fréquence de 10 sec. Le fichier journal horodaté est créé à
/var/log/nvstats/.

2) Choisir UN or plus dispositifs

Nvidia-smi démon -i <appareil1, appareil2, .. , appareilN>

S'exécute en arrière-plan pour surveiller les métriques par défaut des appareils
sélectionné par une liste de périphériques séparés par des virgules. L'outil ramasse jusqu'à 4
périphériques pris en charge de la liste sous énumération naturelle (à partir de
avec indice GPU 0).

3) Choisir métrique à be surveillé

Nvidia-smi démon -s

peut être un ou plusieurs des éléments suivants :

p - Consommation électrique (en Watts) et Température (en C)

u - Utilisation (Utilisation SM, Mémoire, Encodeur et Décodeur en %)

c - Horloges Proc et Mem (en MHz)

v - Power Violations (en %) et Thermal Violations (sous forme de booléen
drapeau)

m - Utilisation de la mémoire Frame Buffer et Bar1 (en Mo)

e - ECC (Nombre d'erreurs ecc agrégées sur un seul bit, sur deux bits)
et les erreurs de relecture PCIe

t - Débit PCIe Rx et Tx en Mo/s (Maxwell et supérieur)

4) Configurez Stack monitoring fréquence

Nvidia-smi démon -d in secondes>

Collecte des données à chaque intervalle de surveillance spécifié jusqu'à la fin.

5) Configurez enregistrer annuaire

Nvidia-smi démon -p of répertoire>

Les fichiers journaux sont créés dans le répertoire spécifié.

6) Configurez enregistrer filet prénom

Nvidia-smi démon -j <chaîne à ajouter enregistrer filet nom>

La ligne de commande est utilisée pour ajouter le nom du fichier journal avec l'utilisateur
chaîne fournie.

7) Mettre fin le démon

Nvidia-smi démon -t

Cette ligne de commande utilise le PID stocké (dans /var/run/nvsmi.pid) pour
terminer le démon. Il fait de son mieux pour arrêter le démon et
n'offre aucune garantie pour sa résiliation. Au cas où le démon n'est pas
terminé, l'utilisateur peut terminer manuellement en envoyant un signal d'arrêt
au démon. Exécution d'une opération de réinitialisation du GPU (via nvidia-smi)
nécessite la fermeture de tous les processus GPU, y compris le démon. Utilisateurs
qui ont le démon ouvert verra une erreur indiquant que le GPU
est occupé.

8) Aide Info

Nvidia-smi démon -h

Affiche des informations d'aide pour l'utilisation de la ligne de commande.

Replay Mode (EXPÉRIMENTAL)
La ligne de commande "nvidia-smi replay" est utilisée pour extraire/rejouer tout ou
parties du fichier journal généré par le démon. Par défaut, l'outil essaie
pour extraire les métriques telles que la consommation d'énergie, la température, les horloges SM, la mémoire
horloges et valeurs d'utilisation pour SM, mémoire, encodeur et décodeur. le
l'outil de relecture peut également récupérer d'autres métriques telles que la mémoire tampon de trame
utilisation, utilisation de la mémoire bar1, violations de l'alimentation/thermique et agrégat
erreurs ecc simple/double bit. Il y a une option pour sélectionner un ensemble de
métriques à rejouer, si l'une des métriques demandées n'est pas maintenue ou
connecté comme non pris en charge, il est affiché comme "-" dans la sortie. le
le format des données produites par ce mode est tel que l'utilisateur exécute
l'utilitaire de surveillance des appareils de manière interactive. La ligne de commande nécessite
option obligatoire "-f" pour spécifier le chemin complet du nom du fichier journal, tous
les autres options prises en charge sont exclusives et peuvent être utilisées ensemble dans
aucun ordre.

Usage:

1) Spécifier enregistrer filet à be rejoué

Nvidia-smi rejouer -f <journal filet nom>

Récupère les données de surveillance à partir du fichier journal compressé et permet au
l'utilisateur pour voir une ligne de données de surveillance (métriques par défaut avec le temps-
stamp) pour chaque itération de surveillance stockée dans le fichier journal. Une nouvelle ligne
des données de surveillance est rejoué toutes les deux secondes, quel que soit le
fréquence de surveillance réelle maintenue au moment de la collecte. Il est
affiché jusqu'à la fin du fichier ou jusqu'à ce qu'il soit terminé par ^C.

2) Filtre métrique à be rejoué

Nvidia-smi rejouer -f à enregistrer fichier> -s

peut être un ou plusieurs des éléments suivants :

p - Consommation électrique (en Watts) et Température (en C)

u - Utilisation (Utilisation SM, Mémoire, Encodeur et Décodeur en %)

c - Horloges Proc et Mem (en MHz)

v - Power Violations (en %) et Thermal Violations (sous forme de booléen
drapeau)

m - Utilisation de la mémoire Frame Buffer et Bar1 (en Mo)

e - ECC (Nombre d'erreurs ecc agrégées sur un seul bit, sur deux bits)
et les erreurs de relecture PCIe

t - Débit PCIe Rx et Tx en Mo/s (Maxwell et supérieur)

3) limite rejouer à UN or plus dispositifs

Nvidia-smi rejouer -f <journal fichier> -i <appareil1, appareil2, .. , appareilN>

Limite le rapport des métriques à l'ensemble d'appareils sélectionnés par une virgule
liste d'appareils séparée. L'outil ignore tous les appareils non entretenus
dans le fichier journal.

4) Restreindre le fois cadre jusqu'à XNUMX fois qui données, is rapporté

Nvidia-smi rejouer -f <journal fichier> -b <début fois in HH:MM:SS formater> -e
<fin fois in HH:MM:SS formater>

Cette option permet de limiter les données entre le temps spécifié
intervalle. Spécifier l'heure comme 0 avec l'option -b ou -e implique le début ou la fin
fichier respectivement.

5) Réorienter rejouer d'information à a enregistrer filet

Nvidia-smi rejouer -f <journal fichier> -r <sortie filet nom>

Cette option prend le fichier journal en entrée et extrait les informations
liés aux métriques par défaut dans le fichier de sortie spécifié.

6) Aide Info

Nvidia-smi rejouer -h

Affiche des informations d'aide pour l'utilisation de la ligne de commande.

Processus Le Monitoring
La ligne de commande "nvidia-smi pmon" est utilisée pour surveiller le calcul et
processus graphiques s'exécutant sur un ou plusieurs GPU (jusqu'à 4 appareils)
branché sur le système. Cet outil permet à l'utilisateur de voir les
statistiques pour tous les processus en cours sur chaque appareil à chaque
cycle de surveillance. La sortie est dans un format concis et facile à interpréter
en mode interactif. Les données de sortie par ligne sont limitées par le
taille des bornes. Il est pris en charge sur Tesla, GRID, Quadro et limité
Produits GeForce pour Kepler ou GPU plus récents sous bare metal 64 bits
Linux. Par défaut, les données de surveillance pour chaque processus incluent les
pid, nom de la commande et valeurs d'utilisation moyennes pour SM, mémoire,
Encodeur et décodeur depuis le dernier cycle de surveillance. Il peut aussi être
configuré pour signaler l'utilisation de la mémoire tampon de trame pour chaque processus. Si
il n'y a pas de processus en cours d'exécution pour l'appareil, alors toutes les métriques sont
signalé comme "-" pour l'appareil. Si l'une des métriques n'est pas prise en charge
sur l'appareil ou toute autre erreur dans la récupération de la métrique est également
signalé comme "-" dans les données de sortie. L'utilisateur peut également configurer
la fréquence de surveillance et le nombre d'itérations de surveillance pour chaque
Cours. Il existe également une option pour inclure la date et l'heure à chaque ligne. Tout
les options prises en charge sont exclusives et peuvent être utilisées ensemble dans n'importe quel
ordre.

Usage:

1) Réglage par défaut avec aucune arguments

Nvidia-smi pmon

Surveille tous les processus en cours d'exécution sur chaque appareil pour un maximum de 4 prises en charge
périphériques sous énumération naturelle (commençant par l'index GPU 0) à un
fréquence de 1 sec. Fonctionne jusqu'à ce qu'il soit terminé avec ^C.

2) Choisir UN or plus dispositifs

Nvidia-smi pmon -i <appareil1, appareil2, .. , appareilN>

Rapports statistiques pour tous les processus en cours d'exécution sur les appareils
sélectionné par une liste de périphériques séparés par des virgules. L'outil ramasse jusqu'à 4
périphériques pris en charge de la liste sous énumération naturelle (à partir de
avec indice GPU 0).

3) Choisir métrique à be dans

Nvidia-smi pmon -s

peut être un ou plusieurs des éléments suivants :

u - Utilisation (SM, mémoire, encodeur et décodeur pour
le processus en %). Indique l'utilisation moyenne depuis la dernière surveillance
cycle.

m - Utilisation du tampon de trame (en Mo). Rapporte la valeur instantanée pour
utilisation de la mémoire.

4) Configurez Stack monitoring itérations

Nvidia-smi pmon -c <numéro of échantillons>

Affiche les données pour le nombre spécifié d'échantillons et quitte.

5) Configurez Stack monitoring fréquence

Nvidia-smi pmon -d in secondes>

Collecte et affiche les données à chaque intervalle de surveillance spécifié jusqu'à ce que
terminé par ^C. La fréquence de surveillance doit être comprise entre 1 et 10
secondes

6) Présentoir données

Nvidia-smi pmon -o D

Ajoute les données de surveillance avec la date au format AAAAMMJJ.

7) Présentoir fois

Nvidia-smi pmon -o T

Ajoute les données de surveillance avec l'heure au format HH:MM:SS.

8) Aide Info

Nvidia-smi pmon -h

Affiche des informations d'aide pour l'utilisation de la ligne de commande.

topologie (EXPÉRIMENTAL)
Répertorier les informations de topologie sur les GPU du système, comment ils se connectent à
ainsi que des cartes réseau qualifiées capables de RDMA

Affiche une matrice des GPU disponibles avec la légende suivante :

Légende:

X = Soi
SOC = Le chemin traverse un lien au niveau du socket (par exemple, QPI)
PHB = Le chemin traverse un pont hôte PCIe
PXB = le chemin traverse plusieurs commutateurs internes PCIe
PIX = Le chemin traverse un commutateur interne PCIe

UNITÉ CARACTÉRISTIQUES


La liste suivante décrit toutes les données possibles renvoyées par le -q -u
option de requête d'unité. Sauf indication contraire, tous les résultats numériques sont
base 10 et sans unité.

Horodatage
L'horodatage actuel du système au moment où nvidia-smi a été appelé.
Le format est "Jour de la semaine Mois Jour HH:MM:SS Année".

Chauffeur Version
La version du pilote d'affichage NVIDIA installé. Le format est
"Major-Numéro.Mineur-Numéro".

CE Info
Informations sur les cartes d'interface hôte (HIC) installées dans
le système.

Microcode Version
La version du micrologiciel s'exécutant sur le HIC.

Attached Unités
Le nombre d'unités attachées dans le système.

Produit Nom
Le nom officiel du produit de l'unité. Il s'agit d'une valeur alphanumérique.
Pour tous les produits de la classe S.

Produit Id
Identificateur de produit de l'unité. Il s'agit d'une valeur alphanumérique de
la forme "partie1-partie2-partie3". Pour tous les produits de la classe S.

Produit Port série
Identificateur global unique et immuable de l'unité. C'est un
valeur alphanumérique. Pour tous les produits de la classe S.

Microcode Version
La version du micrologiciel en cours d'exécution sur l'unité. Le format est
"Major-Numéro.Mineur-Numéro". Pour tous les produits de la classe S.

DEL Région
L'indicateur LED est utilisé pour signaler les systèmes présentant des problèmes potentiels. Un
La couleur de la LED AMBRE indique un problème. Pour tous les produits de la classe S.

Couleur La couleur de l'indicateur LED. Soit "VERT" ou
"AMBRE".

Causes La raison de la couleur actuelle de la LED. La cause peut être
répertorié comme n'importe quelle combinaison de "Inconnu", "Défini sur AMBRE par
système hôte", "Défaillance du capteur thermique", "Défaillance du ventilateur"
et "La température dépasse la limite critique".

Température
Lectures de température pour les composants importants de l'unité. Tous
les lectures sont en degrés C. Toutes les lectures peuvent ne pas être disponibles. Pour tous
Produits de classe S.

Prise Température de l'air à l'entrée de l'unité.

Échappement Température de l'air au point d'évacuation de l'unité.

Conseil d'administration Température de l'air à travers la carte de l'unité.

PSU
Lectures pour l'alimentation de l'unité. Pour tous les produits de la classe S.

Région État de fonctionnement du bloc d'alimentation. L'état de l'alimentation peut
être l'un des suivants : "Normal", "Anormal", "Élevé
tension", "Défaillance du ventilateur", "Température du radiateur",
« Limite de courant », « Tension inférieure au seuil d'alarme UV »,
"Basse tension", "Commande d'arrêt à distance I2C", "MOD_DISABLE
entrée" ou "Transition de broche courte".

Tension Réglage de la tension du bloc d'alimentation, en volts.

Courant Consommation de courant du bloc d'alimentation, en ampères.

Ventilateur Info
Lectures de ventilateur pour l'unité. Une lecture est prévue pour chaque ventilateur, de
qu'il peut y avoir plusieurs. Pour tous les produits de la classe S.

Région L'état du ventilateur, soit "NORMAL" soit "FAILED".

Vitesse Pour un ventilateur en bonne santé, la vitesse du ventilateur en RPM.

Attached GPU
Une liste d'identifiants de bus PCI qui correspondent à chacun des GPU attachés à
l'unité. Les identifiants de bus ont la forme "domain:bus:device.function", en
hexagone. Pour tous les produits de la classe S.

NOTES


Sous Linux, les fichiers de périphérique NVIDIA peuvent être modifiés par nvidia-smi s'ils sont exécutés en tant que
racine. Veuillez consulter la section appropriée du fichier README du pilote.

Notre -a et -g les arguments sont maintenant dépréciés en faveur de -q et -i,
respectivement. Cependant, les anciens arguments fonctionnent toujours pour cette version.

EXEMPLES


Nvidia-smi -q
Interrogez les attributs de tous les GPU une seule fois et affichez-les en texte brut pour
sortie standard.

Nvidia-smi --format=csv, sans en-tête --query-gpu=uuid,mode_persistance
Interrogez l'UUID et le mode de persistance de tous les GPU du système.

Nvidia-smi -q -d ECC, PUISSANCE -i 0 -l 10 -f out.log
Interroger les erreurs ECC et la consommation d'énergie pour le GPU 0 à une fréquence de 10
secondes, indéfiniment, et enregistrer dans le fichier out.log.

"nvidia-smi -c 1 -i
GPU-b2f5f1b745e3d23d-65a3a26d-097db358-7303e0b6-149642ff3d219f8587cde3a8"
Définissez le mode de calcul sur « INTERDIT » pour le GPU avec UUID
"GPU-b2f5f1b745e3d23d-65a3a26d-097db358-7303e0b6-149642ff3d219f8587cde3a8".

Nvidia-smi -q -u -x --dtd
Interrogez les attributs de toutes les unités une fois et affichez-les au format XML avec
DTD intégré à stdout.

Nvidia-smi --dtd -u -f nvsmi_unit.dtd
Écrivez la DTD d'unité dans nvsmi_unit.dtd.

Nvidia-smi -q -d SUPPORTED_CLOCKS
Affichez les horloges prises en charge de tous les GPU.

Nvidia-smi -i 0 --applications-horloges 2500,745
Réglez les horloges des applications sur une mémoire de 2500 MHz et des graphiques à 745 MHz.

CHANGEMENT Se Connecter


=== Problèmes connus ===

* Sous Linux, la réinitialisation du GPU ne peut pas être déclenchée lorsqu'il y a un GOM en attente
changer.

* Sous Linux, la réinitialisation du GPU peut ne pas changer avec succès le mode ECC en attente. UNE
un redémarrage complet peut être nécessaire pour activer le changement de mode.

=== Changements entre la mise à jour nvidia-smi v346 et v352 ===

* Ajout du support topo pour afficher les affinités par GPU

* Ajout du support topo pour afficher les GPU voisins pour un niveau donné

* Ajout du support topo pour montrer le chemin entre deux GPU donnés

* Ajout de la ligne de commande "nvidia-smi pmon" pour la surveillance des processus dans
format de défilement

* Ajout de l'option "--debug" pour produire un journal de débogage chiffré à utiliser dans
soumission des bogues à NVIDIA

* Correction du rapport de mémoire utilisée/libre en mode Windows WDDM

* Les statistiques comptables sont mises à jour pour inclure à la fois la course et
processus terminés. Le temps d'exécution du processus en cours est signalé
à 0 et mis à jour à la valeur réelle lorsque le processus est terminé.

=== Changements entre la mise à jour nvidia-smi v340 et v346 ===

* Ajout de rapports sur les compteurs de relecture PCIe

* Ajout de la prise en charge des rapports sur les processus graphiques via nvidia-smi

* Ajout de rapports sur l'utilisation de PCIe

* Ajout de la ligne de commande dmon pour la surveillance des périphériques au format défilant

* Ajout de la ligne de commande du démon pour s'exécuter en arrière-plan et surveiller les périphériques
comme un processus démon. Génère des fichiers journaux datés dans /var/log/nvstats/

* Ajout de la ligne de commande de relecture pour rejouer/extraire les fichiers de statistiques
généré par l'outil démon

=== Changements entre la mise à jour nvidia-smi v331 et v340 ===

* Ajout de rapports d'informations sur les seuils de température.

* Ajout de rapports sur les informations de marque (par exemple Tesla, Quadro, etc.)

* Ajout du support pour K40d et K80.

* Ajout de rapports de max, min et avg pour les échantillons (puissance,
utilisation, changements d'horloge). Exemple de ligne de commande : nvidia-smi -q -d
puissance, utilisation, horloge

* Ajout de l'interface de statistiques nvidia-smi pour collecter des statistiques telles que
puissance, utilisation, changements d'horloge, événements xid et compteurs de plafonnement des performances
avec une notion de temps attachée à chaque échantillon. Exemple de ligne de commande :
statistiques nvidia-smi

* Ajout de la prise en charge des rapports collectifs de métriques sur plusieurs
GPU. Utilisé avec des virgules séparés par l'option "-i". Exemple : nvidia-smi -i
0,1,2

* Ajout de la prise en charge de l'affichage de l'encodeur et du décodeur GPU
utilisations

* Ajout de l'interface topo nvidia-smi pour afficher le GPUDirect
matrice de communication (EXPERIMENTAL)

* Ajout de la prise en charge de l'affichage de l'ID de la carte GPU et de son éventuelle
est une carte multiGPU

* Suppression de la raison de l'accélérateur définie par l'utilisateur de la sortie XML

=== Changements entre la mise à jour nvidia-smi v5.319 et v331 ===

* Ajout du rapport de nombre mineur.

* Ajout de la taille de la mémoire BAR1.

* Ajout de rapports sur le micrologiciel de la puce de pont.

=== Changements entre la production nvidia-smi v4.319 et la mise à jour v4.319
===

* Ajout d'un nouveau commutateur --applications-clocks-permission à modifier
conditions d'autorisation pour le réglage et la réinitialisation des horloges des applications.

=== Changements entre nvidia-smi v4.304 et v4.319 Production ===

* Ajout de rapports sur l'état d'affichage actif et mise à jour de la documentation
pour clarifier en quoi il diffère du mode d'affichage et de l'état d'affichage actif

* Pour plus de cohérence sur les cartes multi-GPU, nvidia-smi -L affiche toujours
UUID au lieu du numéro de série

* Ajout de rapports sélectifs lisibles par machine. Voir REQUÊTE SÉLECTIVE
Section OPTIONS de nvidia-smi -h

* Ajout de requêtes pour les informations de retrait de page. Voir --help-query-
pages-retraitées et -d PAGE_RETIREMENT

* Horloges définies par l'utilisateur de raison d'accélérateur renommées aux applications
Réglage des horloges

* En cas d'erreur, les codes retour ont des valeurs distinctes non nulles pour chaque erreur
classer. Voir la section VALEUR DE RETOUR

* nvidia-smi -i peut désormais demander des informations à partir d'un GPU sain lorsqu'il y a
est un problème avec d'autres GPU dans le système

* Tous les messages indiquant un problème avec un identifiant de bus PCI d'impression GPU de
un GPU en faute

* Nouvel indicateur --loop-ms pour interroger des informations à des taux plus élevés que
une fois par seconde (peut avoir un impact négatif sur les performances du système)

* Ajout de requêtes pour les processus comptables. Voir --help-query-accounted-
apps et -d COMPTABILITÉ

* Ajout de la limite de puissance imposée à la sortie de la requête

=== Changements entre nvidia-smi v4.304 RC et v4.304 Production ===

* Ajout de rapports sur le mode de fonctionnement du GPU (GOM)

* Ajout d'un nouveau commutateur --gom pour définir le mode de fonctionnement du GPU

=== Changements entre nvidia-smi v3.295 et v4.304 RC ===

* Sortie non verbeuse reformatée en raison des commentaires des utilisateurs. Supprimé
informations en attente de la table.

* Imprimer un message utile si l'initialisation échoue en raison du noyau
le module ne reçoit pas d'interruptions

* Meilleure gestion des erreurs lorsque la bibliothèque partagée NVML n'est pas présente dans
le système

* Ajout d'un nouveau commutateur --applications-clocks

* Ajout d'un nouveau filtre au commutateur --display. Exécuter avec -d SUPPORTED_CLOCKS
pour lister les horloges possibles sur un GPU

* Lorsque vous déclarez de la mémoire libre, calculez-la à partir du total arrondi et
mémoire utilisée pour que les valeurs s'additionnent

* Ajout de rapports sur les contraintes de limite de gestion de l'alimentation et par défaut
limite

* Ajout d'un nouveau commutateur de limite de puissance

* Ajout du rapport des erreurs ECC de la mémoire de texture

* Ajout de rapports sur les raisons de l'accélération de l'horloge

=== Changements entre nvidia-smi v2.285 et v3.295 ===

* Un rapport d'erreur plus clair pour l'exécution de commandes (comme la modification du calcul
Mode)

* Lors de l'exécution de commandes sur plusieurs GPU à la fois, des erreurs N/A sont
traités comme des avertissements.

* nvidia-smi -i prend désormais également en charge l'UUID

* Le format UUID a été modifié pour correspondre à la norme UUID et signalera un
valeur différente.

=== Changements entre nvidia-smi v2.0 et v2.285 ===

* Rapporter la version VBIOS.

* Ajout du drapeau -d/--display pour filtrer des parties de données

* Ajout de rapports sur l'ID du sous-système PCI

* Documents mis à jour pour indiquer que nous prenons en charge M2075 et C2075

* Signaler la version du micrologiciel HIC HWBC avec le commutateur -u

* Rapporter les horloges max (P0) à côté des horloges actuelles

* Ajout de l'indicateur --dtd pour imprimer la DTD de l'appareil ou de l'unité

* Message ajouté lorsque le pilote NVIDIA n'est pas en cours d'exécution

* Ajout de rapports sur la génération de liens PCIe (max et actuel) et de liens
largeur (max et courant).

* L'obtention du modèle de pilote en attente fonctionne sur les non-administrateurs

* Ajout de la prise en charge de l'exécution de nvidia-smi sur les comptes invités Windows

* L'exécution de nvidia-smi sans la commande -q produira un résultat non détaillé
version de -q au lieu de help

* Correction de l'analyse de l'argument -l/--loop= (valeur par défaut, 0, à grand
valeur)

* Format modifié de pciBusId (en XXXX:XX:XX.X - ce changement a été
visible en 280)

* L'analyse de busId pour la commande -i est moins restrictive. Tu peux passer
0:2:0.0 ou 0000:02:00 et autres variantes

* Modification du schéma de version pour inclure également la "version du pilote"

* Le format XML est toujours conforme à la DTD, même lorsque des conditions d'erreur se produisent

* Ajout de la prise en charge des événements ECC simples et doubles bits et des erreurs XID
(activé par défaut avec l'indicateur -l désactivé pour l'indicateur -x)

* Ajout d'indicateurs de réinitialisation de périphérique -r --gpu-reset

* Ajout de la liste des processus de calcul en cours d'exécution

* État d'alimentation renommé en état de performance. Un support obsolète existe
dans la sortie XML uniquement.

* Numéro de version DTD mis à jour à 2.0 pour correspondre à la sortie XML mise à jour

Utilisez alt-nvidia-361-updates-smi en ligne en utilisant les services onworks.net


Serveurs et postes de travail gratuits

Télécharger des applications Windows et Linux

Commandes Linux

Ad