Dies ist der Befehl salloc, der beim kostenlosen Hosting-Anbieter OnWorks mit einer unserer zahlreichen kostenlosen Online-Workstations wie Ubuntu Online, Fedora Online, dem Windows-Online-Emulator oder dem MAC OS-Online-Emulator ausgeführt werden kann
PROGRAMM:
NAME/FUNKTION
salloc – Erhalten Sie eine Slurm-Jobzuweisung (eine Reihe von Knoten), führen Sie einen Befehl aus und dann
Geben Sie die Zuordnung frei, wenn der Befehl beendet ist.
ZUSAMMENFASSUNG
salloc [Optionen] [Befehl> [Befehl args]]
BESCHREIBUNG
salloc wird verwendet, um eine Slurm-Jobzuweisung zuzuweisen, bei der es sich um eine Reihe von Ressourcen (Knoten) handelt.
möglicherweise mit einigen Einschränkungen (z. B. Anzahl der Prozessoren pro Knoten). Wenn salloc
Erhält die angeforderte Zuteilung erfolgreich und führt dann den von der angegebenen Befehl aus
Benutzer. Wenn schließlich der vom Benutzer angegebene Befehl abgeschlossen ist, gibt salloc den Job auf
Zuweisung.
Der Befehl kann ein beliebiges vom Benutzer gewünschtes Programm sein. Einige typische Befehle sind xterm, eine Shell
Skript mit Srun-Befehlen und Srun (siehe Abschnitt BEISPIELE). Wenn kein Befehl vorhanden ist
angegeben, dann der Wert von SallocDefaultCommand in slurm.conf verwendet wird. Wenn
SallocDefaultCommand ist nicht gesetzt, dann salloc führt die Standard-Shell des Benutzers aus.
Das folgende Dokument beschreibt den Einfluss verschiedener Optionen auf die Zuteilung von
CPU zu Jobs und Aufgaben.
http://slurm.schedmd.com/cpu_management.html
HINWEIS: Die Salloc-Logik unterstützt das Speichern und Wiederherstellen der Terminalleitungseinstellungen und
soll im Vordergrund ausgeführt werden. Wenn Sie salloc im ausführen müssen
Hintergrund, legen Sie die Standardeingabe auf eine Datei fest, zum Beispiel: „salloc -n16 a.out
OPTIONAL
-A, --Konto=<Konto>
Die von diesem Job verwendeten Ressourcen werden dem angegebenen Konto belastet. Die Konto ist ein
beliebige Zeichenfolge. Der Kontoname kann nach der Auftragsübermittlung mit dem geändert werden
skontrollieren Befehl.
--acctg-freq
Definieren Sie die Stichprobenintervalle für die Jobabrechnung und Profilerstellung. Dies kann verwendet werden, um
überschreiben die JobAcctGatherFrequency Parameter in der Konfigurationsdatei von Slurm,
slurm.conf. Das unterstützte Format ist wie folgt:
--acctg-freq==
woher = spezifiziert das Task-Sampling-Intervall für
das jobacct_gather-Plugin oder ein Sampling-Intervall für einen Profiling-Typ
durch das acct_gather_profile-Plugin. Mehrere, durch Kommas getrennt
= Intervalle können angegeben werden. Unterstützte Datentypen
sind wie folgt:
Aufgabe=
woher ist das Task-Sampling-Intervall in Sekunden für
die jobacct_gather-Plugins und für die Aufgabenprofilierung durch die
acct_gather_profile-Plugin. HINWEIS: Diese Frequenz wird verwendet, um
Speichernutzung überwachen. Wenn Speicherlimits erzwungen werden, die höchsten
Die Häufigkeit, die ein Benutzer anfordern kann, ist im konfiguriert
slurm.conf-Datei. Sie können es auch nicht ausschalten (=0).
Energie=
woher ist das Abtastintervall in Sekunden für Energie
Profilerstellung mit dem acct_gather_energy Plugin
Netzwerk=
woher ist das Abtastintervall in Sekunden für
infiniband-Profilerstellung mit dem acct_gather_infiniband-Plugin.
Dateisystem=
woher ist das Abtastintervall in Sekunden für
Dateisystem-Profilerstellung mit dem acct_gather_filesystem-Plugin.
Der Standardwert für das Task-Sampling-Intervall
ist 30. Der Standardwert für alle anderen Intervalle ist 0. Ein Intervall von 0 deaktiviert
Probenahme des angegebenen Typs. Wenn das Stichprobenintervall der Aufgabe 0 ist, erfolgt die Abrechnung
Informationen werden nur bei Beendigung des Auftrags gesammelt (wodurch Slurm-Eingriffe reduziert werden).
die Arbeit).
Kleinere Werte (nicht null) haben einen größeren Einfluss auf die Arbeitsleistung, aber ein Wert
von 30 Sekunden ist bei Anwendungen mit weniger als wahrscheinlich nicht wahrnehmbar
10,000 Aufgaben.
-B --extra-node-info=<Steckdosen[:Kerne[:Themen]]>
Fordern Sie eine konkrete Ressourcenzuteilung mit Angaben zu Anzahl und Art an
der Rechenressourcen innerhalb eines Clusters: Anzahl der Sockets (oder physischen
Prozessoren) pro Knoten, Kerne pro Sockel und Threads pro Kern. Der Gesamtbetrag von
angeforderten Ressourcen ist das Produkt aller Begriffe. Jeder angegebene Wert
gilt als Minimum. Ein Sternchen (*) kann als Platzhalter verwendet werden, um anzugeben
dass alle verfügbaren Ressourcen dieses Typs verwendet werden sollen. Wie bei Knoten ist die
einzelne Ebenen können auf Wunsch auch in separaten Optionen angegeben werden:
--sockets-per-node=<Steckdosen>
--cores-per-socket=<Kerne>
--threads-per-core=<Themen>
Wenn SelectType für select/cons_res konfiguriert ist, muss es den Parameter haben
CR_Core, CR_Core_Memory, CR_Socket oder CR_Socket_Memory für diese Option
geehrt. Diese Option wird auf BlueGene-Systemen nicht unterstützt (select/bluegene plugin
konfiguriert ist). Wenn nicht angegeben, wird der scontrol-Show-Job angezeigt
'AnfS:C:T=*:*:*'.
--bb=<spec>
Burst-Puffer-Spezifikation. Die Form der Spezifikation ist systemabhängig.
--Start=<Zeit>
Senden Sie das Batch-Skript sofort wie gewohnt an den Slurm-Controller, aber sagen Sie es!
der Verantwortliche, die Vergabe des Auftrags bis zum angegebenen Zeitpunkt zu verschieben.
Die Zeit kann die Form haben HH: MM: SS um einen Job zu einer bestimmten Tageszeit (Sekunden
sind optional). (Wenn diese Zeit bereits vorbei ist, wird der nächste Tag angenommen.) Sie können
auch angeben Mitternacht, Mittag, Else (3 Uhr) oder Teatime (4 Uhr) und Sie können ein
Uhrzeit mit angehängtem AM or PM zum Laufen morgens oder abends. Du
kann auch sagen, an welchem Tag der Job ausgeführt wird, indem Sie ein Datum des Formulars angeben MMTTJJ
or MM / TT / JJ YYYY-MM-DD. Kombinieren Sie Datum und Uhrzeit im folgenden Format
JJJJ-MM-TT[THH:MM[:SS]]. Du kannst auch mal geben wie jetzt an + zählen Zeiteinheiten, Wobei
die Zeiteinheiten können sein Sekunden (Standard), Minuten, Stunden, Tage, oder auch Wochen und Sie können
Sagen Sie Slurm, dass er den Job heute mit dem Schlüsselwort ausführen soll heute und den Job morgen ausführen
mit dem Stichwort morgen. Der Wert kann nach der Auftragsübermittlung mit dem geändert werden
skontrollieren Befehl. Zum Beispiel:
--begin=16:00
--begin=jetzt+1Stunde
--begin=now+60 (sekunden standardmäßig)
--begin=2010-01-20T12:34:00
Hinweise zu Datums-/Uhrzeitangaben:
- Obwohl das 'Sekunden'-Feld der HH:MM:SS-Zeitangabe erlaubt ist von
Beachten Sie, dass die Abfragezeit des Slurm-Schedulers nicht genau genug ist, um den Code zu verwenden
garantieren den sekundengenauen Versand des Auftrags. Der Job ist berechtigt zu
Beginnen Sie mit der nächsten Umfrage nach der angegebenen Zeit. Das genaue Abfrageintervall
hängt vom Slurm-Scheduler ab (zB 60 Sekunden mit der Standardeinstellung sched/integriert).
- Wenn keine Zeit (HH:MM:SS) angegeben ist, ist der Standardwert (00:00:00).
- Wird ein Datum ohne Jahr angegeben (zB MM/TT), dann ist das aktuelle Jahr
angenommen, es sei denn, die Kombination von MM/DD und HH:MM:SS ist dafür bereits bestanden
Jahr, in diesem Fall wird das nächste Jahr verwendet.
--Klingel Erzwingen Sie, dass salloc die Terminalglocke läutet, wenn die Jobzuteilung gewährt wird (und nur dann).
wenn stdout ein tty ist). Standardmäßig klingelt salloc nur dann, wenn die Zuweisung erfolgt
länger als zehn Sekunden anstehen (und nur, wenn stdout ein tty ist). Siehe auch die
zu erhalten --keine Glocke.
--Kommentar=<Schnur>
Ein willkürlicher Kommentar.
-C, --Zwang=<Liste>
Knoten können haben Funktionen ihnen vom Slurm-Administrator zugewiesen. Benutzer können
geben Sie an, welche davon Funktionen werden von ihrem Job unter Verwendung der Einschränkung benötigt
Möglichkeit. Nur Knoten mit Features, die den Job-Einschränkungen entsprechen, werden verwendet, um
der Bitte nachkommen. Mehrere Einschränkungen können mit AND, OR, Matching angegeben werden
ODER, Ressourcenanzahl usw. Zu den unterstützten Einschränkungsoptionen gehören:
Einwellig Name
Es werden nur Knoten verwendet, die über die angegebene Funktion verfügen. Zum Beispiel,
--constraint="intel"
Knoten Zu Zählen
Eine Anfrage kann die Anzahl der Knoten angeben, die für einige Funktionen benötigt werden, indem
ein Sternchen anhängen und nach dem Funktionsnamen zählen. Zum Beispiel
"--nodes=16 --constraint=Grafik*4 ... " zeigt an, dass der Job 16 . erfordert
Knoten und dass mindestens vier dieser Knoten das Merkmal haben müssen
"Grafik."
UND Wenn nur Knoten mit allen angegebenen Funktionen verwendet werden. Das kaufmännische Und ist
für einen UND-Operator verwendet. Zum Beispiel, --constraint="intel&gpu"
OR Wenn nur Knoten mit mindestens einem der angegebenen Merkmale verwendet werden. Die
vertikaler Strich wird für einen ODER-Operator verwendet. Zum Beispiel,
--constraint="intel|amd"
Abstimmung OR
Wenn nur eine aus einer Reihe möglicher Optionen für alle zugewiesenen verwendet werden soll
Knoten, verwenden Sie dann den ODER-Operator und schließen Sie die Optionen in ein Quadrat ein
Klammern. Zum Beispiel: "--constraint=[Rack1|Rack2|Rack3|Rack4]" könnte sein,
wird verwendet, um festzulegen, dass alle Knoten auf einem einzigen Rack des
Cluster, aber jeder dieser vier Racks kann verwendet werden.
Mehrere Counts
Spezifische Zählungen mehrerer Ressourcen können mit UND . angegeben werden
Operator und die Optionen in eckige Klammern einschließen. Zum Beispiel:
"--constraint=[Rack1*2&Rack2*4]" könnte verwendet werden, um anzugeben, dass zwei Knoten
müssen von Knoten mit dem Merkmal "Rack1" zugewiesen werden und vier Knoten müssen
von Knoten mit dem Merkmal "Rack2" belegt werden.
--zusammenhängend
Wenn gesetzt, müssen die zugewiesenen Knoten eine zusammenhängende Menge bilden. Nicht geehrt mit dem
Topologie/Baum or Topologie/3d_torus Plugins, die beide den Knoten modifizieren können
Bestellung.
--cores-per-socket=<Kerne>
Beschränken Sie die Knotenauswahl auf Knoten mit mindestens der angegebenen Anzahl von Kernen pro
Steckdose. Weitere Informationen finden Sie unter -B Option oben, wenn Aufgaben-/Affinitäts-Plugin
aktiviert.
--cpu-freq =<p1[-p2[:p3]]>
Fordern Sie an, dass Jobschritte, die durch Srun-Befehle innerhalb dieser Zuordnung initiiert werden, ausgeführt werden
Wenn möglich, eine gewünschte Frequenz auf den CPUs, die für den Schritt ausgewählt wurden
Rechenknoten(s).
p1 kann sein [#### | niedrig | mittel | hoch | highm1] was die Frequenz festlegt
scaling_speed auf den entsprechenden Wert und setze die Frequenz scaling_governor auf
UserSpace. Definition der Werte siehe unten.
p1 kann [konservativ | . sein OnDemand | Leistung | PowerSave], das die
scaling_governor auf den entsprechenden Wert. Der Gouverneur muss in der Liste enthalten sein
durch die slurm.conf-Option CpuFreqGovernors.
Wann p2 vorhanden ist, ist p1 die minimale Skalierungsfrequenz und p2 die
maximale Skalierungsfrequenz.
p2 kann sein [#### | mittel | hoch | highm1] p2 muss größer als p1 sein.
p3 kann [konservativ | . sein OnDemand | Leistung | Energiesparen | UserSpace] die
setzt den Regler auf den entsprechenden Wert.
If p3 UserSpace ist, wird die Frequenzskalierung_Geschwindigkeit durch eine Leistung oder Energie festgelegt
bewusste Planungsstrategie auf einen Wert zwischen p1 und p2, der den Job innerhalb von
das Power-Ziel der Site. Der Job kann sich verzögern, wenn p1 höher als eine Häufigkeit ist, die
ermöglicht, dass der Job innerhalb des Ziels ausgeführt wird.
Wenn die aktuelle Frequenz < min ist, wird sie auf min gesetzt. Ebenso, wenn der Strom
Frequenz > max ist, wird sie auf max gesetzt.
Zu den akzeptablen Werten gehören derzeit:
#### Frequenz in Kilohertz
Niedrig die niedrigste verfügbare Frequenz
Hoch die höchste verfügbare Frequenz
HochM1 (hoch minus eins) wählt die nächsthöhere verfügbare Frequenz
Verwendung versucht eine Frequenz in der Mitte des verfügbaren Bereichs einzustellen
Konservativ versucht, den konservativen CPU-Governor zu verwenden
Auf Nachfrage versucht, den OnDemand-CPU-Governor zu verwenden (der Standardwert)
Kennzahlen versucht, den Performance-CPU-Governor zu verwenden
Stromspar versucht, den PowerSave-CPU-Governor zu verwenden
UserSpace versucht, den UserSpace-CPU-Governor zu verwenden
Die folgende informative Umgebungsvariable wird im Job gesetzt
Schritt, wenn --cpu-freq Option wird erbeten.
SLURM_CPU_FREQ_REQ
Diese Umgebungsvariable kann auch verwendet werden, um den Wert für die CPU bereitzustellen
Frequenzanforderung, wenn sie bei der Ausgabe des Befehls 'srun' gesetzt ist. Die --cpu-freq
in der Befehlszeile überschreibt den Wert der Umgebungsvariablen. Das Formular auf dem
Umgebungsvariable ist die gleiche wie die Befehlszeile. Siehe die
VARIABLEN Abschnitt für eine Beschreibung der Variablen SLURM_CPU_FREQ_REQ.
HINWEIS: Dieser Parameter wird als Anforderung und nicht als Anforderung behandelt. Wenn der Job-Schritt
Knoten unterstützt das Einstellen der CPU-Frequenz nicht oder der angeforderte Wert liegt außerhalb
die Grenzen der zulässigen Häufigkeiten, ein Fehler wird protokolliert, aber der Jobschritt ist
weiterfahren dürfen.
HINWEIS: Das Festlegen der Frequenz nur für die CPUs des Auftragsschritts impliziert, dass die
Aufgaben sind auf diese CPUs beschränkt. Wenn Aufgabenbeschränkung (d. h.
TaskPlugin=task/affinity oder TaskPlugin=task/cgroup mit den "ConstrainCores"
Option) nicht konfiguriert ist, wird dieser Parameter ignoriert.
HINWEIS: Wenn der Schritt abgeschlossen ist, sind die Frequenz und der Regler jeder ausgewählten CPU
auf die konfigurierte zurücksetzen CPUFreqDef Wert mit einem Standardwert der OnDemand-CPU
Gouverneur.
HINWEIS: Beim Senden von Jobs mit dem --cpu-freq Option mit linuxproc als
ProctrackType kann dazu führen, dass Jobs zu schnell ausgeführt werden, bevor die Buchhaltung in der Lage ist, abzufragen
für Jobinformationen. Infolgedessen sind nicht alle Buchhaltungsinformationen vorhanden.
-c, --cpus-pro-task=<ncpus>
Informieren Sie den Slurm-Controller, dass die folgenden Arbeitsschritte erforderlich sind ncpus Anzahl der
Prozessoren pro Aufgabe. Ohne diese Option versucht der Controller einfach zuzuordnen
ein Prozessor pro Aufgabe.
Betrachten Sie beispielsweise eine Anwendung mit 4 Aufgaben, von denen jede 3 . benötigt
Prozessoren. Wenn unser Cluster aus Quad-Prozessor-Knoten besteht und wir einfach fragen
für 12 Prozessoren gibt uns der Controller möglicherweise nur 3 Knoten. Durch die Verwendung von
die Optionen --cpus-per-task=3, der Controller weiß, dass jeder Task 3 . benötigt
Prozessoren auf demselben Knoten, und der Controller gewährt eine Zuteilung von 4
Knoten, einen für jede der 4 Aufgaben.
-d, --Abhängigkeit=<Abhängigkeitsliste>
Verschieben Sie den Start dieses Jobs, bis die angegebenen Abhängigkeiten erfüllt sind
vollendet.Abhängigkeitsliste> ist von der Form
<Typ:Job_ID[:Job_ID][,Typ:Job_ID[:Job_ID]]> oder
<type:job_id[:job_id][?type:job_id[:job_id]]>. Alle Abhängigkeiten müssen erfüllt sein
wenn das Trennzeichen "," verwendet wird. Jede Abhängigkeit kann erfüllt werden, wenn das "?" Separator
wird genutzt. Viele Jobs können die gleiche Abhängigkeit teilen und diese Jobs können sogar dazu gehören
verschiedene Benutzer. Der Wert kann nach der Jobübergabe mit dem scontrol . geändert werden
Befehl. Sobald eine Job-Abhängigkeit aufgrund des Beendigungszustands eines vorangehenden . fehlschlägt
Job wird der abhängige Job nie ausgeführt, selbst wenn der vorhergehende Job erneut in die Warteschlange gestellt wird und
hat bei einer nachfolgenden Ausführung einen anderen Beendigungszustand.
nach:job_id[:jobid...]
Dieser Job kann mit der Ausführung beginnen, nachdem die Ausführung der angegebenen Jobs begonnen hat.
afterany:job_id[:jobid...]
Dieser Job kann mit der Ausführung beginnen, nachdem die angegebenen Jobs beendet wurden.
afternotok:job_id[:jobid...]
Dieser Job kann mit der Ausführung beginnen, nachdem die angegebenen Jobs in beendet wurden
ein fehlgeschlagener Zustand (Exit-Code ungleich Null, Knotenfehler, Zeitüberschreitung usw.).
afterok:job_id[:jobid...]
Dieser Job kann mit der Ausführung beginnen, nachdem die angegebenen Jobs erfolgreich ausgeführt wurden
ausgeführt (bis zum Abschluss mit einem Exit-Code von Null ausgeführt).
expand:job_id
Ressourcen, die diesem Job zugewiesen sind, sollten verwendet werden, um den angegebenen Job zu erweitern.
Der zu erweiternde Job muss dieselbe QOS (Quality of Service) haben und
Partition. Die Gruppenplanung von Ressourcen in der Partition ist auch nicht möglich
unterstützt.
Singleton
Dieser Job kann mit der Ausführung beginnen, nachdem alle zuvor gestarteten Jobs die
gleicher Jobname und Benutzer wurden beendet.
-D, --chdir=<Weg>
Verzeichnis ändern zu Weg bevor mit der Ausführung begonnen wird. Der Pfad kann als angegeben werden
Vollständiger Pfad oder relativer Pfad zum Verzeichnis, in dem der Befehl ausgeführt wird.
--exclusive[=Benutzer]
Die Jobzuweisung kann keine Knoten mit anderen laufenden Jobs (oder nur anderen Benutzern) teilen
mit der Option "=Benutzer"). Das standardmäßig freigegebene/exklusive Verhalten hängt vom System ab
Konfiguration und die Partitionen Gemeinsam genutzt Option hat Vorrang vor der des Jobs
.
-F, --Knotendatei=<Knoten Datei>
Ähnlich wie --nodelist, aber die Liste ist in einer Namensdatei enthalten Knoten Dateidem „Vermischten Geschmack“. Seine
Knotennamen der Liste können sich auch über mehrere Zeilen in der Datei erstrecken. Doppelter Knoten
Namen in der Datei werden ignoriert. Die Reihenfolge der Knotennamen in der Liste ist nicht
wichtig; die Knotennamen werden nach Slurm sortiert.
--get-user-env[=Timeout][Modus]
Diese Option lädt Anmeldeumgebungsvariablen für den im angegebenen Benutzer
--uid Möglichkeit. Die Umgebungsvariablen werden abgerufen, indem etwas davon ausgeführt wird
sortiere „su - -C /usr/bin/env" und Analysieren der Ausgabe. Beachten Sie, dass alle
Umgebungsvariablen, die bereits in der Salloc-Umgebung festgelegt sind, haben Vorrang
alle Umgebungsvariablen in der Anmeldeumgebung des Benutzers. Die Wahl Timeout
Der Wert wird in Sekunden angegeben. Der Standardwert beträgt 3 Sekunden. Die Wahl Modus Wertkontrolle
die „su“-Optionen. Mit einem Modus Wert von „S“, „su“ wird ohne das „-“ ausgeführt
Möglichkeit. Mit einem Modus Wert von „L“, „su“ wird mit der Option „-“ ausgeführt,
Replikation der Anmeldeumgebung. Wenn Modus nicht angegeben, der Modus wurde festgelegt
Die Slurm-Erstellungszeit wird verwendet. Anwendungsbeispiele sind „--get-user-env“,
„--get-user-env=10“ „--get-user-env=10L“ und „--get-user-env=S“. HINWEIS: Dies
Die Option funktioniert nur, wenn der Aufrufer die effektive UID „root“ hat. Diese Option war
ursprünglich für Moab erstellt.
--gid=<Gruppe>
Senden Sie den Job mit dem angegebenen GruppeGruppenzugriffsberechtigungen. Gruppe könnte sein
der Gruppenname oder die numerische Gruppen-ID. In der Standard-Slurm-Konfiguration ist dies
Die Option ist nur gültig, wenn sie vom Benutzer root verwendet wird.
--gres=<Liste>
Gibt eine durch Kommas getrennte Liste von generischen Verbrauchsmaterialien an. Das Format von
jeder Eintrag in der Liste ist "name[[:type]:count]". Der Name ist der von
verbrauchbare Ressource. Die Anzahl ist die Anzahl der Ressourcen mit einem Standardwert
Wert 1. Die angegebenen Ressourcen werden dem Job auf jedem Knoten zugewiesen.
Die verfügbaren generischen Verbrauchsmaterialressourcen sind vom System konfigurierbar
Administrator. Eine Liste der verfügbaren generischen Verbrauchsmaterialien wird gedruckt
und der Befehl wird beendet, wenn das Optionsargument "help" ist. Anwendungsbeispiele
schließen Sie "--gres=gpu:2,mic=1", "--gres=gpu:kepler:2" und "--gres=help" ein.
-H, --halt
Geben Sie an, dass der Job in einem angehaltenen Zustand (Priorität Null) übergeben werden soll. Ein fester Job
kann jetzt mit scontrol freigegeben werden, um seine Priorität zurückzusetzen (zB "skontrollieren Release
").
-h, --help
Hilfeinformationen anzeigen und beenden.
--Hinweis=<tippe>
Binden Sie Aufgaben gemäß Anwendungshinweisen.
berechnen_gebunden
Wählen Sie die Einstellungen für rechnergebundene Anwendungen: Verwenden Sie alle Kerne in jedem
Buchse, ein Gewinde pro Kern.
Speicher_gebunden
Wählen Sie die Einstellungen für speichergebundene Anwendungen: Verwenden Sie jeweils nur einen Kern
Buchse, ein Gewinde pro Kern.
[kein]Multithread
[keine] zusätzliche Threads mit In-Core-Multithreading verwenden, was von Vorteil sein kann
kommunikationsintensive Anwendungen. Nur unterstützt mit der Aufgabe/Affinität
plugin.
Hilfe Diese Hilfemeldung anzeigen
-I, --sofort[=Sekunden>]
Beenden, wenn Ressourcen nicht innerhalb des angegebenen Zeitraums verfügbar sind. Wenn nein
Wird ein Argument angegeben, müssen Ressourcen für die Anforderung sofort verfügbar sein
erfolgreich. Standardmäßig, --sofort ist ausgeschaltet und der Befehl blockiert bis
Ressourcen werden verfügbar. Da das Argument dieser Option eigentlich optional ist
Auf das Parsen der Einzelbuchstabenoption muss unmittelbar der Wert und folgen
zwischen ihnen darf kein Leerzeichen stehen. Zum Beispiel „-I60“ und nicht „-I 60“.
-J, --Berufsbezeichnung=<Berufsbezeichnung>
Geben Sie einen Namen für die Jobzuordnung an. Der angegebene Name erscheint zusammen mit
die Job-ID-Nummer beim Abfragen laufender Jobs auf dem System. Der Standard-Jobname
ist der Name des in der Befehlszeile angegebenen „Befehls“.
--Job-ID=<Job-ID>
Weisen Sie Ressourcen als die angegebene Job-ID zu. HINWEIS: Nur gültig für den Benutzer root.
-K, --kill-command[=Signal]
salloc führt immer einen vom Benutzer angegebenen Befehl aus, sobald die Zuweisung gewährt wird. salloc
wird auf unbestimmte Zeit warten, bis dieser Befehl beendet wird. Wenn Sie den --kill-command angeben
Die Option salloc sendet jedes Mal ein Signal an Ihren Befehl, wenn der Slurm-Controller aktiviert ist
teilt salloc mit, dass seine Jobzuweisung widerrufen wurde. Die Jobzuteilung kann sein
aus mehreren Gründen widerrufen: jemand benutzt scannen die Zuteilung zu widerrufen, oder
die Zuteilung hat ihr Zeitlimit erreicht. Wenn Sie keinen Signalnamen oder angeben
Anzahl und Slurm ist so konfiguriert, dass der erzeugte Befehl bei Beendigung des Jobs signalisiert wird.
Das Standardsignal ist SIGHUP für interaktiv und SIGTERM für nicht interaktiv
Sitzungen. Da das Argument dieser Option für die ordnungsgemäße Analyse der Single optional ist
Auf die Buchstabenoption muss unmittelbar der Wert folgen und darf kein Leerzeichen enthalten
zwischen ihnen. Zum Beispiel „-K1“ und nicht „-K 1“.
-k, --kein Töten
Einen Job nicht automatisch beenden, wenn einer der ihm zugewiesenen Knoten
scheitert. Der Benutzer übernimmt die Verantwortung für die Fehlertoleranz, sollte ein Knoten
Scheitern. Bei einem Knotenfehler werden alle aktiven Jobschritte (normalerweise MPI-Jobs) an
dieser Knoten wird mit ziemlicher Sicherheit einen fatalen Fehler erleiden, aber mit --no-kill ist der Job
Die Zuweisung wird nicht widerrufen, sodass der Benutzer neue Jobschritte auf dem . starten kann
verbleibenden Knoten in ihrer Zuordnung.
Standardmäßig beendet Slurm die gesamte Jobzuweisung, wenn ein Knoten in seiner
Bereich der zugewiesenen Knoten.
-L, --Lizenzen=<Lizenz>
Spezifikation von Lizenzen (oder anderen Ressourcen, die auf allen Knoten der
Cluster), die diesem Job zugeordnet werden müssen. Auf Lizenznamen kann ein a . folgen
Doppelpunkt und Anzahl (die Standardanzahl ist eins). Mehrere Lizenznamen sollten ein Komma sein
getrennt (z. B. „--licenses=foo:4,bar“).
-m, --Verteilung=
willkürlich|<Schutzmassnahmen bei|zyklisch|Flugzeug=[:Schutzmassnahmen bei|zyklisch|fzyklisch]>
Geben Sie alternative Verteilungsmethoden für Remoteprozesse an. In Salloc nur dies
legt Umgebungsvariablen fest, die von nachfolgenden srun-Anforderungen verwendet werden. Dies
Option steuert die Zuweisung von Aufgaben zu den Knoten, auf denen Ressourcen gespeichert wurden
zugewiesen, und die Verteilung dieser Ressourcen auf Aufgaben zum Binden (Aufgabe)
Affinität). Die erste Verteilungsmethode (vor dem ":") steuert die Verteilung
von Ressourcen über Knoten hinweg. Die optionale zweite Verteilungsmethode (nach dem ":")
steuert die Verteilung von Ressourcen über Sockets innerhalb eines Knotens. Beachten Sie, dass
Mit select/cons_res kann die Anzahl der CPUs, die jedem Socket und Knoten zugewiesen sind, betragen
unterschiedlich. Beziehen auf http://slurm.schedmd.com/mc_support.html zu weiteren Informationen und Erklärungen
B. bei der Ressourcenzuweisung, der Zuweisung von Aufgaben zu Knoten und der Bindung von Aufgaben an CPUs.
Erste Verteilungsmethode:
Schutzmassnahmen bei Die Blockverteilungsmethode verteilt Aufgaben so an einen Knoten, dass
aufeinanderfolgende Aufgaben teilen sich einen Knoten. Betrachten Sie zum Beispiel eine Zuordnung von drei
Knoten mit jeweils zwei CPUs. Eine Blockverteilungsanfrage mit vier Aufgaben wird
Verteilen Sie diese Aufgaben auf die Knoten mit Aufgaben eins und zwei auf der ersten
Knoten, Aufgabe drei auf dem zweiten Knoten und Aufgabe vier auf dem dritten Knoten. Block
Verteilung ist das Standardverhalten, wenn die Anzahl der Aufgaben die
Anzahl der zugewiesenen Knoten.
zyklisch Die zyklische Verteilungsmethode verteilt Aufgaben so an einen Knoten, dass
aufeinanderfolgende Aufgaben werden auf aufeinanderfolgende Knoten verteilt (in einem Round-Robin
Mode). Betrachten Sie zum Beispiel eine Belegung von drei Knoten mit jeweils zwei
CPU. Eine zyklische Verteilungsanforderung mit vier Aufgaben verteilt diese Aufgaben an
die Knoten mit Aufgaben eins und vier auf dem ersten Knoten, Aufgabe zwei auf dem zweiten
Knoten und Aufgabe drei auf dem dritten Knoten. Beachten Sie, dass wenn SelectType . ist
select/cons_res, darf nicht jedem Knoten die gleiche Anzahl von CPUs zugewiesen werden.
Die Aufgabenverteilung erfolgt im Round-Robin-Verfahren unter allen Knoten mit noch ausstehenden CPUs
Aufgaben zugewiesen werden. Die zyklische Verteilung ist das Standardverhalten, wenn die
Die Anzahl der Aufgaben ist nicht größer als die Anzahl der zugewiesenen Knoten.
Ebene Die Aufgaben werden in Blöcke einer bestimmten Größe verteilt. Die Optionen
eine Zahl einschließen, die die Größe des Aufgabenblocks darstellt. Das wird befolgt
durch eine optionale Angabe des Aufgabenverteilungsschemas innerhalb eines Blocks
der Aufgaben und zwischen den Aufgabenblöcken. Die Anzahl der verteilten Aufgaben
an jeden Knoten ist die gleiche wie bei der zyklischen Verteilung, aber die Task-IDs
die jedem Knoten zugewiesen werden, hängen von der Ebenengröße ab. Für weitere Details (einschließlich
Beispiele und Diagramme), siehe
http://slurm.schedmd.com/mc_support.html
und
http://slurm.schedmd.com/dist_plane.html
willkürlich
Die willkürliche Verteilungsmethode ordnet Prozesse der Reihe nach zu als
in der durch die Umgebungsvariable SLURM_HOSTFILE bezeichneten Datei aufgelistet. Wenn
Diese Variable wird aufgelistet und überschreibt alle anderen angegebenen Methoden. Wenn
Wenn die Methode nicht festgelegt ist, wird sie standardmäßig blockiert. In der Hostdatei muss enthalten sein
mindestens die Anzahl der angeforderten Hosts und einer pro Zeile oder Komma
getrennt. Wenn Sie eine Aufgabenanzahl angeben (-n, --ntasks=<Anzahl>), deine Aufgaben
werden auf den Knoten in der Reihenfolge der Datei angeordnet.
Anmerkungen: Die willkürliche Verteilungsoption bei einer Jobzuweisung steuert nur
die dem Job zuzuordnenden Knoten und nicht die Zuweisung von CPUs auf diesen
Knoten. Diese Option ist in erster Linie dazu gedacht, das Aufgabenlayout eines Jobschritts in
eine vorhandene Jobzuweisung für das srun-Kommando.
Zweite Verteilungsmethode:
Schutzmassnahmen bei Die Blockverteilungsmethode verteilt Aufgaben so auf Sockets, dass
aufeinanderfolgende Aufgaben teilen sich einen Socket.
zyklisch Die zyklische Verteilungsmethode verteilt Aufgaben so auf Sockets, dass
aufeinanderfolgende Aufgaben werden auf aufeinanderfolgende Sockets verteilt (in einem Round-Robin
Mode). Aufgaben, die mehr als eine CPU erfordern, verfügen über alle diese CPUs
wenn möglich auf einer einzigen Buchse zugeordnet.
fzyklisch
Die fzyklische Verteilungsmethode verteilt Aufgaben so auf Sockets, dass
aufeinanderfolgende Aufgaben werden auf aufeinanderfolgende Sockets verteilt (in einem Round-Robin
Mode). Aufgaben, die mehr als eine CPU erfordern, werden jeder CPU zugewiesen
zyklisch über Sockets hinweg.
--mail-typ=<tippe>
Benachrichtigen Sie den Benutzer per E-Mail, wenn bestimmte Ereignistypen auftreten. Gültig tippe Werte sind KEINE,
BEGIN, END, FAIL, REQUEUE, ALL (entspricht BEGIN, END, FAIL, REQUEUE und
STAGE_OUT), STAGE_OUT (Burst Buffer Stage Out abgeschlossen), TIME_LIMIT, TIME_LIMIT_90
(90 Prozent des Zeitlimits erreicht), TIME_LIMIT_80 (80 Prozent der Zeit erreicht
Limit) und TIME_LIMIT_50 (50 Prozent des Zeitlimits erreicht). Mehrere tippe Werte
kann in einer durch Kommas getrennten Liste angegeben werden. Der zu benachrichtigende Benutzer wird angezeigt
mit --mail-benutzer.
--mail-benutzer=<Benutzer>
Benutzer, der eine E-Mail-Benachrichtigung über Statusänderungen gemäß der Definition von . erhält --mail-typdem „Vermischten Geschmack“. Seine
Standardwert ist der sendende Benutzer.
--mem=<MB>
Geben Sie den pro Knoten benötigten realen Speicher in Megabyte an. Standardwert ist
DefMemPerNode und der Maximalwert ist MaxMemPerNode. Falls konfiguriert, beides
Parameter können mit dem skontrollieren erklären Config Befehl. Dieser Parameter
würde im Allgemeinen verwendet werden, wenn ganze Knoten Jobs zugewiesen werden
(SelectType=auswählen/linear). Siehe auch --mem-per-cpu. --mem und --mem-per-cpu sind
sich gegenseitig ausschließen. HINWEIS: Eine Speichergrößenangabe wird als Sonderfall behandelt
und gewährt dem Job Zugriff auf den gesamten Speicher auf jedem Knoten. HINWEIS: Durchsetzung von
Speicherlimits hängen derzeit vom Task-/Cgroup-Plugin oder der Aktivierung von . ab
Abrechnung, die regelmäßig die Speichernutzung abtastet (Daten müssen nicht gespeichert werden,
gerade gesammelt). In beiden Fällen basiert die Speichernutzung auf der Resident Set Size des Jobs
(RSS). Eine Aufgabe kann das Speicherlimit bis zur nächsten periodischen Abrechnung überschreiten
Sample.
--mem-per-cpu=<MB>
Mindestens erforderlicher Speicher pro zugewiesener CPU in Megabyte. Standardwert ist
unterstützt und der Maximalwert ist MaxMemPerCPU (siehe Ausnahme unten). Wenn
konfiguriert sind, können beide Parameter über das angezeigt werden skontrollieren erklären Config Befehl.
Beachten Sie, dass, wenn der Job --mem-per-cpu Wert überschreitet den konfigurierten MaxMemPerCPU,
dann wird das Limit des Benutzers als Speicherlimit pro Aufgabe behandelt; --mem-per-cpu
wird auf einen Wert von nicht mehr als reduziert MaxMemPerCPU; --cpus-pro-task wird gesetzt
und der Wert von --cpus-pro-task multipliziert mit dem neuen --mem-per-cpu Wert wird
gleich dem Original --mem-per-cpu vom Benutzer angegebenen Wert. Dieser Parameter würde
generell verwendet werden, wenn einzelnen Bearbeitern Jobs zugeordnet werden
(SelectType=select/cons_res). Wenn Ressourcen vom Core, Socket oder zugewiesen werden
ganze Knoten; die Anzahl der einem Job zugewiesenen CPUs kann höher sein als die der Task
zählen und der Wert von --mem-per-cpu sollte entsprechend angepasst werden. Siehe auch
--mem. --mem und --mem-per-cpu sind sich gegenseitig aus.
--mem_bind=[{ruhig, ausführlich},]tippe
Binden Sie Aufgaben an den Speicher. Wird nur verwendet, wenn das Aufgaben-/Affinitäts-Plugin aktiviert ist und die
NUMA-Speicherfunktionen sind verfügbar. Note zur Verbesserung der Gesundheitsgerechtigkeit Auflösung of CPU und Erinnerung
Bindung Mai abweichen on einige Architekturen. Beispielsweise kann CPU-Bindung ausgeführt werden
auf der Ebene der Kerne innerhalb eines Prozessors, während die Speicherbindung durchgeführt wird
auf der Ebene der Knoten, wobei die Definition von "Knoten" von System zu System unterschiedlich sein kann
System funktionieren. Das - of jedem tippe mehr als „Keine“ or "lokal" is nicht empfohlen. If
Wenn Sie mehr Kontrolle wünschen, versuchen Sie, einen einfachen Testcode mit den Optionen auszuführen
"--mem_bind=verbose,none", um die spezifische Konfiguration zu bestimmen.
HINWEIS: Damit Slurm immer über die ausgewählte Speicherbindung für alle Befehle berichtet
in einer Shell ausgeführt wird, können Sie den ausführlichen Modus aktivieren, indem Sie den SLURM_MEM_BIND
Wert der Umgebungsvariablen auf "ausführlich".
Die folgenden informativen Umgebungsvariablen werden gesetzt, wenn --mem_bind in
benutzen:
SLURM_MEM_BIND_VERBOSE
SLURM_MEM_BIND_TYPE
SLURM_MEM_BIND_LIST
Weitere Informationen im VARIABLEN Abschnitt für eine detailliertere Beschreibung der
einzelne SLURM_MEM_BIND*-Variablen.
Zu den unterstützten Optionen gehören:
ruhig]
Leise binden, bevor die Aufgabe ausgeführt wird (Standard)
v[erbose]
Binden Sie ausführlich, bevor die Aufgabe ausgeführt wird
keiner] keine Aufgaben an den Speicher binden (Standard)
Rang Bindung nach Aufgabenrang (nicht empfohlen)
aus einer regionalen Lokalen Speicher des verwendeten Prozessors verwenden
map_mem:
binden durch Zuordnen des Speichers eines Knotens zu Aufgaben wie angegeben, wobei ist
, ,... . CPU-IDs werden als Dezimalwerte interpretiert
es sei denn, ihnen wird '0x' vorangestellt, in diesem Fall werden sie interpretiert als
Hexadezimalwerte (nicht empfohlen)
mask_mem:
binden durch Festlegen von Speichermasken für Aufgaben wie angegeben, wobei ist
, ,... . Gedächtnismasken sind immer Interpretiert als
hexadezimale Werte. Beachten Sie, dass Masken mit einem '0x' vorangestellt werden müssen, wenn sie
beginnen Sie nicht mit [0-9], damit sie von srun als numerische Werte angesehen werden.
Hilfe Diese Hilfemeldung anzeigen
--mincpus=<n>
Geben Sie eine Mindestanzahl logischer CPUs/Prozessoren pro Knoten an.
-N, --knoten=<Minknoten[-maxnodes]>
Fordern Sie ein Minimum von Minknoten Knoten diesem Job zugewiesen werden. Ein maximaler Knoten
count kann auch mit . angegeben werden maxnodes. Wenn nur eine Zahl angegeben ist, wird diese
wird sowohl als minimale als auch als maximale Knotenanzahl verwendet. Die Knotengrenzen der Partition
ersetzen die des Jobs. Wenn die Knotengrenzen eines Jobs außerhalb des Bereichs liegen
für die zugehörige Partition zulässig ist, wird der Job im Status PENDING belassen.
Dies ermöglicht eine mögliche Ausführung zu einem späteren Zeitpunkt, wenn das Partitionslimit ist
geändert. Wenn ein Job-Knotenlimit die Anzahl der Knoten überschreitet, die im
Partition wird der Job abgelehnt. Beachten Sie, dass die Umgebungsvariable
SLURM_NNODES wird auf die Anzahl der Knoten gesetzt, die dem Job tatsächlich zugeordnet sind. Sehen
VARIABLEN Abschnitt für weitere Informationen. Wenn -N ist nicht angegeben,
Das Standardverhalten besteht darin, genügend Knoten zuzuweisen, um die Anforderungen der
-n und -c Optionen. Dem Job werden so viele Knoten wie möglich innerhalb der . zugewiesen
angegebenen Bereich und ohne Verzögerung der Auslösung des Jobs. Die Knotenanzahl
Spezifikation kann einen numerischen Wert gefolgt von einem Suffix von "k" enthalten (multipliziert
numerischer Wert mit 1,024) oder "m" (multipliziert den numerischen Wert mit 1,048,576).
-n, --ntasks=<Anzahl>
salloc startet keine Aufgaben, sondern fordert eine Zuweisung von Ressourcen an und führt diese aus
irgendein Befehl. Diese Option teilt dem Slurm-Controller mit, dass darin Jobschritte ausgeführt werden
Diese Zuteilung wird maximal starten Anzahl Aufgaben und ausreichende Ressourcen vorhanden sind
zugewiesen, um dies zu erreichen. Der Standardwert ist eine Aufgabe pro Knoten. Beachten Sie jedoch, dass die
--cpus-pro-task Option ändert diese Standardeinstellung.
--Netzwerk=<tippe>
Geben Sie Informationen zum Switch oder Netzwerk an. Die Interpretation von
tippe ist systemabhängig. Diese Option wird unterstützt, wenn Slurm auf einem Cray ausgeführt wird
nativ. Es wird verwendet, um mithilfe von Netzwerkleistungszählern anzufordern. Nur ein Wert
pro Anfrage ist gültig. Bei allen Optionen wird die Groß-/Kleinschreibung nicht beachtet. In dieser Konfiguration
unterstützte Werte umfassen:
System
Verwenden Sie die systemweiten Netzwerkleistungsindikatoren. Nur angeforderte Knoten werden
für die Stellenvergabe als in Verwendung gekennzeichnet sein. Wenn der Job die nicht ausfüllt
gesamtes System die restlichen Knoten können nicht von anderen Jobs verwendet werden
Wenn NPC verwendet wird, wird ihr Status im Leerlauf als PerfCnts angezeigt. Diese Knoten sind
noch für andere Jobs verfügbar, die NPC nicht verwenden.
Klinge Verwenden Sie die Leistungsindikatoren für das Blade-Netzwerk. Nur angeforderte Knoten werden
in Verwendung für die Stellenzuordnung markiert. Wenn der Job nicht das ganze ausfüllt
Blade(s), die dem Job zugewiesen sind, die Blade(s) nicht von anderen verwendet werden können
Jobs, die NPC verwenden, werden im Leerlauf als PerfCnts angezeigt. Diese Knoten sind
noch für andere Jobs verfügbar, die NPC nicht verwenden.
In allen Fällen die Stellenzuweisungsanfrage sollen angeben
--exklusive Option. Andernfalls wird die Anfrage abgelehnt.
Auch bei diesen Optionen ist es nicht erlaubt, Blades gemeinsam zu nutzen, also Ressourcen
würde innerhalb einer Zuweisung im Leerlauf bleiben, wenn der auf einem Blade ausgeführte Schritt nicht ausgeführt wird
alle Knoten auf der Klinge auf.
Das Netzwerk Option wird auch auf Systemen mit IBM Parallel Environment unterstützt
(SPORT). Weitere Informationen zum Schlüsselwort finden Sie in der IBM Dokumentation zu den Schlüsselwörtern für LoadLeveler-Jobbefehle
"Netzwerk" für weitere Informationen. Mehrere Werte können in einem Komma angegeben werden
getrennte Liste. Bei allen Optionen wird die Groß-/Kleinschreibung nicht beachtet. Zu den unterstützten Werten gehören:
BULK_XFER[=RESSOURCEN>]
Aktivieren Sie die Massenübertragung von Daten mit Remote Direct-Memory Access (RDMA).
Das optionale RESSOURCEN Spezifikation ist ein numerischer Wert, der haben kann
ein Suffix von "k", "K", "m", "M", "g" oder "G" für Kilobyte, Megabyte oder
Gigabyte. Beachten Sie das RESSOURCEN Spezifikation wird nicht von der . unterstützt
zugrundeliegende IBM Infrastruktur ab Parallel Environment Version 2.2
und zu diesem Zeitpunkt sollte kein Wert angegeben werden.
CAU=<zählen> Anzahl der erforderlichen Collectve Acceleration Units (CAU). Gilt nur für
IBM Power7-IH-Prozessoren. Der Standardwert ist Null. Unabhängiger CAU wird
für jede Programmierschnittstelle (MPI, LAPI usw.) zugeteilt werden
GERÄTENAME=<Name>
Geben Sie den für die Kommunikation zu verwendenden Gerätenamen an (z. B. "eth0" oder
"mlx4_0").
ENTWICKLUNGSTYP=<tippe>
Geben Sie den für die Kommunikation zu verwendenden Gerätetyp an. Die unterstützten
Werte von tippe sind: "IB" (InfiniBand), "HFI" (P7 Host Fabric
Schnittstelle), "IPONLY" (nur IP-Schnittstellen), "HPCE" (HPC Ethernet) und
"KMUX" (Kernel-Emulation von HPCE). Die einem Job zugeordneten Geräte müssen
alle vom gleichen Typ sein. Der Standardwert hängt davon ab, abhängig von
welche Hardware verfügbar ist und in der Reihenfolge der Präferenzen ist IPONLY (was
wird im User Space-Modus nicht berücksichtigt), HFI, IB, HPCE und KMUX.
SOFORT =<zählen>
Anzahl der erforderlichen Sofort-Sende-Slots pro Fenster. Gilt nur für
IBM Power7-IH-Prozessoren. Der Standardwert ist null.
INSTANZEN =<zählen>
Geben Sie die Anzahl der Netzwerkverbindungen für jede Aufgabe in jedem Netzwerk an
Verbindung. Die Standardinstanzanzahl ist 1.
IPV4 Verwenden Sie Internet Protocol (IP) Version 4 Kommunikation (Standard).
IPV6 Verwenden Sie die Kommunikation über das Internet Protocol (IP) Version 6.
LAPI Verwenden Sie die LAPI-Programmierschnittstelle.
MPI Verwenden Sie die MPI-Programmierschnittstelle. MPI ist die Standardschnittstelle.
PAMI Verwenden Sie die PAMI-Programmierschnittstelle.
SCHMEM Verwenden Sie die OpenSHMEM-Programmierschnittstelle.
SN_ALL Verwenden Sie alle verfügbaren Switch-Netzwerke (Standard).
SN_SINGLE Verwenden Sie ein verfügbares Switch-Netzwerk.
UPC Verwenden Sie die UPC-Programmierschnittstelle.
US Verwenden Sie die Benutzerbereichskommunikation.
Einige Beispiele für Netzwerkspezifikationen:
Instanzen=2,US,MPI,SN_ALL
Erstellen Sie zwei Userspace-Verbindungen für die MPI-Kommunikation auf jedem
Switch-Netzwerk für jede Aufgabe.
US,MPI,Instanzen=3,Devtype=IB
Erstellen Sie drei Userspace-Verbindungen für die MPI-Kommunikation auf jedem
InfiniBand-Netzwerk für jede Aufgabe.
IPV4,LAPI,SN_Single
Erstellen Sie eine IP-Version-4-Verbindung für die LAPI-Kommunikation auf einem Switch
Netzwerk für jede Aufgabe.
Instanzen=2,US,LAPI,MPI
Erstellen Sie jeweils zwei Userspace-Verbindungen für die LAPI- und MPI-Kommunikation
auf jedem Switch-Netzwerk für jede Aufgabe. Beachten Sie, dass SN_ALL die Standardeinstellung ist
Option, sodass jedes Switch-Netzwerk verwendet wird. Beachten Sie auch, dass Instanzen=2
gibt an, dass für jedes Protokoll zwei Verbindungen aufgebaut werden (LAPI
und MPI) und jede Aufgabe. Wenn zwei Netzwerke und vier Aufgaben aktiv sind
dem Knoten werden dann insgesamt 32 Verbindungen aufgebaut (2 Instanzen x
2 Protokolle x 2 Netzwerke x 4 Aufgaben).
--nett[=Anpassung]
Führen Sie den Job mit einer angepassten Planungspriorität in Slurm aus. Ohne Anpassung
Wert wird die Planungspriorität um 100 verringert. Der Einstellbereich reicht von
-10000 (höchste Priorität) bis 10000 (niedrigste Priorität). Nur privilegierte Benutzer können
eine negative Anpassung angeben. HINWEIS: Diese Option wird derzeit ignoriert, wenn
SchedulerType=sched/wiki or SchedulerType=sched/wiki2.
--ntasks-pro-Kern=<naufgaben>
Fordern Sie das Maximum an naufgaben auf jedem Kern aufgerufen werden. Zur Verwendung mit dem
--ntasks Möglichkeit. Im Zusammenhang mit --ntasks-per-node außer auf der Kernebene statt
der Knotenebene. HINWEIS: Diese Option wird nur unterstützt, wenn
SelectTypeParameters=CR_Core or SelectTypeParameters=CR_Core_Memory konfiguriert ist.
--ntasks-pro-socket=<naufgaben>
Fordern Sie das Maximum an naufgaben auf jedem Socket aufgerufen werden. Zur Verwendung mit dem
--ntasks Möglichkeit. Im Zusammenhang mit --ntasks-per-node außer auf Sockelebene stattdessen
der Knotenebene. HINWEIS: Diese Option wird nur unterstützt, wenn
SelectTypeParameters=CR_Socket or SelectTypeParameters=CR_Socket_Memory is
konfiguriert.
--ntasks-per-node=<naufgaben>
Fordern Sie das an naufgaben auf jedem Knoten aufgerufen werden. Bei Verwendung mit dem --ntasks Option, die
--ntasks Option hat Vorrang und die --ntasks-per-node wird behandelt als
maximal Anzahl der Aufgaben pro Knoten. Zur Verwendung mit dem --knoten Möglichkeit. Dies
bezieht sich auf --cpus-pro-task=ncpus, erfordert aber keine Kenntnis der aktuellen
Anzahl der CPUs auf jedem Knoten. In einigen Fällen ist es bequemer, in der Lage zu sein,
anfordern, dass auf jedem Knoten nicht mehr als eine bestimmte Anzahl von Tasks aufgerufen werden.
Beispiele hierfür sind das Einreichen einer hybriden MPI/OpenMP-App, bei der nur ein MPI
"Aufgabe/Rang" sollte jedem Knoten zugewiesen werden, während der OpenMP-Anteil
Nutzen Sie die gesamte im Knoten vorhandene Parallelität oder senden Sie eine einzelne
Einrichtungs-/Bereinigungs-/Überwachungsjob für jeden Knoten einer bereits bestehenden Zuordnung als ein Schritt
in einem größeren Job-Skript.
--keine Glocke
Bringen Sie Salloc dazu, die Terminalklingel zu benutzen. Siehe auch die Option --Klingel.
--keine Schale
Wird nach der Zuweisung von Ressourcen sofort beendet, ohne einen Befehl auszuführen. Jedoch,
Der Slurm-Job wird weiterhin erstellt, bleibt aktiv und besitzt den
zugewiesene Ressourcen, solange es aktiv ist. Sie erhalten eine Slurm-Job-ID mit der Nummer
damit verbundene Prozesse oder Aufgaben. Sie können einreichen schrubben Befehle für diese Ressource
Zuordnung, wenn Sie die angeben --jobid= Option mit der Job-ID dieses Slurm-Jobs.
Alternativ kann dies verwendet werden, um vorübergehend eine Reihe von Ressourcen für andere Aufgaben zu reservieren
Sie können sie für einen bestimmten Zeitraum nicht verwenden. (Beachten Sie, dass der Slurm-Job unterliegt
die normalen Einschränkungen für Jobs, einschließlich zeitlicher Begrenzungen, so dass schließlich der Job
wird beendet und die Ressourcen werden freigegeben, oder Sie können den Job beenden
manuell mit der scannen Befehl.)
-O, --overcommit
Überbeanspruchen Sie Ressourcen. Bei Anwendung auf die Jobzuweisung wird nur eine CPU zugewiesen
der Job pro Knoten und Optionen, die verwendet werden, um die Anzahl der Aufgaben pro Knoten, Socket,
Kern usw. werden ignoriert. Bei Anwendung auf Job-Step-Zuordnungen (die schrubben Befehl
bei Ausführung innerhalb einer bestehenden Auftragszuweisung), kann diese Option zum Starten verwendet werden
mehr als eine Aufgabe pro CPU. Normalerweise, schrubben wird nicht mehr als einen Prozess zuordnen
pro CPU. Durch Angabe --overcommit du erlaubst explizit mehr als einen
Prozess pro CPU. Jedoch nicht mehr als MAX_TASKS_PER_NODE Aufgaben dürfen
pro Knoten ausführen. HINWEIS: MAX_TASKS_PER_NODE ist in der Datei definiert schlummern.h und ein
keine Variable, sie wird zur Slurm-Buildzeit festgelegt.
--Energie=<Fahnen>
Kommagetrennte Liste der Power-Management-Plugin-Optionen. Aktuell verfügbare Flaggen
umfassen: Ebene (alle dem Job zugewiesenen Knoten sollten identische Stromobergrenzen haben,
kann durch die Slurm-Konfigurationsoption PowerParameters=job_no_level deaktiviert werden).
--Priorität=
Fordern Sie eine bestimmte Jobpriorität an. Kann konfigurationsspezifisch sein
Einschränkungen. Nur Slurm-Operatoren und -Administratoren können die Priorität von a festlegen
Job.
--Profil=
ermöglicht eine detaillierte Datenerfassung durch das acct_gather_profile Plugin. Detaillierte Daten
sind normalerweise Zeitreihen, die in einer HDF5-Datei für den Job gespeichert werden.
Alle Alle Datentypen werden gesammelt. (Nicht mit anderen Werten kombinierbar.)
Keine Es werden keine Datentypen gesammelt. Dies ist die Standardeinstellung.
(Nicht mit anderen Werten kombinierbar.)
Energiewirtschaft Es werden Energiedaten gesammelt.
Aufgabe Taskdaten (I/O, Speicher, ...) werden gesammelt.
Glanz Es werden Glanzdaten gesammelt.
Network Es werden Netzwerkdaten (InfiniBand) gesammelt.
-p, --Partition=<Partitionsnamen>
Fordern Sie eine bestimmte Partition für die Ressourcenzuweisung an. Wenn nicht angegeben, wird die
Das Standardverhalten besteht darin, dem Slurm-Controller zu erlauben, die Standardpartition auszuwählen
wie vom Systemadministrator festgelegt. Wenn der Job mehr als einen verwenden kann
Partition, geben Sie deren Namen in einer durch Kommas getrennten Liste und dem Angebot an
Die früheste Initiierung wird ohne Rücksicht auf den Partitionsnamen verwendet
(obwohl Partitionen mit höherer Priorität zuerst berücksichtigt werden). Wenn das
Job initiiert wird, wird der Name der verwendeten Partition an erster Stelle im Job platziert
Partitionszeichenfolge aufzeichnen.
-Q, --ruhig
Informationsnachrichten von salloc unterdrücken. Fehler werden weiterhin angezeigt.
--qos=<qos>
Fordern Sie eine Servicequalität für den Job an. QOS-Werte können für jeden definiert werden
Benutzer-/Cluster-/Kontozuordnung in der Slurm-Datenbank. Benutzer werden beschränkt auf
den definierten Qos-Satz ihrer Assoziation, wenn der Konfigurationsparameter Slurm,
AccountingStorageEnforce, enthält "qos" in seiner Definition.
- Neustart
Erzwingen Sie einen Neustart der zugewiesenen Knoten, bevor Sie den Job starten. Das ist nur
wird von einigen Systemkonfigurationen unterstützt und ansonsten stillschweigend ignoriert.
--Reservierung=<Name>
Weisen Sie Ressourcen für den Job aus der benannten Reservierung zu.
-s, --Teilen
Die Jobzuweisung kann Ressourcen mit anderen laufenden Jobs teilen. Die Ressourcen für
gemeinsam genutzt werden können Knoten, Sockets, Kerne oder Hyperthreads sein, abhängig von
Aufbau. Das standardmäßige gemeinsame Verhalten hängt von der Systemkonfiguration und den
Partitionen Gemeinsam genutzt Option hat Vorrang vor der Option des Jobs. Diese Option kann
dazu führen, dass die Zuteilung früher gewährt wird, als wenn die Option --share nicht vorhanden wäre
einstellen und eine höhere Systemauslastung zulassen, aber die Anwendungsleistung wird wahrscheinlich
leiden unter der Konkurrenz um Ressourcen. Siehe auch die Option --exclusive.
-S, --core-spez=<num>
Anzahl spezialisierter Kerne pro Knoten, die vom Job für Systemoperationen reserviert sind und
nicht von der Anwendung verwendet. Die Anwendung verwendet diese Kerne nicht, wird jedoch
für deren Zuteilung in Rechnung gestellt. Der Standardwert ist abhängig vom Knoten
konfigurierten CoreSpecCount-Wert. Wenn ein Wert von Null angegeben wird und der Slurm
Konfigurationsoption AllowSpecResourcesUsage aktiviert ist, darf der Job
Überschreiben Sie CoreSpecCount und verwenden Sie die spezialisierten Ressourcen auf den zugewiesenen Knoten.
Diese Option kann nicht mit dem verwendet werden --thread-spez .
--sicp Identifizieren Sie einen Job als einen Job, von dem Jobs abhängen können, die an andere Cluster gesendet werden.
--Signal=<sign_num>[@sig_time>]
Wenn ein Job in der Nähe ist sig_time Sekunden seiner Endzeit, sende ihm das Signal sign_num.
Aufgrund der Auflösung der Ereignisbehandlung durch Slurm kann das Signal bis zu 60 gesendet werden
Sekunden früher als angegeben. sign_num kann entweder eine Signalnummer oder ein Name sein
(zB "10" oder "USR1"). sig_time muss einen ganzzahligen Wert zwischen 0 und 65535 haben.
Standardmäßig wird vor der Endzeit des Jobs kein Signal gesendet. Wenn eine sign_num angegeben
ohne irgendetwas sig_time, die Standardzeit beträgt 60 Sekunden.
--sockets-per-node=<Steckdosen>
Beschränken Sie die Knotenauswahl auf Knoten mit mindestens der angegebenen Anzahl von Sockets.
Weitere Informationen finden Sie unter -B Option oben, wenn das Aufgaben-/Affinitäts-Plugin ist
aktiviert.
--Schalter=<zählen>[@Maximalzeit>]
Wenn eine Baumtopologie verwendet wird, definiert dies die maximale Anzahl der gewünschten Schalter
für die Jobzuweisung und optional die maximale Wartezeit auf diese Anzahl von
Schalter. Wenn Slurm eine Zuordnung findet, die mehr Schalter als die Anzahl enthält
angegeben, bleibt der Job ausstehend, bis er entweder eine Zuweisung mit gewünschten . findet
Schalterzähler oder das Zeitlimit läuft ab. Wenn es keine Schalteranzahlbegrenzung gibt, gibt es
ist keine Verzögerung beim Beginn der Arbeit. Zulässige Zeitformate sind "Minuten",
"Minuten:Sekunden", "Stunden:Minuten:Sekunden", "Tage-Stunden", "Tage-Stunden:Minuten" und
"Tage-Stunden:Minuten:Sekunden". Die maximale Zeitverzögerung des Jobs kann durch die
Systemadministrator mit dem SchedulerParameter Konfigurationsparameter mit dem
max_switch_wait Parameter-Option. Die Standard-Max-Zeit ist max_switch_wait
SchedulerParameter.
-t, --Zeit=<Zeit>
Legen Sie ein Limit für die Gesamtlaufzeit der Jobzuweisung fest. Wenn die gewünschte Zeit
limit das Zeitlimit der Partition überschreitet, wird der Job im Status PENDING belassen
(eventuell auf unbestimmte Zeit). Das Standardzeitlimit ist die Standardzeit der Partition
Grenze. Wenn das Zeitlimit erreicht ist, wird jede Aufgabe in jedem Jobschritt gesendet SIGTERM
gefolgt von SIGKILL. Das Intervall zwischen den Signalen wird vom Slurm . festgelegt
Konfigurationsparameter KillWartendem „Vermischten Geschmack“. Seine OverTimeLimit Konfigurationsparameter kann
erlauben, dass der Job länger als geplant ausgeführt wird. Die Zeitauflösung beträgt eine Minute und
Sekundenwerte werden auf die nächste Minute aufgerundet.
Eine Frist von null verlangt, dass keine Frist auferlegt wird. Akzeptable Zeit
Formate umfassen "Minuten", "Minuten:Sekunden", "Stunden:Minuten:Sekunden",
"Tage-Stunden", "Tage-Stunden:Minuten" und "Tage-Stunden:Minuten:Sekunden".
--thread-spez=<num>
Anzahl spezialisierter Threads pro Knoten, die vom Job für Systemoperationen reserviert sind und
nicht von der Anwendung verwendet. Die Anwendung verwendet diese Threads nicht, aber
für deren Zuteilung in Rechnung gestellt werden. Diese Option kann nicht mit dem verwendet werden --core-spez
.
--threads-per-core=<Themen>
Beschränken Sie die Knotenauswahl auf Knoten mit mindestens der angegebenen Anzahl von Threads pro
Ader. HINWEIS: "Threads" bezieht sich eher auf die Anzahl der Verarbeitungseinheiten auf jedem Kern
als die Anzahl der pro Kern zu startenden Anwendungstasks. Siehe zusätzliche
Informationen unter -B obige Option, wenn das Aufgaben-/Affinitäts-Plugin aktiviert ist.
--time-min=<Zeit>
Legen Sie ein Mindestzeitlimit für die Jobzuweisung fest. Falls angegeben, hat der Job möglicherweise
es ist --Zeit Grenze auf einen Wert gesenkt, der nicht niedriger ist als --time-min wenn dies zulässt
die Ausführung des Jobs früher als sonst möglich beginnen. Das Zeitlimit des Jobs
wird nicht geändert, nachdem dem Job Ressourcen zugewiesen wurden. Dies wird durchgeführt von a
Backfill-Planungsalgorithmus, um Ressourcen zuzuweisen, die ansonsten für höhere reserviert sind
vorrangige Arbeitsplätze. Zulässige Zeitformate sind "Minuten", "Minuten:Sekunden",
"Stunden:Minuten:Sekunden", "Tage-Stunden", "Tage-Stunden:Minuten" und
"Tage-Stunden:Minuten:Sekunden".
--tmp=<MB>
Geben Sie eine Mindestmenge an temporärem Speicherplatz an.
-u, --Verwendungszweck
Kurze Hilfemeldung anzeigen und beenden.
--uid=<Benutzer>
Versuch, einen Job zu senden und/oder auszuführen als Benutzer anstelle der aufrufenden Benutzer-ID. Die
das Aufrufen der Anmeldeinformationen des Benutzers wird verwendet, um die Zugriffsberechtigungen für das Ziel zu überprüfen
Partition. Diese Option ist nur für den Benutzer root gültig. Diese Option kann vom Benutzer verwendet werden
root kann diese Option verwenden, um Jobs als normaler Benutzer in einer RootOnly-Partition auszuführen
Beispiel. Wenn Sie als Root ausgeführt werden, salloc wird seine Berechtigungen auf die angegebene UID verwerfen
nachdem die Knotenzuweisung erfolgreich war. Benutzer kann der Benutzername oder der numerische Benutzer sein
ID.
-V, --Version
Versionsinformationen anzeigen und beenden.
-v, - ausführlich
Erhöhen Sie die Ausführlichkeit der Informationsnachrichten von Salloc. Mehrere -v's Wille
Erhöhen Sie die Ausführlichkeit von Salloc weiter. Standardmäßig werden nur Fehler angezeigt.
-w, --Knotenliste=<Knoten Name Liste>
Fordern Sie eine bestimmte Liste von Hosts an. Der Job enthält alle dieser Gastgeber und
möglicherweise zusätzliche Hosts nach Bedarf, um die Ressourcenanforderungen zu erfüllen. Die Liste kann
als kommagetrennte Liste von Hosts angegeben werden, ein Bereich von Hosts (host[1-5,7,...]
zum Beispiel) oder einen Dateinamen. Die Hostliste wird als Dateiname angenommen, wenn sie
enthält ein "/"-Zeichen. Wenn Sie eine höhere Mindestanzahl an Knoten oder Prozessoren angeben
als von der bereitgestellten Hostliste erfüllt werden können, werden zusätzliche Ressourcen bereitgestellt
auf anderen Knoten nach Bedarf zugewiesen. Doppelte Knotennamen in der Liste sind
ignoriert. Die Reihenfolge der Knotennamen in der Liste ist nicht wichtig; die Knotennamen
wird nach Slurm sortiert.
--wait-all-nodes=<Wert>
Steuert, wann die Ausführung des Befehls beginnt. Standardmäßig wird der Job gestartet
Ausführung, sobald die Zuteilung erfolgt ist.
0 Beginnen Sie mit der Ausführung, sobald eine Zuordnung vorgenommen werden kann. Warten Sie nicht auf alle Knoten
einsatzbereit (dh gebootet) sein.
1 Beginnen Sie nicht mit der Ausführung, bis alle Knoten einsatzbereit sind.
--wckey=<verrückt>
Geben Sie das mit dem Job zu verwendende wckey an. Wenn TrackWCKey=no (Standard) in der slurm.conf
dieser Wert wird ignoriert.
-x, --ausschließen=<Knoten Name Liste>
Schließen Sie bestimmte Knoten explizit von den dem Job zugewiesenen Ressourcen aus.
Die folgenden Optionen unterstützen Blue Gene-Systeme, können aber auch auf andere Systeme anwendbar sein, da
Gut.
--blrts-image=<Weg>
Pfad zum Blrts-Bild für den Bluegene-Block. Nur BGL. Standard von bluegene.conf if
nicht festgelegt.
--cnload-image=<Weg>
Pfad zum Berechnen des Node-Image für den Bluegene-Block. Nur BGP. Standard von
bluegene.conf wenn nicht eingestellt.
--conn-typ=<tippe>
Erfordern, dass der Blockverbindungstyp ein bestimmter Typ ist. Auf Blue Gene the
akzeptabel von tippe sind MESH, TORUS und NAV. Wenn NAV oder nicht festgelegt ist, wird Slurm
versuchen Sie, einen zu passen, was der DefaultConnType in der bluegene.conf ist, wenn dies nicht der Fall ist
stellen Sie die Standardeinstellung auf TORUS ein. Normalerweise sollten Sie diese Option nicht setzen. Wenn weiter läuft
ein BGP-System und möchten im HTC-Modus laufen (nur für 1 Midplane und darunter). Du
kann HTC_S für SMP, HTC_D für Dual, HTC_V für den virtuellen Knotenmodus und HTC_L für . verwenden
Linux-Modus. Bei Systemen, die eine unterschiedliche Anschlussart pro Dimension zulassen, können Sie
kann eine durch Kommas getrennte Liste von Verbindungstypen angeben, eine für
jede Dimension (dh M, T, T, T gibt Ihnen eine Torus-Verbindung ist alle Dimensionen)
erwarte das erste).
-g, --Geometrie=<XxYxZ> |AxXxYxZ>
Geben Sie die Geometrieanforderungen für den Job an. Auf BlueGene/L- und BlueGene/P-Systemen
es gibt drei Zahlen, die die Abmessungen in X-, Y- und Z-Richtung angeben, während eingeschaltet
BlueGene/Q-Systeme gibt es vier Zahlen, die die Dimensionen in A, X, Y und Z angeben
Richtungen und können nicht zur Zuweisung von Unterblöcken verwendet werden. Zum Beispiel
"--geometry=1x2x3x4", spezifiziert einen Block von Knoten mit 1 x 2 x 3 x 4 = 24 Knoten
(eigentlich Midplanes auf BlueGene).
--ioload-image=<Weg>
Pfad zum io-Image für Bluegene-Block. Nur BGP. Standard von bluegene.conf wenn nicht
gesetzt.
--linux-image=<Weg>
Pfad zum Linux-Image für Bluegene-Block. Nur BGL. Standard von bluegene.conf if
nicht festgelegt.
--mloader-image=<Weg>
Pfad zum mloader-Image für Bluegene-Block. Standard von bluegene.conf wenn nicht eingestellt.
-R, --no-rotate
Deaktiviert die Drehung der angeforderten Geometrie des Jobs, um eine geeignete
Block. Standardmäßig kann sich die angegebene Geometrie in drei Dimensionen drehen.
--ramdisk-image=<Weg>
Pfad zum Ramdisk-Image für Bluegene-Block. Nur BGL. Standard von bluegene.conf if
nicht festgelegt.
SPEISUNG VARIABLEN
Beim Start liest und verarbeitet salloc die in der folgenden Umgebung festgelegten Optionen
Variablen. Hinweis: Befehlszeilenoptionen haben immer Vorrang vor den Einstellungen der Umgebungsvariablen.
SALLOC_ACCOUNT Das gleiche wie -EIN, --Konto
SALLOC_ACCTG_FREQ Das gleiche wie --acctg-freq
SALLOC_BELL Das gleiche wie --Klingel
SALLOC_BURST_BUFFER Das gleiche wie --bb
SALLOC_CONN_TYPE Das gleiche wie --conn-typ
SALLOC_CORE_SPEC Das gleiche wie --core-spez
SALLOC_DEBUG Das gleiche wie -in, - ausführlich
SALLOC_EXCLUSIVE Das gleiche wie --exklusiv
SALLOC_GEOMETRY Das gleiche wie -G, --Geometrie
SALLOC_HINT or SLURM_HINT
Das gleiche wie --Hinweis
SALLOC_IMMEDIATE Das gleiche wie -ICH, --sofort
SALLOC_JOBID Das gleiche wie --Job-ID
SALLOC_KILL_CMD Das gleiche wie -K, --kill-command
SALLOC_MEM_BIND Das gleiche wie --mem_bind
SALLOC_NETWORK Das gleiche wie --Netzwerk
SALLOC_NO_BELL Das gleiche wie --keine Glocke
SALLOC_NO_ROTATE Das gleiche wie -R, --no-rotate
SALLOC_OVERCOMMIT Das gleiche wie -Ö, --overcommit
SALLOC_PARTITION Das gleiche wie -P, --Partition
SALLOC_POWER Das gleiche wie --Energie
SALLOC_PROFILE Das gleiche wie --Profil
SALLOC_QOS Das gleiche wie --qos
SALLOC_REQ_SWITCH Wenn eine Baumtopologie verwendet wird, definiert dies die maximale Anzahl von
gewünschte Schalter für die Auftragsvergabe und optional das Maximum
Zeit, auf diese Anzahl von Schaltern zu warten. Sehen --Schalter.
SALLOC_RESERVATION Das gleiche wie --Reservierung
SALLOC_SICP Das gleiche wie --sicp
SALLOC_SIGNAL Das gleiche wie --Signal
SALLOC_THREAD_SPEC Das gleiche wie --thread-spez
SALLOC_TIMELIMIT Das gleiche wie -T, --Zeit
SALLOC_WAIT_ALL_NODES Das gleiche wie --wait-all-nodes
SALLOC_WCKEY Das gleiche wie --wckey
SALLOC_WAIT4SWITCH Maximale Wartezeit für angeforderte Schalter. Sehen --Schalter
SLURM_CONF Der Speicherort der Slurm-Konfigurationsdatei.
SLURM_EXIT_ERROR Gibt den Exit-Code an, der generiert wird, wenn ein Slurm-Fehler auftritt (z. B.
ungültige Optionen). Dies kann von einem Skript verwendet werden, um zu unterscheiden
Anwendungs-Exit-Codes aus verschiedenen Slurm-Fehlerbedingungen. Auch
sehen SLURM_EXIT_IMMEDIATE.
SLURM_EXIT_IMMEDIATE Gibt den Exit-Code an, der generiert wird, wenn die --sofort Option ist
genutzt und Ressourcen sind derzeit nicht verfügbar. Dies kann von verwendet werden
ein Skript zur Unterscheidung von Anwendungs-Exit-Codes von verschiedenen Slurm
Fehlerbedingungen. Siehe auch SLURM_EXIT_ERROR.
AUSGABE VARIABLEN
salloc legt die folgenden Umgebungsvariablen in der Umgebung der Ausführung fest
Programm:
BASIL_RESERVATION_ID
Die Reservierungs-ID nur auf Cray-Systemen, auf denen ALPS/BASIL ausgeführt wird.
SLURM_CLUSTER_NAME
Name des Clusters, auf dem der Job ausgeführt wird.
MPIRUN_NOALLOCATE
Weisen Sie keinen Block nur auf Blue Gene L/P-Systemen zu.
MPIRUN_NOFREE
Keine Blockierung nur auf Blue Gene L/P-Systemen freigeben.
MPIRUN_PARTITION
Der Blockname nur auf Blue Gene-Systemen.
SLURM_CPUS_PER_TASK
Anzahl der pro Aufgabe angeforderten CPUs. Nur einstellen, wenn die --cpus-pro-task Option ist
spezifiziert.
SLURM_DISTRIBUTION
Das gleiche wie -M, --Verteilung
SLURM_JOB_ID (und SLURM_JOBID für Abwärtskompatibilität)
Die ID der Jobzuweisung.
SLURM_JOB_CPUS_PER_NODE
Anzahl der Prozessoren, die für den Job auf diesem Knoten verfügbar sind. Beachten Sie die Auswahl/Linear
Das Plugin ordnet Jobs ganze Knoten zu, sodass der Wert die Gesamtanzahl von . angibt
CPUs auf jedem Knoten. Das Plugin select/cons_res weist einzelne Prozessoren zu
Diese Zahl gibt also die Anzahl der Prozessoren an, die jedem Knoten zugewiesen sind
die Stellenzuteilung.
SLURM_JOB_NODELIST (und SLURM_NODELIST für Abwärtskompatibilität)
Liste der dem Job zugewiesenen Knoten.
SLURM_JOB_NUM_NODES (und SLURM_NNODES für Abwärtskompatibilität)
Gesamtzahl der Knoten in der Jobzuordnung.
SLURM_JOB_PARTITION
Name der Partition, in der der Job ausgeführt wird.
SLURM_MEM_BIND
Auf den Wert der Option --mem_bind setzen.
SLURM_SUBMIT_DIR
Das Verzeichnis, aus dem salloc aufgerufen wurde.
SLURM_SUBMIT_HOST
Der Hostname des Computers, von dem aus salloc aufgerufen wurde.
SLURM_NODE_ALIASES
Sätze von Knotennamen, Kommunikationsadressen und Hostnamen für Knoten, die dem
Job aus der Cloud. Jedes Element in der Menge, wenn Doppelpunkt getrennt und jede Menge ist
Komma getrennt. Beispiel: SLURM_NODE_ALIASES=ec0:1.2.3.4:foo,ec1:1.2.3.5:bar
SLURM_NTASKS
Das gleiche wie -nicht, --ntasks
SLURM_NTASKS_PER_NODE
Wird auf den Wert der Option --ntasks-per-node gesetzt, falls angegeben.
SLURM_PROFILE
Das gleiche wie --Profil
SLURM_TASKS_PER_NODE
Anzahl der Tasks, die auf jedem Knoten initiiert werden sollen. Die Werte sind durch Kommas getrennt und im
gleiche Reihenfolge wie SLURM_NODELIST. Wenn zwei oder mehr aufeinanderfolgende Knoten die
gleiche Aufgabenanzahl, dieser Anzahl folgt "(x#)", wobei "#" die Wiederholung ist
zählen. "SLURM_TASKS_PER_NODE=2(x3),1" gibt beispielsweise an, dass die ersten drei
Knoten werden jeweils drei Aufgaben ausführen und der vierte Knoten wird eine Aufgabe ausführen.
SIGNALE
Während salloc auf eine ausstehende Jobzuweisung wartet, führen die meisten Signale dazu, dass salloc dies tut
Widerrufen Sie die Zuweisungsanforderung und beenden Sie den Vorgang.
Allerdings wurde die Zuteilung gewährt und salloc hat bereits mit der angegebenen begonnen
Befehl, dann ignoriert salloc die meisten Signale. salloc wird das nicht beenden oder freigeben
Zuordnung, bis der Befehl beendet wird. Eine bemerkenswerte Ausnahme ist SIGHUP. Ein SIGHUP-Signal wird es geben
Veranlassen Sie salloc, die Zuweisung freizugeben und zu beenden, ohne auf die Beendigung des Befehls zu warten.
Eine weitere Ausnahme ist SIGTERM, das an den erzeugten Prozess weitergeleitet wird.
Beispiele:
Um eine Zuweisung zu erhalten, öffnen Sie ein neues xterm, in das Srun-Befehle eingegeben werden können
interaktiv:
$ salloc -N16 xterm
salloc: Bewilligte Stellenzuweisung 65537
(An diesem Punkt erscheint xterm und salloc wartet darauf, dass xterm beendet wird.)
salloc: Jobzuteilung aufgeben 65537
So greifen Sie auf eine Knotenzuordnung zu und starten eine parallele Anwendung auf einer Befehlszeile (siehe
salloc Weitere Beispiele finden Sie in der Manpage):
salloc -N5 srun -n10 mein Programm
KOPIEREN
Copyright (C) 2006-2007 Die Regenten der University of California. Produziert bei Lawrence
Livermore National Laboratory (vgl. HAFTUNGSAUSSCHLUSS).
Copyright (C) 2008-2010 Lawrence Livermore Nationale Sicherheit.
Copyright (C) 2010-2015 SchedMD LLC.
Diese Datei ist Teil von Slurm, einem Ressourcenverwaltungsprogramm. Einzelheiten finden Sie unter
<http://slurm.schedmd.com/>.
Slurm ist freie Software; Sie können es unter den Bedingungen der weitergeben und/oder ändern
GNU General Public License, wie von der Free Software Foundation veröffentlicht; entweder Version 2
der Lizenz oder (nach Ihrer Wahl) einer späteren Version.
Slurm wird in der Hoffnung verteilt, dass es nützlich sein wird, jedoch OHNE JEGLICHE GEWÄHRLEISTUNG; ohne
sogar die stillschweigende Garantie der MARKTFÄHIGKEIT oder EIGNUNG FÜR EINEN BESTIMMTEN ZWECK. Siehe die
GNU General Public License für weitere Details.
Nutzen Sie salloc online über die Dienste von onworks.net