InggrisPerancisSpanyol

favorit OnWorks

sbatch - Online di Cloud

Jalankan sbatch di penyedia hosting gratis OnWorks melalui Ubuntu Online, Fedora Online, emulator online Windows atau emulator online MAC OS

Ini adalah kumpulan perintah yang dapat dijalankan di penyedia hosting gratis OnWorks menggunakan salah satu dari beberapa stasiun kerja online gratis kami seperti Ubuntu Online, Fedora Online, emulator online Windows atau emulator online MAC OS

PROGRAM:

NAMA


sbatch - Kirim skrip batch ke Slurm.

RINGKASAN


kumpulan [Pilihan] naskah [args...]

DESKRIPSI


sbatch mengirimkan skrip batch ke Slurm. Skrip batch dapat diberikan ke sbatch melalui a
nama file pada baris perintah, atau jika tidak ada nama file yang ditentukan, sbatch akan dibaca dalam a
skrip dari input standar. Skrip batch mungkin berisi opsi yang diawali dengan "#SBATCH"
sebelum perintah yang dapat dieksekusi dalam skrip.

sbatch keluar segera setelah skrip berhasil ditransfer ke Slurm
controller dan menetapkan ID pekerjaan Slurm. Skrip batch belum tentu diberikan
sumber daya segera, itu mungkin duduk dalam antrian pekerjaan yang tertunda untuk beberapa waktu sebelum
sumber daya yang dibutuhkan menjadi tersedia.

Secara default, output standar dan kesalahan standar diarahkan ke file dengan nama
"slurm-%j.out", di mana "%j" diganti dengan nomor alokasi pekerjaan. File akan
dihasilkan pada node pertama dari alokasi pekerjaan. Selain skrip batch itu sendiri,
Slurm tidak memindahkan file pengguna.

Ketika alokasi pekerjaan akhirnya diberikan untuk skrip batch, Slurm menjalankan satu salinan
dari skrip batch pada node pertama di set node yang dialokasikan.

Dokumen berikut menjelaskan pengaruh berbagai opsi pada alokasi
CPU untuk pekerjaan dan tugas.
http://slurm.schedmd.com/cpu_management.html

PILIHAN


-a, --Himpunan=<indeks>
Kirim larik pekerjaan, beberapa pekerjaan yang akan dieksekusi dengan parameter yang identik. Itu
indeks spesifikasi mengidentifikasi nilai indeks array apa yang harus digunakan. beberapa
nilai dapat ditentukan menggunakan daftar yang dipisahkan koma dan/atau rentang nilai dengan
pemisah "-". Misalnya, "--array=0-15" atau "--array=0,6,16-32". Sebuah langkah
fungsi juga dapat ditentukan dengan sufiks yang mengandung titik dua dan angka. Untuk
contoh, "--array=0-15:4" sama dengan "--array=0,4,8,12". Jumlah maksimum
menjalankan tugas secara bersamaan dari larik pekerjaan dapat ditentukan menggunakan "%"
pemisah. Misalnya "--array=0-15%4" akan membatasi jumlah secara bersamaan
menjalankan tugas dari larik pekerjaan ini ke 4. Nilai indeks minimum adalah 0. maksimum
nilainya satu kurang dari parameter konfigurasi MaxArraySize.

-A, --Akun=<rekening>
Mengisi sumber daya yang digunakan oleh pekerjaan ini ke akun tertentu. NS rekening adalah
string sewenang-wenang. Nama akun dapat diubah setelah pengiriman pekerjaan menggunakan
kendali perintah.

--acctg-frekuensi
Tentukan akuntansi pekerjaan dan interval pengambilan sampel profil. Ini dapat digunakan untuk
menimpa Frekuensi JobAcctGather parameter dalam file konfigurasi Slurm,
slurm.conf. Format yang didukung adalah sebagai berikut:

--frekuensi-acctg==
dimana = menentukan interval pengambilan sampel tugas untuk
plugin jobacct_gather atau interval pengambilan sampel untuk jenis profil
oleh plugin acct_gather_profile. Beberapa, dipisahkan koma
= interval dapat ditentukan. Tipe data yang didukung
adalah sebagai berikut:

tugas=
dimana adalah interval pengambilan sampel tugas dalam detik untuk
plugin jobacct_gather dan untuk pembuatan profil tugas oleh
plugin acct_gather_profile. CATATAN: Frekuensi ini digunakan untuk
memantau penggunaan memori. Jika batas memori ditegakkan tertinggi
frekuensi yang dapat diminta pengguna adalah yang dikonfigurasi di
file slurm.conf. Mereka juga tidak dapat mematikannya (=0).

energi =
dimana adalah interval pengambilan sampel dalam detik untuk energi
membuat profil menggunakan plugin acct_gather_energy

jaringan=
dimana adalah interval pengambilan sampel dalam detik untuk
pembuatan profil infiniband menggunakan plugin acct_gather_infiniband.

sistem file=
dimana adalah interval pengambilan sampel dalam detik untuk
pembuatan profil sistem file menggunakan plugin acct_gather_filesystem.

Nilai default untuk interval pengambilan sampel tugas adalah 30 detik.
Nilai default untuk semua interval lainnya adalah 0. Interval 0 menonaktifkan pengambilan sampel
dari jenis yang ditentukan. Jika interval pengambilan sampel tugas adalah 0, informasi akuntansi
dikumpulkan hanya pada penghentian pekerjaan (mengurangi gangguan Slurm dengan pekerjaan).
Nilai yang lebih kecil (bukan nol) memiliki dampak yang lebih besar pada kinerja pekerjaan, tetapi nilai
dari 30 detik tidak akan terlihat untuk aplikasi yang memiliki kurang dari
10,000 tugas.

-B --info-simpul-ekstra=<soket[:warna[:benang]]>
Minta alokasi sumber daya tertentu dengan perincian jumlah dan jenis
sumber daya komputasi dalam sebuah cluster: jumlah soket (atau fisik
prosesor) per node, core per socket, dan thread per core. Jumlah keseluruhan dari
sumber daya yang diminta adalah produk dari semua persyaratan. Setiap nilai yang ditentukan
dianggap minimal. Tanda bintang (*) dapat digunakan sebagai pengganti yang menunjukkan
bahwa semua sumber daya yang tersedia dari jenis itu harus dimanfaatkan. Seperti halnya node,
tingkat individu juga dapat ditentukan dalam opsi terpisah jika diinginkan:
--socket-per-node=<soket>
--core-per-socket=<warna>
--utas-per-inti=<benang>
Jika SelectType dikonfigurasikan ke select/cons_res, itu harus memiliki parameter
CR_Core, CR_Core_Memory, CR_Socket, atau CR_Socket_Memory agar opsi ini menjadi
terhormat. Opsi ini tidak didukung pada sistem BlueGene (pilih/plugin bluegene
dikonfigurasi). Jika tidak ditentukan, pekerjaan pertunjukan kontrol akan ditampilkan
'Permintaan:C:T=*:*:*'.

--bb=<spek>
Spesifikasi buffer burst. Bentuk spesifikasi bergantung pada sistem.

--mulai=<waktu>
Kirim skrip batch ke pengontrol Slurm segera, seperti biasa, tetapi beri tahu
controller untuk menunda alokasi pekerjaan sampai waktu yang ditentukan.

Waktu mungkin berbentuk JJ:MM:SS untuk menjalankan pekerjaan pada waktu tertentu dalam sehari (detik
adalah opsional). (Jika waktu itu sudah lewat, hari berikutnya diasumsikan.) Anda boleh
juga tentukan tengah malam, tengah hari, fika (3 sore) atau minum teh (4 PM) dan Anda dapat memiliki
waktu-hari yang diakhiri dengan AM or PM untuk lari pagi atau sore hari. Anda
juga bisa mengatakan hari apa pekerjaan akan dijalankan, dengan menentukan tanggal formulir MMDDYY
or MM/HH/YY YYYY-MM-DD. Gabungkan tanggal dan waktu menggunakan format berikut
YYYY-MM-DD[THH:MM[:SS]]. Anda juga dapat memberikan waktu seperti sekarang + menghitung satuan waktu, Di mana
satuan waktu bisa detik (Default), menit, jam, hari-hari, atau minggu dan Anda dapat
beri tahu Slurm untuk menjalankan pekerjaan hari ini dengan kata kunci hari ini dan untuk menjalankan pekerjaan besok
dengan kata kunci besok. Nilai dapat diubah setelah pengiriman pekerjaan menggunakan
kendali memerintah. Sebagai contoh:
--mulai=16:00
--mulai=sekarang+1jam
--begin=now+60 (secara default detik)
--begin=2010-01-20T12:34:00

Catatan tentang spesifikasi tanggal/waktu:
- Meskipun bidang 'detik' dari spesifikasi waktu HH:MM:SS diizinkan oleh
kode, perhatikan bahwa waktu polling penjadwal Slurm tidak cukup tepat untuk
menjamin pengiriman pekerjaan pada detik yang tepat. Pekerjaan akan memenuhi syarat untuk
mulai pada polling berikutnya mengikuti waktu yang ditentukan. Interval polling yang tepat
tergantung pada penjadwal Slurm (misalnya, 60 detik dengan sched/builtin default).
- Jika tidak ada waktu (JH:MM:SS) yang ditentukan, defaultnya adalah (00:00:00).
- Jika tanggal ditentukan tanpa tahun (misalnya, MM/DD) maka tahun berjalan adalah
diasumsikan, kecuali kombinasi MM/DD dan HH:MM:SS telah lulus untuk itu
tahun, dalam hal ini tahun berikutnya digunakan.

--pos pemeriksaan=<waktu>
Menentukan interval antara membuat pos pemeriksaan dari langkah pekerjaan. Secara default,
langkah pekerjaan tidak akan memiliki pos pemeriksaan yang dibuat. Format waktu yang dapat diterima termasuk:
"menit", "menit:detik", "jam:menit:detik", "hari-jam",
"hari-jam:menit" dan "hari-jam:menit:detik".

--pos pemeriksaan-dir=<direktori>
Menentukan direktori tempat pekerjaan atau pos pemeriksaan langkah pekerjaan seharusnya berada
ditulis (hanya digunakan oleh plugin pos pemeriksaan/blcrm dan pos pemeriksaan/xlch). Itu
nilai default adalah direktori kerja saat ini. File pos pemeriksaan akan menjadi
membentuk " .ckpt" untuk pekerjaan dan " . .ckpt" untuk langkah-langkah pekerjaan.

--komentar=<string>
Sebuah komentar sewenang-wenang diapit oleh tanda kutip ganda jika menggunakan spasi atau khusus
karakter.

-C, --paksaan=<daftar>
Node dapat memiliki fitur ditugaskan kepada mereka oleh administrator Slurm. Pengguna dapat
tentukan yang mana dari ini fitur dibutuhkan oleh pekerjaan mereka menggunakan kendala
pilihan. Hanya node yang memiliki fitur yang cocok dengan batasan pekerjaan yang akan digunakan untuk
memenuhi permintaan. Beberapa kendala dapat ditentukan dengan AND, OR, pencocokan
ATAU, jumlah sumber daya, dll. Opsi batasan yang didukung meliputi:

Tunggal Nama
Hanya node yang memiliki fitur tertentu yang akan digunakan. Sebagai contoh,
--constraint="intel"

Node Menghitung
Permintaan dapat menentukan jumlah node yang dibutuhkan dengan beberapa fitur dengan
menambahkan tanda bintang dan menghitung setelah nama fitur. Sebagai contoh
"--node=16 --constraint=grafik*4 ... " menunjukkan bahwa pekerjaan itu membutuhkan 16
node dan setidaknya empat dari node tersebut harus memiliki fitur
"grafik."

DAN Jika hanya node dengan semua fitur tertentu yang akan digunakan. ampersandnya adalah
digunakan untuk operator AND. Sebagai contoh, --constraint="intel&gpu"

OR Jika hanya node dengan setidaknya satu fitur tertentu yang akan digunakan. NS
bar vertikal digunakan untuk operator OR. Sebagai contoh,
--constraint="intel|amd"

Sesuai OR
Jika hanya satu dari serangkaian opsi yang mungkin harus digunakan untuk semua yang dialokasikan
node, lalu gunakan operator OR dan sertakan opsi di dalam kotak
kurung. Sebagai contoh: "--constraint=[rack1|rack2|rack3|rack4]" mungkin
digunakan untuk menentukan bahwa semua node harus dialokasikan pada satu rak dari
cluster, tetapi salah satu dari keempat rak tersebut dapat digunakan.

kelipatan hitungan
Hitungan spesifik dari beberapa sumber daya dapat ditentukan dengan menggunakan AND
operator dan menyertakan opsi dalam tanda kurung siku. Sebagai contoh:
"--constraint=[rack1*2&rack2*4]" dapat digunakan untuk menentukan bahwa dua node
harus dialokasikan dari node dengan fitur "rack1" dan empat node harus
dialokasikan dari node dengan fitur "rack2".

--berdekatan
Jika set, maka node yang dialokasikan harus membentuk set yang berdekatan. Tidak dihormati dengan
topologi/pohon or topologi/3d_torus plugin, yang keduanya dapat memodifikasi node
Memerintah.

--core-per-socket=<warna>
Batasi pemilihan node ke node dengan setidaknya jumlah core yang ditentukan per
stopkontak. Lihat informasi tambahan di bawah -B opsi di atas saat plugin tugas/afinitas
diaktifkan.

--cpu-frekuensi =<p1[-p2[:p3]]>

Minta agar langkah-langkah pekerjaan yang diprakarsai oleh perintah srun di dalam skrip sbatch ini dijalankan
pada beberapa frekuensi yang diminta jika memungkinkan, pada CPU yang dipilih untuk langkah pada
menghitung node.

p1 bisa [#### | rendah | sedang | tinggi | highm1] yang akan mengatur frekuensi
scaling_speed ke nilai yang sesuai, dan atur frekuensi scaling_governor ke
Ruang pengguna. Lihat di bawah untuk definisi nilai.

p1 bisa jadi [Konservatif | Sesuai Permintaan | Kinerja | PowerSave] yang akan mengatur
scaling_governor ke nilai yang sesuai. Gubernur harus ada di daftar set
oleh opsi slurm.conf CpuFreqGovernors.

Ketika p2 hadir, p1 akan menjadi frekuensi penskalaan minimum dan p2 akan menjadi
frekuensi skala maksimum.

p2 bisa [#### | sedang | tinggi | highm1] p2 harus lebih besar dari p1.

p3 bisa jadi [Konservatif | Sesuai Permintaan | Kinerja | Hemat Daya | UserSpace] yang
akan mengatur gubernur ke nilai yang sesuai.

If p3 adalah UserSpace, penskalaan frekuensi_kecepatan akan diatur oleh kekuatan atau energi
strategi penjadwalan sadar ke nilai antara p1 dan p2 yang memungkinkan pekerjaan berjalan dalam
tujuan kekuatan situs. Pekerjaan mungkin tertunda jika p1 lebih tinggi dari frekuensi yang
memungkinkan pekerjaan berjalan sesuai tujuan.

Jika frekuensi saat ini < min, itu akan diatur ke min. Demikian juga jika arus
frekuensi > max, itu akan diatur ke max.

Nilai yang dapat diterima saat ini meliputi:

#### frekuensi dalam kilohertz

Rendah frekuensi terendah yang tersedia

High frekuensi tertinggi yang tersedia

tinggiM1 (tinggi minus satu) akan memilih frekuensi tertinggi berikutnya yang tersedia

Medium mencoba mengatur frekuensi di tengah rentang yang tersedia

Konservatif mencoba menggunakan gubernur CPU Konservatif

Permintaan mencoba menggunakan gubernur CPU OnDemand (nilai default)

Performance mencoba menggunakan gubernur CPU Kinerja

Hemat energi mencoba menggunakan gubernur CPU PowerSave

Ruang pengguna mencoba menggunakan gubernur CPU UserSpace

Variabel lingkungan informasi berikut diatur dalam pekerjaan:
langkah kapan --cpu-frekuensi opsi diminta.
SLURM_CPU_FREQ_REQ

Variabel lingkungan ini juga dapat digunakan untuk memasok nilai untuk CPU
permintaan frekuensi jika disetel saat perintah 'jalankan' dikeluarkan. NS --cpu-frekuensi
pada baris perintah akan menimpa nilai variabel lingkungan. Formulir di
variabel lingkungan sama dengan baris perintah. Lihat LINGKUNGAN
VARIABEL bagian untuk deskripsi variabel SLURM_CPU_FREQ_REQ.

CATATAN: Parameter ini diperlakukan sebagai permintaan, bukan persyaratan. Jika langkah pekerjaan
node tidak mendukung pengaturan frekuensi CPU, atau nilai yang diminta berada di luar
batas frekuensi hukum, kesalahan dicatat, tetapi langkah kerjanya adalah
diizinkan untuk melanjutkan.

CATATAN: Menyetel frekuensi hanya untuk CPU dari langkah pekerjaan menyiratkan bahwa
tugas terbatas pada CPU tersebut. Jika pembatasan tugas (yaitu,
TaskPlugin=task/affinity atau TaskPlugin=task/cgroup dengan "ConstrainCores"
option) tidak dikonfigurasi, parameter ini diabaikan.

CATATAN: Saat langkah selesai, frekuensi dan pengatur setiap CPU yang dipilih adalah
reset ke dikonfigurasi CPUFreqDef nilai dengan nilai default CPU OnDemand
gubernur.

CATATAN: Saat mengirimkan pekerjaan dengan --cpu-frekuensi opsi dengan linuxproc sebagai
ProctrackType dapat menyebabkan pekerjaan berjalan terlalu cepat sebelum Akuntansi dapat melakukan polling
untuk informasi pekerjaan. Akibatnya tidak semua informasi akuntansi akan hadir.

-c, --cpus-per-tugas=<com.ncpus>
Beri tahu pengontrol Slurm bahwa langkah-langkah pekerjaan berikutnya akan membutuhkan com.ncpus jumlah
prosesor per tugas. Tanpa opsi ini, pengontrol hanya akan mencoba mengalokasikan
satu prosesor per tugas.

Misalnya, pertimbangkan aplikasi yang memiliki 4 tugas, masing-masing membutuhkan 3
prosesor. Jika cluster kami terdiri dari node quad-prosesor dan kami hanya bertanya
untuk 12 prosesor, pengontrol mungkin hanya memberi kita 3 node. Namun, dengan menggunakan
opsi --cpus-per-task=3, pengontrol mengetahui bahwa setiap tugas memerlukan 3
prosesor pada node yang sama, dan pengontrol akan memberikan alokasi 4
node, satu untuk masing-masing dari 4 tugas.

-d, --ketergantungan=<daftar_ketergantungan>
Tunda awal pekerjaan ini sampai dependensi yang ditentukan telah dipenuhi
lengkap.daftar_ketergantungan> berbentuk
<ketik:id_pekerjaan[:id_pekerjaan][,ketik:id_pekerjaan[:id_pekerjaan]]> atau
<ketik:id_pekerjaan[:id_pekerjaan][?ketik:id_pekerjaan[:id_pekerjaan]]>. Semua dependensi harus dipenuhi
jika pemisah "," digunakan. Setiap ketergantungan dapat dipenuhi jika "?" pemisah
digunakan. Banyak pekerjaan dapat berbagi ketergantungan yang sama dan pekerjaan ini bahkan mungkin milik
pengguna yang berbeda. Nilai dapat diubah setelah pengiriman pekerjaan menggunakan scontrol
memerintah. Setelah ketergantungan pekerjaan gagal karena status penghentian sebelumnya
pekerjaan, pekerjaan dependen tidak akan pernah dijalankan, bahkan jika pekerjaan sebelumnya diantrekan dan
memiliki status terminasi yang berbeda dalam eksekusi berikutnya.

setelah:job_id[:jobid...]
Pekerjaan ini dapat memulai eksekusi setelah pekerjaan yang ditentukan telah mulai dieksekusi.

setelah itu:job_id[:jobid...]
Pekerjaan ini dapat memulai eksekusi setelah pekerjaan yang ditentukan telah dihentikan.

setelahnotok:job_id[:jobid...]
Pekerjaan ini dapat mulai dieksekusi setelah pekerjaan yang ditentukan telah berakhir pada
beberapa status gagal (kode keluar bukan nol, kegagalan simpul, waktu habis, dll).

setelahnya:job_id[:jobid...]
Pekerjaan ini dapat mulai dieksekusi setelah pekerjaan yang ditentukan berhasil
dieksekusi (berlari sampai selesai dengan kode keluar nol).

perluas:job_id
Sumber daya yang dialokasikan untuk pekerjaan ini harus digunakan untuk memperluas pekerjaan yang ditentukan.
Pekerjaan untuk memperluas harus berbagi QOS (Quality of Service) yang sama dan
partisi. Penjadwalan geng sumber daya di partisi juga tidak
didukung.

tunggal
Pekerjaan ini dapat mulai dieksekusi setelah pekerjaan yang diluncurkan sebelumnya membagikan
nama pekerjaan dan pengguna yang sama telah dihentikan.

-D, --workdir=<direktori>
Atur direktori kerja skrip batch ke direktori sebelum dieksekusi.
Jalur dapat ditentukan sebagai jalur lengkap atau jalur relatif ke direktori tempat
perintah dijalankan.

-e, --kesalahan=<nama file belt hold>
Instruksikan Slurm untuk menghubungkan kesalahan standar skrip batch langsung ke file
nama yang ditentukan dalam "nama file belt hold". Secara default, output standar dan
kesalahan standar diarahkan ke file yang sama. Untuk array pekerjaan, file default
nama adalah "slurm-%A_%a.out", "%A" diganti dengan ID pekerjaan dan "%a" dengan array
indeks. Untuk pekerjaan lain, nama file default adalah "slurm-%j.out", di mana "%j" adalah
diganti dengan ID pekerjaan. Lihat --memasukkan opsi untuk opsi spesifikasi nama file.

--eksklusif[=pengguna]
Alokasi pekerjaan tidak dapat berbagi node dengan pekerjaan lain yang sedang berjalan (atau hanya pengguna lain
dengan opsi "= pengguna"). Perilaku bersama/eksklusif default tergantung pada sistem
konfigurasi dan partisi bersama pilihan lebih diutamakan daripada pekerjaan
.

--ekspor=<lingkungan Hidup variabel | SEMUA | NONE>
Identifikasi variabel lingkungan mana yang disebarkan ke pekerjaan batch. beberapa
nama variabel lingkungan harus dipisahkan koma. Nama variabel lingkungan
dapat ditentukan untuk menyebarkan nilai saat ini dari variabel-variabel tersebut (mis
"--export=EDITOR") atau nilai spesifik untuk variabel dapat diekspor (mis.
"--export=EDITOR=/bin/vi") selain variabel lingkungan yang akan
jika tidak diatur. Opsi ini sangat penting untuk pekerjaan yang diajukan
pada satu cluster dan mengeksekusi pada cluster yang berbeda (misalnya dengan jalur yang berbeda). Oleh
default semua variabel lingkungan disebarkan. Jika argumennya adalah NONE or
nama variabel lingkungan tertentu, maka --dapatkan-pengguna-env opsi akan secara implisit
diatur untuk memuat variabel lingkungan lain berdasarkan konfigurasi pengguna pada
cluster yang menjalankan pekerjaan.

--ekspor-file=<nama file | fd>
Jika angka antara 3 dan OPEN_MAX ditentukan sebagai argumen untuk opsi ini, a
deskriptor file yang dapat dibaca akan diasumsikan (STDIN dan STDOUT tidak didukung sebagai
argumen yang valid). Jika tidak, nama file diasumsikan. Ekspor variabel lingkungan
didefinisikan dalamnama file> atau baca darifd> ke lingkungan eksekusi pekerjaan. Itu
konten adalah satu atau lebih definisi variabel lingkungan dalam bentuk NAMA=nilai,
masing-masing dipisahkan oleh karakter nol. Ini memungkinkan penggunaan karakter khusus dalam
definisi lingkungan.

-F, --file simpul=<simpul fillet>
Sama seperti --nodelist, tetapi daftarnya terdapat dalam file bernama simpul fillet. itu
nama node dari daftar juga dapat menjangkau beberapa baris dalam file. simpul duplikat
nama dalam file akan diabaikan. Urutan nama node dalam daftar tidak
penting; nama node akan diurutkan berdasarkan Slurm.

--dapatkan-pengguna-env[=batas waktu][mode]
Opsi ini akan memberi tahu sbatch untuk mengambil variabel lingkungan login untuk
pengguna yang ditentukan dalam --uid pilihan. Variabel lingkungan diambil oleh
menjalankan sesuatu semacam ini "su - -C /usr/bin/env" dan menguraikan
keluaran. Ketahuilah bahwa variabel lingkungan apa pun sudah diatur dalam sbatch's
lingkungan akan diutamakan daripada variabel lingkungan apa pun di login pengguna
lingkungan. Hapus variabel lingkungan apa pun sebelum memanggil sbatch yang tidak Anda lakukan
ingin disebarkan ke program spawned. opsional batas waktu nilainya dalam detik.
Nilai default adalah 8 detik. opsional mode nilai mengontrol opsi "su".
Dengan mode nilai "S", "su" dijalankan tanpa opsi "-". Dengan mode
nilai "L", "su" dijalankan dengan opsi "-", mereplikasi login
lingkungan. Jika mode tidak ditentukan, mode yang dibuat pada waktu pembuatan Slurm adalah
digunakan. Contoh penggunaan termasuk "--get-user-env", "--get-user-env=10"
"--get-user-env=10L", dan "--get-user-env=S". Opsi ini awalnya dibuat
untuk digunakan oleh Moab.

--gid=<kelompok>
If kumpulan dijalankan sebagai root, dan --gid opsi digunakan, kirimkan pekerjaan dengan kelompok's
izin akses grup. kelompok mungkin nama grup atau ID grup numerik.

--gres=<daftar>
Menentukan daftar sumber daya habis pakai generik yang dibatasi koma. Format dari
setiap entri dalam daftar adalah "nama[[:jenis]:jumlah]". Namanya adalah
sumber daya habis pakai. Hitungannya adalah jumlah sumber daya tersebut dengan default
nilai 1. Sumber daya yang ditentukan akan dialokasikan ke pekerjaan di setiap node.
Sumber daya konsumsi generik yang tersedia dapat dikonfigurasi oleh sistem
administrator. Daftar sumber daya konsumsi generik yang tersedia akan dicetak
dan perintah akan keluar jika argumen opsi adalah "bantuan". Contoh penggunaan
sertakan "--gres=gpu:2,mic=1", "--gres=gpu:kepler:2", dan "--gres=help".

-H, --memegang
Tentukan pekerjaan yang akan diserahkan dalam keadaan ditahan (prioritas nol). Pekerjaan yang ditahan
sekarang dapat dilepaskan menggunakan scontrol untuk mengatur ulang prioritasnya (mis. "kendali melepaskan
").

-h, --membantu
Tampilkan informasi bantuan dan keluar.

--petunjuk=<mengetik>
Ikat tugas sesuai dengan petunjuk aplikasi.

komputasi_terikat
Pilih pengaturan untuk aplikasi terikat komputasi: gunakan semua inti di masing-masing
soket, satu utas per inti.

memori_terikat
Pilih pengaturan untuk aplikasi terikat memori: gunakan hanya satu inti di masing-masing
soket, satu utas per inti.

[tidak] multi-utas
[jangan] gunakan utas tambahan dengan multi-utas inti yang dapat menguntungkan
aplikasi komunikasi intensif. Hanya didukung dengan tugas/afinitas
plugin.

membantu tunjukkan pesan bantuan ini

-I, --segera
Skrip batch hanya akan dikirimkan ke pengontrol jika sumber daya
diperlukan untuk memberikan alokasi pekerjaannya segera tersedia. Jika pekerjaan
alokasi harus menunggu dalam antrian pekerjaan yang tertunda, skrip batch tidak akan
diserahkan. CATATAN: Ada dukungan terbatas untuk opsi ini dengan pekerjaan batch.

--abaikan-pbs
Abaikan opsi "#PBS" yang ditentukan dalam skrip batch.

-i, --memasukkan=<nama file belt hold>
Instruksikan Slurm untuk menghubungkan input standar skrip batch langsung ke file
nama yang ditentukan dalam "nama file belt hold".

Secara default, "/ dev/null" terbuka pada input standar skrip batch dan keduanya
keluaran standar dan kesalahan standar diarahkan ke file dengan nama
"slurm-%j.out", di mana "%j" diganti dengan nomor alokasi pekerjaan, sebagai
dijelaskan di bawah ini.

Pola nama file dapat berisi satu atau lebih simbol pengganti, yaitu a
persen tanda "%" diikuti dengan huruf (misalnya %j).

Simbol pengganti yang didukung adalah:

%A Nomor alokasi tugas master larik pekerjaan.

%a Nomor ID array pekerjaan (indeks).

%j Nomor alokasi pekerjaan.

%N Nama simpul. Hanya satu file yang dibuat, jadi %N akan diganti dengan nama
simpul pertama dalam pekerjaan, yang menjalankan skrip.

%u Nama pengguna.

-J, --nama Pekerjaan=<nama Pekerjaan>
Tentukan nama untuk alokasi pekerjaan. Nama yang ditentukan akan muncul bersama dengan
nomor id pekerjaan saat menanyakan pekerjaan yang sedang berjalan di sistem. Defaultnya adalah nama
dari skrip batch, atau hanya "sbatch" jika skrip dibaca pada standar sbatch
memasukkan.

--pekerjaan=<pekerjaan>
Alokasikan sumber daya sebagai id pekerjaan yang ditentukan. CATATAN: Hanya berlaku untuk root pengguna.

-k, --tidak membunuh
Jangan secara otomatis menghentikan pekerjaan jika salah satu node telah dialokasikan
gagal. Pengguna akan memikul tanggung jawab untuk toleransi kesalahan jika node
gagal. Ketika ada kegagalan node, setiap langkah pekerjaan aktif (biasanya pekerjaan MPI) aktif
simpul itu hampir pasti akan mengalami kesalahan fatal, tetapi dengan --no-kill, pekerjaannya
alokasi tidak akan dicabut sehingga pengguna dapat meluncurkan langkah pekerjaan baru di
node yang tersisa dalam alokasinya.

Secara default, Slurm menghentikan seluruh alokasi pekerjaan jika ada simpul yang gagal dalam
jangkauan node yang dialokasikan.

--membunuh-pada-tidak valid-dep=<ya|tidak>
Jika suatu pekerjaan memiliki ketergantungan yang tidak valid dan tidak pernah dapat menjalankan parameter ini, beri tahu Slurm
untuk menghentikannya atau tidak. Status pekerjaan yang dihentikan akan menjadi JOB_CANCELLED. Jika ini
opsi tidak ditentukan, perilaku di seluruh sistem berlaku. Secara default, pekerjaan tetap
tertunda dengan alasan DependencyNeverSatisfied atau jika kill_invalid_depend adalah
ditentukan dalam slurm.conf pekerjaan dihentikan.

-L, --lisensi=<lisensi>
Spesifikasi lisensi (atau sumber daya lain yang tersedia di semua node dari
cluster) yang harus dialokasikan untuk pekerjaan ini. Nama lisensi dapat diikuti dengan
titik dua dan hitung (hitungan default adalah satu). Beberapa nama lisensi harus koma
dipisahkan (misalnya "--licenses=foo:4,bar"). Untuk mengirimkan pekerjaan menggunakan lisensi jarak jauh,
yang dilayani oleh slurmdbd, tentukan nama server yang menyediakan
lisensi. Misalnya "--license=nastran@slurmdb:12".

-M, --cluster=<string>
Cluster untuk mengeluarkan perintah. Beberapa nama cluster dapat dipisahkan dengan koma. Itu
pekerjaan akan diserahkan ke satu cluster yang menyediakan pekerjaan yang diharapkan paling awal
waktu inisiasi. Nilai default adalah cluster saat ini. Sebuah nilai dari 'semua' akan
query untuk dijalankan di semua cluster. Perhatikan --ekspor pilihan untuk mengontrol lingkungan
variabel yang diekspor antar cluster.

-m, --distribusi=
sewenang-wenang|<blok|berhubung dgn putaran|pesawat =[:blok|berhubung dgn putaran|fsiklik]>

Tentukan metode distribusi alternatif untuk proses jarak jauh. Dalam sbatch, ini saja
menetapkan variabel lingkungan yang akan digunakan oleh permintaan srun berikutnya. Ini
opsi mengontrol penugasan tugas ke node di mana sumber daya telah
dialokasikan, dan distribusi sumber daya tersebut ke tugas untuk mengikat (task
afinitas). Metode distribusi pertama (sebelum ":") mengontrol distribusi
sumber daya di seluruh node. Metode distribusi kedua opsional (setelah ":")
mengontrol distribusi sumber daya di seluruh soket dalam sebuah node. Perhatikan bahwa
dengan select/cons_res, jumlah CPU yang dialokasikan pada setiap socket dan node mungkin
berbeda. Mengacu pada http://slurm.schedmd.com/mc_support.html untuk informasi lebih lanjut
pada alokasi sumber daya, penugasan tugas ke node, dan pengikatan tugas ke CPU.

Metode distribusi pertama:

blok Metode distribusi blok akan mendistribusikan tugas ke node sedemikian rupa sehingga
tugas berturut-turut berbagi node. Misalnya, pertimbangkan alokasi tiga
node masing-masing dengan dua CPU. Permintaan distribusi blok empat tugas akan
mendistribusikan tugas-tugas itu ke node dengan tugas satu dan dua di yang pertama
node, tugas tiga pada node kedua, dan tugas empat pada node ketiga. Memblokir
distribusi adalah perilaku default jika jumlah tugas melebihi
jumlah node yang dialokasikan.

berhubung dgn putaran Metode distribusi siklik akan mendistribusikan tugas ke node sedemikian rupa sehingga
tugas berturut-turut didistribusikan melalui node berurutan (dalam round-robin
mode). Misalnya, pertimbangkan alokasi tiga node masing-masing dengan dua
CPU Permintaan distribusi siklus empat tugas akan mendistribusikan tugas-tugas tersebut ke
node dengan tugas satu dan empat pada node pertama, tugas dua pada yang kedua
node, dan tugas tiga pada node ketiga. Perhatikan bahwa ketika SelectType adalah
select/cons_res, jumlah CPU yang sama mungkin tidak dialokasikan pada setiap node.
Distribusi tugas akan bersifat round-robin di antara semua node dengan CPU yang belum
ditugaskan untuk tugas. Distribusi siklik adalah perilaku default jika
jumlah tugas tidak lebih besar dari jumlah node yang dialokasikan.

pesawat Tugas didistribusikan dalam blok dengan ukuran tertentu. Pilihannya
sertakan nomor yang mewakili ukuran blok tugas. Ini diikuti
dengan spesifikasi opsional dari skema distribusi tugas dalam satu blok
tugas dan antar blok tugas. Jumlah tugas yang dibagikan
ke setiap node sama dengan distribusi siklik, tetapi taskids
ditugaskan untuk setiap node tergantung pada ukuran pesawat. Untuk lebih jelasnya (termasuk
contoh dan diagram), silakan lihat
http://slurm.schedmd.com/mc_support.html
dan
http://slurm.schedmd.com/dist_plane.html

sewenang-wenang
Metode distribusi sewenang-wenang akan mengalokasikan proses secara berurutan sebagai
terdaftar dalam file yang ditunjuk oleh variabel lingkungan SLURM_HOSTFILE. Jika
variabel ini terdaftar itu akan menimpa metode lain yang ditentukan. Jika tidak
atur metode default ke blok. Di dalam file host harus berisi at
minimum jumlah host yang diminta dan menjadi satu per baris atau koma
terpisah. Jika menentukan jumlah tugas (-n, --tugas=<jumlah>), tugas Anda
akan diletakkan pada node dalam urutan file.
CATATAN: Opsi distribusi sewenang-wenang pada alokasi pekerjaan hanya mengontrol
node yang akan dialokasikan ke pekerjaan dan bukan alokasi CPU pada node tersebut
node. Opsi ini dimaksudkan terutama untuk mengontrol tata letak tugas langkah pekerjaan di
alokasi pekerjaan yang ada untuk perintah srun.

Metode distribusi kedua:

blok Metode distribusi blok akan mendistribusikan tugas ke soket sedemikian rupa sehingga
tugas berturut-turut berbagi soket.

berhubung dgn putaran Metode distribusi siklik akan mendistribusikan tugas ke soket sedemikian rupa sehingga
tugas berurutan didistribusikan melalui soket berurutan (dalam round-robin
mode). Tugas yang membutuhkan lebih dari satu CPU akan memiliki semua CPU tersebut
dialokasikan pada satu soket jika memungkinkan.

fsiklik
Metode distribusi fcyclic akan mendistribusikan tugas ke soket sedemikian rupa sehingga
tugas berurutan didistribusikan melalui soket berurutan (dalam round-robin
mode). Tugas yang membutuhkan lebih dari satu CPU akan memiliki masing-masing CPU yang dialokasikan
dalam mode siklik di seluruh soket.

--jenis surat=<mengetik>
Beri tahu pengguna melalui email saat jenis peristiwa tertentu terjadi. Sah mengetik nilainya TIDAK ADA,
BEGIN, END, FAIL, REQUEUE, ALL (setara dengan BEGIN, END, FAIL, REQUEUE, dan
STAGE_OUT), STAGE_OUT (tahap buffer burst selesai), TIME_LIMIT, TIME_LIMIT_90
(mencapai 90 persen dari batas waktu), TIME_LIMIT_80 (mencapai 80 persen dari waktu
batas), dan TIME_LIMIT_50 (mencapai 50 persen dari batas waktu). beberapa mengetik nilai-nilai
dapat ditentukan dalam daftar yang dipisahkan koma. Pengguna yang akan diberi tahu ditunjukkan
dengan --mail-pengguna. Pemberitahuan email tentang pekerjaan AWAL, AKHIR, dan GAGAL melamar pekerjaan
array secara keseluruhan daripada menghasilkan pesan email individu untuk setiap tugas di
susunan pekerjaan.

--mail-pengguna=<pemakai>
Pengguna untuk menerima pemberitahuan email tentang perubahan status seperti yang ditentukan oleh --jenis surat. itu
nilai default adalah pengguna yang mengirimkan.

--mem=<MB>
Tentukan memori nyata yang diperlukan per node dalam MegaBytes. Nilai defaultnya adalah
DefMemPerNode dan nilai maksimumnya adalah MaxMemPerNode. Jika dikonfigurasi, keduanya
parameter dapat dilihat dengan menggunakan kendali Menunjukkan config memerintah. Parameter ini
umumnya akan digunakan jika seluruh node dialokasikan untuk pekerjaan
(SelectType=pilih/linier). Juga lihat --mem-per-cpu. --mem dan --mem-per-cpu adalah
saling eksklusif. CATATAN: Spesifikasi ukuran memori diperlakukan sebagai kasus khusus
dan memberikan akses pekerjaan ke semua memori di setiap node. CATATAN: Penegakan
batas memori saat ini bergantung pada plugin tugas/cgroup atau mengaktifkan
akuntansi, yang menggunakan sampel memori secara berkala (data tidak perlu disimpan,
baru dikumpulkan). Dalam kedua kasus, penggunaan memori didasarkan pada Ukuran Set Penduduk pekerjaan
(RSS). Suatu tugas dapat melebihi batas memori hingga penghitungan berkala berikutnya
mencicipi.

--mem-per-cpu=<MB>
Memori minimum yang diperlukan per CPU yang dialokasikan dalam MegaBytes. Nilai defaultnya adalah
DefMemPerCPU dan nilai maksimumnya adalah MaxMemPerCPU (lihat pengecualian di bawah). Jika
dikonfigurasi, kedua parameter dapat dilihat menggunakan kendali Menunjukkan config perintah.
Perhatikan bahwa jika pekerjaan --mem-per-cpu nilai melebihi yang dikonfigurasi MaxMemPerCPU,
maka batas pengguna akan diperlakukan sebagai batas memori per tugas; --mem-per-cpu
akan dikurangi menjadi nilai yang tidak lebih besar dari MaxMemPerCPU; --cpus-per-tugas akan ditetapkan
dan nilai --cpus-per-tugas dikalikan dengan yang baru --mem-per-cpu nilai akan
sama dengan aslinya --mem-per-cpu nilai yang ditentukan oleh pengguna. Parameter ini akan
umumnya digunakan jika prosesor individu dialokasikan untuk pekerjaan
(SelectType=pilih/kons_res). Jika sumber daya dialokasikan oleh inti, soket atau
seluruh node; jumlah CPU yang dialokasikan untuk suatu pekerjaan mungkin lebih tinggi daripada tugas
hitung dan nilai --mem-per-cpu harus disesuaikan sebagaimana mestinya. Lihat juga
--mem. --mem dan --mem-per-cpu saling eksklusif.

--mem_bind=[{tenang, bertele-tele},]mengetik
Mengikat tugas ke memori. Hanya digunakan ketika plugin tugas/afinitas diaktifkan dan
Fungsi memori NUMA tersedia. Note bahwa itu resolusi of CPU dan ingatan
mengikat mungkin berbeda on beberapa ilmu bangunan. Misalnya, pengikatan CPU dapat dilakukan
pada tingkat inti dalam prosesor sementara pengikatan memori akan dilakukan
pada tingkat node, di mana definisi "node" mungkin berbeda dari sistem ke
sistem. menggunakan of Apa pun mengetik lain dari "tidak ada" or "lokal" is tidak direkomendasikan. If
Anda ingin kontrol yang lebih besar, coba jalankan kode pengujian sederhana dengan opsi
"--mem_bind=verbose,none" untuk menentukan konfigurasi spesifik.

CATATAN: Agar Slurm selalu melaporkan pengikatan memori yang dipilih untuk semua perintah
dieksekusi di shell, Anda dapat mengaktifkan mode verbose dengan mengatur SLURM_MEM_BIND
nilai variabel lingkungan menjadi "verbose".

Variabel lingkungan informasi berikut diatur ketika: --mem_bind dalam
menggunakan:

SLURM_MEM_BIND_VERBOSE
SLURM_MEM_BIND_TYPE
SLURM_MEM_BIND_LIST

Lihat LINGKUNGAN VARIABEL bagian untuk penjelasan lebih rinci tentang
variabel SLURM_MEM_BIND* individu.

Opsi yang didukung meliputi:

diam]
ikat diam-diam sebelum tugas berjalan (default)

v[erbose]
laporkan secara verbose mengikat sebelum tugas berjalan

tidak ada] jangan ikat tugas ke memori (default)

peringkat ikat berdasarkan peringkat tugas (tidak disarankan)

lokal Gunakan memori lokal ke prosesor yang digunakan

peta_mem:
ikat dengan memetakan memori simpul ke tugas seperti yang ditentukan di mana adalah
, ,... . ID CPU ditafsirkan sebagai nilai desimal
kecuali mereka didahului dengan '0x' dalam hal ini mereka ditafsirkan sebagai
nilai heksadesimal (tidak disarankan)

mask_mem:
ikat dengan mengatur topeng memori pada tugas-tugas seperti yang ditentukan di mana adalah
, ,... . topeng memori adalah selalu ditafsirkan sebagai
nilai heksadesimal. Perhatikan bahwa topeng harus didahului dengan '0x' jika
jangan mulai dengan [0-9] sehingga dilihat sebagai nilai numerik dengan srun.

membantu tunjukkan pesan bantuan ini

--mincpus=<n>
Tentukan jumlah minimum CPU/prosesor logis per node.

-N, --node=<minnode[-maxnode]>
Minta minimal minnode node dialokasikan untuk pekerjaan ini. Node maksimum
hitungan juga dapat ditentukan dengan maxnode. Jika hanya satu nomor yang ditentukan, ini
digunakan sebagai jumlah node minimum dan maksimum. Batas simpul partisi
menggantikan pekerjaan itu. Jika batas simpul pekerjaan berada di luar jangkauan
diizinkan untuk partisi yang terkait, pekerjaan akan dibiarkan dalam status TERTUNDA.
Ini memungkinkan kemungkinan eksekusi di lain waktu, ketika batas partisi adalah
berubah. Jika batas node pekerjaan melebihi jumlah node yang dikonfigurasi dalam
partisi, pekerjaan akan ditolak. Perhatikan bahwa variabel lingkungan
SLURM_NNODES akan disetel ke jumlah node yang benar-benar dialokasikan untuk pekerjaan itu. Melihat
itu LINGKUNGAN VARIABEL bagian untuk informasi lebih lanjut. Jika -N tidak ditentukan,
perilaku default adalah mengalokasikan node yang cukup untuk memenuhi persyaratan dari
-n dan -c pilihan. Pekerjaan akan dialokasikan sebanyak mungkin node dalam
rentang yang ditentukan dan tanpa menunda inisiasi pekerjaan. Jumlah simpul
spesifikasi dapat mencakup nilai numerik diikuti dengan akhiran "k" (kalikan
nilai numerik dengan 1,024) atau "m" (mengkalikan nilai numerik dengan 1,048,576).

-n, --tugas=<jumlah>
sbatch tidak meluncurkan tugas, ia meminta alokasi sumber daya dan mengirimkan a
skrip batch. Opsi ini menyarankan pengontrol Slurm bahwa langkah-langkah pekerjaan berjalan di dalam
alokasi akan meluncurkan maksimum jumlah tugas dan menyediakan cukup
sumber daya. Standarnya adalah satu tugas per node, tetapi perhatikan bahwa --cpus-per-tugas
pilihan akan mengubah default ini.

--jaringan=<mengetik>
Tentukan informasi yang berkaitan dengan sakelar atau jaringan. interpretasi dari
mengetik bergantung pada sistem. Opsi ini didukung saat menjalankan Slurm pada Cray
secara asli. Ini digunakan untuk meminta menggunakan Penghitung Performace Jaringan. Hanya satu nilai
per permintaan adalah valid. Semua opsi peka huruf besar/kecil. Dalam konfigurasi ini
nilai yang didukung meliputi:

sistem
Gunakan penghitung kinerja jaringan di seluruh sistem. Hanya node yang diminta yang akan
ditandai digunakan untuk alokasi pekerjaan. Jika pekerjaan tidak mengisi
seluruh sistem sisa node tidak dapat digunakan oleh pekerjaan lain
menggunakan NPC, jika idle statusnya akan muncul sebagai PerfCnts. Node ini adalah
masih tersedia untuk pekerjaan lain yang tidak menggunakan NPC.

mata pisau Gunakan penghitung kinerja jaringan blade. Hanya node yang diminta yang akan
ditandai digunakan untuk alokasi pekerjaan. Jika pekerjaan tidak mengisi seluruh
bilah yang dialokasikan untuk pekerjaan bilah tersebut tidak dapat digunakan oleh orang lain
pekerjaan menggunakan NPC, jika menganggur statusnya akan muncul sebagai PerfCnts. Node ini adalah
masih tersedia untuk pekerjaan lain yang tidak menggunakan NPC.

Dalam semua kasus, permintaan alokasi pekerjaan harus menentukan itu
--pilihan eksklusif. Jika tidak, permintaan akan ditolak.

Juga dengan salah satu opsi ini, langkah-langkah tidak diizinkan untuk berbagi bilah, jadi sumber daya
akan tetap menganggur di dalam alokasi jika langkah yang berjalan pada blade tidak dilakukan
ke atas semua node pada blade.

jaringan opsi ini juga didukung pada sistem dengan Lingkungan Paralel IBM
(PE). Lihat dokumentasi kata kunci perintah pekerjaan LoadLeveler IBM tentang kata kunci
"jaringan" untuk informasi lebih lanjut. Beberapa nilai dapat ditentukan dalam koma
daftar terpisah. Semua opsi peka huruf besar/kecil. Nilai yang didukung meliputi:

BULK_XFER[=sumber daya>]
Aktifkan transfer data massal menggunakan Remote Direct-Memory Access (RDMA).
Opsional sumber daya spesifikasi adalah nilai numerik yang dapat memiliki
akhiran "k", "K", "m", "M", "g" atau "G" untuk kilobyte, megabyte atau
gigabyte. CATATAN: The sumber daya spesifikasi tidak didukung oleh
infrastruktur IBM yang mendasari pada Lingkungan Paralel versi 2.2
dan tidak ada nilai yang harus ditentukan saat ini.

CAU=<menghitung> Jumlah Unit Percepatan Kolektif (CAU) yang dibutuhkan. Hanya berlaku
ke prosesor IBM Power7-IH. Nilai default adalah nol. CAU Independen
akan dialokasikan untuk setiap antarmuka pemrograman (MPI, LAPI, dll.)

NAMA DEV=<nama>
Tentukan nama perangkat yang akan digunakan untuk komunikasi (misalnya "eth0" atau
"mlx4_0").

TIPE PERANGKAT=<mengetik>
Tentukan jenis perangkat yang akan digunakan untuk komunikasi. yang didukung
nilai dari mengetik adalah: "IB" (InfiniBand), "HFI" (Pabrik Host P7
Antarmuka), "IPONLY" (antarmuka khusus IP), "HPCE" (Ethernet HPC), dan
"KMUX" (Emulasi Kernel HPCE). Perangkat yang dialokasikan untuk suatu pekerjaan harus
semua menjadi jenis yang sama. Nilai default tergantung pada tergantung pada
perangkat keras apa yang tersedia dan dalam urutan preferensi adalah IPONLY (yang
tidak dipertimbangkan dalam mode Ruang Pengguna), HFI, IB, HPCE, dan KMUX.

segera =<menghitung>
Jumlah slot pengiriman langsung per jendela diperlukan. Hanya berlaku untuk
Prosesor IBM Power7-IH. Nilai default adalah nol.

CONTOH =<menghitung>
Tentukan jumlah koneksi jaringan untuk setiap tugas di setiap jaringan
koneksi. Jumlah instans default adalah 1.

IPV4 Gunakan komunikasi Internet Protocol (IP) versi 4 (default).

IPV6 Gunakan komunikasi Internet Protocol (IP) versi 6.

LAPI Gunakan antarmuka pemrograman LAPI.

lampu Gunakan antarmuka pemrograman MPI. MPI adalah antarmuka default.

PAMI Gunakan antarmuka pemrograman PAMI.

SHM Gunakan antarmuka pemrograman OpenSHMEM.

SN_SEMUA Gunakan semua jaringan sakelar yang tersedia (default).

SN_TUNGGAL Gunakan satu jaringan sakelar yang tersedia.

UPC Gunakan antarmuka pemrograman UPC.

US Gunakan komunikasi Ruang Pengguna.

Beberapa contoh spesifikasi jaringan:

Instance=2,AS,MPI,SN_ALL
Buat dua koneksi ruang pengguna untuk komunikasi MPI di setiap
beralih jaringan untuk setiap tugas.

AS,MPI,Instance=3,Devtype=IB
Buat tiga koneksi ruang pengguna untuk komunikasi MPI di setiap
Jaringan InfiniBand untuk setiap tugas.

IPV4, LAPI, SN_Single
Buat koneksi IP versi 4 untuk komunikasi LAPI pada satu sakelar
jaringan untuk setiap tugas.

Instance=2,AS,LAPI,MPI
Buat dua koneksi ruang pengguna masing-masing untuk komunikasi LAPI dan MPI
pada setiap jaringan switch untuk setiap tugas. Perhatikan bahwa SN_ALL adalah default
pilihan sehingga setiap jaringan switch digunakan. Perhatikan juga bahwa Instance=2
menentukan bahwa dua koneksi dibuat untuk setiap protokol (LAPI
dan MPI) dan setiap tugas. Jika ada dua jaringan dan empat tugas aktif
node maka total 32 koneksi dibuat (2 instance x
2 protokol x 2 jaringan x 4 tugas).

--baik[=pengaturan]
Jalankan pekerjaan dengan prioritas penjadwalan yang disesuaikan dalam Slurm. Tanpa penyesuaian
nilai prioritas penjadwalan berkurang 100. Rentang penyesuaian adalah dari
-10000 (prioritas tertinggi) hingga 10000 (prioritas terendah). Hanya pengguna yang memiliki hak istimewa yang dapat
tentukan penyesuaian negatif. CATATAN: Opsi ini saat ini diabaikan jika
SchedulerType=jadwal/wiki or SchedulerType=jadwal/wiki2.

--tidak ada antrian
Menentukan bahwa pekerjaan batch tidak boleh diantrekan ulang dalam keadaan apa pun.
Menyetel opsi ini akan mencegah administrator sistem untuk memulai ulang
pekerjaan (misalnya, setelah waktu henti yang dijadwalkan), pulih dari kegagalan node, atau
requeued pada preemption oleh pekerjaan prioritas yang lebih tinggi. Ketika sebuah pekerjaan diantrekan,
skrip batch dimulai dari awal. Lihat juga --antrian pilihan. Itu
Antrean Pekerjaan parameter konfigurasi mengontrol perilaku default pada cluster.

--tugas-per-inti=<tugas>
Minta maksimal tugas dipanggil pada setiap inti. Dimaksudkan untuk digunakan dengan
--tugas pilihan. Berhubungan dengan --tugas-per-node kecuali di level inti alih-alih
tingkat simpul. CATATAN: Opsi ini tidak didukung kecuali
SelectTypeParameters=CR_Core or SelectTypeParameters=CR_Core_Memori dikonfigurasi.

--tugas-per-soket=<tugas>
Minta maksimal tugas dipanggil pada setiap soket. Dimaksudkan untuk digunakan dengan
--tugas pilihan. Berhubungan dengan --tugas-per-node kecuali pada level soket sebagai gantinya
dari tingkat simpul. CATATAN: Opsi ini tidak didukung kecuali
SelectTypeParameters=CR_Socket or SelectTypeParameters=CR_Socket_Memori is
dikonfigurasi

--tugas-per-node=<tugas>
Minta itu tugas dipanggil pada setiap node. Jika digunakan dengan --tugas opsi, opsi
--tugas opsi akan didahulukan dan --tugas-per-node akan diperlakukan sebagai
maksimum jumlah tugas per node. Dimaksudkan untuk digunakan dengan --node pilihan. Ini
berhubungan dengan --cpus-per-tugas=com.ncpus, tetapi tidak memerlukan pengetahuan tentang yang sebenarnya
jumlah CPU pada setiap node. Dalam beberapa kasus, lebih nyaman untuk dapat
meminta agar tidak lebih dari sejumlah tugas tertentu yang dipanggil pada setiap node.
Contohnya termasuk mengirimkan aplikasi MPI/OpenMP hybrid di mana hanya satu MPI
"tugas/peringkat" harus ditetapkan ke setiap node sambil mengizinkan bagian OpenMP untuk
memanfaatkan semua paralelisme yang ada di node, atau mengirimkan satu
pekerjaan penyiapan/pembersihan/pemantauan ke setiap node dari alokasi yang sudah ada sebelumnya sebagai satu langkah
dalam naskah pekerjaan yang lebih besar.

-O, --komitmen berlebihan
Mengarahkan sumber daya secara berlebihan. Ketika diterapkan pada alokasi pekerjaan, hanya satu CPU yang dialokasikan untuk
pekerjaan per node dan opsi yang digunakan untuk menentukan jumlah tugas per node, socket,
inti, dll. diabaikan. Ketika diterapkan pada alokasi langkah pekerjaan (the lari Command
ketika dieksekusi dalam alokasi pekerjaan yang ada), opsi ini dapat digunakan untuk meluncurkan
lebih dari satu tugas per CPU. Biasanya, lari tidak akan mengalokasikan lebih dari satu proses
per CPU. Dengan menentukan --komitmen berlebihan Anda secara eksplisit mengizinkan lebih dari satu
proses per CPU. Namun tidak lebih dari MAX_TASKS_PER_NODE tugas diizinkan untuk
mengeksekusi per node. CATATAN: MAX_TASKS_PER_NODE didefinisikan dalam file slurm.h dan
bukan variabel, itu diatur pada waktu pembuatan Slurm.

-o, --keluaran=<nama file belt hold>
Instruksikan Slurm untuk menghubungkan output standar skrip batch langsung ke file
nama yang ditentukan dalam "nama file belt hold". Secara default, output standar dan
kesalahan standar diarahkan ke file yang sama. Untuk array pekerjaan, file default
nama adalah "slurm-%A_%a.out", "%A" diganti dengan ID pekerjaan dan "%a" dengan array
indeks. Untuk pekerjaan lain, nama file default adalah "slurm-%j.out", di mana "%j" adalah
diganti dengan ID pekerjaan. Lihat --memasukkan opsi untuk opsi spesifikasi nama file.

--mode terbuka=tambahkan|potong
Buka file output dan kesalahan menggunakan mode append atau truncate seperti yang ditentukan. NS
nilai default ditentukan oleh parameter konfigurasi sistem JobFileTambahkan.

--dapat diurai
Hanya menampilkan nomor id pekerjaan dan nama cluster jika ada. Nilai-nilai tersebut adalah
dipisahkan oleh titik koma. Kesalahan akan tetap ditampilkan.

-p, --partisi=<nama_partisi>
Minta partisi khusus untuk alokasi sumber daya. Jika tidak ditentukan,
perilaku default adalah mengizinkan pengontrol slurm untuk memilih partisi default
seperti yang ditunjuk oleh administrator sistem. Jika pekerjaan dapat menggunakan lebih dari satu
partisi, tentukan nama mereka dalam daftar terpisah koma dan satu penawaran
inisiasi paling awal akan digunakan tanpa memperhatikan nama partisi
memesan (meskipun partisi prioritas lebih tinggi akan dipertimbangkan terlebih dahulu). Ketika
pekerjaan dimulai, nama partisi yang digunakan akan ditempatkan pertama di pekerjaan
merekam string partisi.

--kekuasaan=<bendera>
Daftar opsi plugin manajemen daya yang dipisahkan koma. Bendera yang tersedia saat ini
termasuk: level (semua node yang dialokasikan untuk pekerjaan harus memiliki batas daya yang identik,
mungkin dinonaktifkan oleh opsi konfigurasi Slurm PowerParameters=job_no_level).

--prioritas=
Minta prioritas pekerjaan tertentu. Mungkin tunduk pada konfigurasi tertentu
kendala. Hanya operator dan administrator Slurm yang dapat mengatur prioritas a
pekerjaan.

--Profil=
memungkinkan pengumpulan data terperinci dengan plugin acct_gather_profile. Data terperinci
biasanya deret waktu yang disimpan dalam file HDF5 untuk pekerjaan itu.

Semua Semua tipe data dikumpulkan. (Tidak dapat digabungkan dengan nilai lain.)

None Tidak ada tipe data yang dikumpulkan. Ini adalah default.
(Tidak dapat digabungkan dengan nilai lain.)

Energi Data energi dikumpulkan.

tugas Data tugas (I/O, Memori, ...) dikumpulkan.

kilau Data kilau dikumpulkan.

jaringan Data jaringan (InfiniBand) dikumpulkan.

--menyebarkan[=batasfR]
Memungkinkan pengguna untuk menentukan batas sumber daya (lunak) mana yang akan disebarkan
ke node komputasi dan berlaku untuk pekerjaan mereka. Jika batas tidak ditentukan, maka
semua batasan sumber daya akan disebarkan. Nama rlimit berikut didukung
oleh Slurm (walaupun beberapa opsi mungkin tidak didukung pada beberapa sistem):

SEMUA Semua batasan yang tercantum di bawah ini

AS Ruang alamat maksimum untuk suatu proses

CORE Ukuran maksimum file inti

CPU Jumlah maksimum waktu CPU

DATA Ukuran maksimum segmen data proses

UKURAN Ukuran maksimum file yang dibuat. Perhatikan bahwa jika pengguna menyetel FSIZE ke
kurang dari ukuran slurmd.log saat ini, peluncuran pekerjaan akan gagal dengan
kesalahan 'Batas ukuran file terlampaui'.

MEMLOK Ukuran maksimum yang dapat dikunci ke dalam memori

TIDAK ADA DOKUMEN Jumlah maksimum file yang terbuka

NPROC Jumlah maksimum proses yang tersedia

RSS Ukuran set penduduk maksimum

TUMPUKAN Ukuran tumpukan maksimum

-Q, --diam
Menekan pesan informasi dari sbatch. Kesalahan akan tetap ditampilkan.

--qos=<qos>
Mintalah kualitas layanan untuk pekerjaan itu. Nilai QOS dapat ditentukan untuk masing-masing
asosiasi pengguna/cluster/akun dalam database Slurm. Pengguna akan dibatasi untuk
kumpulan qos yang ditentukan asosiasi mereka ketika parameter konfigurasi Slurm,
AccountingStorageEnforce, termasuk "qos" dalam definisinya.

--menyalakan ulang
Paksa node yang dialokasikan untuk reboot sebelum memulai pekerjaan. Hanya ini
didukung dengan beberapa konfigurasi sistem dan sebaliknya akan diabaikan secara diam-diam.

--antrian
Menentukan bahwa pekerjaan batch harus memenuhi syarat untuk menjadi requeue. Pekerjaan itu mungkin
requeued secara eksplisit oleh administrator sistem, setelah kegagalan node, atau setelah
preemption oleh pekerjaan prioritas yang lebih tinggi. Saat pekerjaan diantrekan ulang, skrip batch adalah
dimulai dari awal. Lihat juga --tidak ada antrian pilihan. Itu Antrean Pekerjaan
parameter konfigurasi mengontrol perilaku default pada cluster.

--reservasi=<nama>
Alokasikan sumber daya untuk pekerjaan dari reservasi bernama.

-s, --Bagikan
Alokasi pekerjaan dapat berbagi sumber daya dengan pekerjaan lain yang sedang berjalan. Sumber daya untuk
dibagikan dapat berupa node, soket, core, atau hyperthreads tergantung pada
konfigurasi. Perilaku bersama default tergantung pada konfigurasi sistem dan
partisi bersama opsi lebih diutamakan daripada opsi pekerjaan. Opsi ini mungkin
mengakibatkan alokasi diberikan lebih cepat daripada jika opsi --share tidak
mengatur dan memungkinkan pemanfaatan sistem yang lebih tinggi, tetapi kinerja aplikasi kemungkinan akan
menderita karena persaingan untuk sumber daya. Lihat juga opsi --exclusive.

-S, --spesifikasi inti=<num>
Jumlah inti khusus per node yang dicadangkan oleh pekerjaan untuk operasi sistem dan
tidak digunakan oleh aplikasi. Aplikasi tidak akan menggunakan inti ini, tetapi akan
dibebankan untuk alokasi mereka. Nilai default tergantung pada node's
nilai CoreSpecCount yang dikonfigurasi. Jika nilai nol ditetapkan dan Slurm
opsi konfigurasi AllowSpecResourcesUsage diaktifkan, pekerjaan akan diizinkan untuk
menimpa CoreSpecCount dan menggunakan sumber daya khusus pada node yang dialokasikan.
Opsi ini tidak dapat digunakan dengan --spesifikasi-utas .

--sicp Identifikasi pekerjaan sebagai pekerjaan yang dapat diandalkan oleh pekerjaan yang diserahkan ke cluster lain.

--sinyal=[B:]nomor_tanda>[@waktu_sig>]
Ketika pekerjaan ada di dalam waktu_sig detik dari waktu akhirnya, kirimkan sinyalnya nomor_tanda.
Karena resolusi penanganan acara oleh Slurm, sinyal dapat dikirim hingga 60
detik lebih awal dari yang ditentukan. nomor_tanda bisa berupa nomor sinyal atau nama
(misalnya "10" atau "USR1"). waktu_sig harus memiliki nilai integer antara 0 dan 65535.
Secara default, tidak ada sinyal yang dikirim sebelum waktu akhir pekerjaan. Jika sebuah nomor_tanda ditentukan
tanpa waktu_sig, waktu default adalah 60 detik. Gunakan opsi "B:" untuk
hanya memberi sinyal shell batch, tidak ada proses lain yang akan diberi sinyal. Oleh
default semua langkah pekerjaan akan ditandai, tetapi bukan shell batch itu sendiri.

--socket-per-node=<soket>
Batasi pemilihan node ke node dengan setidaknya jumlah soket yang ditentukan.
Lihat informasi tambahan di bawah -B opsi di atas ketika plugin tugas/afinitas adalah
diaktifkan.

--switch=<menghitung>[@waktu maksimum>]
Ketika topologi pohon digunakan, ini menentukan jumlah maksimum sakelar yang diinginkan
untuk alokasi pekerjaan dan secara opsional waktu maksimum untuk menunggu sejumlah
saklar. Jika Slurm menemukan alokasi yang berisi lebih banyak sakelar daripada hitungan
ditentukan, pekerjaan tetap tertunda sampai menemukan alokasi dengan yang diinginkan
beralih hitungan atau batas waktu berakhir. Tidak ada batasan jumlah sakelar, di sana
tidak ada penundaan dalam memulai pekerjaan. Format waktu yang dapat diterima termasuk "menit",
"menit:detik", "jam:menit:detik", "hari-jam", "hari-jam:menit" dan
"hari-jam:menit:detik". Penundaan waktu maksimum pekerjaan mungkin dibatasi oleh
administrator sistem menggunakan PenjadwalParameter parameter konfigurasi dengan
max_switch_wait opsi parameter. Waktu maksimum default adalah max_switch_wait
Parameter Penjadwal.

-t, --waktu=<waktu>
Tetapkan batas total waktu berjalan dari alokasi pekerjaan. Jika waktu yang diminta
batas melebihi batas waktu partisi, pekerjaan akan dibiarkan dalam status TERTUNDA
(mungkin tanpa batas). Batas waktu default adalah waktu default partisi
membatasi. Ketika batas waktu tercapai, setiap tugas di setiap langkah pekerjaan dikirim SIGTERM
diikuti oleh SIGKILL. Interval antara sinyal ditentukan oleh Slurm
parameter konfigurasi BunuhTunggu. itu Batas Waktu parameter konfigurasi mungkin
memungkinkan pekerjaan berjalan lebih lama dari yang dijadwalkan. Resolusi waktu adalah satu menit dan
nilai kedua dibulatkan ke menit berikutnya.

Batas waktu permintaan nol yang tidak ada batas waktu yang dikenakan. Waktu yang dapat diterima
format termasuk "menit", "menit:detik", "jam:menit:detik",
"hari-jam", "hari-jam:menit" dan "hari-jam:menit:detik".

--tugas-per-simpul=<n>
Tentukan jumlah tugas yang akan diluncurkan per node. Setara dengan
--tugas-per-node.

--hanya tes
Validasi skrip batch dan kembalikan perkiraan kapan pekerjaan akan dijadwalkan
untuk dijalankan mengingat antrian pekerjaan saat ini dan semua argumen lain yang menentukan pekerjaan
persyaratan. Tidak ada pekerjaan yang benar-benar diajukan.

--spesifikasi-utas=<num>
Jumlah utas khusus per node yang disediakan oleh pekerjaan untuk operasi sistem dan
tidak digunakan oleh aplikasi. Aplikasi tidak akan menggunakan utas ini, tetapi akan
dikenakan biaya untuk alokasinya. Opsi ini tidak dapat digunakan dengan --spesifikasi inti
.

--utas-per-inti=<benang>
Batasi pemilihan simpul ke simpul dengan setidaknya jumlah utas yang ditentukan per
inti. CATATAN: "Utas" mengacu pada jumlah unit pemrosesan pada setiap inti bukan
daripada jumlah tugas aplikasi yang akan diluncurkan per inti. Lihat tambahan
informasi di bawah -B opsi di atas saat plugin tugas/afinitas diaktifkan.

--waktu-min=<waktu>
Tetapkan batas waktu minimum pada alokasi pekerjaan. Jika ditentukan, pekerjaan mungkin memiliki
itu --waktu batas diturunkan ke nilai tidak lebih rendah dari --waktu-min jika melakukan itu mengizinkan
pekerjaan untuk memulai eksekusi lebih awal dari yang mungkin. Batas waktu pekerjaan
tidak akan berubah setelah pekerjaan dialokasikan sumber daya. Ini dilakukan oleh
algoritma penjadwalan pengisian ulang untuk mengalokasikan sumber daya jika tidak disediakan untuk yang lebih tinggi
pekerjaan prioritas. Format waktu yang dapat diterima termasuk "menit", "menit:detik",
"jam:menit:detik", "hari-jam", "hari-jam:menit" dan
"hari-jam:menit:detik".

--tmp=<MB>
Tentukan jumlah minimum ruang disk sementara.

-u, --penggunaan
Tampilkan pesan bantuan singkat dan keluar.

--uid=<pemakai>
Mencoba untuk mengirimkan dan/atau menjalankan pekerjaan sebagai pemakai alih-alih memanggil id pengguna. Itu
memanggil kredensial pengguna akan digunakan untuk memeriksa izin akses untuk target
partisi. Root pengguna dapat menggunakan opsi ini untuk menjalankan pekerjaan sebagai pengguna biasa di RootOnly
partisi misalnya. Jika dijalankan sebagai root, kumpulan akan menjatuhkan izinnya ke uid
ditentukan setelah alokasi node berhasil. pemakai mungkin nama pengguna atau
ID pengguna numerik.

-V, --Versi: kapan
Tampilkan informasi versi dan keluar.

-v, --bertele-tele
Tingkatkan verbositas pesan informasi sbatch. beberapa -vkemauan
lebih meningkatkan verbositas sbatch. Secara default hanya kesalahan yang akan ditampilkan.

-w, --daftar node=<simpul nama daftar>
Minta daftar host tertentu. Pekerjaan akan berisi semua dari tuan rumah ini dan
mungkin host tambahan yang diperlukan untuk memenuhi persyaratan sumber daya. Daftar mungkin
ditetapkan sebagai daftar host yang dipisahkan koma, rentang host (host[1-5,7,...]
misalnya), atau nama file. Daftar host akan dianggap sebagai nama file jika
berisi karakter "/". Jika Anda menentukan jumlah node atau prosesor minimum yang lebih besar
daripada yang dapat dipenuhi oleh daftar host yang disediakan, sumber daya tambahan akan
dialokasikan pada node lain sesuai kebutuhan. Nama node duplikat dalam daftar akan menjadi
diabaikan. Urutan nama node dalam daftar tidak penting; nama simpul
akan diurutkan berdasarkan Slurm.

--tunggu-semua-simpul=<nilai>
Mengontrol kapan eksekusi perintah dimulai. Secara default, pekerjaan akan dimulai
eksekusi segera setelah alokasi dibuat.

0 Mulai eksekusi segera setelah alokasi dapat dibuat. Jangan menunggu semua node
untuk siap digunakan (yaitu boot).

1 Jangan memulai eksekusi sampai semua node siap digunakan.

--wckey=<wckey>
Tentukan wckey yang akan digunakan dengan pekerjaan. Jika TrackWCKey=no (default) di slurm.conf
nilai ini diabaikan.

--membungkus=<Command string>
Sbatch akan membungkus string perintah yang ditentukan dalam skrip shell "sh" sederhana, dan
kirimkan skrip itu ke pengontrol slurm. Ketika --wrap digunakan, nama skrip dan
argumen mungkin tidak ditentukan pada baris perintah; sebagai gantinya dihasilkan sbatch
skrip pembungkus digunakan.

-x, --mengecualikan=<simpul nama daftar>
Secara eksplisit mengecualikan node tertentu dari sumber daya yang diberikan untuk pekerjaan.

Opsi berikut mendukung sistem Blue Gene, tetapi mungkin berlaku untuk sistem lain seperti:
baik.

--blrts-gambar=<path>
Jalur ke Blue GeneL Run Time Supervisor, atau blrts, gambar untuk blok bluegene. BGL
hanya. Bawaan dari bluene.conf jika tidak diatur.

--cnload-gambar=<path>
Jalur untuk menghitung citra node untuk blok bluegene. BGP saja. Bawaan dari
bluene.conf jika tidak diatur.

--tipe-sambungan=<mengetik>
Mengharuskan tipe koneksi blok dari tipe tertentu. Pada Gen Biru itu
diterima dari mengetik adalah MESH, TORUS dan NAV. Jika NAV, atau jika tidak disetel, maka Slurm akan
coba sesuaikan dengan apa DefaultConnType diatur di bluegene.conf jika tidak
atur defaultnya adalah TORUS. Anda seharusnya tidak menyetel opsi ini secara normal. Jika berjalan pada
sistem BGP dan ingin dijalankan dalam mode HTC (hanya untuk 1 bidang tengah ke bawah). Anda
dapat menggunakan HTC_S untuk SMP, HTC_D untuk Dual, HTC_V untuk mode simpul virtual, dan HTC_L untuk
Modus Linux. Untuk sistem yang memungkinkan jenis koneksi berbeda per dimensi, Anda
dapat menyediakan daftar jenis koneksi yang dipisahkan koma dapat ditentukan, satu untuk
setiap dimensi (yaitu M,T,T,T akan memberi Anda koneksi torus adalah semua dimensi
mengharapkan yang pertama).

-g, --geometri=<xxYxZ> |AxXxYxZ>
Tentukan persyaratan geometri untuk pekerjaan itu. Pada sistem BlueGene/L dan BlueGene/P
ada tiga angka yang memberikan dimensi dalam arah X, Y dan Z, sedangkan pada
Sistem BlueGene/Q ada empat angka yang memberikan dimensi dalam A, X, Y dan Z
arah dan tidak dapat digunakan untuk mengalokasikan sub-blok. Sebagai contoh
"--geometry=1x2x3x4", menentukan blok node yang memiliki 1 x 2 x 3 x 4 = 24 node
(sebenarnya pesawat tengah di BlueGene).

--ioload-gambar=<path>
Jalur ke gambar io untuk blok bluegene. BGP saja. Bawaan dari bluene.conf jika tidak
ditetapkan.

--linux-gambar=<path>
Path ke gambar linux untuk blok bluegene. BGL saja. Bawaan dari bluene.conf if
tidak diatur.

--mloader-gambar=<path>
Gambar jalur ke mloader untuk blok bluegene. Bawaan dari bluene.conf jika tidak diatur.

-R, --tidak berputar
Menonaktifkan rotasi geometri yang diminta pekerjaan agar sesuai dengan yang sesuai
memblokir. Secara default geometri yang ditentukan dapat berputar dalam tiga dimensi.

--ramdisk-gambar=<path>
Jalur ke gambar ramdisk untuk blok bluegene. BGL saja. Bawaan dari bluene.conf if
tidak diatur.

INPUT LINGKUNGAN VARIABEL


Saat startup, sbatch akan membaca dan menangani opsi yang diatur di lingkungan berikut
variabel. Perhatikan bahwa variabel lingkungan akan menimpa opsi apa pun yang ditetapkan dalam kumpulan
skrip, dan opsi baris perintah akan menimpa variabel lingkungan apa pun.

SBATCH_ACCOUNT Sama dengan -SEBUAH, --Akun

SBATCH_ACCTG_FREQ Sama dengan --acctg-frekuensi

SBATCH_ARRAY_INX Sama dengan -Sebuah, --Himpunan

SBATCH_BLRTS_IMAGE Sama dengan --blrts-gambar

SBATCH_BURST_BUFFER Sama dengan --bb

SBATCH_CHECKPOINT Sama dengan --pos pemeriksaan

SBATCH_CHECKPOINT_DIR Sama dengan --pos pemeriksaan-dir

SBATCH_CLUSTER or SLURM_CLUSTER
Sama dengan --cluster

SBATCH_CNLOAD_IMAGE Sama dengan --cnload-gambar

SBATCH_CONN_TYPE Sama dengan --tipe-sambungan

SBATCH_CORE_SPEC Sama dengan --spesifikasi inti

SBATCH_DEBUG Sama dengan -di, --bertele-tele

SBATCH_DISTRIBUSI Sama dengan -M, --distribusi

SBATCH_EKSKLUSIF Sama dengan --eksklusif

SBATCH_EKSPOR Sama dengan --ekspor

SBATCH_GEOMETRY Sama dengan -G, --geometri

SBATCH_GET_USER_ENV Sama dengan --dapatkan-pengguna-env

SBATCH_HINT or SLURM_HINT
Sama dengan --petunjuk

SBATCH_IGNORE_PBS Sama dengan --abaikan-pbs

SBATCH_SEGERA Sama dengan -SAYA, --segera

SBATCH_IOLOAD_IMAGE Sama dengan --ioload-gambar

SBATCH_JOBID Sama dengan --pekerjaan

SBATCH_JOB_NAME Sama dengan -J, --nama Pekerjaan

SBATCH_LINUX_IMAGE Sama dengan --linux-gambar

SBATCH_MEM_BIND Sama dengan --mem_bind

SBATCH_MLOADER_IMAGE Sama dengan --mloader-gambar

SBATCH_NETWORK Sama dengan --jaringan

SBATCH_NO_REQUEUE Sama dengan --tidak ada antrian

SBATCH_NO_ROTATE Sama dengan -R, --tidak berputar

SBATCH_OPEN_MODE Sama dengan --mode terbuka

SBATCH_OVERCOMMIT Sama dengan -HAI, --komitmen berlebihan

SBATCH_PARTISI Sama dengan -P, --partisi

SBATCH_POWER Sama dengan --kekuasaan

SBATCH_PROFILE Sama dengan --Profil

SBATCH_QOS Sama dengan --qos

SBATCH_RAMDISK_IMAGE Sama dengan --ramdisk-gambar

SBATCH_RESERVASI Sama dengan --reservasi

SBATCH_REQ_SWITCH Ketika topologi pohon digunakan, ini mendefinisikan jumlah maksimum
sakelar yang diinginkan untuk alokasi pekerjaan dan secara opsional maksimum
waktu untuk menunggu jumlah sakelar itu. Melihat --switch

SBATCH_REQUEUE Sama dengan --antrian

SBATCH_SICP Sama dengan --sicp

SBATCH_SIGNAL Sama dengan --sinyal

SBATCH_THREAD_SPEC Sama dengan --spesifikasi-utas

SBATCH_TIMELIMIT Sama dengan -T, --waktu

SBATCH_WAIT_ALL_NODES Sama dengan --tunggu-semua-simpul

SBATCH_WAIT4SWITCH Waktu maksimum menunggu sakelar yang diminta. Melihat --switch

SBATCH_WCKEY Sama dengan --wckey

SLURM_CONF Lokasi file konfigurasi Slurm.

SLURM_EXIT_ERROR Menentukan kode keluar yang dihasilkan ketika kesalahan Slurm terjadi (mis
pilihan yang tidak valid). Ini dapat digunakan oleh skrip untuk membedakan
kode keluar aplikasi dari berbagai kondisi kesalahan Slurm.

SLURM_STEP_KILLED_MSG_NODE_ID= ID
Jika disetel, hanya node yang ditentukan yang akan masuk ketika pekerjaan atau langkahnya
dibunuh oleh sinyal.

KELUARAN LINGKUNGAN VARIABEL


Pengontrol Slurm akan mengatur variabel berikut di lingkungan kumpulan:
Script.

BASIL_RESERVATION_ID
ID reservasi pada sistem Cray yang menjalankan ALPS/BASIL saja.

MPIRUN_NOALLOKAT
Jangan mengalokasikan blok pada sistem Blue Gene L/P saja.

MPIRUN_NOFREE
Jangan membebaskan blokir hanya pada sistem Blue Gene L/P.

MPIRUN_PARTISI
Nama blok hanya pada sistem Blue Gene.

SBATCH_CPU_BIND
Setel ke nilai opsi --cpu_bind.

SBATCH_CPU_BIND_VERBOSE
Setel ke "verbose" jika opsi --cpu_bind menyertakan opsi verbose. Mulai
"tenang" sebaliknya.

SBATCH_CPU_BIND_TYPE
Setel ke jenis pengikatan CPU yang ditentukan dengan opsi --cpu_bind. Nilai yang mungkin
dua kemungkinan string yang dipisahkan koma. String pertama yang mungkin mengidentifikasi
entitas yang akan diikat ke: "utas", "inti", "soket", "ldom" dan "papan". Itu
string kedua mengidentifikasi cara di mana tugas terikat: "tidak ada", "peringkat",
"map_cpu", "mask_cpu", "rank_ldom", "map_ldom" atau "mask_ldom".

SBATCH_CPU_BIND_LIST
Setel ke bit mask yang digunakan untuk pengikatan CPU.

SBATCH_MEM_BIND
Setel ke nilai opsi --mem_bind.

SBATCH_MEM_BIND_VERBOSE
Setel ke "verbose" jika opsi --mem_bind menyertakan opsi verbose. Mulai
"tenang" sebaliknya.

SBATCH_MEM_BIND_TYPE
Setel ke jenis pengikatan memori yang ditentukan dengan opsi --mem_bind. Mungkin
nilainya adalah "tidak ada", "peringkat", "map_map", "mask_mem" dan "local".

SBATCH_MEM_BIND_LIST
Setel ke topeng bit yang digunakan untuk pengikatan memori.

SLURM_ARRAY_TASK_ID
Nomor ID array pekerjaan (indeks).

SLURM_ARRAY_TASK_MAX
Nomor ID (indeks) maksimum larik pekerjaan.

SLURM_ARRAY_TASK_MIN
Nomor ID (indeks) minimum larik pekerjaan.

SLURM_ARRAY_TASK_STEP
Ukuran langkah indeks larik pekerjaan.

SLURM_ARRAY_JOB_ID
Nomor ID pekerjaan master larik pekerjaan.

SLURM_CHECKPOINT_IMAGE_DIR
Direktori ke mana gambar pos pemeriksaan harus ditulis jika ditentukan pada
mengeksekusi baris.

SLURM_CLUSTER_NAME
Nama cluster tempat tugas dijalankan.

SLURM_CPUS_ON_NODE
Jumlah CPUS pada node yang dialokasikan.

SLURM_CPUS_PER_TASK
Jumlah CPU yang diminta per tugas. Hanya atur jika --cpus-per-tugas pilihannya adalah
ditentukan.

SLURM_DISTRIBUSI
Sama dengan -M, --distribusi

SLURM_GTIDS
ID tugas global yang berjalan di node ini. Nol asal dan koma dipisahkan.

SLURM_JOB_ID (Dan SLURM_JOBID untuk kompatibilitas mundur)
ID alokasi pekerjaan.

SLURM_JOB_CPUS_PER_NODE
Jumlah prosesor yang tersedia untuk pekerjaan di node ini. Perhatikan pilih/linier
plugin mengalokasikan seluruh node ke pekerjaan, sehingga nilainya menunjukkan jumlah total
CPU pada node. Plugin select/cons_res mengalokasikan prosesor individual untuk
pekerjaan, jadi angka ini menunjukkan jumlah prosesor pada node ini yang dialokasikan untuk
pekerjaan.

SLURM_JOB_DEPENDENSI
Setel ke nilai opsi --dependency.

SLURM_JOB_NAME
Nama pekerjaan.

SLURM_JOB_NODELIST (Dan SLURM_NODELIST untuk kompatibilitas mundur)
Daftar node yang dialokasikan untuk pekerjaan.

SLURM_JOB_NUM_NODES (Dan SLURM_NNODES untuk kompatibilitas mundur)
Jumlah total node dalam alokasi sumber daya tugas.

SLURM_JOB_PARTITION
Nama partisi tempat pekerjaan dijalankan.

SLURM_LOCALID
Node ID tugas lokal untuk proses dalam pekerjaan.

SLURM_NODE_ALIASES
Kumpulan nama node, alamat komunikasi, dan nama host untuk node yang dialokasikan ke
pekerjaan dari awan. Setiap elemen dalam himpunan jika titik dua dipisahkan dan setiap himpunan adalah
dipisahkan koma. Misalnya: SLURM_NODE_ALIASES=ec0:1.2.3.4:foo,ec1:1.2.3.5:bar

SLURM_NODEID
ID dari node yang dialokasikan.

SLURMD_NODENAME
Nama semua node yang dialokasikan.

SLURM_NTASKS (Dan SLURM_NPROCS untuk kompatibilitas mundur)
Sama dengan -N, --tugas

SLURM_NTASKS_PER_CORE
Jumlah tugas yang diminta per inti. Hanya atur jika --tugas-per-inti pilihannya adalah
ditentukan.

SLURM_NTASKS_PER_NODE
Jumlah tugas yang diminta per node. Hanya atur jika --tugas-per-node pilihannya adalah
ditentukan.

SLURM_NTASKS_PER_SOCKET
Jumlah tugas yang diminta per soket. Hanya atur jika --tugas-per-soket Option
ditentukan.

SLURM_PRIO_PROSES
Prioritas penjadwalan (nilai bagus) pada saat penyerahan pekerjaan. Nilai ini adalah
disebarkan ke proses melahirkan.

SLURM_PROCID
Peringkat MPI (atau ID proses relatif) dari proses saat ini

SLURM_PROFILE
Sama dengan --Profil

SLURM_RESTART_COUNT
Jika pekerjaan telah dimulai ulang karena kegagalan sistem atau telah secara eksplisit
requeued, ini akan dikirim ke berapa kali pekerjaan telah dimulai ulang.

SLURM_SUBMIT_DIR
Direktori dari mana kumpulan dipanggil.

SLURM_SUBMIT_HOST
Nama host komputer dari mana kumpulan dipanggil.

SLURM_TASKS_PER_NODE
Jumlah tugas yang akan dimulai pada setiap node. Nilai dipisahkan koma dan di
urutan yang sama dengan SLURM_NODELIST. Jika dua atau lebih simpul berurutan memiliki
jumlah tugas yang sama, hitungan itu diikuti oleh "(x#)" di mana "#" adalah pengulangan
menghitung. Misalnya, "SLURM_TASKS_PER_NODE=2(x3),1" menunjukkan bahwa tiga yang pertama
node masing-masing akan menjalankan tiga tugas dan node keempat akan menjalankan satu tugas.

SLURM_TASK_PID
ID proses tugas yang sedang dimulai.

SLURM_TOPLOGY_ADDR
Ini diatur hanya jika sistem memiliki plugin topologi/pohon yang dikonfigurasi. Itu
nilai akan diatur ke nama switch jaringan yang mungkin terlibat dalam
komunikasi pekerjaan dari sakelar tingkat atas sistem ke sakelar daun
dan diakhiri dengan nama simpul. Tanda titik digunakan untuk memisahkan setiap komponen perangkat keras
Nama.

SLURM_TOPLOGY_ADDR_PATTERN
Ini diatur hanya jika sistem memiliki plugin topologi/pohon yang dikonfigurasi. Itu
nilai akan ditetapkan jenis komponen yang terdaftar di SLURM_TOPLOGY_ADDR. Setiap
komponen akan diidentifikasi sebagai "switch" atau "node". Sebuah periode digunakan untuk
pisahkan setiap jenis komponen perangkat keras.

CONTOH


Tentukan skrip batch dengan nama file pada baris perintah. Skrip batch menentukan 1
batas waktu menit untuk pekerjaan itu.

$cat myscript
#!/ Bin / sh
#SBATCH --waktu=1
srun hostname | sort

$ sbatch -N4 skrip saya
salloc: Alokasi pekerjaan yang diberikan 65537

$ kucing slurm-65537.keluar
host1
host2
host3
host4

Lewati skrip batch ke sbatch pada input standar:

$ sbatch -N4 <
> #!/ Bin / sh
> srun hostname | sort
> EOF
sbatch: Pekerjaan batch yang dikirim 65541

$ kucing slurm-65541.keluar
host1
host2
host3
host4

PENYALINAN


Hak Cipta (C) 2006-2007 Bupati Universitas California. Diproduksi di Lawrence
Laboratorium Nasional Livermore (lih, DISCLAIMER).
Hak Cipta (C) 2008-2010 Keamanan Nasional Lawrence Livermore.
Hak Cipta (C) 2010-2015 SchedMD LLC.

File ini adalah bagian dari Slurm, program manajemen sumber daya. Untuk detailnya, lihat
<http://slurm.schedmd.com/>.

Slurm adalah perangkat lunak gratis; Anda dapat mendistribusikan ulang dan/atau memodifikasinya di bawah ketentuan
Lisensi Publik Umum GNU sebagaimana diterbitkan oleh Free Software Foundation; baik versi 2
dari Lisensi, atau (sesuai pilihan Anda) versi yang lebih baru.

Slurm disebarluaskan dengan harapan bisa bermanfaat, tapi TANPA JAMINAN APAPUN; tanpa
bahkan jaminan tersirat tentang KELAYAKAN DIPERDAGANGKAN atau KESESUAIAN UNTUK TUJUAN TERTENTU. Lihat
Lisensi Publik Umum GNU untuk perincian lebih lanjut.

Gunakan sbatch online menggunakan layanan onworks.net


Server & Workstation Gratis

Unduh aplikasi Windows & Linux

Perintah Linux

Ad