Ini adalah perintah srun yang dapat dijalankan di penyedia hosting gratis OnWorks menggunakan salah satu dari beberapa workstation online gratis kami seperti Ubuntu Online, Fedora Online, emulator online Windows atau emulator online MAC OS
PROGRAM:
NAMA
srun - Jalankan pekerjaan paralel
RINGKASAN
lari [PILIHAN...] executable [args...]
DESKRIPSI
Jalankan pekerjaan paralel di cluster yang dikelola oleh Slurm. Jika perlu, srun terlebih dahulu akan membuat
alokasi sumber daya untuk menjalankan pekerjaan paralel.
Dokumen berikut menjelaskan pengaruh berbagai opsi pada alokasi
CPU untuk pekerjaan dan tugas.
http://slurm.schedmd.com/cpu_management.html
PILIHAN
--mempercepat-mengikat=<Pilihan>
Kontrol bagaimana tugas terikat pada sumber daya generik jenis gpu, mic, dan nic.
Beberapa opsi dapat ditentukan. Opsi yang didukung adalah sebagai berikut:
g Ikat setiap tugas ke GPU yang paling dekat dengan CPU yang dialokasikan.
m Ikat setiap tugas ke MIC yang paling dekat dengan CPU yang dialokasikan.
n Ikat setiap tugas ke NIC yang paling dekat dengan CPU yang dialokasikan.
v Modus verbose. Catat bagaimana tugas terikat ke perangkat GPU dan NIC.
-A, --Akun=<rekening>
Mengisi sumber daya yang digunakan oleh pekerjaan ini ke akun tertentu. NS rekening adalah
string sewenang-wenang. Nama akun dapat diubah setelah pengiriman pekerjaan menggunakan
kendali perintah.
--acctg-frekuensi
Tentukan akuntansi pekerjaan dan interval pengambilan sampel profil. Ini dapat digunakan untuk
menimpa Frekuensi JobAcctGather parameter dalam file konfigurasi Slurm,
slurm.conf. Format yang didukung adalah sebagai berikut:
--frekuensi-acctg==
dimana = menentukan interval pengambilan sampel tugas untuk
plugin jobacct_gather atau interval pengambilan sampel untuk jenis profil
oleh plugin acct_gather_profile. Beberapa, dipisahkan koma
= interval dapat ditentukan. Tipe data yang didukung
adalah sebagai berikut:
tugas=
dimana adalah interval pengambilan sampel tugas dalam detik untuk
plugin jobacct_gather dan untuk pembuatan profil tugas oleh
plugin acct_gather_profile. CATATAN: Frekuensi ini digunakan untuk
memantau penggunaan memori. Jika batas memori ditegakkan tertinggi
frekuensi yang dapat diminta pengguna adalah yang dikonfigurasi di
file slurm.conf. Mereka juga tidak dapat mematikannya (=0).
energi =
dimana adalah interval pengambilan sampel dalam detik untuk energi
membuat profil menggunakan plugin acct_gather_energy
jaringan=
dimana adalah interval pengambilan sampel dalam detik untuk
pembuatan profil infiniband menggunakan plugin acct_gather_infiniband.
sistem file=
dimana adalah interval pengambilan sampel dalam detik untuk
pembuatan profil sistem file menggunakan plugin acct_gather_filesystem.
Nilai default untuk interval pengambilan sampel tugas
adalah 30. Nilai default untuk semua interval lainnya adalah 0. Interval 0 menonaktifkan
pengambilan sampel dari jenis yang ditentukan. Jika interval pengambilan sampel tugas adalah 0, akuntansi
informasi dikumpulkan hanya pada pemutusan hubungan kerja (mengurangi gangguan Slurm dengan
pekerjaan).
Nilai yang lebih kecil (bukan nol) memiliki dampak yang lebih besar pada kinerja pekerjaan, tetapi nilai
dari 30 detik tidak akan terlihat untuk aplikasi yang memiliki kurang dari
10,000 tugas.
-B --info-simpul-ekstra=<soket[:warna[:benang]]>
Minta alokasi sumber daya tertentu dengan perincian jumlah dan jenis
sumber daya komputasi dalam sebuah cluster: jumlah soket (atau fisik
prosesor) per node, core per socket, dan thread per core. Jumlah keseluruhan dari
sumber daya yang diminta adalah produk dari semua persyaratan. Setiap nilai yang ditentukan
dianggap minimal. Tanda bintang (*) dapat digunakan sebagai pengganti yang menunjukkan
bahwa semua sumber daya yang tersedia dari jenis itu harus dimanfaatkan. Seperti halnya node,
tingkat individu juga dapat ditentukan dalam opsi terpisah jika diinginkan:
--socket-per-node=<soket>
--core-per-socket=<warna>
--utas-per-inti=<benang>
Jika plugin tugas/afinitas diaktifkan, maka tentukan alokasi dengan cara ini
juga menetapkan default --cpu_bind pilihan dari benang jika -B opsi menentukan a
jumlah utas, jika tidak, opsi warna jika jumlah inti ditentukan, jika tidak
sebuah pilihan dari soket. Jika SelectType dikonfigurasi untuk memilih/kontra_res, itu harus memiliki
parameter CR_Core, CR_Core_Memory, CR_Socket, atau CR_Socket_Memory untuk ini
pilihan untuk dihormati. Opsi ini tidak didukung pada sistem BlueGene
(pilih/plugin bluegene dikonfigurasi). Jika tidak ditentukan, scontrol show job
akan menampilkan 'ReqS:C:T=*:*:*'.
--bb=<spek>
Spesifikasi buffer burst. Bentuk spesifikasi bergantung pada sistem.
Juga lihat --bbf.
--bbf=<nama file>
Jalur file yang berisi spesifikasi buffer burst. Bentuk spesifikasinya
bergantung pada sistem. Lihat juga --bb.
--bcast[=jalan_tujuan>]
Salin file yang dapat dieksekusi ke node komputasi yang dialokasikan. Jika nama file ditentukan, salin
yang dapat dieksekusi ke jalur file tujuan yang ditentukan. Jika tidak ada jalur yang ditentukan,
salin file ke file bernama "slurm_bcast_ . " pada saat ini
bekerja. Misalnya, "srun --bcast=/tmp/mine -N3 a.out" akan menyalin file
"a.out" dari direktori Anda saat ini ke file "/tmp/mine" di masing-masing dari ketiganya
mengalokasikan node komputasi dan mengeksekusi file itu.
--mulai=<waktu>
Tunda inisiasi pekerjaan ini hingga waktu yang ditentukan. Ia menerima waktu
bentuk JJ:MM:SS untuk menjalankan pekerjaan pada waktu tertentu dalam sehari (detik adalah opsional). (Jika
waktu itu sudah lewat, hari berikutnya diasumsikan.) Anda juga dapat menentukan
tengah malam, tengah hari, fika (3 sore) atau minum teh (4 PM) dan Anda dapat bersenang-senang
diakhiri dengan AM or PM untuk lari pagi atau sore hari. Anda juga bisa mengatakan
hari apa pekerjaan akan dijalankan, dengan menentukan tanggal formulir MMDDYY or MM/HH/YY
YYYY-MM-DD. Gabungkan tanggal dan waktu menggunakan format berikut
YYYY-MM-DD[THH:MM[:SS]]. Anda juga dapat memberikan waktu seperti sekarang + menghitung satuan waktu, Di mana
satuan waktu bisa detik (Default), menit, jam, hari-hari, atau minggu dan Anda dapat
beri tahu Slurm untuk menjalankan pekerjaan hari ini dengan kata kunci hari ini dan untuk menjalankan pekerjaan besok
dengan kata kunci besok. Nilai dapat diubah setelah pengiriman pekerjaan menggunakan
kendali memerintah. Sebagai contoh:
--mulai=16:00
--mulai=sekarang+1jam
--begin=now+60 (secara default detik)
--begin=2010-01-20T12:34:00
Catatan tentang spesifikasi tanggal/waktu:
- Meskipun bidang 'detik' dari spesifikasi waktu HH:MM:SS diizinkan oleh
kode, perhatikan bahwa waktu polling penjadwal Slurm tidak cukup tepat untuk
menjamin pengiriman pekerjaan pada detik yang tepat. Pekerjaan akan memenuhi syarat untuk
mulai pada polling berikutnya mengikuti waktu yang ditentukan. Interval polling yang tepat
tergantung pada penjadwal Slurm (misalnya, 60 detik dengan sched/builtin default).
- Jika tidak ada waktu (JH:MM:SS) yang ditentukan, defaultnya adalah (00:00:00).
- Jika tanggal ditentukan tanpa tahun (misalnya, MM/DD) maka tahun berjalan adalah
diasumsikan, kecuali kombinasi MM/DD dan HH:MM:SS telah lulus untuk itu
tahun, dalam hal ini tahun berikutnya digunakan.
--pos pemeriksaan=<waktu>
Menentukan interval antara membuat pos pemeriksaan dari langkah pekerjaan. Secara default,
langkah pekerjaan tidak akan memiliki pos pemeriksaan yang dibuat. Format waktu yang dapat diterima termasuk:
"menit", "menit:detik", "jam:menit:detik", "hari-jam",
"hari-jam:menit" dan "hari-jam:menit:detik".
--pos pemeriksaan-dir=<direktori>
Menentukan direktori tempat pekerjaan atau pos pemeriksaan langkah pekerjaan seharusnya berada
ditulis (hanya digunakan oleh plugin pos pemeriksaan/blcr dan pos pemeriksaan/xlch). NS
nilai default adalah direktori kerja saat ini. File pos pemeriksaan akan menjadi
membentuk " .ckpt" untuk pekerjaan dan " . .ckpt" untuk langkah-langkah pekerjaan.
--komentar=<string>
Sebuah komentar yang sewenang-wenang.
-C, --paksaan=<daftar>
Node dapat memiliki fitur ditugaskan kepada mereka oleh administrator Slurm. Pengguna dapat
tentukan yang mana dari ini fitur dibutuhkan oleh pekerjaan mereka menggunakan kendala
pilihan. Hanya node yang memiliki fitur yang cocok dengan batasan pekerjaan yang akan digunakan untuk
memenuhi permintaan. Beberapa kendala dapat ditentukan dengan AND, OR, pencocokan
ATAU, jumlah sumber daya, dll. Opsi batasan yang didukung meliputi:
Tunggal Nama
Hanya node yang memiliki fitur tertentu yang akan digunakan. Sebagai contoh,
--constraint="intel"
Node Menghitung
Permintaan dapat menentukan jumlah node yang dibutuhkan dengan beberapa fitur dengan
menambahkan tanda bintang dan menghitung setelah nama fitur. Sebagai contoh
"--node=16 --constraint=grafik*4 ... " menunjukkan bahwa pekerjaan itu membutuhkan 16
node dan setidaknya empat dari node tersebut harus memiliki fitur
"grafik."
DAN Jika hanya node dengan semua fitur tertentu yang akan digunakan. ampersandnya adalah
digunakan untuk operator AND. Sebagai contoh, --constraint="intel&gpu"
OR Jika hanya node dengan setidaknya satu fitur tertentu yang akan digunakan. NS
bar vertikal digunakan untuk operator OR. Sebagai contoh,
--constraint="intel|amd"
Sesuai OR
Jika hanya satu dari serangkaian opsi yang mungkin harus digunakan untuk semua yang dialokasikan
node, lalu gunakan operator OR dan sertakan opsi di dalam kotak
kurung. Sebagai contoh: "--constraint=[rack1|rack2|rack3|rack4]" mungkin
digunakan untuk menentukan bahwa semua node harus dialokasikan pada satu rak dari
cluster, tetapi salah satu dari keempat rak tersebut dapat digunakan.
kelipatan hitungan
Hitungan spesifik dari beberapa sumber daya dapat ditentukan dengan menggunakan AND
operator dan menyertakan opsi dalam tanda kurung siku. Sebagai contoh:
"--constraint=[rack1*2&rack2*4]" dapat digunakan untuk menentukan bahwa dua node
harus dialokasikan dari node dengan fitur "rack1" dan empat node harus
dialokasikan dari node dengan fitur "rack2".
PERINGATAN: Ketika srun dieksekusi dari dalam salloc atau sbatch,
nilai kendala hanya dapat berisi satu nama fitur. Tidak ada yang lain
operator saat ini didukung untuk langkah-langkah pekerjaan.
--berdekatan
Jika set, maka node yang dialokasikan harus membentuk set yang berdekatan. Tidak dihormati dengan
topologi/pohon or topologi/3d_torus plugin, yang keduanya dapat memodifikasi node
Memerintah. Tidak dihormati untuk alokasi langkah pekerjaan.
--core-per-socket=<warna>
Batasi pemilihan node ke node dengan setidaknya jumlah core yang ditentukan per
stopkontak. Lihat informasi tambahan di bawah -B opsi di atas saat plugin tugas/afinitas
diaktifkan.
--cpu_bind=[{tenang, bertele-tele},]mengetik
Mengikat tugas ke CPU. Digunakan hanya ketika tugas/afinitas atau tugas/cgroup plugin adalah
diaktifkan. Parameter konfigurasi TugasPluginParam dapat mengesampingkan opsi ini.
Sebagai contoh, jika TugasPluginParam dikonfigurasi untuk mengikat ke inti, pekerjaan Anda tidak akan
dapat mengikat tugas ke soket. CATATAN: Agar Slurm selalu melaporkan tentang
pengikatan CPU yang dipilih untuk semua perintah yang dijalankan di shell, Anda dapat mengaktifkan verbose
mode dengan mengatur nilai variabel lingkungan SLURM_CPU_BIND ke "verbose".
Variabel lingkungan informasi berikut diatur ketika: --cpu_bind dalam
menggunakan:
SLURM_CPU_BIND_VERBOSE
SLURM_CPU_BIND_TYPE
SLURM_CPU_BIND_LIST
Lihat LINGKUNGAN VARIABEL bagian untuk penjelasan lebih rinci tentang
variabel SLURM_CPU_BIND individu. Variabel ini hanya tersedia jika
plugin tugas/afinitas dikonfigurasi.
Ketika menggunakan --cpus-per-tugas untuk menjalankan tugas multithread, ketahuilah bahwa pengikatan CPU adalah
diwarisi dari induk proses. Ini berarti bahwa tugas multithreaded
harus menentukan atau menghapus pengikatan CPU itu sendiri untuk menghindari semua utas
tugas multithreaded menggunakan topeng/CPU yang sama dengan induknya. Atau, lemak
topeng (masker yang menentukan lebih dari satu CPU yang diizinkan) dapat digunakan untuk tugas
untuk menyediakan banyak CPU untuk tugas multithread.
Secara default, langkah pekerjaan memiliki akses ke setiap CPU yang dialokasikan untuk pekerjaan tersebut. Untuk memastikan
bahwa CPU yang berbeda dialokasikan untuk setiap langkah pekerjaan, gunakan --eksklusif .
Perhatikan bahwa langkah pekerjaan dapat dialokasikan jumlah CPU yang berbeda pada setiap node atau menjadi
CPU yang dialokasikan tidak dimulai dari lokasi nol. Oleh karena itu salah satu pilihan yang
secara otomatis menghasilkan tugas yang mengikat dianjurkan. Masker yang ditentukan secara eksplisit
atau pengikatan hanya dihormati ketika langkah pekerjaan telah dialokasikan setiap tersedia
CPU pada node.
Mengikat tugas ke domain lokalitas NUMA berarti mengikat tugas ke set CPU
yang termasuk dalam domain lokalitas NUMA atau "node NUMA". Jika NUMA domain lokalitas
opsi digunakan pada sistem tanpa dukungan NUMA, maka setiap soket dianggap sebagai
domain lokalitas.
Mobil Mengikat
Hanya berlaku jika tugas/afinitas diaktifkan. Jika alokasi langkah pekerjaan
termasuk alokasi dengan jumlah soket, inti, atau utas yang sama dengan
jumlah tugas kali cpus-per-tugas, maka tugas akan secara default
terikat ke sumber daya yang sesuai (pengikatan otomatis). Nonaktifkan mode ini
operasi dengan secara eksplisit mengatur "--cpu_bind=none". Menggunakan
TaskPluginParam=autobind=[threads|cores|socket] untuk menyetel cpu default
mengikat jika "penjilidan otomatis" tidak menemukan kecocokan.
Opsi yang didukung meliputi:
diam]
Diam-diam mengikat sebelum tugas berjalan (default)
v[erbose]
Melaporkan pengikatan secara verbal sebelum tugas berjalan
tidak ada] Jangan ikat tugas ke CPU (default kecuali pengikatan otomatis diterapkan)
peringkat Secara otomatis mengikat berdasarkan peringkat tugas. Tugas bernomor terendah pada masing-masing
simpul terikat ke soket (atau inti atau utas) nol, dll. Tidak didukung
kecuali seluruh node dialokasikan untuk pekerjaan itu.
peta_cpu:
Ikat dengan memetakan ID CPU ke tugas seperti yang ditentukan di mana adalah
, ,... . Pemetaan ditentukan untuk sebuah simpul
dan pemetaan identik diterapkan pada tugas di setiap node (yaitu
ID tugas terendah pada setiap node dipetakan ke ID CPU pertama yang ditentukan
dalam daftar, dll). ID CPU ditafsirkan sebagai nilai desimal kecuali
mereka didahului dengan '0x' dalam hal ini mereka ditafsirkan sebagai
nilai heksadesimal. Tidak didukung kecuali seluruh node adalah
dialokasikan untuk pekerjaan tersebut.
mask_cpu:
Ikat dengan menyetel masker CPU pada tugas seperti yang ditentukan di mana adalah
, ,... . Pemetaan ditentukan untuk sebuah simpul dan
pemetaan identik diterapkan pada tugas-tugas pada setiap node (yaitu
ID tugas terendah pada setiap node dipetakan ke topeng pertama yang ditentukan dalam
daftar, dll). Masker CPU adalah selalu ditafsirkan sebagai heksadesimal
nilai tetapi dapat didahului dengan '0x' opsional. Tidak didukung
kecuali seluruh node dialokasikan untuk pekerjaan itu.
pangkat_kedudukan
Ikat ke domain lokalitas NUMA berdasarkan peringkat. Tidak didukung kecuali
seluruh node dialokasikan untuk pekerjaan.
peta_ldom:
Ikat dengan memetakan ID domain lokalitas NUMA ke tugas seperti yang ditentukan di mana
adalah , ,... . ID domain lokalitas adalah
ditafsirkan sebagai nilai desimal kecuali jika didahului dengan '0x' di
kasus mana mereka ditafsirkan sebagai nilai heksadesimal. Tidak didukung
kecuali seluruh node dialokasikan untuk pekerjaan itu.
mask_ldom:
Ikat dengan menyetel topeng domain lokalitas NUMA pada tugas seperti yang ditentukan
di mana adalah , ,... . Domain lokalitas NUMA
topeng adalah selalu ditafsirkan sebagai nilai heksadesimal tetapi dapat
didahului dengan opsional '0x'. Tidak didukung kecuali seluruh node
dialokasikan untuk pekerjaan tersebut.
soket
Secara otomatis menghasilkan tugas pengikatan topeng ke soket. Hanya CPU
pada soket yang telah dialokasikan untuk pekerjaan akan digunakan. Jika
jumlah tugas berbeda dari jumlah soket yang dialokasikan ini
dapat menghasilkan pengikatan yang kurang optimal.
warna Secara otomatis menghasilkan tugas pengikatan topeng ke inti. Jika nomor
tugas berbeda dari jumlah inti yang dialokasikan yang dapat dihasilkan
dalam pengikatan sub-optimal.
benang
Secara otomatis menghasilkan tugas pengikatan topeng ke utas. Jika nomor
tugas berbeda dari jumlah utas yang dialokasikan yang dapat dihasilkan
dalam pengikatan sub-optimal.
lama Secara otomatis menghasilkan tugas pengikatan topeng ke domain lokalitas NUMA.
Jika jumlah tugas berbeda dari jumlah lokasi yang dialokasikan
domain ini dapat mengakibatkan pengikatan sub-optimal.
papan Secara otomatis menghasilkan tugas pengikatan topeng ke papan. Jika nomor
tugas berbeda dari jumlah papan yang dialokasikan yang dapat dihasilkan
dalam pengikatan sub-optimal. Opsi ini didukung oleh tugas/cgroup
plugin saja.
membantu Tampilkan pesan bantuan untuk cpu_bind
--cpu-frekuensi =<p1[-p2[:p3]]>
Minta agar langkah pekerjaan yang diprakarsai oleh perintah srun ini dijalankan pada beberapa yang diminta
frekuensi jika memungkinkan, pada CPU yang dipilih untuk langkah pada node komputasi.
p1 bisa [#### | rendah | sedang | tinggi | highm1] yang akan mengatur frekuensi
scaling_speed ke nilai yang sesuai, dan atur frekuensi scaling_governor ke
Ruang pengguna. Lihat di bawah untuk definisi nilai.
p1 bisa jadi [Konservatif | Sesuai Permintaan | Kinerja | PowerSave] yang akan mengatur
scaling_governor ke nilai yang sesuai. Gubernur harus ada di daftar set
oleh opsi slurm.conf CpuFreqGovernors.
Ketika p2 hadir, p1 akan menjadi frekuensi penskalaan minimum dan p2 akan menjadi
frekuensi skala maksimum.
p2 bisa [#### | sedang | tinggi | highm1] p2 harus lebih besar dari p1.
p3 bisa jadi [Konservatif | Sesuai Permintaan | Kinerja | Hemat Daya | UserSpace] yang
akan mengatur gubernur ke nilai yang sesuai.
If p3 adalah UserSpace, penskalaan frekuensi_kecepatan akan diatur oleh kekuatan atau energi
strategi penjadwalan sadar ke nilai antara p1 dan p2 yang memungkinkan pekerjaan berjalan dalam
tujuan kekuatan situs. Pekerjaan mungkin tertunda jika p1 lebih tinggi dari frekuensi yang
memungkinkan pekerjaan berjalan sesuai tujuan.
Jika frekuensi saat ini < min, itu akan diatur ke min. Demikian juga jika arus
frekuensi > max, itu akan diatur ke max.
Nilai yang dapat diterima saat ini meliputi:
#### frekuensi dalam kilohertz
Rendah frekuensi terendah yang tersedia
High frekuensi tertinggi yang tersedia
tinggiM1 (tinggi minus satu) akan memilih frekuensi tertinggi berikutnya yang tersedia
Medium mencoba mengatur frekuensi di tengah rentang yang tersedia
Konservatif mencoba menggunakan gubernur CPU Konservatif
Permintaan mencoba menggunakan gubernur CPU OnDemand (nilai default)
Performance mencoba menggunakan gubernur CPU Kinerja
Hemat energi mencoba menggunakan gubernur CPU PowerSave
Ruang pengguna mencoba menggunakan gubernur CPU UserSpace
Variabel lingkungan informasi berikut diatur dalam pekerjaan:
langkah kapan --cpu-frekuensi opsi diminta.
SLURM_CPU_FREQ_REQ
Variabel lingkungan ini juga dapat digunakan untuk memasok nilai untuk CPU
permintaan frekuensi jika disetel saat perintah 'jalankan' dikeluarkan. NS --cpu-frekuensi
pada baris perintah akan menimpa nilai variabel lingkungan. Formulir di
variabel lingkungan sama dengan baris perintah. Lihat LINGKUNGAN
VARIABEL bagian untuk deskripsi variabel SLURM_CPU_FREQ_REQ.
CATATAN: Parameter ini diperlakukan sebagai permintaan, bukan persyaratan. Jika langkah pekerjaan
node tidak mendukung pengaturan frekuensi CPU, atau nilai yang diminta berada di luar
batas frekuensi hukum, kesalahan dicatat, tetapi langkah kerjanya adalah
diizinkan untuk melanjutkan.
CATATAN: Menyetel frekuensi hanya untuk CPU dari langkah pekerjaan menyiratkan bahwa
tugas terbatas pada CPU tersebut. Jika pembatasan tugas (yaitu,
TaskPlugin=task/affinity atau TaskPlugin=task/cgroup dengan "ConstrainCores"
option) tidak dikonfigurasi, parameter ini diabaikan.
CATATAN: Saat langkah selesai, frekuensi dan pengatur setiap CPU yang dipilih adalah
reset ke dikonfigurasi CPUFreqDef nilai dengan nilai default CPU OnDemand
gubernur.
CATATAN: Saat mengirimkan pekerjaan dengan --cpu-frekuensi opsi dengan linuxproc sebagai
ProctrackType dapat menyebabkan pekerjaan berjalan terlalu cepat sebelum Akuntansi dapat melakukan polling
untuk informasi pekerjaan. Akibatnya tidak semua informasi akuntansi akan hadir.
-c, --cpus-per-tugas=<com.ncpus>
Minta itu com.ncpus dialokasikan untuk proses. Ini mungkin berguna jika pekerjaannya
multithreaded dan membutuhkan lebih dari satu CPU per tugas untuk kinerja yang optimal. NS
default adalah satu CPU per proses. Jika -c ditentukan tanpa -n, sebanyak tugas akan
dialokasikan per node mungkin sambil memenuhi -c larangan. Contohnya
pada cluster dengan 8 CPU per node, permintaan pekerjaan untuk 4 node dan 3 CPU per tugas
dapat dialokasikan 3 atau 6 CPU per node (1 atau 2 tugas per node) tergantung pada
konsumsi sumber daya oleh pekerjaan lain. Pekerjaan seperti itu mungkin tidak dapat dilakukan lebih dari satu
total 4 tugas. Opsi ini mungkin juga berguna untuk menelurkan tugas tanpa mengalokasikan
sumber daya ke langkah pekerjaan dari alokasi pekerjaan saat menjalankan beberapa langkah pekerjaan
pada pengatur terkenal. Pengatur ini menawarkan bantuan hukum kepada traderapabila trader berselisih dengan broker yang terdaftar dengan mereka. --eksklusif .
PERINGATAN: Ada konfigurasi dan opsi yang ditafsirkan secara berbeda oleh pekerjaan dan
permintaan langkah pekerjaan yang dapat mengakibatkan inkonsistensi untuk opsi ini. Sebagai contoh
lari -c2 --utas-per-inti=1 prog dapat mengalokasikan dua inti untuk pekerjaan itu, tetapi jika masing-masing
dari inti tersebut berisi dua utas, alokasi pekerjaan akan mencakup empat CPU. NS
alokasi langkah pekerjaan kemudian akan meluncurkan dua utas per CPU untuk total dua tugas.
PERINGATAN: Ketika srun dieksekusi dari dalam salloc atau sbatch, ada
konfigurasi dan opsi yang dapat menghasilkan alokasi yang tidak konsisten ketika -c memiliki
nilai lebih besar dari -c pada salloc atau sbatch.
-d, --ketergantungan=<daftar_ketergantungan>
Tunda awal pekerjaan ini sampai dependensi yang ditentukan telah dipenuhi
lengkap. Opsi ini tidak berlaku untuk langkah-langkah pekerjaan (eksekusi srun dalam
alokasi salloc atau sbatch yang ada) hanya untuk alokasi pekerjaan.daftar_ketergantungan>
berbentukketik:id_pekerjaan[:id_pekerjaan][,ketik:id_pekerjaan[:id_pekerjaan]]> atau
<ketik:id_pekerjaan[:id_pekerjaan][?ketik:id_pekerjaan[:id_pekerjaan]]>. Semua dependensi harus dipenuhi
jika pemisah "," digunakan. Setiap ketergantungan dapat dipenuhi jika "?" pemisah
digunakan. Banyak pekerjaan dapat berbagi ketergantungan yang sama dan pekerjaan ini bahkan mungkin milik
pengguna yang berbeda. Nilai dapat diubah setelah pengiriman pekerjaan menggunakan scontrol
memerintah. Setelah ketergantungan pekerjaan gagal karena status penghentian sebelumnya
pekerjaan, pekerjaan dependen tidak akan pernah dijalankan, bahkan jika pekerjaan sebelumnya diantrekan dan
memiliki status terminasi yang berbeda dalam eksekusi berikutnya.
setelah:job_id[:jobid...]
Pekerjaan ini dapat memulai eksekusi setelah pekerjaan yang ditentukan telah mulai dieksekusi.
setelah itu:job_id[:jobid...]
Pekerjaan ini dapat memulai eksekusi setelah pekerjaan yang ditentukan telah dihentikan.
setelahnotok:job_id[:jobid...]
Pekerjaan ini dapat mulai dieksekusi setelah pekerjaan yang ditentukan telah berakhir pada
beberapa status gagal (kode keluar bukan nol, kegagalan simpul, waktu habis, dll).
setelahnya:job_id[:jobid...]
Pekerjaan ini dapat mulai dieksekusi setelah pekerjaan yang ditentukan berhasil
dieksekusi (berlari sampai selesai dengan kode keluar nol).
perluas:job_id
Sumber daya yang dialokasikan untuk pekerjaan ini harus digunakan untuk memperluas pekerjaan yang ditentukan.
Pekerjaan untuk memperluas harus berbagi QOS (Quality of Service) yang sama dan
partisi. Penjadwalan geng sumber daya di partisi juga tidak
didukung.
tunggal
Pekerjaan ini dapat mulai dieksekusi setelah pekerjaan yang diluncurkan sebelumnya membagikan
nama pekerjaan dan pengguna yang sama telah dihentikan.
-D, --chdir=<path>
Mintalah proses jarak jauh melakukan chdir untuk path sebelum memulai eksekusi. NS
defaultnya adalah chdir ke direktori kerja saat ini dari lari proses. Jalan
dapat ditentukan sebagai jalur lengkap atau jalur relatif ke direktori tempat perintah
dieksekusi.
-e, --kesalahan=<mode>
Tentukan bagaimana stderr akan diarahkan. Secara default dalam mode interaktif, lari
mengalihkan stderr ke file yang sama dengan stdout, jika ada yang ditentukan. NS --kesalahan
opsi disediakan untuk memungkinkan stdout dan stderr dialihkan ke yang berbeda
lokasi. Lihat IO Redirection di bawah ini untuk opsi lainnya. Jika file yang ditentukan
sudah ada, itu akan ditimpa.
-E, --melestarikan-env
Lewati nilai variabel lingkungan saat ini SLURM_NNODES dan SLURM_NTASKS
sampai ke executable, daripada menghitungnya dari parameter baris perintah.
--epilog=<executable>
lari akan berlari executable tepat setelah langkah pekerjaan selesai. Baris perintah
argumen untuk executable akan menjadi perintah dan argumen dari langkah pekerjaan. Jika
executable adalah "tidak ada", maka tidak ada srun epilog yang akan dijalankan. Parameter ini menimpa
Parameter SrunEpilog di slurm.conf. Parameter ini sepenuhnya independen dari
parameter Epilog di slurm.conf.
--eksklusif[=pengguna]
Opsi ini memiliki dua arti yang sedikit berbeda untuk pekerjaan dan alokasi langkah pekerjaan.
Saat digunakan untuk memulai pekerjaan, alokasi pekerjaan tidak dapat berbagi node dengan yang lain
menjalankan pekerjaan (atau hanya pengguna lain dengan opsi "= pengguna"). Standarnya
perilaku bersama/eksklusif tergantung pada konfigurasi sistem dan partisi
bersama opsi lebih diutamakan daripada opsi pekerjaan.
Opsi ini juga dapat digunakan saat memulai lebih dari satu langkah pekerjaan dalam suatu
alokasi sumber daya yang ada, di mana Anda ingin prosesor terpisah didedikasikan untuk
setiap langkah pekerjaan. Jika prosesor yang memadai tidak tersedia untuk memulai langkah pekerjaan,
itu akan ditangguhkan. Ini dapat dianggap sebagai menyediakan mekanisme untuk sumber daya
manajemen untuk pekerjaan dalam alokasi itu.
Alokasi eksklusif CPU hanya berlaku untuk langkah-langkah pekerjaan yang secara eksplisit dipanggil dengan
itu --eksklusif pilihan. Misalnya, pekerjaan mungkin dialokasikan satu node dengan empat
CPU dan shell jarak jauh dipanggil pada node yang dialokasikan. Jika cangkang itu tidak dipanggil
pada pengatur terkenal. Pengatur ini menawarkan bantuan hukum kepada traderapabila trader berselisih dengan broker yang terdaftar dengan mereka. --eksklusif opsi, maka itu dapat membuat langkah pekerjaan dengan empat tugas menggunakan
itu --eksklusif opsi dan tidak bertentangan dengan sumber daya shell jarak jauh
alokasi. Menggunakan --eksklusif opsi untuk meminta setiap langkah pekerjaan untuk memastikan perbedaan
sumber daya untuk setiap langkah.
Perhatikan bahwa semua CPU yang dialokasikan untuk suatu pekerjaan tersedia untuk setiap langkah pekerjaan kecuali jika:
--eksklusif opsi digunakan plus afinitas tugas dikonfigurasi. Sejak sumber daya
manajemen disediakan oleh prosesor, --tugas opsi harus ditentukan, tetapi
opsi berikut TIDAK boleh ditentukan --relatif, --distribusi=sewenang-wenang.
Lihat CONTOH di bawah.
--ekspor=<lingkungan Hidup variabel | NONE>
Identifikasi variabel lingkungan mana yang disebarkan ke aplikasi yang diluncurkan.
Beberapa nama variabel lingkungan harus dipisahkan dengan koma. Lingkungan
nama variabel dapat ditentukan untuk menyebarkan nilai saat ini dari variabel tersebut
(misalnya "--export=EDITOR") atau nilai spesifik untuk variabel dapat diekspor
(mis. "--export=EDITOR=/bin/vi") selain variabel lingkungan yang
sebaliknya akan ditetapkan. Secara default semua variabel lingkungan disebarkan.
--gid=<kelompok>
If lari dijalankan sebagai root, dan --gid opsi digunakan, kirimkan pekerjaan dengan kelompok's
izin akses grup. kelompok mungkin nama grup atau ID grup numerik.
--gres=<daftar>
Menentukan daftar sumber daya habis pakai generik yang dibatasi koma. Format dari
setiap entri dalam daftar adalah "nama[[:jenis]:jumlah]". Namanya adalah
sumber daya habis pakai. Hitungannya adalah jumlah sumber daya tersebut dengan default
nilai 1. Sumber daya yang ditentukan akan dialokasikan ke pekerjaan di setiap node.
Sumber daya konsumsi generik yang tersedia dapat dikonfigurasi oleh sistem
administrator. Daftar sumber daya konsumsi generik yang tersedia akan dicetak
dan perintah akan keluar jika argumen opsi adalah "bantuan". Contoh penggunaan
sertakan "--gres=gpu:2,mic=1", "--gres=gpu:kepler:2", dan "--gres=help". CATATAN: Oleh
default, langkah pekerjaan mengalokasikan semua sumber daya generik yang telah dialokasikan
ke pekerjaan. Untuk mengubah perilaku sehingga setiap langkah pekerjaan dialokasikan tidak generik
sumber daya, secara eksplisit mengatur nilai --gres untuk menentukan jumlah nol untuk masing-masing
sumber daya generik ATAU setel "--gres=none" ATAU setel lingkungan SLURM_STEP_GRES
variabel menjadi "tidak ada".
-H, --memegang
Tentukan pekerjaan yang akan diserahkan dalam keadaan ditahan (prioritas nol). Pekerjaan yang ditahan
sekarang dapat dilepaskan menggunakan scontrol untuk mengatur ulang prioritasnya (mis. "kendali melepaskan
").
-h, --membantu
Tampilkan informasi bantuan dan keluar.
--petunjuk=<mengetik>
Ikat tugas sesuai dengan petunjuk aplikasi.
komputasi_terikat
Pilih pengaturan untuk aplikasi terikat komputasi: gunakan semua inti di masing-masing
soket, satu utas per inti.
memori_terikat
Pilih pengaturan untuk aplikasi terikat memori: gunakan hanya satu inti di masing-masing
soket, satu utas per inti.
[tidak] multi-utas
[jangan] gunakan utas tambahan dengan multi-utas inti yang dapat menguntungkan
aplikasi komunikasi intensif. Hanya didukung dengan tugas/afinitas
plugin.
membantu tunjukkan pesan bantuan ini
-I, --segera[=detik>]
keluar jika sumber daya tidak tersedia dalam jangka waktu yang ditentukan. Jika tidak
argumen diberikan, sumber daya harus tersedia segera untuk permintaan untuk
berhasil. Secara default, --segera dimatikan, dan perintah akan memblokir sampai
sumber daya menjadi tersedia. Karena argumen opsi ini opsional, untuk yang tepat
parsing opsi huruf tunggal harus segera diikuti dengan nilai dan
tidak termasuk spasi di antara mereka. Misalnya "-I60" dan bukan "-I 60".
-i, --memasukkan=<mode>
Tentukan bagaimana stdin diarahkan. Secara default, lari mengalihkan stdin dari
terminal semua tugas. Lihat IO Redirection di bawah ini untuk opsi lainnya. Untuk OS X,
poll() fungsi tidak mendukung stdin, jadi input dari terminal tidak mungkin.
-J, --nama Pekerjaan=<nama Pekerjaan>
Tentukan nama untuk pekerjaan itu. Nama yang ditentukan akan muncul bersama dengan id pekerjaan
nomor saat menanyakan pekerjaan yang sedang berjalan pada sistem. Defaultnya adalah yang disediakan
executable nama program. CATATAN: Informasi ini dapat ditulis ke:
slurm_jobacct.log file. File ini dibatasi spasi, jadi jika spasi digunakan di
nama Pekerjaan nama itu akan menyebabkan masalah dalam menampilkan konten dengan benar
slurm_jobacct.log file ketika kantung perintah digunakan.
--pekerjaan=<pekerjaan>
Memulai langkah pekerjaan di bawah pekerjaan yang sudah dialokasikan dengan id pekerjaan id. Menggunakan ini
pilihan akan menyebabkan lari berperilaku persis seperti lingkungan SLURM_JOB_ID
variabel ditetapkan.
-K, --membunuh-saat-keluar-buruk[=0|1]
Mengontrol apakah akan menghentikan pekerjaan atau tidak jika ada tugas yang keluar dengan jalan keluar bukan nol
kode. Jika opsi ini tidak ditentukan, tindakan default akan didasarkan pada
Parameter konfigurasi slurm dari BunuhOnBadExit. Jika opsi ini ditentukan, itu
akan didahulukan BunuhOnBadExit. Argumen opsi nol tidak akan
mengakhiri pekerjaan. Argumen bukan nol atau tidak ada argumen akan menghentikan pekerjaan.
Catatan: Opsi ini lebih diutamakan daripada -W, --tunggu pilihan untuk menghentikan pekerjaan
segera jika tugas keluar dengan kode keluar bukan nol. Karena opsi ini
argumen adalah opsional, untuk penguraian yang tepat, opsi huruf tunggal harus diikuti
langsung dengan nilai dan tidak menyertakan spasi di antaranya. Misalnya "-K1"
dan bukan "-K 1".
-k, --tidak membunuh
Jangan secara otomatis menghentikan pekerjaan jika salah satu node telah dialokasikan
gagal. Opsi ini hanya dikenali pada alokasi pekerjaan, bukan untuk pengiriman
langkah-langkah pekerjaan individu. Pekerjaan akan memikul semua tanggung jawab untuk
toleransi kesalahan. Peluncuran tugas menggunakan opsi ini tidak akan dianggap dihentikan
(misalnya -K, --membunuh-saat-keluar-buruk dan -W, --tunggu pilihan tidak akan berpengaruh pada
langkah pekerjaan). Langkah pekerjaan aktif (pekerjaan MPI) kemungkinan akan mengalami kesalahan fatal, tapi
langkah pekerjaan berikutnya dapat dijalankan jika opsi ini ditentukan. Tindakan default adalah
untuk menghentikan pekerjaan pada kegagalan node.
--peluncuran-cmd
Cetak perintah peluncuran eksternal alih-alih menjalankan pekerjaan secara normal melalui Slurm. Ini
opsi hanya valid jika menggunakan sesuatu selain dari luncurkan/slurm plugin.
--peluncur-opts=<Pilihan>
Opsi untuk peluncur eksternal jika menggunakan sesuatu selain dari luncurkan/slurm
plugin.
-l, --label
Tambahkan nomor tugas ke baris stdout/err. NS --label opsi akan menambahkan garis
output dengan id tugas jarak jauh.
-L, --lisensi=<lisensi>
Spesifikasi lisensi (atau sumber daya lain yang tersedia di semua node dari
cluster) yang harus dialokasikan untuk pekerjaan ini. Nama lisensi dapat diikuti dengan
titik dua dan hitung (hitungan default adalah satu). Beberapa nama lisensi harus koma
dipisahkan (misalnya "--licenses=foo:4,bar").
-m, --distribusi=
*|blok|berhubung dgn putaran|sewenang-wenang|pesawat = [:*|blok|berhubung dgn putaran|fsiklik[:*|blok|
berhubung dgn putaran|fsiklik]]] [,pak|Tanpa Paket]
Tentukan metode distribusi alternatif untuk proses jarak jauh. Opsi ini mengontrol
distribusi tugas ke node di mana sumber daya telah dialokasikan, dan
distribusi sumber daya tersebut ke tugas untuk mengikat (task affinity). Pertama
metode distribusi (sebelum ":") pertama mengontrol distribusi tugas ke
node. Metode distribusi kedua (setelah ":") pertama mengontrol
distribusi CPU yang dialokasikan di seluruh soket untuk mengikat tugas. Ketiga
metode distribusi (setelah ":") kedua mengontrol distribusi yang dialokasikan
CPU lintas inti untuk mengikat tugas. Distribusi kedua dan ketiga berlaku
hanya jika afinitas tugas diaktifkan. Distribusi ketiga hanya didukung jika
plugin tugas/cgroup dikonfigurasi. Nilai default untuk setiap jenis distribusi adalah
ditentukan oleh *.
Perhatikan bahwa dengan select/cons_res, jumlah CPU yang dialokasikan pada setiap soket dan
simpul mungkin berbeda. Mengacu pada http://slurm.schedmd.com/mc_support.html keahlian yang lebih
informasi tentang alokasi sumber daya, distribusi tugas ke node, dan pengikatan
tugas ke CPU.
Metode distribusi pertama (distribusi tugas di seluruh node):
* Gunakan metode default untuk mendistribusikan tugas ke node (blok).
blok Metode distribusi blok akan mendistribusikan tugas ke node sedemikian rupa sehingga
tugas berturut-turut berbagi node. Misalnya, pertimbangkan alokasi tiga
node masing-masing dengan dua CPU. Permintaan distribusi blok empat tugas akan
mendistribusikan tugas-tugas itu ke node dengan tugas satu dan dua di yang pertama
node, tugas tiga pada node kedua, dan tugas empat pada node ketiga. Memblokir
distribusi adalah perilaku default jika jumlah tugas melebihi
jumlah node yang dialokasikan.
berhubung dgn putaran Metode distribusi siklik akan mendistribusikan tugas ke node sedemikian rupa sehingga
tugas berturut-turut didistribusikan melalui node berurutan (dalam round-robin
mode). Misalnya, pertimbangkan alokasi tiga node masing-masing dengan dua
CPU Permintaan distribusi siklus empat tugas akan mendistribusikan tugas-tugas tersebut ke
node dengan tugas satu dan empat pada node pertama, tugas dua pada yang kedua
node, dan tugas tiga pada node ketiga. Perhatikan bahwa ketika SelectType adalah
select/cons_res, jumlah CPU yang sama mungkin tidak dialokasikan pada setiap node.
Distribusi tugas akan bersifat round-robin di antara semua node dengan CPU yang belum
ditugaskan untuk tugas. Distribusi siklik adalah perilaku default jika
jumlah tugas tidak lebih besar dari jumlah node yang dialokasikan.
pesawat Tugas didistribusikan dalam blok dengan ukuran tertentu. Pilihannya
sertakan nomor yang mewakili ukuran blok tugas. Ini diikuti
dengan spesifikasi opsional dari skema distribusi tugas dalam satu blok
tugas dan antar blok tugas. Jumlah tugas yang dibagikan
ke setiap node sama dengan distribusi siklik, tetapi taskids
ditugaskan untuk setiap node tergantung pada ukuran pesawat. Untuk lebih jelasnya (termasuk
contoh dan diagram), silakan lihat
http://slurm.schedmd.com/mc_support.html
dan
http://slurm.schedmd.com/dist_plane.html
sewenang-wenang
Metode distribusi sewenang-wenang akan mengalokasikan proses secara berurutan sebagai
terdaftar dalam file yang ditunjuk oleh variabel lingkungan SLURM_HOSTFILE. Jika
variabel ini terdaftar itu akan melewati metode lain yang ditentukan. Jika
tidak disetel, metode ini akan diblokir secara default. Di dalam file host harus berisi
minimal jumlah host yang diminta dan menjadi satu per baris atau koma
terpisah. Jika menentukan jumlah tugas (-n, --tugas=<jumlah>), tugas Anda
akan diletakkan pada node dalam urutan file.
CATATAN: Opsi distribusi sewenang-wenang pada alokasi pekerjaan hanya mengontrol
node yang akan dialokasikan ke pekerjaan dan bukan alokasi CPU pada node tersebut
node. Opsi ini dimaksudkan terutama untuk mengontrol tata letak tugas langkah pekerjaan di
alokasi pekerjaan yang ada untuk perintah srun.
Metode distribusi kedua (distribusi CPU di seluruh soket untuk pengikatan):
* Gunakan metode default untuk mendistribusikan CPU di seluruh soket (siklus).
blok Metode distribusi blok akan mendistribusikan CPU yang dialokasikan secara berurutan
dari soket yang sama untuk mengikat tugas, sebelum menggunakan berturut-turut berikutnya
stopkontak.
berhubung dgn putaran Metode distribusi siklik akan mendistribusikan CPU yang dialokasikan untuk mengikat ke
tugas yang diberikan secara berurutan dari soket yang sama, dan dari yang berikutnya
soket berturut-turut untuk tugas berikutnya, secara round-robin di seluruh
soket.
fsiklik
Metode distribusi fcyclic akan mendistribusikan CPU yang dialokasikan untuk binding
untuk tugas dari soket berturut-turut secara round-robin di seluruh
soket.
Metode distribusi ketiga (distribusi CPU di seluruh inti untuk pengikatan):
* Gunakan metode default untuk mendistribusikan CPU di seluruh inti (diwarisi dari
metode distribusi kedua).
blok Metode distribusi blok akan mendistribusikan CPU yang dialokasikan secara berurutan
dari inti yang sama untuk mengikat tugas, sebelum menggunakan yang berikutnya berturut-turut
inti.
berhubung dgn putaran Metode distribusi siklik akan mendistribusikan CPU yang dialokasikan untuk mengikat ke
tugas yang diberikan secara berurutan dari inti yang sama, dan dari yang berikutnya berturut-turut
inti untuk tugas berikutnya, secara round-robin di seluruh inti.
fsiklik
Metode distribusi fcyclic akan mendistribusikan CPU yang dialokasikan untuk binding
untuk tugas dari inti berturut-turut secara round-robin di seluruh inti.
Kontrol opsional untuk distribusi tugas melalui node:
pak Daripada mendistribusikan tugas langkah pekerjaan secara merata di seluruh itu
node yang dialokasikan, mengemasnya sekencang mungkin pada node.
Tanpa Paket Daripada mengemas tugas langkah pekerjaan seketat mungkin di node,
mendistribusikannya secara merata. Opsi pengguna ini akan menggantikan
Parameter konfigurasi SelectTypeParameters CR_Pack_Nodes.
--jenis surat=<mengetik>
Beri tahu pengguna melalui email saat jenis peristiwa tertentu terjadi. Sah mengetik nilainya TIDAK ADA,
BEGIN, END, FAIL, REQUEUE, ALL (setara dengan BEGIN, END, FAIL, REQUEUE, dan
STAGE_OUT), STAGE_OUT (tahap buffer burst selesai), TIME_LIMIT, TIME_LIMIT_90
(mencapai 90 persen dari batas waktu), TIME_LIMIT_80 (mencapai 80 persen dari waktu
batas), dan TIME_LIMIT_50 (mencapai 50 persen dari batas waktu). beberapa mengetik nilai-nilai
dapat ditentukan dalam daftar yang dipisahkan koma. Pengguna yang akan diberi tahu ditunjukkan
dengan --mail-pengguna.
--mail-pengguna=<pemakai>
Pengguna untuk menerima pemberitahuan email tentang perubahan status seperti yang ditentukan oleh --jenis surat. itu
nilai default adalah pengguna yang mengirimkan.
--mem=<MB>
Tentukan memori nyata yang diperlukan per node dalam MegaBytes. Nilai defaultnya adalah
DefMemPerNode dan nilai maksimumnya adalah MaxMemPerNode. Jika dikonfigurasi, keduanya
parameter dapat dilihat dengan menggunakan kendali Menunjukkan config memerintah. Parameter ini
umumnya akan digunakan jika seluruh node dialokasikan untuk pekerjaan
(SelectType=pilih/linier). Menentukan batas memori nol untuk langkah pekerjaan akan
membatasi langkah pekerjaan ke jumlah memori yang dialokasikan untuk pekerjaan, tetapi tidak menghapus
salah satu alokasi memori pekerjaan dari yang tersedia untuk langkah-langkah pekerjaan lainnya. Juga
melihat --mem-per-cpu. --mem dan --mem-per-cpu saling eksklusif. CATATAN: Sebuah memori
spesifikasi ukuran diperlakukan sebagai kasus khusus dan memberikan akses pekerjaan ke semua
memori pada setiap node. CATATAN: Penegakan batas memori saat ini bergantung pada
plugin tugas/cgroup atau pengaktifan akuntansi, yang menggunakan sampel memori pada a
secara periodik (data tidak perlu disimpan, cukup dikumpulkan). Dalam kedua kasus penggunaan memori
didasarkan pada Resident Set Size (RSS) pekerjaan. Sebuah tugas mungkin melebihi batas memori
sampai sampel akuntansi periodik berikutnya.
--mem-per-cpu=<MB>
Memori minimum yang diperlukan per CPU yang dialokasikan dalam MegaBytes. Nilai defaultnya adalah
DefMemPerCPU dan nilai maksimumnya adalah MaxMemPerCPU (lihat pengecualian di bawah). Jika
dikonfigurasi, kedua parameter dapat dilihat menggunakan kendali Menunjukkan config perintah.
Perhatikan bahwa jika pekerjaan --mem-per-cpu nilai melebihi yang dikonfigurasi MaxMemPerCPU,
maka batas pengguna akan diperlakukan sebagai batas memori per tugas; --mem-per-cpu
akan dikurangi menjadi nilai yang tidak lebih besar dari MaxMemPerCPU; --cpus-per-tugas akan ditetapkan
dan nilai --cpus-per-tugas dikalikan dengan yang baru --mem-per-cpu nilai akan
sama dengan aslinya --mem-per-cpu nilai yang ditentukan oleh pengguna. Parameter ini akan
umumnya digunakan jika prosesor individu dialokasikan untuk pekerjaan
(SelectType=pilih/kons_res). Jika sumber daya dialokasikan oleh inti, soket atau
seluruh node; jumlah CPU yang dialokasikan untuk suatu pekerjaan mungkin lebih tinggi daripada tugas
hitung dan nilai --mem-per-cpu harus disesuaikan sebagaimana mestinya. Menentukan
batas memori nol untuk langkah pekerjaan akan membatasi langkah pekerjaan ke jumlah
memori yang dialokasikan untuk pekerjaan, tetapi tidak menghapus alokasi memori pekerjaan dari
tersedia untuk langkah-langkah pekerjaan lainnya. Lihat juga --mem. --mem dan --mem-per-cpu adalah
saling eksklusif.
--mem_bind=[{tenang, bertele-tele},]mengetik
Mengikat tugas ke memori. Hanya digunakan ketika plugin tugas/afinitas diaktifkan dan
Fungsi memori NUMA tersedia. Note bahwa itu resolusi of CPU dan ingatan
mengikat mungkin berbeda on beberapa ilmu bangunan. Misalnya, pengikatan CPU dapat dilakukan
pada tingkat inti dalam prosesor sementara pengikatan memori akan dilakukan
pada tingkat node, di mana definisi "node" mungkin berbeda dari sistem ke
sistem. menggunakan of Apa pun mengetik lain dari "tidak ada" or "lokal" is tidak direkomendasikan. If
Anda ingin kontrol yang lebih besar, coba jalankan kode pengujian sederhana dengan opsi
"--cpu_bind=verbose,none --mem_bind=verbose,none" untuk menentukan spesifik
konfigurasi.
CATATAN: Agar Slurm selalu melaporkan pengikatan memori yang dipilih untuk semua perintah
dieksekusi di shell, Anda dapat mengaktifkan mode verbose dengan mengatur SLURM_MEM_BIND
nilai variabel lingkungan menjadi "verbose".
Variabel lingkungan informasi berikut diatur ketika: --mem_bind dalam
menggunakan:
SLURM_MEM_BIND_VERBOSE
SLURM_MEM_BIND_TYPE
SLURM_MEM_BIND_LIST
Lihat LINGKUNGAN VARIABEL bagian untuk penjelasan lebih rinci tentang
variabel SLURM_MEM_BIND* individu.
Opsi yang didukung meliputi:
diam]
ikat diam-diam sebelum tugas berjalan (default)
v[erbose]
laporkan secara verbose mengikat sebelum tugas berjalan
tidak ada] jangan ikat tugas ke memori (default)
peringkat ikat berdasarkan peringkat tugas (tidak disarankan)
lokal Gunakan memori lokal ke prosesor yang digunakan
peta_mem:
ikat dengan memetakan memori simpul ke tugas seperti yang ditentukan di mana adalah
, ,... . ID CPU ditafsirkan sebagai nilai desimal
kecuali mereka didahului dengan '0x' dalam hal ini mereka ditafsirkan sebagai
nilai heksadesimal (tidak disarankan)
mask_mem:
ikat dengan mengatur topeng memori pada tugas-tugas seperti yang ditentukan di mana adalah
, ,... . topeng memori adalah selalu ditafsirkan sebagai
nilai heksadesimal. Perhatikan bahwa topeng harus didahului dengan '0x' jika
jangan mulai dengan [0-9] sehingga dilihat sebagai nilai numerik dengan srun.
membantu tunjukkan pesan bantuan ini
--mincpus=<n>
Tentukan jumlah minimum CPU/prosesor logis per node.
--pesan-waktu habis=<detik>
Ubah batas waktu pesan peluncuran pekerjaan. Nilai defaultnya adalah Waktu Pesan Habis dalam
File konfigurasi slurm slurm.conf. Perubahan ini biasanya tidak
direkomendasikan, tetapi dapat berguna untuk mendiagnosis masalah.
--mpi=<mpi_type>
Identifikasi jenis MPI yang akan digunakan. Dapat menghasilkan prosedur inisiasi yang unik.
daftar Daftar jenis mpi yang tersedia untuk dipilih.
pelarian Memulai satu proses 'lamd' per node dan menetapkan lingkungan yang diperlukan
variabel untuk LAM/MPI.
mpich1_shmem
Memulai satu proses per node dan menetapkan lingkungan yang diperlukan
variabel untuk model memori bersama mpich1. Ini juga berfungsi untuk mvapich built
untuk memori bersama.
mpichgm
Untuk digunakan dengan Myrinet.
mvapich
Untuk digunakan dengan Infiniband.
buka
Untuk digunakan dengan OpenMPI.
pmi2 Untuk mengaktifkan dukungan PMI2. Dukungan PMI2 di Slurm hanya berfungsi jika MPI
implementasi mendukungnya, dengan kata lain jika MPI memiliki antarmuka PMI2
dilaksanakan. --mpi=pmi2 akan memuat perpustakaan lib/slurm/mpi_pmi2.so
yang menyediakan fungsionalitas sisi server tetapi sisi klien harus
mengimplementasikan PMI2_Init() dan panggilan antarmuka lainnya.
tak satupun Tidak ada pemrosesan MPI khusus. Ini adalah default dan berfungsi dengan banyak lainnya
versi MPI.
--multi-prog
Jalankan pekerjaan dengan program berbeda dan argumen berbeda untuk setiap tugas. Di dalam
kasus, program yang dapat dieksekusi yang ditentukan sebenarnya adalah file konfigurasi yang menentukan
eksekusi dan argumen untuk setiap tugas. Lihat GANDA PROGRAM KONFIGURASI
di bawah ini untuk detail tentang isi file konfigurasi.
-N, --node=<minnode[-maxnode]>
Minta minimal minnode node dialokasikan untuk pekerjaan ini. Node maksimum
hitungan juga dapat ditentukan dengan maxnode. Jika hanya satu nomor yang ditentukan, ini
digunakan sebagai jumlah node minimum dan maksimum. Batas simpul partisi
menggantikan pekerjaan itu. Jika batas simpul pekerjaan berada di luar jangkauan
diizinkan untuk partisi yang terkait, pekerjaan akan dibiarkan dalam status TERTUNDA.
Ini memungkinkan kemungkinan eksekusi di lain waktu, ketika batas partisi adalah
berubah. Jika batas node pekerjaan melebihi jumlah node yang dikonfigurasi dalam
partisi, pekerjaan akan ditolak. Perhatikan bahwa variabel lingkungan
SLURM_JOB_NUM_NODES (Dan SLURM_NNODES untuk kompatibilitas mundur) akan disetel ke
jumlah node yang benar-benar dialokasikan untuk pekerjaan itu. Lihat LINGKUNGAN VARIABEL
bagian untuk informasi lebih lanjut. Jika -N tidak ditentukan, perilaku default adalah untuk
mengalokasikan node yang cukup untuk memenuhi persyaratan -n dan -c pilihan. NS
pekerjaan akan dialokasikan sebanyak mungkin node dalam rentang yang ditentukan dan
tanpa menunda dimulainya pekerjaan. Spesifikasi jumlah node mungkin
sertakan nilai numerik diikuti dengan akhiran "k" (kalikan nilai numerik dengan
1,024) atau "m" (mengkalikan nilai numerik dengan 1,048,576).
-n, --tugas=<jumlah>
Tentukan jumlah tugas yang akan dijalankan. Minta itu lari mengalokasikan sumber daya untuk tugas
tugas. Standarnya adalah satu tugas per node, tetapi perhatikan bahwa --cpus-per-tugas Option
akan mengubah default ini.
--jaringan=<mengetik>
Tentukan informasi yang berkaitan dengan sakelar atau jaringan. interpretasi dari
mengetik bergantung pada sistem. Opsi ini didukung saat menjalankan Slurm pada Cray
secara asli. Ini digunakan untuk meminta menggunakan Penghitung Performace Jaringan. Hanya satu nilai
per permintaan adalah valid. Semua opsi peka huruf besar/kecil. Dalam konfigurasi ini
nilai yang didukung meliputi:
sistem
Gunakan penghitung kinerja jaringan di seluruh sistem. Hanya node yang diminta yang akan
ditandai digunakan untuk alokasi pekerjaan. Jika pekerjaan tidak mengisi
seluruh sistem sisa node tidak dapat digunakan oleh pekerjaan lain
menggunakan NPC, jika idle statusnya akan muncul sebagai PerfCnts. Node ini adalah
masih tersedia untuk pekerjaan lain yang tidak menggunakan NPC.
mata pisau Gunakan penghitung kinerja jaringan blade. Hanya node yang diminta yang akan
ditandai digunakan untuk alokasi pekerjaan. Jika pekerjaan tidak mengisi seluruh
bilah yang dialokasikan untuk pekerjaan bilah tersebut tidak dapat digunakan oleh orang lain
pekerjaan menggunakan NPC, jika menganggur statusnya akan muncul sebagai PerfCnts. Node ini adalah
masih tersedia untuk pekerjaan lain yang tidak menggunakan NPC.
Dalam semua kasus, pekerjaan atau permintaan alokasi langkah harus menentukan itu
--pilihan eksklusif. Jika tidak, permintaan akan ditolak.
Juga dengan salah satu opsi ini, langkah-langkah tidak diizinkan untuk berbagi bilah, jadi sumber daya
akan tetap menganggur di dalam alokasi jika langkah yang berjalan pada blade tidak dilakukan
ke atas semua node pada blade.
jaringan opsi ini juga didukung pada sistem dengan Lingkungan Paralel IBM
(PE). Lihat dokumentasi kata kunci perintah pekerjaan LoadLeveler IBM tentang kata kunci
"jaringan" untuk informasi lebih lanjut. Beberapa nilai dapat ditentukan dalam koma
daftar terpisah. Semua opsi peka huruf besar/kecil. Nilai yang didukung meliputi:
BULK_XFER[=sumber daya>]
Aktifkan transfer data massal menggunakan Remote Direct-Memory Access (RDMA).
Opsional sumber daya spesifikasi adalah nilai numerik yang dapat memiliki
akhiran "k", "K", "m", "M", "g" atau "G" untuk kilobyte, megabyte atau
gigabyte. CATATAN: The sumber daya spesifikasi tidak didukung oleh
infrastruktur IBM yang mendasari pada Lingkungan Paralel versi 2.2
dan tidak ada nilai yang harus ditentukan saat ini. Perangkat yang dialokasikan
untuk pekerjaan semua harus dari jenis yang sama. Nilai default tergantung pada
tergantung pada perangkat keras apa yang tersedia dan dalam urutan preferensi adalah
IPONLY (yang tidak dipertimbangkan dalam mode Ruang Pengguna), HFI, IB, HPCE, dan
KMUX.
CAU=<menghitung> Jumlah Unit Percepatan Kolektif (CAU) yang dibutuhkan. Hanya berlaku
ke prosesor IBM Power7-IH. Nilai default adalah nol. CAU Independen
akan dialokasikan untuk setiap antarmuka pemrograman (MPI, LAPI, dll.)
NAMA DEV=<nama>
Tentukan nama perangkat yang akan digunakan untuk komunikasi (misalnya "eth0" atau
"mlx4_0").
TIPE PERANGKAT=<mengetik>
Tentukan jenis perangkat yang akan digunakan untuk komunikasi. yang didukung
nilai dari mengetik adalah: "IB" (InfiniBand), "HFI" (Pabrik Host P7
Antarmuka), "IPONLY" (antarmuka khusus IP), "HPCE" (Ethernet HPC), dan
"KMUX" (Emulasi Kernel HPCE). Perangkat yang dialokasikan untuk suatu pekerjaan harus
semua menjadi jenis yang sama. Nilai default tergantung pada tergantung pada
perangkat keras apa yang tersedia dan dalam urutan preferensi adalah IPONLY (yang
tidak dipertimbangkan dalam mode Ruang Pengguna), HFI, IB, HPCE, dan KMUX.
segera =<menghitung>
Jumlah slot pengiriman langsung per jendela diperlukan. Hanya berlaku untuk
Prosesor IBM Power7-IH. Nilai default adalah nol.
CONTOH =<menghitung>
Tentukan jumlah koneksi jaringan untuk setiap tugas di setiap jaringan
koneksi. Jumlah instans default adalah 1.
IPV4 Gunakan komunikasi Internet Protocol (IP) versi 4 (default).
IPV6 Gunakan komunikasi Internet Protocol (IP) versi 6.
LAPI Gunakan antarmuka pemrograman LAPI.
lampu Gunakan antarmuka pemrograman MPI. MPI adalah antarmuka default.
PAMI Gunakan antarmuka pemrograman PAMI.
SHM Gunakan antarmuka pemrograman OpenSHMEM.
SN_SEMUA Gunakan semua jaringan sakelar yang tersedia (default).
SN_TUNGGAL Gunakan satu jaringan sakelar yang tersedia.
UPC Gunakan antarmuka pemrograman UPC.
US Gunakan komunikasi Ruang Pengguna.
Beberapa contoh spesifikasi jaringan:
Instance=2,AS,MPI,SN_ALL
Buat dua koneksi ruang pengguna untuk komunikasi MPI di setiap
beralih jaringan untuk setiap tugas.
AS,MPI,Instance=3,Devtype=IB
Buat tiga koneksi ruang pengguna untuk komunikasi MPI di setiap
Jaringan InfiniBand untuk setiap tugas.
IPV4, LAPI, SN_Single
Buat koneksi IP versi 4 untuk komunikasi LAPI pada satu sakelar
jaringan untuk setiap tugas.
Instance=2,AS,LAPI,MPI
Buat dua koneksi ruang pengguna masing-masing untuk komunikasi LAPI dan MPI
pada setiap jaringan switch untuk setiap tugas. Perhatikan bahwa SN_ALL adalah default
pilihan sehingga setiap jaringan switch digunakan. Perhatikan juga bahwa Instance=2
menentukan bahwa dua koneksi dibuat untuk setiap protokol (LAPI
dan MPI) dan setiap tugas. Jika ada dua jaringan dan empat tugas aktif
node maka total 32 koneksi dibuat (2 instance x
2 protokol x 2 jaringan x 4 tugas).
--baik[=pengaturan]
Jalankan pekerjaan dengan prioritas penjadwalan yang disesuaikan dalam Slurm. Tanpa penyesuaian
nilai prioritas penjadwalan berkurang 100. Rentang penyesuaian adalah dari
-10000 (prioritas tertinggi) hingga 10000 (prioritas terendah). Hanya pengguna yang memiliki hak istimewa yang dapat
tentukan penyesuaian negatif. CATATAN: Opsi ini saat ini diabaikan jika
SchedulerType=jadwal/wiki or SchedulerType=jadwal/wiki2.
--tugas-per-inti=<tugas>
Minta maksimal tugas dipanggil pada setiap inti. Opsi ini berlaku untuk pekerjaan
alokasi, tetapi tidak untuk alokasi bertahap. Dimaksudkan untuk digunakan dengan --tugas
pilihan. Berhubungan dengan --tugas-per-node kecuali di level inti alih-alih simpul
tingkat. Masker akan secara otomatis dibuat untuk mengikat tugas ke inti tertentu
kecuali kalau --cpu_bind=tidak ada ditentukan. CATATAN: Opsi ini tidak didukung kecuali
SelectTypeParameters=CR_Core or SelectTypeParameters=CR_Core_Memori dikonfigurasi.
--tugas-per-node=<tugas>
Minta itu tugas dipanggil pada setiap node. Jika digunakan dengan --tugas opsi, opsi
--tugas opsi akan didahulukan dan --tugas-per-node akan diperlakukan sebagai
maksimum jumlah tugas per node. Dimaksudkan untuk digunakan dengan --node pilihan. Ini
berhubungan dengan --cpus-per-tugas=com.ncpus, tetapi tidak memerlukan pengetahuan tentang yang sebenarnya
jumlah CPU pada setiap node. Dalam beberapa kasus, lebih nyaman untuk dapat
meminta agar tidak lebih dari sejumlah tugas tertentu yang dipanggil pada setiap node.
Contohnya termasuk mengirimkan aplikasi MPI/OpenMP hybrid di mana hanya satu MPI
"tugas/peringkat" harus ditetapkan ke setiap node sambil mengizinkan bagian OpenMP untuk
memanfaatkan semua paralelisme yang ada di node, atau mengirimkan satu
pekerjaan penyiapan/pembersihan/pemantauan ke setiap node dari alokasi yang sudah ada sebelumnya sebagai satu langkah
dalam naskah pekerjaan yang lebih besar.
--tugas-per-soket=<tugas>
Minta maksimal tugas dipanggil pada setiap soket. Opsi ini berlaku untuk
alokasi pekerjaan, tetapi tidak untuk alokasi langkah. Dimaksudkan untuk digunakan dengan --tugas
pilihan. Berhubungan dengan --tugas-per-node kecuali pada level soket alih-alih
tingkat simpul. Masker akan secara otomatis dibuat untuk mengikat tugas ke spesifik
soket kecuali --cpu_bind=tidak ada ditentukan. CATATAN: Opsi ini tidak didukung
kecuali kalau SelectTypeParameters=CR_Socket or SelectTypeParameters=CR_Socket_Memori is
dikonfigurasi
-O, --komitmen berlebihan
Mengarahkan sumber daya secara berlebihan. Ketika diterapkan pada alokasi pekerjaan, hanya satu CPU yang dialokasikan untuk
pekerjaan per node dan opsi yang digunakan untuk menentukan jumlah tugas per node, socket,
inti, dll. diabaikan. Ketika diterapkan pada alokasi langkah pekerjaan (the lari Command
ketika dieksekusi dalam alokasi pekerjaan yang ada), opsi ini dapat digunakan untuk meluncurkan
lebih dari satu tugas per CPU. Biasanya, lari tidak akan mengalokasikan lebih dari satu proses
per CPU. Dengan menentukan --komitmen berlebihan Anda secara eksplisit mengizinkan lebih dari satu
proses per CPU. Namun tidak lebih dari MAX_TASKS_PER_NODE tugas diizinkan untuk
mengeksekusi per node. CATATAN: MAX_TASKS_PER_NODE didefinisikan dalam file slurm.h dan
bukan variabel, itu diatur pada waktu pembuatan Slurm.
-o, --keluaran=<mode>
Tentukan mode untuk pengalihan stdout. Secara default dalam mode interaktif, lari
mengumpulkan stdout dari semua tugas dan mengirimkan output ini melalui TCP/IP ke yang terlampir
terminal. Dengan --keluaran stdout dapat diarahkan ke file, ke satu file per tugas,
atau ke /dev/null. Lihat bagian IO Redirection di bawah ini untuk berbagai bentuk mode.
Jika file yang ditentukan sudah ada, itu akan ditimpa.
If --kesalahan tidak juga ditentukan pada baris perintah, baik stdout dan stderr akan
diarahkan ke file yang ditentukan oleh --keluaran.
--mode terbuka=<tambahkan|potong>
Buka file output dan kesalahan menggunakan mode append atau truncate seperti yang ditentukan. NS
nilai default ditentukan oleh parameter konfigurasi sistem JobFileTambahkan.
-p, --partisi=<nama_partisi>
Minta partisi khusus untuk alokasi sumber daya. Jika tidak ditentukan,
perilaku default adalah mengizinkan pengontrol slurm untuk memilih partisi default
seperti yang ditunjuk oleh administrator sistem. Jika pekerjaan dapat menggunakan lebih dari satu
partisi, tentukan nama mereka dalam daftar terpisah koma dan satu penawaran
inisiasi paling awal akan digunakan tanpa memperhatikan nama partisi
memesan (meskipun partisi prioritas lebih tinggi akan dipertimbangkan terlebih dahulu). Ketika
pekerjaan dimulai, nama partisi yang digunakan akan ditempatkan pertama di pekerjaan
merekam string partisi.
--kekuasaan=<bendera>
Daftar opsi plugin manajemen daya yang dipisahkan koma. Bendera yang tersedia saat ini
termasuk: level (semua node yang dialokasikan untuk pekerjaan harus memiliki batas daya yang identik,
mungkin dinonaktifkan oleh opsi konfigurasi Slurm PowerParameters=job_no_level).
--prioritas=
Minta prioritas pekerjaan tertentu. Mungkin tunduk pada konfigurasi tertentu
kendala. Hanya operator dan administrator Slurm yang dapat mengatur prioritas a
pekerjaan.
--Profil=
memungkinkan pengumpulan data terperinci dengan plugin acct_gather_profile. Data terperinci
biasanya deret waktu yang disimpan dalam file HDF5 untuk pekerjaan itu.
Semua Semua tipe data dikumpulkan. (Tidak dapat digabungkan dengan nilai lain.)
None Tidak ada tipe data yang dikumpulkan. Ini adalah default.
(Tidak dapat digabungkan dengan nilai lain.)
Energi Data energi dikumpulkan.
tugas Data tugas (I/O, Memori, ...) dikumpulkan.
Berkas sistem
Data sistem file dikumpulkan.
jaringan Data jaringan (InfiniBand) dikumpulkan.
--prolog=<executable>
lari akan berlari executable sebelum meluncurkan langkah pekerjaan. Baris perintah
argumen untuk executable akan menjadi perintah dan argumen dari langkah pekerjaan. Jika
executable adalah "tidak ada", maka tidak ada prolog srun yang akan dijalankan. Parameter ini menimpa
Parameter SrunProlog di slurm.conf. Parameter ini sepenuhnya independen dari
parameter Prolog di slurm.conf.
--menyebarkan[=batas]
Memungkinkan pengguna untuk menentukan batas sumber daya (lunak) mana yang akan disebarkan
ke node komputasi dan berlaku untuk pekerjaan mereka. Jika batas tidak ditentukan, maka
semua batasan sumber daya akan disebarkan. Nama rlimit berikut didukung
oleh Slurm (walaupun beberapa opsi mungkin tidak didukung pada beberapa sistem):
SEMUA Semua batasan yang tercantum di bawah ini
AS Ruang alamat maksimum untuk suatu proses
CORE Ukuran maksimum file inti
CPU Jumlah maksimum waktu CPU
DATA Ukuran maksimum segmen data proses
UKURAN Ukuran maksimum file yang dibuat. Perhatikan bahwa jika pengguna menyetel FSIZE ke
kurang dari ukuran slurmd.log saat ini, peluncuran pekerjaan akan gagal dengan
kesalahan 'Batas ukuran file terlampaui'.
MEMLOK Ukuran maksimum yang dapat dikunci ke dalam memori
TIDAK ADA DOKUMEN Jumlah maksimum file yang terbuka
NPROC Jumlah maksimum proses yang tersedia
RSS Ukuran set penduduk maksimum
TUMPUKAN Ukuran tumpukan maksimum
--pty Jalankan tugas nol dalam mode terminal semu. Set implisit --tidak disangga.
Set implisit --kesalahan dan --keluaran ke /dev/null untuk semua tugas kecuali tugas nol,
yang dapat menyebabkan tugas-tugas tersebut segera keluar (misalnya shell biasanya akan keluar
segera dalam situasi itu). Saat ini tidak didukung pada platform AIX.
-Q, --diam
Menekan pesan informasi dari srun. Kesalahan akan tetap ditampilkan.
-q, --berhenti saat interupsi
Keluar segera pada SIGINT tunggal (Ctrl-C). Penggunaan opsi ini menonaktifkan status
fitur biasanya tersedia ketika lari menerima Ctrl-C tunggal dan menyebabkan lari untuk
alih-alih segera hentikan pekerjaan yang sedang berjalan.
--qos=<qos>
Mintalah kualitas layanan untuk pekerjaan itu. Nilai QOS dapat ditentukan untuk masing-masing
asosiasi pengguna/cluster/akun dalam database Slurm. Pengguna akan dibatasi untuk
kumpulan qos yang ditentukan asosiasi mereka ketika parameter konfigurasi Slurm,
AccountingStorageEnforce, termasuk "qos" dalam definisinya.
-r, --relatif=<n>
Jalankan langkah pekerjaan relatif terhadap node n dari alokasi saat ini. Opsi ini mungkin
digunakan untuk menyebarkan beberapa langkah pekerjaan di antara node pekerjaan saat ini. Jika -r is
digunakan, langkah pekerjaan saat ini akan dimulai pada node n dari nodelist yang dialokasikan, di mana
simpul pertama dianggap simpul 0 -r opsi tidak diizinkan dengan -w or -x
opsi dan akan mengakibatkan kesalahan fatal saat tidak berjalan dalam alokasi sebelumnya
(yaitu ketika SLURM_JOB_ID tidak disetel). Standar untuk n adalah 0. Jika nilai
--node melebihi jumlah node yang diidentifikasi dengan --relatif opsi, a
pesan peringatan akan dicetak dan --relatif pilihan akan diutamakan.
--menyalakan ulang
Paksa node yang dialokasikan untuk reboot sebelum memulai pekerjaan. Hanya ini
didukung dengan beberapa konfigurasi sistem dan sebaliknya akan diabaikan secara diam-diam.
--resv-port
Cadangan port komunikasi untuk pekerjaan ini. Pengguna dapat menentukan nomor port mereka
ingin memesan. Parameter MpiParams=ports=12000-12999 harus ditentukan dalam
slurm.conf. Jika tidak ditentukan, jumlah port cadangan default sama dengan
sejumlah tugas. Jika jumlah port yang dicadangkan adalah nol, tidak ada port yang dicadangkan.
Digunakan untuk OpenMPI.
--reservasi=<nama>
Alokasikan sumber daya untuk pekerjaan dari reservasi bernama.
--restart-dir=<direktori>
Menentukan direktori dari mana pekerjaan atau pos pemeriksaan langkah pekerjaan harus dibaca
(hanya digunakan oleh plugin pos pemeriksaan/blcrm dan pos pemeriksaan/xlch).
-s, --Bagikan
Alokasi pekerjaan dapat berbagi sumber daya dengan pekerjaan lain yang sedang berjalan. Sumber daya untuk
dibagikan dapat berupa node, soket, core, atau hyperthreads tergantung pada
konfigurasi. Perilaku bersama default tergantung pada konfigurasi sistem dan
partisi bersama opsi lebih diutamakan daripada opsi pekerjaan. Opsi ini mungkin
mengakibatkan alokasi diberikan lebih cepat daripada jika opsi --share tidak
mengatur dan memungkinkan pemanfaatan sistem yang lebih tinggi, tetapi kinerja aplikasi kemungkinan akan
menderita karena persaingan untuk sumber daya. Lihat juga opsi --exclusive.
-S, --spesifikasi inti=<num>
Jumlah inti khusus per node yang dicadangkan oleh pekerjaan untuk operasi sistem dan
tidak digunakan oleh aplikasi. Aplikasi tidak akan menggunakan inti ini, tetapi akan
dibebankan untuk alokasi mereka. Nilai default tergantung pada node's
nilai CoreSpecCount yang dikonfigurasi. Jika nilai nol ditetapkan dan Slurm
opsi konfigurasi AllowSpecResourcesUsage diaktifkan, pekerjaan akan diizinkan untuk
menimpa CoreSpecCount dan menggunakan sumber daya khusus pada node yang dialokasikan.
Opsi ini tidak dapat digunakan dengan --spesifikasi-utas .
--sicp Identifikasi pekerjaan sebagai pekerjaan yang dapat diandalkan oleh pekerjaan yang diserahkan ke cluster lain.
--sinyal=<nomor_tanda>[@waktu_sig>]
Ketika pekerjaan ada di dalam waktu_sig detik dari waktu akhirnya, kirimkan sinyalnya nomor_tanda.
Karena resolusi penanganan acara oleh Slurm, sinyal dapat dikirim hingga 60
detik lebih awal dari yang ditentukan. nomor_tanda bisa berupa nomor sinyal atau nama
(misalnya "10" atau "USR1"). waktu_sig harus memiliki nilai integer antara 0 dan 65535.
Secara default, tidak ada sinyal yang dikirim sebelum waktu akhir pekerjaan. Jika sebuah nomor_tanda ditentukan
tanpa waktu_sig, waktu default adalah 60 detik.
--slurmd-debug=<tingkat>
Tentukan tingkat debug untuk slurmd(8). Itu tingkat dapat ditentukan baik bilangan bulat
nilai antara 0 [tenang, hanya kesalahan yang ditampilkan] dan 4 [operasi verbose] atau
SlurmdDebug tag.
tenang Tidak ada yang masuk
fatal Log hanya kesalahan fatal
kesalahan Log hanya kesalahan
Info Kesalahan log dan pesan informasi umum
bertele-tele Log kesalahan dan pesan informasi verbose
Informasi debug slurmd disalin ke stderr dari
pekerjaan. Secara default hanya kesalahan yang ditampilkan.
--socket-per-node=<soket>
Batasi pemilihan node ke node dengan setidaknya jumlah soket yang ditentukan.
Lihat informasi tambahan di bawah -B opsi di atas ketika plugin tugas/afinitas adalah
diaktifkan.
--switch=<menghitung>[@waktu maksimum>]
Ketika topologi pohon digunakan, ini menentukan jumlah maksimum sakelar yang diinginkan
untuk alokasi pekerjaan dan secara opsional waktu maksimum untuk menunggu sejumlah
saklar. Jika Slurm menemukan alokasi yang berisi lebih banyak sakelar daripada hitungan
ditentukan, pekerjaan tetap tertunda sampai menemukan alokasi dengan yang diinginkan
beralih hitungan atau batas waktu berakhir. Tidak ada batasan jumlah sakelar, di sana
tidak ada penundaan dalam memulai pekerjaan. Format waktu yang dapat diterima termasuk "menit",
"menit:detik", "jam:menit:detik", "hari-jam", "hari-jam:menit" dan
"hari-jam:menit:detik". Penundaan waktu maksimum pekerjaan mungkin dibatasi oleh
administrator sistem menggunakan PenjadwalParameter parameter konfigurasi dengan
max_switch_wait opsi parameter. Waktu maksimum default adalah max_switch_wait
Parameter Penjadwal.
-T, --utas=<benang>
Memungkinkan membatasi jumlah utas bersamaan yang digunakan untuk mengirim permintaan pekerjaan dari
proses srun ke proses slurmd pada node yang dialokasikan. Standarnya adalah menggunakan
satu utas per node yang dialokasikan hingga maksimum 60 utas bersamaan. Menentukan
opsi ini membatasi jumlah utas bersamaan untuk benang (kurang dari atau sama dengan
sampai 60). Ini hanya boleh digunakan untuk menetapkan jumlah utas rendah untuk pengujian pada
komputer memori kecil.
-t, --waktu=<waktu>
Tetapkan batas total waktu berjalan dari alokasi pekerjaan. Jika waktu yang diminta
batas melebihi batas waktu partisi, pekerjaan akan dibiarkan dalam status TERTUNDA
(mungkin tanpa batas). Batas waktu default adalah waktu default partisi
membatasi. Ketika batas waktu tercapai, setiap tugas di setiap langkah pekerjaan dikirim SIGTERM
diikuti oleh SIGKILL. Interval antara sinyal ditentukan oleh Slurm
parameter konfigurasi BunuhTunggu. itu Batas Waktu parameter konfigurasi mungkin
memungkinkan pekerjaan berjalan lebih lama dari yang dijadwalkan. Resolusi waktu adalah satu menit dan
nilai kedua dibulatkan ke menit berikutnya.
Batas waktu permintaan nol yang tidak ada batas waktu yang dikenakan. Waktu yang dapat diterima
format termasuk "menit", "menit:detik", "jam:menit:detik",
"hari-jam", "hari-jam:menit" dan "hari-jam:menit:detik".
--tugas-epilog=<executable>
slurmstepd daemon akan berjalan executable tepat setelah setiap tugas berakhir. Ini
akan dieksekusi sebelum parameter TaskEpilog di slurm.conf dijalankan. Ini
dimaksudkan untuk menjadi program yang sangat singkat. Jika gagal untuk mengakhiri dalam beberapa
detik, itu akan dibunuh bersama dengan proses turunan apa pun.
--tugas-prolog=<executable>
slurmstepd daemon akan berjalan executable tepat sebelum meluncurkan setiap tugas. Ini
akan dieksekusi setelah parameter TaskProlog di slurm.conf dijalankan. di samping itu
variabel lingkungan normal, ini memiliki SLURM_TASK_PID tersedia untuk mengidentifikasi
ID proses tugas yang sedang dimulai. Output standar dari program ini
formulir "ekspor NAMA = nilai" akan digunakan untuk mengatur variabel lingkungan untuk tugas
sedang melahirkan.
--hanya tes
Mengembalikan perkiraan kapan pekerjaan akan dijadwalkan untuk dijalankan berdasarkan pekerjaan saat ini
antrian dan yang lainnya lari argumen yang menentukan pekerjaan. Batas ini srun's
perilaku untuk hanya mengembalikan informasi; tidak ada pekerjaan yang benar-benar diserahkan. PENGECUALIAN: Aktif
Sistem Bluegene/Q aktif saat berjalan dalam alokasi pekerjaan yang ada, ini menonaktifkan
penggunaan "runjob" untuk meluncurkan tugas. Program akan dijalankan langsung oleh
daemon slurmd.
--spesifikasi-utas=<num>
Jumlah utas khusus per node yang disediakan oleh pekerjaan untuk operasi sistem dan
tidak digunakan oleh aplikasi. Aplikasi tidak akan menggunakan utas ini, tetapi akan
dikenakan biaya untuk alokasinya. Opsi ini tidak dapat digunakan dengan --spesifikasi inti
.
--utas-per-inti=<benang>
Batasi pemilihan simpul ke simpul dengan setidaknya jumlah utas yang ditentukan per
inti. CATATAN: "Utas" mengacu pada jumlah unit pemrosesan pada setiap inti bukan
daripada jumlah tugas aplikasi yang akan diluncurkan per inti. Lihat tambahan
informasi di bawah -B opsi di atas saat plugin tugas/afinitas diaktifkan.
--waktu-min=<waktu>
Tetapkan batas waktu minimum pada alokasi pekerjaan. Jika ditentukan, pekerjaan mungkin memiliki
itu --waktu batas diturunkan ke nilai tidak lebih rendah dari --waktu-min jika melakukan itu mengizinkan
pekerjaan untuk memulai eksekusi lebih awal dari yang mungkin. Batas waktu pekerjaan
tidak akan berubah setelah pekerjaan dialokasikan sumber daya. Ini dilakukan oleh
algoritma penjadwalan pengisian ulang untuk mengalokasikan sumber daya jika tidak disediakan untuk yang lebih tinggi
pekerjaan prioritas. Format waktu yang dapat diterima termasuk "menit", "menit:detik",
"jam:menit:detik", "hari-jam", "hari-jam:menit" dan
"hari-jam:menit:detik".
--tmp=<MB>
Tentukan jumlah minimum ruang disk sementara.
-u, --tidak disangga
Secara default, koneksi antara slurmstepd dan aplikasi yang diluncurkan pengguna adalah
di atas sebuah pipa. Output stdio yang ditulis oleh aplikasi di-buffer oleh glibc
sampai memerah atau output disetel sebagai tidak buffer. Melihat setbuf(3). Jika ini
opsi ditentukan tugas dijalankan dengan terminal semu sehingga
keluaran aplikasi tidak buffer.
--penggunaan
Tampilkan pesan bantuan singkat dan keluar.
--uid=<pemakai>
Mencoba untuk mengirimkan dan/atau menjalankan pekerjaan sebagai pemakai alih-alih memanggil id pengguna. Itu
memanggil kredensial pengguna akan digunakan untuk memeriksa izin akses untuk target
partisi. Root pengguna dapat menggunakan opsi ini untuk menjalankan pekerjaan sebagai pengguna biasa di RootOnly
partisi misalnya. Jika dijalankan sebagai root, lari akan menjatuhkan izinnya ke uid
ditentukan setelah alokasi node berhasil. pemakai mungkin nama pengguna atau
ID pengguna numerik.
-V, --Versi: kapan
Tampilkan informasi versi dan keluar.
-v, --bertele-tele
Tingkatkan verbositas pesan informasi srun. beberapa -vkemauan
lebih meningkatkan verbositas srun. Secara default hanya kesalahan yang akan ditampilkan.
-W, --tunggu=<detik>
Tentukan berapa lama menunggu setelah tugas pertama berakhir sebelum mengakhiri semua
tugas yang tersisa. Nilai 0 menunjukkan menunggu tanpa batas (peringatan akan dikeluarkan
setelah 60 detik). Nilai default diatur oleh parameter WaitTime di slurm
file konfigurasi (lihat slurm.conf(5)). Opsi ini dapat berguna untuk memastikan bahwa a
pekerjaan dihentikan tepat waktu jika satu atau lebih tugas dihentikan
sebelum waktunya. Catatan: The -K, --membunuh-saat-keluar-buruk pilihan lebih diutamakan daripada -W,
--tunggu untuk segera menghentikan pekerjaan jika tugas keluar dengan kode keluar bukan nol.
-w, --daftar node=<tuan rumah1, tuan rumah2,... or nama file>
Minta daftar host tertentu. Pekerjaan akan berisi semua dari tuan rumah ini dan
mungkin host tambahan yang diperlukan untuk memenuhi persyaratan sumber daya. Daftar mungkin
ditetapkan sebagai daftar host yang dipisahkan koma, rentang host (host[1-5,7,...]
misalnya), atau nama file. Daftar host akan dianggap sebagai nama file jika
berisi karakter "/". Jika Anda menentukan jumlah node atau prosesor minimum yang lebih besar
daripada yang dapat dipenuhi oleh daftar host yang disediakan, sumber daya tambahan akan
dialokasikan pada node lain sesuai kebutuhan. Daripada mengulang beberapa nama host
kali, tanda bintang dan jumlah pengulangan dapat ditambahkan ke nama host. Untuk
contoh "host1,host1" dan "host1*2" setara.
--wckey=<wckey>
Tentukan wckey yang akan digunakan dengan pekerjaan. Jika TrackWCKey=no (default) di slurm.conf
nilai ini diabaikan.
-X, --nonaktifkan-status
Nonaktifkan tampilan status tugas saat srun menerima satu SIGINT (Ctrl-C).
Alih-alih segera meneruskan SIGINT ke pekerjaan yang sedang berjalan. Tanpa opsi ini a
Ctrl-C kedua dalam satu detik diperlukan untuk menghentikan pekerjaan secara paksa dan lari akan
segera keluar. Dapat juga diatur melalui variabel lingkungan
SLURM_DISABLE_STATUS.
-x, --mengecualikan=<tuan rumah1, tuan rumah2,... or nama file>
Meminta agar daftar host tertentu tidak disertakan dalam sumber daya yang dialokasikan untuk
pekerjaan ini. Daftar host akan dianggap sebagai nama file jika berisi
"/"karakter.
-Z, --tidak-mengalokasikan
Jalankan tugas yang ditentukan pada satu set node tanpa membuat "pekerjaan" Slurm di
Struktur antrian slurm, melewati langkah alokasi sumber daya normal. daftar dari
node harus ditentukan dengan -w, --daftar node pilihan. Ini adalah hak istimewa
pilihan hanya tersedia untuk pengguna "SlurmUser" dan "root".
Opsi berikut mendukung sistem Blue Gene, tetapi mungkin berlaku untuk sistem lain seperti:
baik.
--blrts-gambar=<path>
Gambar jalur ke blrts untuk blok bluegene. BGL saja. Bawaan dari bluene.conf if
tidak diatur.
--cnload-gambar=<path>
Jalur untuk menghitung citra node untuk blok bluegene. BGP saja. Bawaan dari
bluene.conf jika tidak diatur.
--tipe-sambungan=<mengetik>
Mengharuskan tipe koneksi blok dari tipe tertentu. Pada Gen Biru itu
diterima dari mengetik adalah MESH, TORUS dan NAV. Jika NAV, atau jika tidak disetel, maka Slurm akan
coba sesuaikan dengan apa DefaultConnType diatur di bluegene.conf jika tidak
atur defaultnya adalah TORUS. Anda seharusnya tidak menyetel opsi ini secara normal. Jika berjalan pada
sistem BGP dan ingin dijalankan dalam mode HTC (hanya untuk 1 bidang tengah ke bawah). Anda
dapat menggunakan HTC_S untuk SMP, HTC_D untuk Dual, HTC_V untuk mode simpul virtual, dan HTC_L untuk
Modus Linux. Untuk sistem yang memungkinkan jenis koneksi berbeda per dimensi, Anda
dapat menyediakan daftar jenis koneksi yang dipisahkan koma dapat ditentukan, satu untuk
setiap dimensi (yaitu M,T,T,T akan memberi Anda koneksi torus adalah semua dimensi
mengharapkan yang pertama).
-g, --geometri=<xxYxZ> |AxXxYxZ>
Tentukan persyaratan geometri untuk pekerjaan itu. Pada sistem BlueGene/L dan BlueGene/P
ada tiga angka yang memberikan dimensi dalam arah X, Y dan Z, sedangkan pada
Sistem BlueGene/Q ada empat angka yang memberikan dimensi dalam A, X, Y dan Z
arah dan tidak dapat digunakan untuk mengalokasikan sub-blok. Sebagai contoh
"--geometry=1x2x3x4", menentukan blok node yang memiliki 1 x 2 x 3 x 4 = 24 node
(sebenarnya pesawat tengah di BlueGene).
--ioload-gambar=<path>
Jalur ke gambar io untuk blok bluegene. BGP saja. Bawaan dari bluene.conf jika tidak
ditetapkan.
--linux-gambar=<path>
Path ke gambar linux untuk blok bluegene. BGL saja. Bawaan dari bluene.conf if
tidak diatur.
--mloader-gambar=<path>
Gambar jalur ke mloader untuk blok bluegene. Bawaan dari bluene.conf jika tidak diatur.
-R, --tidak berputar
Menonaktifkan rotasi geometri yang diminta pekerjaan agar sesuai dengan yang sesuai
memblokir. Secara default geometri yang ditentukan dapat berputar dalam tiga dimensi.
--ramdisk-gambar=<path>
Jalur ke gambar ramdisk untuk blok bluegene. BGL saja. Bawaan dari bluene.conf if
tidak diatur.
lari akan mengirimkan permintaan pekerjaan ke pengontrol pekerjaan slurm, lalu memulai semua proses
pada node jarak jauh. Jika permintaan tidak dapat segera dipenuhi, lari akan memblokir sampai
sumber daya bebas untuk menjalankan pekerjaan. jika -I (--segera) opsi ditentukan lari akan
dihentikan jika sumber daya tidak segera tersedia.
Saat memulai proses jarak jauh lari akan menyebarkan direktori kerja saat ini, kecuali
--chdir=<path> ditentukan, dalam hal ini path akan menjadi direktori kerja untuk
proses jarak jauh.
-N, -c, dan -N pilihan mengontrol bagaimana CPU dan node akan dialokasikan untuk pekerjaan. Kapan
hanya menentukan jumlah proses yang akan dijalankan -n, default satu CPU per proses
dialokasikan. Dengan menentukan jumlah CPU yang dibutuhkan per tugas (-c), lebih dari satu CPU
dapat dialokasikan per proses. Jika jumlah node ditentukan dengan -N, lari akan
mencoba mengalokasikan at paling sedikit jumlah node yang ditentukan.
Kombinasi dari tiga opsi di atas dapat digunakan untuk mengubah cara proses
didistribusikan ke seluruh node dan CPU. Misalnya, dengan menentukan kedua jumlah
proses dan jumlah node yang akan dijalankan, jumlah proses per node adalah
tersirat. Namun, jika jumlah CPU per proses lebih penting maka jumlah
proses (-n) dan jumlah CPU per proses (-c) harus ditentukan.
lari akan menolak untuk mengalokasikan lebih dari satu proses per CPU kecuali --komitmen berlebihan (-O) aku s
juga ditentukan.
lari akan berusaha memenuhi spesifikasi di atas "minimal". Artinya, jika 16 node
diminta untuk 32 proses, dan beberapa node tidak memiliki 2 CPU, alokasi node
akan ditingkatkan untuk memenuhi permintaan CPU. Dengan kata lain, minimum dari 16
node sedang diminta. Namun, jika 16 node diminta untuk 15 proses, lari akan
anggap ini sebagai kesalahan, karena 15 proses tidak dapat berjalan di 16 node.
IO Redirection
Secara default, stdout dan stderr akan dialihkan dari semua tugas ke stdout dan stderr
of lari, dan stdin akan dialihkan dari input standar lari untuk semua tugas jarak jauh.
Jika stdin hanya untuk dibaca oleh subset dari tugas yang muncul, tentukan file untuk dibaca
dari daripada meneruskan stdin dari lari perintah mungkin lebih disukai karena menghindari
memindahkan dan menyimpan data yang tidak akan pernah dibaca.
Untuk OS X, fungsi poll() tidak mendukung stdin, jadi input dari terminal tidak
mungkin.
Untuk BGQ srun hanya mendukung stdin ke 1 tugas yang berjalan di sistem. Secara default itu adalah taskid
0 tetapi dapat diubah dengan -i seperti yang dijelaskan di bawah ini, atau
--launcher-opts="--stdinrank= ".
Perilaku ini dapat diubah dengan --keluaran, --kesalahan, dan --memasukkan (-o, -e, -i) pilihan.
Spesifikasi format yang valid untuk opsi ini adalah
semua stdout stderr dialihkan dari semua tugas ke srun. stdin disiarkan ke semua
tugas jarak jauh. (Ini adalah perilaku default)
tak satupun stdout dan stderr tidak diterima dari tugas apa pun. stdin tidak dikirim ke tugas apa pun
(stdin ditutup).
tugas stdout dan/atau stderr dialihkan hanya dari tugas dengan id relatif sama dengan
tugas, di mana 0 <= tugas <= tugas, Di mana tugas adalah jumlah total tugas
dalam langkah pekerjaan saat ini. stdin dialihkan dari stdin of lari untuk ini
tugas yang sama. File ini akan ditulis pada node yang menjalankan tugas.
nama file lari akan mengarahkan stdout dan/atau stderr ke file bernama dari semua tugas. stdin
akan dialihkan dari file bernama dan disiarkan ke semua tugas dalam pekerjaan.
nama file mengacu pada jalur pada host yang berjalan lari. Tergantung pada
tata letak sistem file cluster, ini dapat menyebabkan output muncul di
tempat yang berbeda tergantung pada apakah pekerjaan dijalankan dalam mode batch.
format string
lari memungkinkan string format digunakan untuk menghasilkan file IO bernama
dijelaskan di atas. Daftar penentu format berikut dapat digunakan dalam:
format string untuk menghasilkan nama file yang unik untuk jobid tertentu,
stepid, node, atau tugas. Dalam setiap kasus, jumlah file yang sesuai dibuka
dan terkait dengan tugas terkait. Perhatikan bahwa string format apa pun
berisi %t, %n, dan/atau %N akan ditulis pada node yang menjalankan tugas
daripada simpul di mana lari dijalankan, penentu format ini tidak
didukung pada sistem BGQ.
%A Nomor alokasi tugas master larik pekerjaan.
%a Nomor ID array pekerjaan (indeks).
%J jobid.stepid dari pekerjaan yang sedang berjalan. (misalnya "128.0")
%j jobid dari pekerjaan yang sedang berjalan.
%s stepid dari pekerjaan yang sedang berjalan.
%N nama host pendek. Ini akan membuat file IO terpisah per node.
%n Pengidentifikasi simpul relatif terhadap pekerjaan saat ini (misalnya "0" adalah simpul pertama dari
pekerjaan yang sedang berjalan) Ini akan membuat file IO terpisah per node.
%t pengenal tugas (peringkat) relatif terhadap pekerjaan saat ini. Ini akan membuat
file IO terpisah per tugas.
%u Nama pengguna.
Angka yang ditempatkan di antara karakter persen dan penentu format dapat digunakan
ke zero-pad hasil dalam nama file IO. Nomor ini diabaikan jika formatnya
specifier sesuai dengan data non-numerik (%N misalnya).
Beberapa contoh bagaimana format string dapat digunakan untuk langkah tugas 4 tugas dengan a
ID pekerjaan 128 dan id langkah 0 termasuk di bawah ini:
pekerjaan%J.keluar pekerjaan128.0.keluar
pekerjaan%4j.keluar pekerjaan0128.keluar
pekerjaan%j-%2t.keluar pekerjaan128-00.keluar, pekerjaan128-01.keluar, ...
INPUT LINGKUNGAN VARIABEL
Beberapa opsi srun dapat diatur melalui variabel lingkungan. Variabel lingkungan ini,
bersama dengan opsi yang sesuai, tercantum di bawah ini. Catatan: Opsi baris perintah akan
selalu timpa pengaturan ini.
PMI_FANOUT Ini digunakan secara eksklusif dengan PMI (MPICH2 dan MVAPICH2) dan kontrol
penyebaran komunikasi data. Perintah srun mengirim pesan
ke program aplikasi (melalui perpustakaan PMI) dan aplikasi tersebut
dapat diminta untuk meneruskan data itu hingga jumlah ini
tugas tambahan. Nilai yang lebih tinggi melepas pekerjaan dari perintah srun
ke aplikasi dan kemungkinan meningkatkan kerentanan terhadap
kegagalan. Nilai defaultnya adalah 32.
PMI_FANOUT_OFF_HOST Ini digunakan secara eksklusif dengan PMI (MPICH2 dan MVAPICH2) dan kontrol
penyebaran komunikasi data. Perintah srun mengirim pesan
ke program aplikasi (melalui perpustakaan PMI) dan aplikasi tersebut
dapat dipanggil untuk meneruskan data tersebut ke tugas tambahan. Oleh
default, srun mengirim satu pesan per host dan satu tugas pada host itu
meneruskan data ke tugas lain di host itu hingga PMI_FANOUT. Jika
PMI_FANOUT_OFF_HOST didefinisikan, tugas pengguna mungkin diperlukan untuk
meneruskan data ke tugas di host lain. Pengaturan
PMI_FANOUT_OFF_HOST dapat meningkatkan kinerja. Karena lebih banyak pekerjaan adalah
dilakukan oleh perpustakaan PMI yang dimuat oleh aplikasi pengguna,
kegagalan juga bisa lebih umum dan lebih sulit untuk didiagnosis.
PMI_TIME Ini digunakan secara eksklusif dengan PMI (MPICH2 dan MVAPICH2) dan kontrol
seberapa banyak komunikasi dari tugas ke srun tersebar
keluar tepat waktu untuk menghindari perintah srun yang berlebihan dengan
bekerja. Nilai default adalah 500 (mikrodetik) per tugas. Pada
prosesor atau sistem yang relatif lambat dengan prosesor yang sangat besar
jumlah (dan set data PMI besar), nilai yang lebih tinggi mungkin diperlukan.
SLURM_CONF Lokasi file konfigurasi Slurm.
SLURM_AKUN Sama dengan -SEBUAH, --Akun
SLURM_ACCTG_FREQ Sama dengan --acctg-frekuensi
SLURM_BCAST Sama dengan --bcast
SLURM_BLRTS_IMAGE Sama dengan --blrts-gambar
SLURM_BURST_BUFFER Sama dengan --bb
SLURM_CHECKPOINT Sama dengan --pos pemeriksaan
SLURM_CHECKPOINT_DIR Sama dengan --pos pemeriksaan-dir
SLURM_CNLOAD_IMAGE Sama dengan --cnload-gambar
SLURM_CONN_TYPE Sama dengan --tipe-sambungan
SLURM_CORE_SPEC Sama dengan --spesifikasi inti
SLURM_CPU_BIND Sama dengan --cpu_bind
SLURM_CPU_FREQ_REQ Sama dengan --cpu-frekuensi.
SLURM_CPUS_PER_TASK Sama dengan -C, --cpus-per-tugas
SLURM_DEBUG Sama dengan -di, --bertele-tele
SlurmD_DEBUG Sama dengan -D, --slurmd-debug
SLURM_DEPENDENSI -P, --ketergantungan=<pekerjaan>
SLURM_DISABLE_STATUS Sama dengan -X, --nonaktifkan-status
SLURM_DIST_PLANESIZE Sama dengan -m pesawat
SLURM_DISTRIBUSI Sama dengan -M, --distribusi
SLURM_EPILOG Sama dengan --epilog
SLURM_EKSKLUSIF Sama dengan --eksklusif
SLURM_EXIT_ERROR Menentukan kode keluar yang dihasilkan ketika kesalahan Slurm terjadi (mis
pilihan yang tidak valid). Ini dapat digunakan oleh skrip untuk membedakan
kode keluar aplikasi dari berbagai kondisi kesalahan Slurm. Juga
melihat SLURM_EXIT_SEGERA.
SLURM_EXIT_SEGERA Menentukan kode keluar yang dihasilkan ketika --segera pilihannya adalah
digunakan dan sumber daya saat ini tidak tersedia. Ini dapat digunakan oleh
skrip untuk membedakan kode keluar aplikasi dari berbagai Slurm
kondisi kesalahan. Lihat juga SLURM_EXIT_ERROR.
SLURM_GEOMETRI Sama dengan -G, --geometri
SLURM_HINT Sama dengan --petunjuk
SLURM_GRES Sama dengan --gres. Lihat juga SLURM_STEP_GRES
SLURM_SEGERA Sama dengan -SAYA, --segera
SLURM_IOLOAD_IMAGE Sama dengan --ioload-gambar
SLURM_JOB_ID (Dan SLURM_JOBID untuk kompatibilitas mundur)
Sama dengan --pekerjaan
SLURM_JOB_NAME Sama dengan -J, --nama Pekerjaan kecuali dalam alokasi yang ada, di
kasus mana yang diabaikan untuk menghindari penggunaan nama pekerjaan batch sebagai
nama setiap langkah pekerjaan.
SLURM_JOB_NUM_NODES (Dan SLURM_NNODES untuk kompatibilitas mundur)
Jumlah total node dalam alokasi sumber daya tugas.
SLURM_KILL_BAD_EXIT Sama dengan -K, --membunuh-saat-keluar-buruk
SLURM_LABELIO Sama dengan -aku, --label
SLURM_LINUX_IMAGE Sama dengan --linux-gambar
SLURM_MEM_BIND Sama dengan --mem_bind
SLURM_MEM_PER_CPU Sama dengan --mem-per-cpu
SLURM_MEM_PER_NODE Sama dengan --mem
SLURM_MLOADER_IMAGE Sama dengan --mloader-gambar
SLURM_MPI_TYPE Sama dengan --mpi
SLURM_NETWORK Sama dengan --jaringan
SLURM_NNODES Sama dengan -N, --node
SLURM_NO_ROTATE Sama dengan -R, --tidak berputar
SLURM_NTASKS (Dan SLURM_NPROCS untuk kompatibilitas mundur)
Sama dengan -N, --tugas
SLURM_NTASKS_PER_CORE Sama dengan --tugas-per-inti
SLURM_NTASKS_PER_NODE Sama dengan --tugas-per-node
SLURM_NTASKS_PER_SOCKET
Sama dengan --tugas-per-soket
SLURM_OPEN_MODE Sama dengan --mode terbuka
SLURM_OVERCOMMIT Sama dengan -HAI, --komitmen berlebihan
SLURM_PARTISI Sama dengan -P, --partisi
SLURM_PMI_KVS_NO_DUP_KEYS
Jika disetel, maka pasangan kunci PMI tidak akan berisi kunci duplikat. MPI bisa
gunakan variabel ini untuk memberi tahu perpustakaan PMI bahwa itu tidak akan digunakan
duplikat kunci sehingga PMI dapat melewati pemeriksaan kunci duplikat. Ini
adalah kasus untuk MPICH2 dan mengurangi overhead dalam pengujian untuk
duplikat untuk meningkatkan kinerja
SLURM_POWER Sama dengan --kekuasaan
SLURM_PROFILE Sama dengan --Profil
SLURM_PROLOG Sama dengan --prolog
SLURM_QOS Sama dengan --qos
SLURM_RAMDISK_IMAGE Sama dengan --ramdisk-gambar
SLURM_REMOTE_CWD Sama dengan -D, --chdir=
SLURM_REQ_SWITCH Ketika topologi pohon digunakan, ini mendefinisikan jumlah maksimum
sakelar yang diinginkan untuk alokasi pekerjaan dan secara opsional maksimum
waktu untuk menunggu jumlah sakelar itu. Melihat --switch
SLURM_RESERVASI Sama dengan --reservasi
SLURM_RESTART_DIR Sama dengan --restart-dir
SLURM_RESV_PORTS Sama dengan --resv-port
SLURM_SICP Sama dengan --sicp
SLURM_SIGNAL Sama dengan --sinyal
SLURM_STDERRMODE Sama dengan -e, --kesalahan
SLURM_STDINMODE Sama dengan -Saya, --memasukkan
SLURM_SRUN_REDUCE_TASK_EXIT_MSG
jika disetel dan bukan nol, pesan keluar tugas yang berurutan dengan yang sama
kode keluar akan dicetak hanya sekali.
SLURM_STEP_GRES Sama dengan --gres (hanya berlaku untuk langkah-langkah pekerjaan, bukan untuk alokasi pekerjaan).
Juga lihat SLURM_GRES
SLURM_STEP_KILLED_MSG_NODE_ID= ID
Jika disetel, hanya node yang ditentukan yang akan masuk ketika pekerjaan atau langkahnya
dibunuh oleh sinyal.
SLURM_STDOUTMODE Sama dengan -Hai, --keluaran
SLURM_TASK_EPILOG Sama dengan --tugas-epilog
SLURM_TASK_PROLOG Sama dengan --tugas-prolog
SLURM_TEST_EXEC jika ditentukan, maka verifikasi keberadaan program yang dapat dieksekusi di
komputer lokal sebelum mencoba meluncurkannya pada node komputasi.
SLURM_THREAD_SPEC Sama dengan --spesifikasi-utas
SLURM_THREADS Sama dengan -T, --utas
SLURM_TIMELIMIT Sama dengan -T, --waktu
SLURM_UNBUFEREDIO Sama dengan -kamu, --tidak disangga
SLURM_TUNGGU Sama dengan -W, --tunggu
SLURM_WAIT4SWITCH Waktu maksimum menunggu sakelar yang diminta. Melihat --switch
SLURM_WCKEY Sama dengan -W, --wckey
SLURM_WORKING_DIR -D, --chdir
KELUARAN LINGKUNGAN VARIABEL
srun akan mengatur beberapa variabel lingkungan di lingkungan tugas yang dijalankan pada
node komputasi jarak jauh. Variabel lingkungan ini adalah:
SLURM_CHECKPOINT_IMAGE_DIR
Direktori ke mana gambar pos pemeriksaan harus ditulis jika
ditentukan pada baris eksekusi.
SLURM_CLUSTER_NAME Nama cluster tempat tugas dijalankan.
SLURM_CPU_BIND_VERBOSE
--cpu_bind verbositas (tenang, verbose).
SLURM_CPU_BIND_TYPE --cpu_bind type (none,rank,map_cpu:,mask_cpu :).
SLURM_CPU_BIND_LIST --cpu_bind map or mask list (daftar Slurm CPU ID atau mask untuk ini
simpul, CPU_ID = Board_ID x threads_per_board + Socket_ID x
thread_per_socket + Core_ID x thread_per_core + Thread_ID).
SLURM_CPU_FREQ_REQ Berisi nilai yang diminta untuk frekuensi cpu pada perintah srun
sebagai frekuensi numerik dalam kilohertz, atau nilai kode untuk a
permintaan rendah, medium,tinggim1 or tinggi untuk frekuensi. Lihat
deskripsi dari --cpu-frekuensi pilihan atau SLURM_CPU_FREQ_REQ memasukkan
variabel lingkungan.
SLURM_CPUS_ON_NODE Jumlah prosesor yang tersedia untuk pekerjaan di node ini. Perhatikan
pilih/plugin linier mengalokasikan seluruh node ke pekerjaan, jadi nilainya
menunjukkan jumlah total CPU pada node. Untuk
pilih/cons_res plugin, nomor ini menunjukkan jumlah core pada
node ini dialokasikan untuk pekerjaan.
SLURM_CPUS_PER_TASK Jumlah CPU yang diminta per tugas. Hanya atur jika --cpus-per-tugas
opsi ditentukan.
SLURM_DISTRIBUSI Jenis distribusi untuk pekerjaan yang dialokasikan. Atur distribusinya dengan
-m, --distribusi.
SLURM_GTIDS ID tugas global yang berjalan di node ini. Nol asal dan koma
terpisah.
SLURM_JOB_CPUS_PER_NODE
Jumlah CPUS per node.
SLURM_JOB_DEPENDENSI Setel ke nilai opsi --dependency.
SLURM_JOB_ID (Dan SLURM_JOBID untuk kompatibilitas mundur)
ID pekerjaan dari pekerjaan yang dijalankan.
SLURM_JOB_NAME Setel ke nilai opsi --job-name atau nama perintah ketika
srun digunakan untuk membuat alokasi pekerjaan baru. Tidak disetel saat srun adalah
hanya digunakan untuk membuat langkah pekerjaan (yaitu dalam pekerjaan yang ada
alokasi).
SLURM_JOB_PARTITION Nama partisi tempat pekerjaan dijalankan.
SLURM_LAUNCH_NODE_IPADDR
Alamat IP node tempat peluncuran tugas dimulai
(dari mana perintah srun dijalankan).
SLURM_LOCALID Node ID tugas lokal untuk proses dalam pekerjaan.
SLURM_MEM_BIND_VERBOSE
--mem_bind verbositas (tenang, verbose).
SLURM_MEM_BIND_TYPE --mem_bind type (none,rank,map_mem:,mask_mem :).
SLURM_MEM_BIND_LIST --mem_bind peta atau daftar topeng ( ).
SLURM_NNODES Jumlah total node dalam alokasi sumber daya tugas.
SLURM_NODE_ALIASES Set nama node, alamat komunikasi dan nama host untuk node
dialokasikan ke pekerjaan dari cloud. Setiap elemen dalam himpunan jika
titik dua dipisahkan dan setiap set dipisahkan koma. Sebagai contoh:
SLURM_NODE_ALIASES=ec0:1.2.3.4:foo,ec1:1.2.3.5:bar
SLURM_NODEID ID simpul relatif dari simpul saat ini.
SLURM_NODELIST Daftar node yang dialokasikan untuk pekerjaan.
SLURM_NTASKS (Dan SLURM_NPROCS untuk kompatibilitas mundur)
Jumlah total proses dalam pekerjaan saat ini.
SLURM_PRIO_PROSES Prioritas penjadwalan (nilai bagus) pada saat penyerahan pekerjaan.
Nilai ini disebarkan ke proses spawned.
SLURM_PROCID Peringkat MPI (atau ID proses relatif) dari proses saat ini.
SLURM_SRUN_COMM_HOST Alamat IP host komunikasi srun.
SLURM_SRUN_COMM_PORT menghindari port komunikasi.
SLURM_STEP_LAUNCHER_PORT
Port peluncur langkah.
SLURM_STEP_NODELIST Daftar node yang dialokasikan untuk langkah.
SLURM_STEP_NUM_NODES Jumlah node yang dialokasikan untuk langkah.
SLURM_STEP_NUM_TASKS Jumlah proses dalam langkah.
SLURM_STEP_TASKS_PER_NODE
Jumlah proses per node dalam langkah.
SLURM_STEP_ID (Dan SLURM_STEPID untuk kompatibilitas mundur)
ID langkah pekerjaan saat ini.
SLURM_SUBMIT_DIR Direktori dari mana lari dipanggil.
SLURM_SUBMIT_HOST Nama host komputer dari mana salloc dipanggil.
SLURM_TASK_PID ID proses tugas yang sedang dimulai.
SLURM_TASKS_PER_NODE Jumlah tugas yang akan dimulai pada setiap node. Nilai adalah koma
dipisahkan dan dalam urutan yang sama dengan SLURM_NODELIST. Jika dua atau lebih
node berturut-turut harus memiliki jumlah tugas yang sama, jumlah itu adalah
diikuti oleh "(x#)" di mana "#" adalah jumlah pengulangan. Sebagai contoh,
"SLURM_TASKS_PER_NODE=2(x3),1" menunjukkan bahwa tiga node pertama
masing-masing akan menjalankan tiga tugas dan simpul keempat akan menjalankan satu
tugas.
SLURM_TOPLOGY_ADDR Ini diatur hanya jika sistem memiliki plugin topologi/pohon
dikonfigurasi. Nilainya akan diatur ke nama switch jaringan
yang mungkin terlibat dalam komunikasi pekerjaan dari sistem
sakelar tingkat atas ke bawah ke sakelar daun dan diakhiri dengan nama simpul.
Tanda titik digunakan untuk memisahkan setiap nama komponen perangkat keras.
SLURM_TOPLOGY_ADDR_PATTERN
Ini diatur hanya jika sistem memiliki plugin topologi/pohon
dikonfigurasi. Nilainya akan diatur jenis komponen yang tercantum di
SLURM_TOPLOGY_ADDR. Setiap komponen akan diidentifikasi sebagai
"beralih" atau "simpul". Tanda titik digunakan untuk memisahkan setiap perangkat keras
jenis komponen.
SRUN_DEBUG Setel ke level logging dari lari memerintah. Nilai defaultnya adalah 3
(tingkat informasi). Nilai bertambah atau berkurang berdasarkan
opsi --verbose dan --quiet.
MPIRUN_NOALLOKAT Jangan mengalokasikan blok pada sistem Blue Gene saja.
MPIRUN_NOFREE Jangan membebaskan blokir hanya pada sistem Blue Gene.
MPIRUN_PARTISI Nama blok hanya pada sistem Blue Gene.
SINYAL DAN ESCAPE URUTAN
Sinyal dikirim ke lari perintah secara otomatis diteruskan ke tugas-tugas itu
mengendalikan dengan beberapa pengecualian. Urutan pelarian akan melaporkan keadaan
dari semua tugas yang terkait dengan lari memerintah. Jika dimasukkan dua kali dalam satu
kedua, maka sinyal SIGINT terkait akan dikirim ke semua tugas dan penghentian
urutan akan dimasukkan mengirimkan SIGCONT, SIGTERM, dan SIGKILL ke semua tugas yang dihasilkan. Jika sebuah
ketiga diterima, program srun akan dihentikan tanpa menunggu
tugas jarak jauh untuk keluar atau I/O mereka untuk diselesaikan.
Urutan pelarian saat ini diabaikan. Niat kami adalah untuk menempatkan ini lari
perintah ke mode di mana berbagai tindakan khusus dapat dipanggil.
lampu SUPPORT
Penggunaan MPI tergantung pada jenis MPI yang digunakan. Ada tiga yang berbeda secara fundamental
mode operasi yang digunakan oleh berbagai implementasi MPI ini.
1. Slurm langsung meluncurkan tugas dan melakukan inisialisasi komunikasi
(Quadrics MPI, MPICH2, MPICH-GM, MVAPICH, MVAPICH2 dan beberapa mode MPICH1). Sebagai contoh:
"lari -n16 a.out".
2. Slurm membuat alokasi sumber daya untuk pekerjaan dan kemudian mpirun meluncurkan tugas menggunakan
Infrastruktur slurm (OpenMPI, LAM/MPI, HP-MPI dan beberapa mode MPICH1).
3. Slurm membuat alokasi sumber daya untuk pekerjaan dan kemudian mpirun meluncurkan tugas menggunakan
beberapa mekanisme selain Slurm, seperti SSH atau RSH (BlueGene MPI dan beberapa mode MPICH1).
Tugas-tugas ini dimulai di luar pemantauan atau kontrol Slurm. Epilog Slurm seharusnya
dikonfigurasi untuk menghapus tugas-tugas ini ketika alokasi pekerjaan dilepaskan.
Lihat http://slurm.schedmd.com/mpi_guide.html untuk informasi lebih lanjut tentang penggunaan berbagai ini
Implementasi MPI dengan Slurm.
GANDA PROGRAM KONFIGURASI
Komentar dalam file konfigurasi harus memiliki "#" di kolom satu. File konfigurasi
berisi bidang-bidang berikut yang dipisahkan oleh spasi putih:
peringkat tugas
Satu atau beberapa peringkat tugas untuk menggunakan konfigurasi ini. Beberapa nilai boleh koma
terpisah. Rentang dapat ditunjukkan dengan dua angka yang dipisahkan dengan '-' dengan
angka yang lebih kecil terlebih dahulu (misalnya "0-4" dan bukan "4-0"). Untuk menunjukkan semua tugas tidak
ditentukan lain, tentukan peringkat '*' sebagai baris terakhir file. Jika
upaya dibuat untuk memulai tugas yang tidak ada program yang dapat dieksekusi yang ditentukan,
pesan kesalahan berikut akan dihasilkan "Tidak ada program yang dapat dieksekusi yang ditentukan untuk ini
tugas".
Dapat dieksekusi
Nama program yang akan dieksekusi. Mungkin nama jalur yang sepenuhnya memenuhi syarat jika diinginkan.
kasus
Argumen program. Ekspresi "%t" akan diganti dengan nomor tugas.
Ekspresi "%o" akan diganti dengan offset tugas dalam rentang ini (mis
nilai peringkat tugas yang dikonfigurasi "1-5" akan memiliki nilai offset "0-4"). Lajang
kutipan dapat digunakan untuk menghindari interpretasi nilai terlampir. bidang ini adalah
pilihan. Argumen apa pun untuk program yang dimasukkan pada baris perintah akan ditambahkan
dengan argumen yang ditentukan dalam file konfigurasi.
Sebagai contoh:
############################################### #################
# jalankan beberapa file konfigurasi program
#
# srun -n8 -l --multi-prog konyol.conf
############################################### #################
4-6 nama host
1,7 tugas gema:%t
0,2-3 gema offset:%o
> srun -n8 -l --multi-prog konyol.conf
0: offset: 0
1: tugas: 1
2: offset: 1
3: offset: 2
4: linux15.llnl.gov
5: linux16.llnl.gov
6: linux17.llnl.gov
7: tugas: 7
CONTOH
Contoh sederhana ini menunjukkan eksekusi perintah hostname dalam delapan tugas. Pada
setidaknya delapan prosesor akan dialokasikan untuk pekerjaan (sama dengan jumlah tugas) pada
namun banyak node yang diperlukan untuk memenuhi permintaan tersebut. Output dari setiap tugas akan menjadi
melanjutkan dengan nomor tugasnya. (Mesin "dev" dalam contoh di bawah ini memiliki total
dua CPU per node)
> lari -n8 -l nama host
0: dev0
1: dev0
2: dev1
3: dev1
4: dev2
5: dev2
6: dev3
7: dev3
srun -r opsi digunakan dalam skrip pekerjaan untuk menjalankan dua langkah pekerjaan pada node yang terpisah di
contoh berikut. Skrip dijalankan menggunakan mode alokasi alih-alih sebagai pekerjaan batch di
kasus ini.
> tes kucing.sh
#!/ Bin / sh
gema $SLURM_NODELIST
srun -lN2 -r2 nama host
srun -lN2 nama host
> salloc -N4 test.sh
pengembang[7-10]
0: dev9
1: dev10
0: dev7
1: dev8
Skrip berikut menjalankan dua langkah pekerjaan secara paralel dalam kumpulan node yang dialokasikan.
> tes kucing.sh
#!/ bin / bash
lari -lN2 -n4 -r 2 tidur 60 &
lari -lN2 -r 0 tidur 60 &
tidur 1
antrean
antrian -s
menunggu
> salloc -N4 test.sh
NAMA PARTISI JOBID PENGGUNA ST TIME NODES NODELIST
65641 batch test.sh grondo R 0:01 4 pengembangan[7-10]
NODELIST WAKTU PENGGUNA PARTISI LANGKAH
65641.0 batch grond 0:01 pengembang[7-8]
65641.1 batch grond 0:01 pengembang[9-10]
Contoh ini menunjukkan bagaimana seseorang menjalankan pekerjaan MPICH sederhana. Kita gunakan lari untuk membangun a
daftar mesin (node) yang akan digunakan oleh pirun dalam format yang diperlukan. Contoh perintah
baris dan skrip yang akan dieksekusi ikuti.
> tes kucing.sh
#!/ Bin / sh
MACHINEFILE="simpul.$SLURM_JOB_ID"
# Hasilkan Machinefile untuk mpich sehingga host berada di tempat yang sama
# pesan seolah-olah dijalankan melalui srun
#
lari -l /bin/nama host | urutkan -n | awk '{print $2}' > $MACHINEFILE
# Jalankan menggunakan file Mesin yang dihasilkan:
mpirun -np $SLURM_NTASKS -filemesin $MACHINEFILE mpi-app
rm $MACHINEFILE
> salloc -N2 -n4 test.sh
Contoh sederhana ini menunjukkan pelaksanaan pekerjaan yang berbeda pada node yang berbeda di
lari yang sama. Anda dapat melakukan ini untuk sejumlah node atau sejumlah pekerjaan. Itu
executable ditempatkan pada node yang ditempatkan oleh SLURM_NODEID env var. Mulai dari 0 dan
pergi ke nomor yang ditentukan pada baris perintah srun.
> tes kucing.sh
kasus $SLURM_NODEID di
0) echo "Saya sedang menjalankan"
nama host ;;
1) nama host
echo "tempat saya berlari" ;;
esac
> lari -N2 test.sh
dev0
adalah tempat saya berlari
aku berlari
dev1
Contoh ini menunjukkan penggunaan opsi multi-inti untuk mengontrol tata letak tugas. Kami
meminta empat soket per node dan dua inti per soket didedikasikan untuk pekerjaan itu.
> srun -N2 -B 4-4:2-2 a.out
Contoh ini menunjukkan skrip di mana Slurm digunakan untuk menyediakan manajemen sumber daya untuk a
pekerjaan dengan menjalankan berbagai langkah pekerjaan saat prosesor tersedia untuk mereka yang berdedikasi
digunakan.
> cat my.script
#!/ bin / bash
srun --eksklusif -n4 prog1 &
srun --eksklusif -n3 prog2 &
srun --eksklusif -n1 prog3 &
srun --eksklusif -n1 prog4 &
menunggu
PENYALINAN
Hak Cipta (C) 2006-2007 Bupati Universitas California. Diproduksi di Lawrence
Laboratorium Nasional Livermore (lih, DISCLAIMER).
Hak Cipta (C) 2008-2010 Keamanan Nasional Lawrence Livermore.
Hak Cipta (C) 2010-2015 SchedMD LLC.
File ini adalah bagian dari Slurm, program manajemen sumber daya. Untuk detailnya, lihat
<http://slurm.schedmd.com/>.
Slurm adalah perangkat lunak gratis; Anda dapat mendistribusikan ulang dan/atau memodifikasinya di bawah ketentuan
Lisensi Publik Umum GNU sebagaimana diterbitkan oleh Free Software Foundation; baik versi 2
dari Lisensi, atau (sesuai pilihan Anda) versi yang lebih baru.
Slurm disebarluaskan dengan harapan bisa bermanfaat, tapi TANPA JAMINAN APAPUN; tanpa
bahkan jaminan tersirat tentang KELAYAKAN DIPERDAGANGKAN atau KESESUAIAN UNTUK TUJUAN TERTENTU. Lihat
Lisensi Publik Umum GNU untuk perincian lebih lanjut.
Gunakan srun online menggunakan layanan onworks.net