Submit Script ALELEON Supercomputer: Perbedaan antara revisi

Dari ALELEON by EFISON
(mengganti urutan penamaan judul partisi)
 
(27 revisi perantara oleh pengguna yang sama tidak ditampilkan)
Baris 1: Baris 1:
Halaman ini menjelaskan panduan memahami dan mengisi parameter resources pada SLURM Script beserta contohnya berdasarkan hardware ALELEON Supercomputer.   
[[Berkas:Slurm.jpg|nirbing|400x400px]]    


== '''Tanda ////''' ==
Halaman ini menjelaskan panduan memahami '''Submit Script''' yang merupakan 'formulir' untuk menjalankan komputasi ke Compute Node menggunakan '''sistem manajemen Slurm'''.  
Tanda 4 garing (////) digunakan oleh admin EFISON untuk '''menandai bagian yang perlu diisi oleh user'''. Contoh terdapat bagian script untuk menaruh nama file input:
file_input="////.inp"
Artinya user mengisi nama file input dengan menggantikan tanda //// di dalam braket tanda petik, contoh menjadi:
file_input="'''ayam_goreng'''.inp"


=='''Struktur SLURM Script'''==
=='''Struktur Submit Script'''==
Secara umum, Submit Script atau SLURM Script dipecah menjadi 4 bagian penting.
Submit Script mempunyai 4 bagian utama:


[[Berkas:Jcscriptrev.png|al=|nirbing|520x520px]]
#Header '''#!/bin/bash''' karena script ini ditulis dengan '''bahasa bash'''.  
# Header '''#!/bin/bash''' karena SLURM Script adalah bash script.
#'''Parameter SBATCH''' untuk mengalokasikan resources job seperti CPU, RAM, GPU, time, dll.
# '''Parameter SBATCH''' untuk mengalokasikan resources job seperti CPU, RAM, GPU, time, dll.
#*''User menentukan sendiri jumlah alokasi komputasi (CPU, RAM, GPU, time limit) yang akan dipakai asalkan tidak melebihi limit.''
#* Terdapat ratusan jenis [https://slurm.schedmd.com/sbatch.html parameter SBATCH pada SLURM] dari yang standar hingga ''advanced''. Pada halaman ini, admin EFISON merangkum parameter SBATCH yang '''esensial untuk penggunaan ALELEON Supercomputer.'''
# Apabila butuh, memuat modul software untuk menjalankan komputasi user dengan '''[https://wiki.efisonlt.com/wiki/Module_Environment#Module_Environment_di_SLURM_Submit_Script Module Environment]'''
# [[Module Environment|'''Memuat software yang dibutuhkan untuk menjalankan job user dengan Module Environment.''']] Apabila user tidak memuat modul software yang benar maka job tidak akan berjalan.
# Alur perintah jalannya program user.
# Perintah utama untuk menjalankan program user.


=='''Resources ALELEON Supercomputer di SLURM'''==
[[Berkas:Slurmsubmitscript.png|al=|nir|jmpl|''Struktur dan contoh SLURM Submit Script'']]
Sebelum menentukan alokasi resource job pada SBATCH, user harus mengetahui spesifikasi hardware dari ALELEON Supercomputer:
== '''Parameter SBATCH esensial'''  ==
Parameter SBATCH berfungsi untuk mengatur alokasi komputasi (CPU, RAM, GPU, time limit) dan output program. SLURM mempunyai ratusan opsi untuk parameter SBATCH dimana tutorial ini memberikan daftar SBATCH yang esensial untuk menjalankan komputasi di ALELEON Supercomputer.
 
=== Format Penulisan SBATCH ===
SBATCH ditulis dengan format <code>'''#SBATCH --''[nama-parameter]''=''[nilai]'''''</code> sesuai contoh berikut:  <syntaxhighlight lang="bash">
# --- Contoh penulisan SBATCH yang benar
#SBATCH --ntasks=32
#SBATCH --mem=64GB
#SBATCH --time=01:00:00
#SBATCH --output=result-%j.txt
#SBATCH --error=error-%j.txt
 
# --- Contoh penulisan SBATCH yang salah
#SBATCH --ntasks = 32
#SBATCH --mem= 64GB
#SBATCH --mem = 64 GB
</syntaxhighlight>
=== #SBATCH --partition ===
Menentukan jenis partisi (Compute Node) untuk menjalankan job komputasi user. ALELEON Supercomputer mempunyai 2 partisi Compute Node:  
{| class="wikitable"
{| class="wikitable"
!Komponen
!Partisi Compute Node
!Kapasitas
!Menulis SBATCH
|-
|-
| colspan="2" |'''Partisi epyc - Compute Node CPU'''
|'''epyc''' (Compute Node CPU)
|Merupakan partisi default
 
* user tidak perlu menulis SBATCH parameter untuk epyc
|-
|-
|Node
|'''ampere''' (Compute Node GPU)
|'''3'''
|<code>#SBATCH --partition=ampere</code>
|}
 
=== #SBATCH --ntasks, --mem, dan --gpus ===
ntasks, mem, dan gpus adalah parameter SBATCH utama untuk menentukan alokasi komputasi.
 
* '''ntasks''' -> alokasi jumlah '''core CPU.''' ALELEON Supercomputer mengaktifkan ''SMT (Simultaneous Multithreading)'' pada semua CPU sehingga ntasks mendefinisikan jumlah core thread CPU.
* '''mem''' -> alokasi jumlah '''memori RAM'''. Ditulis dengan satuan memori GB (Gigabyte).
* '''gpus''' -> alokasi jumlah '''GPU'''.
 
Berikut adalah panduan nilai maksimal parameter untuk beberapa skenario penggunaan:
{| class="wikitable"
! rowspan="2" |Skenario Penggunaan
! colspan="3" |Nilai maksimal
|-
|-
|Core CPU per node
!ntasks (CPU)
|'''128'''
!mem (RAM)
!gpus (GPU)
|-
|-
|Core CPU total
|Akumulasi ''concurrent'' job fair policy usage<sup>''1''</sup>
|'''384'''
|128
|128GB
|2
|-
|-
|RAM per node
|Job non-MPI di epyc (Compute Node CPU)''<sup>2</sup>''  
|'''240GB'''
|128
|240GB
|0
|-
|-
| colspan="2" |'''Partisi gpu_ampere - Compute Node GPU'''
|Job MPI di epyc (Compute Node CPU)<sup>''3''</sup>
|384
|240GB
|0
|-
|-
|Node
|Semua jenis job di high-mem node epyc''<sup>4</sup>''
|'''1'''
|128
|500GB
|0
|-
|-
|Core CPU
|Semua jenis job di ampere (Compute Node GPU)''<sup>5</sup>''
|'''128'''
|32
|120GB
|2
|-
|-
|GPU
| colspan="4" |''Tim admin dapat membantu user untuk membedakan program MPI dan non-MPI.''
|'''2'''
* ''Daftar [[Daftar Software Komputasi dan Tutorial Penggunaan|'''software komputasi ALELEON''']] memberikan indikator program MPI atau non-MPI.''
|-
* ''Dapat pula menghubungi admin untuk diskusi melalui email '''support@efisonlt.com'''.''  
|RAM
|'''125GB'''
|}
|}
EFISON mengaktifkan '''SMT (Simultaneous Multi-Threading)''' pada semua CPU AMD di ALELEON Supercomputer sehingga masing-masing CPU mempunyai '''2 core thread per 1 core fisik'''. Info lebih detail dapat dipelajari pada laman '''[[Spesifikasi ALELEON Supercomputer]]'''.
'''''Keterangan:'''''
# Limitasi '''fair policy usage''' untuk menjaga kualitas layanan ALELEON Supercomputer.
#* User dapat mengajukan permintaan membuka limitasi apabila job membutuhkan alokasi lebih.
#* Info lebih detail lihat laman [[Limitasi Fair Usage ALELEON Supercomputer|'''Limitasi Fair Usage ALELEON Supercomputer''']]
# Program non-MPI hanya dapat berjalan satu node (maks 128 core di epyc dan 32 core di ampere).
# Program MPI dapat berjalan ''multi-node (parallel computing)'' pada Partisi epyc yaitu lebih dari 128 core
#* Pada jumlah ntasks >128, SLURM otomatis menjalankan job secara multi-node.
#* Dalam kaitan ini, parameter mem adalah alokasi memori RAM per-node.
#* Info lebih detail lihat laman [[MPI ALELEON Supercomputer|'''MPI ALELEON Supercomputer''']].
#Partisi epyc mempunyai satu node dengan jumlah memori 500GB yaitu epyc001.
##Tambahkan parameter '''<code>#SBATCH --nodelist=epyc001</code>'''
#Jangan lupa untuk menggunakan compute node GPU, tambahkan parameter '''<code>#SBATCH --partition=ampere</code>'''
=== #SBATCH --time ===
Alokasi waktu maksimal untuk menjalankan job. Ditulis dengan format HH:MM:SS atau D-HH:MM:SS. ALELEON Supercomputer mengizinkan time maksimal 3 hari per job (72:00:00 atau 3-00:00:00).  


Secara default, penggunaan CPU pada ALELEON Supercomputer didasarkan pada '''core thread,''' termasuk '''[[Core Hour|penghitungan penggunaan komputasi CPU Core Hour user]]'''.
* SLURM akan menghentikan job apabila berjalan melebihi time yang dialokasikan,
* SLURM akan menahan job (status PENDING) apabila '''ntasks * time yang dialokasikan lebih besar dari sisa Core Hour user'''.
* Untuk mengetahui sisa Core Hour, jalankan perintah <code>'''sausage'''</code> pada terminal.  


== '''SBATCH Partisi epyc / Compute Node CPU''' ==
=== #SBATCH --output ===
#SBATCH --nodes=////
SBATCH output membuat file untuk merekap output terminal jalannya program. User mendefinisikan nama dan format file.
#SBATCH --ntasks=////
* Terdapat pola penamaan dari SLURM yaitu %j untuk merekap nomor Job ID.
#SBATCH --mem=////
* Format file dibebaskan (biasanya menggunakan .txt atau .out).
#SBATCH --time=////
Template submit script pada wiki ini memberikan contoh penamaan <code>'''#SBATCH --output=result-%j.txt'''</code> dimana ketika job berjalan (contoh) dengan job-ID 670, maka nama file output menjadi '''result-670.txt'''.
#SBATCH --output=////
#SBATCH --error=////


* '''nodes'''
=== #SBATCH --error ===
** Alokasi jumlah '''node''' yang digunakan.
SBATCH error membuat file untuk merekap output verbose program (status jalannya program dan error log ketika program gagal berjalan). File SBATCH error bermanfaat untuk melakukan ''troubleshooting'' ketika program gagal berjalan. '''Apabila membutuhkan support, admin biasanya akan meminta file output dari SBATCH error ini'''. Pola penamaan mengikuti SBATCH output di atas.
** Contoh mengalokasikan 1 node: '''#SBATCH --nodes=1'''
 
** Nilai maksimal nodes = '''3'''
=== '''SBATCH untuk notifikasi email SLURM''' ===
* '''ntasks'''  
SLURM ALELEON Supercomputer dapat mengirim notifikasi email kepada user dengan nama "Jojo" untuk mengabarkan status berjalannya job komputasi user. Silahkan tambahan SBATCH berikut pada submit script apabila user ingin menerima notifikasi email dari SLURM: <syntaxhighlight lang="bash">
** Alokasi jumlah '''core thread CPU''' yang digunakan.
#SBATCH --mail-user=<alamat-email-user>
** Contoh mengalokasikan 32 core thread CPU: '''#SBATCH --ntasks=32'''
#SBATCH --mail-type=BEGIN,END,FAIL
** Nilai maksimal ntasks adalah '''kelipatan''' '''128 per 1 node''':
</syntaxhighlight>SBATCH mail-type mengatur konten email notifikasi SLURM dengan pilihan opsi yang sekiranya berguna untuk user:  
{| class="wikitable"
 
!Jumlah node
* BEGIN -> notifikasi job sudah mulai
!ntasks maks
* END -> notifikasi job sudah selesai beserta cuplikan 20 baris terakhir dari file SBATCH output dan error.
|-
* FAIL -> notifikasi apabila job gagal berjalan atau berhenti tidak sewajarnya.  
|1
* TIME_LIMIT_50 -> job telah berjalan dengan durasi waktu 50% time limit.  
|128
* TIME_LIMIT_80 -> job telah berjalan dengan durasi waktu 80% time limit.
|-
 
|2
=== SBATCH lainnya untuk job MPI ===
|256
Dalam menjalankan job MPI, user dapat menggunakan parameter SBATCH yang lebih kompleks seperti <code>nodes</code> (alokasi jumlah node), <code>mem-per-cpu</code> (alokasi jumlah RAM per core CPU), <code>mem-per-gpu</code> (alokasi jumlah RAM per GPU). <code>cpus-per-task</code> (alokasi jumlah core per proses MPI untuk skenario hybrid MPI / OMP job), dan lain-lainnya. Info lebih detail lihat laman [[MPI ALELEON Supercomputer|'''MPI ALELEON Supercomputer''']]
|-
|3
|384
|}
*'''mem'''  
** Alokasi '''kapasitas RAM''' '''per node''' yang digunakan, diikuti dengan satuan KB, MB, atau GB.
** Contoh mengalokasikan RAM 32GB: '''#SBATCH --mem=32GB'''
** Nilai maksimal mem = '''240GB'''
*'''time'''
** Alokasi '''walltime (waktu maksimal)''' yang diizinkan untuk menjalankan job, mengikuti format penulisan:  
*** HH:MM:SS. Contoh alokasi 2 jam: '''#SBATCH --time=02:00:00'''
*** D-HH:MM:SS. Contoh alokasi 2 hari: '''#SBATCH --time=2-00:00:00'''
** Nilai maksimal walltime = '''14-00:00:00'''
*'''output'''
** Merekap '''output program yang keluar di terminal'''. User memberikan sendiri nama file (satu kata tanpa spasi) diikuti dengan format file seperti .txt atau .out yang sering digunakan.
** Terdapat penamaan pattern dari SLURM yaitu '''%j''' yang merekap job-ID.
** Contoh penamaan output yang sering digunakan: '''#SBATCH --output=result-%j.txt'''
** Apabila job berjalan dengan no. ID 2555, maka nama output menjadi '''result-2555.txt'''
*'''error'''
** Merekap '''output verbose program''' yaitu status jalannya program seperti "job sudah berjalan!" dan error log ketika program gagal selesai.
** Output error sangat bermanfaat bagi user untuk melakukan troubleshooting disaat program gagal berjalan. Admin EFISON selalu merekomendasikan user untuk selalu menggunakan parameter error ini.
** Format penamaan mengikuti parameter output diatas, contoh: '''#SBATCH --error=error-%j.txt'''
== '''SBATCH Partisi gpu_ampere / Compute Node GPU''' ==
Secara umum mengikuti format SBATCH yang sama dengan menggunakan Partisi epyc diatas diikuti dengan tambahan parameter:
'''#SBATCH --partition=gpu_ampere'''
'''#SBATCH --gres=gpu:////'''
#SBATCH --ntasks=////
#SBATCH --mem=////
#SBATCH --time=////
#SBATCH --output=////
#SBATCH --error=////


* '''partition=gpu_ampere'''
== '''Memuat Software dengan module load''' ==
** Mengalokasikan job ke Compute Node GPU gpu_ampere
Perintah <code>module load</code> (bagian dari [[Module Environment|'''Module Environment''']] untuk memuat modul software) pada Submit Script berfungsi supaya '''Compute Node dapat menjalankan software yang dibutuhkan job user.''' <syntaxhighlight lang="bash">
* '''gres=gpu:<jumlah-GPU>'''
#!/bin/bash
** Alokasi '''Jumlah GPU''' yang digunakan.
** Contoh mengalokasikan 1 GPU: '''#SBATCH --gres=gpu:1'''
** Nilai maksimal GPU = '''gpu:2'''
* Nilai maksimal ntasks = '''128'''
* Nilai maksimal mem = '''125GB'''
* Nilai maksimal walltime = '''14-00:00:00'''
* Output dan error lihat penjelasan SBATCH Compute Node CPU di atas.
== '''SBATCH Notifikasi e-mail''' ==
SLURM pada ALELEON Supercomputer dapat mengirim notifikasi email kepada user untuk mengabarkan apabila job user sudah berjalan atau selesai. SLURM ALELEON Supercomputer menggunakan nama email '''Jojo''' untuk mengirim notifikasi email. User dapat menambahkan parameter berikut untuk menerima notifikasi email dari SLURM:
#SBATCH --mail-user=////
#SBATCH --mail-type=begin
#SBATCH --mail-type=end


* '''mail-user'''
# SBATCH ......
** Alamat email user untuk menerima notifikasi SLURM
* '''mail-type=begin'''
** Notifikasi email yang menginfokan job sudah mulai.
* '''mail-type=end'''
** Notifikasi email yang menginfokan job sudah selesai.
** Sekaligus memberikan cuplikan 20 baris terakhir dari SBATCH output dan error job user.


=='''Dasar Menentukan Alokasi nodes, ntasks, dan mem'''==
module load [nama-modul-software]
Berikut adalah aturan dan rekomendasi admin EFISON untuk user supaya dapat mengalokasikan resources komputasi nodes, ntasks, dan mem dengan benar di ALELEON Supercomputer:
----


===Menentukan Jumlah Node===
# Alur jalannya program ...
{| class="wikitable"
</syntaxhighlight>'''''Keterangan:'''''  
!Jenis Program
!nodes maksimal
|-
|Non-MPI
|1
|-
|MPI atau paralel
|3
|}Jumlah node ditentukan dari jenis program yang dijalankan yaitu program MPI dan non-MPI:
*Program MPI adalah program yang ditulis berdasarkan pemrograman paralel MPI ('''Message Parallel Interface''') di mana dapat berjalan pada satu atau lebih dari satu node.
*Program non-MPI adalah program yang tidak ditulis dengan pemodelan MPI atau paralel sehingga '''hanya dapat berjalan pada 1 node.'''
Apabila user menjalankan program komputasi yang tersedia di ALELEON Supercomputer, user dapat mengetahui bahwa program tersebut adalah MPI atau tidak dengan memperhatikan kolom "Dukungan MPI" di [https://wiki.efisonlt.com/wiki/Katalog_Software_ALELEON_Supercomputer#Daftar_Software_Komputasi_.28Global.29 '''tabel daftar software komputasi ALELEON Supercomputer''']


---
* Tulis <code>module load</code> sebelum menulis script alur jalannya program.
===Jumlah Core Thread CPU: Kelipatan 4===
Berdasarkan arsiktektur CPU AMD yang digunakan oleh ALELEON Supercomputer, user direkomendasikan untuk memilih jumlah core thread CPU (ntasks) berdasarkan kelipatan 4, dimulai dari 1,2,4, kemudian naik kelipatan 4 menjadi 8, 12, 16, 20, 24, 28, 32, 36, 40, dan seterusnya.


---
* Template Submit Script pada masing-masing tutorial software komputasi di laman [[Daftar Software Komputasi dan Tutorial Penggunaan|'''Daftar Software Komputasi dan Tutorial Penggunaan''']] dapat memandu memilih modul software yang tepat.
===Memperkirakan Kapasitas RAM yang Digunakan===
* Daftar modul software yang lengkap dirangkum pada laman [[Katalog Software ALELEON Supercomputer|'''Katalog Software ALELEON Supercomputer''']].
Tidak ada aturan baku untuk mengetahui hal ini karena bergantung dengan jenis software dan besarnya skala input yang dijalankan user. Admin EFISON dapat memberikan saran '''untuk menggunakan jumlah RAM 0.5GB per ntasks sebagai basis'''. Contoh:
*ntasks=8, alokasikan mem 4GB.
*ntasks=32, alokasikan mem 16GB.
User dapat menggunakan '''kapasitas RAM yang lebih besar''' (contoh 2GB per ntasks atau lebih) apabila user mengetahui bahwa program yang dijalankan membutuhkan kapasitas RAM besar atau program gagal berjalan dengan alokasi RAM 0.5GB per ntasks.

Revisi terkini sejak 4 Juni 2024 14.42

Berkas:Slurm.jpg

Halaman ini menjelaskan panduan memahami Submit Script yang merupakan 'formulir' untuk menjalankan komputasi ke Compute Node menggunakan sistem manajemen Slurm.

Struktur Submit Script

Submit Script mempunyai 4 bagian utama:

  1. Header #!/bin/bash karena script ini ditulis dengan bahasa bash.
  2. Parameter SBATCH untuk mengalokasikan resources job seperti CPU, RAM, GPU, time, dll.
    • User menentukan sendiri jumlah alokasi komputasi (CPU, RAM, GPU, time limit) yang akan dipakai asalkan tidak melebihi limit.
  3. Apabila butuh, memuat modul software untuk menjalankan komputasi user dengan Module Environment
  4. Alur perintah jalannya program user.
Struktur dan contoh SLURM Submit Script

Parameter SBATCH esensial

Parameter SBATCH berfungsi untuk mengatur alokasi komputasi (CPU, RAM, GPU, time limit) dan output program. SLURM mempunyai ratusan opsi untuk parameter SBATCH dimana tutorial ini memberikan daftar SBATCH yang esensial untuk menjalankan komputasi di ALELEON Supercomputer.

Format Penulisan SBATCH

SBATCH ditulis dengan format #SBATCH --[nama-parameter]=[nilai] sesuai contoh berikut:

# --- Contoh penulisan SBATCH yang benar
#SBATCH --ntasks=32
#SBATCH --mem=64GB
#SBATCH --time=01:00:00
#SBATCH --output=result-%j.txt
#SBATCH --error=error-%j.txt

# --- Contoh penulisan SBATCH yang salah
#SBATCH --ntasks = 32
#SBATCH --mem= 64GB 
#SBATCH --mem = 64 GB

#SBATCH --partition

Menentukan jenis partisi (Compute Node) untuk menjalankan job komputasi user. ALELEON Supercomputer mempunyai 2 partisi Compute Node:

Partisi Compute Node Menulis SBATCH
epyc (Compute Node CPU) Merupakan partisi default
  • user tidak perlu menulis SBATCH parameter untuk epyc
ampere (Compute Node GPU) #SBATCH --partition=ampere

#SBATCH --ntasks, --mem, dan --gpus

ntasks, mem, dan gpus adalah parameter SBATCH utama untuk menentukan alokasi komputasi.

  • ntasks -> alokasi jumlah core CPU. ALELEON Supercomputer mengaktifkan SMT (Simultaneous Multithreading) pada semua CPU sehingga ntasks mendefinisikan jumlah core thread CPU.
  • mem -> alokasi jumlah memori RAM. Ditulis dengan satuan memori GB (Gigabyte).
  • gpus -> alokasi jumlah GPU.

Berikut adalah panduan nilai maksimal parameter untuk beberapa skenario penggunaan:

Skenario Penggunaan Nilai maksimal
ntasks (CPU) mem (RAM) gpus (GPU)
Akumulasi concurrent job fair policy usage1 128 128GB 2
Job non-MPI di epyc (Compute Node CPU)2 128 240GB 0
Job MPI di epyc (Compute Node CPU)3 384 240GB 0
Semua jenis job di high-mem node epyc4 128 500GB 0
Semua jenis job di ampere (Compute Node GPU)5 32 120GB 2
Tim admin dapat membantu user untuk membedakan program MPI dan non-MPI.
  • Daftar software komputasi ALELEON memberikan indikator program MPI atau non-MPI.
  • Dapat pula menghubungi admin untuk diskusi melalui email support@efisonlt.com.

Keterangan:

  1. Limitasi fair policy usage untuk menjaga kualitas layanan ALELEON Supercomputer.
  2. Program non-MPI hanya dapat berjalan satu node (maks 128 core di epyc dan 32 core di ampere).
  3. Program MPI dapat berjalan multi-node (parallel computing) pada Partisi epyc yaitu lebih dari 128 core
    • Pada jumlah ntasks >128, SLURM otomatis menjalankan job secara multi-node.
    • Dalam kaitan ini, parameter mem adalah alokasi memori RAM per-node.
    • Info lebih detail lihat laman MPI ALELEON Supercomputer.
  4. Partisi epyc mempunyai satu node dengan jumlah memori 500GB yaitu epyc001.
    1. Tambahkan parameter #SBATCH --nodelist=epyc001
  5. Jangan lupa untuk menggunakan compute node GPU, tambahkan parameter #SBATCH --partition=ampere

#SBATCH --time

Alokasi waktu maksimal untuk menjalankan job. Ditulis dengan format HH:MM:SS atau D-HH:MM:SS. ALELEON Supercomputer mengizinkan time maksimal 3 hari per job (72:00:00 atau 3-00:00:00).

  • SLURM akan menghentikan job apabila berjalan melebihi time yang dialokasikan,
  • SLURM akan menahan job (status PENDING) apabila ntasks * time yang dialokasikan lebih besar dari sisa Core Hour user.
  • Untuk mengetahui sisa Core Hour, jalankan perintah sausage pada terminal.

#SBATCH --output

SBATCH output membuat file untuk merekap output terminal jalannya program. User mendefinisikan nama dan format file.

  • Terdapat pola penamaan dari SLURM yaitu %j untuk merekap nomor Job ID.
  • Format file dibebaskan (biasanya menggunakan .txt atau .out).

Template submit script pada wiki ini memberikan contoh penamaan #SBATCH --output=result-%j.txt dimana ketika job berjalan (contoh) dengan job-ID 670, maka nama file output menjadi result-670.txt.

#SBATCH --error

SBATCH error membuat file untuk merekap output verbose program (status jalannya program dan error log ketika program gagal berjalan). File SBATCH error bermanfaat untuk melakukan troubleshooting ketika program gagal berjalan. Apabila membutuhkan support, admin biasanya akan meminta file output dari SBATCH error ini. Pola penamaan mengikuti SBATCH output di atas.

SBATCH untuk notifikasi email SLURM

SLURM ALELEON Supercomputer dapat mengirim notifikasi email kepada user dengan nama "Jojo" untuk mengabarkan status berjalannya job komputasi user. Silahkan tambahan SBATCH berikut pada submit script apabila user ingin menerima notifikasi email dari SLURM:

#SBATCH --mail-user=<alamat-email-user> 
#SBATCH --mail-type=BEGIN,END,FAIL

SBATCH mail-type mengatur konten email notifikasi SLURM dengan pilihan opsi yang sekiranya berguna untuk user:

  • BEGIN -> notifikasi job sudah mulai
  • END -> notifikasi job sudah selesai beserta cuplikan 20 baris terakhir dari file SBATCH output dan error.
  • FAIL -> notifikasi apabila job gagal berjalan atau berhenti tidak sewajarnya.
  • TIME_LIMIT_50 -> job telah berjalan dengan durasi waktu 50% time limit.
  • TIME_LIMIT_80 -> job telah berjalan dengan durasi waktu 80% time limit.

SBATCH lainnya untuk job MPI

Dalam menjalankan job MPI, user dapat menggunakan parameter SBATCH yang lebih kompleks seperti nodes (alokasi jumlah node), mem-per-cpu (alokasi jumlah RAM per core CPU), mem-per-gpu (alokasi jumlah RAM per GPU). cpus-per-task (alokasi jumlah core per proses MPI untuk skenario hybrid MPI / OMP job), dan lain-lainnya. Info lebih detail lihat laman MPI ALELEON Supercomputer

Memuat Software dengan module load

Perintah module load (bagian dari Module Environment untuk memuat modul software) pada Submit Script berfungsi supaya Compute Node dapat menjalankan software yang dibutuhkan job user.

#!/bin/bash

# SBATCH ......

module load [nama-modul-software]

# Alur jalannya program ...

Keterangan:

  • Tulis module load sebelum menulis script alur jalannya program.