GROMACS: Perbedaan antara revisi

Dari ALELEON by EFISON
(major paraphrasing)
(→‎ACPYPE (AnteChamber PYthon Parser InterfacE): menambah step mengaktifkan conda env)
 
(52 revisi perantara oleh pengguna yang sama tidak ditampilkan)
Baris 1: Baris 1:
== '''Deskripsi''' ==
 
 
[[Berkas:GROMACS.png|nirbing|450x450px]]
 
[https://www.gromacs.org/ '''GROMACS'''] adalah package berkecepatan tinggi untuk komputasi dinamika molekular baik untuk biokimia (seperti protein, lipids) maupun non-biokimia (seperti polimer).
[https://www.gromacs.org/ '''GROMACS'''] adalah package berkecepatan tinggi untuk komputasi dinamika molekular baik untuk biokimia (seperti protein, lipids) maupun non-biokimia (seperti polimer).


== '''Versi yang Tersedia''' ==
== '''Modul GROMACS''' ==
Berikut adalah detail versi GROMACS yang tersedia secara global di ALELEON Supercomputer:
{| class="wikitable"
{| class="wikitable"
!Versi
|+Modul GROMACS versi CPU
!Nama Modul
! rowspan="2" |Versi
!Dukungan MPI
! rowspan="2" |Nama modul software
!Dukungan Hardware
! colspan="4" | Dukungan hardware
!Partisi
|-
!CPU
!GPU
!OMP
Threading
!MPI
multi-node
|-
|-
|2021.1
|2021.1
|gromacs
|gromacs/2021.1-GCC10-MKL
|Hybrid MPI/OMP
|V
|CPU-GPU, parallel multi-node
| -
|epyc, gpu_ampere
| -
|V
|}
{| class="wikitable"
|+Modul GROMACS versi CPU dan GPU
! rowspan="2" | Versi
! rowspan="2" |Nama modul software
! colspan="4" |Dukungan hardware
|-
!CPU
!GPU
!OMP
Threading
!MPI
multi-node
|-
|2022.4
|gromacs/2022.4-GCC11.3-AOCL4.0-CUDA11.8
|V
|V
| V
|V
|-
|2024.4
|gromacs/2024.4-GCC12.3-AOCL5.0-CUDA12.5
|V
|V
|V
|V
|}
|}
Hubungi tim admin melalui email '''support@efisonlt.com''' untuk permintaan instalasi versi lain.


== '''Menjalankan Perintah GROMACS di Login Node''' ==
== '''Info Menjalankan GROMACS dengan Akselerasi GPU''' ==
Beberapa perintah GROMACS bekerja secara interaktif dan membutuhkan input dari user (contoh: pdb2gmx, grompp) sehingga tidak dapat dijalankan melalui manajemen SLURM. Beberapa perintah tersebut hanya membutuhkan resource yang kecil dan dapat dilakukan langsung di login node melalui terminal.
ALELEON Supercomputer menyediakan GROMACS yang dapat berjalan dengan akselerasi GPU. Beberapa hal perlu menjadi pertimbangan user: 
 
* Akselerasi GPU bukan jaminan peningkatan performa pada semua jenis input dan parameter.
** Tim admin menyarankan user untuk menguji hal ini di perangkat komputer pribadi.
 
* Biasanya GROMACS mdrun tidak memerlukan parameter tambahan untuk akselerasi GPU.
** Dalam beberapa kasus, optimasi parameter tambahan dapat meningkatkan kecepatan komputasi.
* Referensi lanjutan parameter akselerasi GPU (-nb, -bonded, -pme) dapat dipelajari pada tautan berikut:
** [https://manual.gromacs.org/current/user-guide/mdrun-performance.html '''Getting good performance from mdrun — GROMACS 2021.1 documentation''']
** '''[https://developer.nvidia.com/blog/creating-faster-molecular-dynamics-simulations-with-gromacs-2020 Creating Faster Molecular Dynamics Simulations with GROMACS 2020 | NVIDIA Developer Blog].'''
 
== '''''Pre-processing''''' '''Input dan Parameter''' ==
GROMACS membutuhkan pengolahan file input dan parameter sebelum menjalankan komputasi.
 
* ''<small>Kegiatan ini dilakukan di login node sehingga tidak mengkonsumsi Kredit Core Hour.</small>''
* ''<small>Hubungi tim admin apabila user membutuhkan panduan atau tambahan software package tertentu.</small>''
* ''<small>Kegiatan ini dilakukan '''di terminal'''. Bagi user portal web EFIRO buka apps '''<code>Aleleon Shell Access</code>'''.</small>''
 
ALELEON Supercomputer menyediakan variasi berikut:
 
=== gmx_mpi ===
GROMACS ALELEON Supercomputer diinstal dengan dukungan MPI sehingga user menggunakan <code>'''gmx_mpi'''</code>, bukan <code>'''gmx'''</code>.
{| class="wikitable"
!1
|-
|Aktifkan modul GROMACS yang akan dipakai.
'''$ ml ''[nama-modul-GROMACS]'''''
''Nama modul lihat subbab 'Modul GROMACS' diatas.''
|-
!2
|-
|Gunakan perintah '''<code>gmx_mpi</code>''' untuk pre-processing input.
Contoh dengan pdb2gmx:
$ gmx_mpi pdb2gmx ''[parameter-input-output]''
|}


Sebelum melakukan perintah-perintah interaktif GROMACS, load module GROMACS:
=== ACPYPE (AnteChamber PYthon Parser InterfacE) ===
  $ module load gromacs
ACPYPE adalah wrapper Python berdasarkan software ANTECHAMBER untuk membantu pengolahan file input dan parameter software MD (Molecular Dynamic) seperti GROMACS ini. Tim admin menyediakan 2 opsi untuk menjalankan ACPYPE: ''<small>(klik expand / kembangkan)</small>''
Lanjutkan dengan melakukan perintah interaktif GROMACS (contoh: pdb2gmx):
{| class="wikitable mw-collapsible mw-collapsed"
  $ gmx_mpi pdb2gmx <parameter_input_dan_output>
!Container ACPYPE siap pakai
Perintah-perintah GROMACS yang membutuhkan resource komputasi berat (contoh: mdrun), harus dijalankan melalui manajemen SLURM.
|-
!1
|-
|Aktifkan container Apptainer:
'''$ ml apptainer'''
|-
!2
|-
|Aktifkan container ACPYPE, tersedia versi 2023.10.27:
  '''$ apptainer run $SCONT/acpype-2023.10.27.sif'''
Shell masuk ke container tersebut dan user dapat menggunakan ACPYPE:
'''Apptainer>''' ''[jalankan perintah ACPYPE ...]''
|-
!3
|-
|Untuk keluar dari container, jalankan perintah:  
Apptainer> '''exit'''
|}
{| class="wikitable mw-collapsible mw-collapsed"
!User Membuat Conda Environment* ACPYPE
|-
!1
|-
|Aktifkan Mamba:  
  '''$ ml Mamba/23.11.0-0'''
|-
!2
|-
|Buat conda env dengan environment ACPYPE yang disediakan:
'''$ mamba env create -f $CONDAYML/acpype.yml'''


== '''Contoh SLURM Script''' ==
* Perintah ini membuat conda env bernama '''acpype''' di HOME user.
User harus menggunakan [[Manajemen SLURM Aleleon|'''manajemen SLURM''']] untuk menjalankan komputasi GROMACS di Compute Node. User dapat menjalankan GROMACS dengan satu node atau paralel (lebih dari satu node) untuk performa lebih kencang.
* Conda env ini membutuhkan kapasitas storage '''901MB'''.
|-
!3
|-
|Aktifkan conda env acpype:
'''$ source activate acpype'''
Shell masuk ke conda env tersebut dan user dapat menggunakan ACPYPE:
'''(acpype) $''' ''[jalankan perintah ACPYPE ...]''
|-
!4
|-
|Untuk keluar dari conda env, jalankan perintah:
(acpype) $ '''conda deactivate'''
|-
!5
|-
|Untuk mengaktifkan kembali conda env lakukan langkah '''1 dan 3'''.
|}
''<small>* Note:</small>''


=== '''Satu Node CPU''' ===
# ''<small>'''Conda environment''' adalah ruang isolasi untuk instalasi library Python. Conda env ada karena karakteristik umum setiap komputasi Python (biasanya) membutuhkan instalasi library spesifik sehingga membutuhkan ruang isolasi untuk menghindari konflik library. Analogikan seperti anak sekolah mempunyai buku catatan tersendiri (conda environment) untuk setiap pelajaran (komputasi Python).</small>''
Contoh berikut untuk menjalankan GROMACS pada satu node CPU.
# ''<small>Opsi conda environment mempunyai kelebihan yaitu user dapat mengendalikan instalasi versi ACPYPE dan depedencies-nya apabila dibutuhkan.</small>''
#!/bin/bash
 
=='''Pilihan Menjalankan Komputasi'''==
User dapat menjalankan GROMACS dengan pilihan metode:
===Batch Job===
Menjalankan komputasi di [[Spesifikasi ALELEON Supercomputer#Spesifikasi%20Compute%20Node|compute node]] melalui manajemen Slurm kemudian user menunggu hingga selesai. Terdapat dua opsi tampilan yang dapat dipilih sesuai preferensi user: ''<small>(klik expand atau kembangkan)</small>''
{| class="wikitable mw-collapsible mw-collapsed"
!Menggunakan Terminal
[[Berkas:Sbatch terminal display rev2.png|tepi|400x400px]]
|-
!1
|-
| Lakukan [https: / wiki.efisonlt.com wiki Menggunakan_ALELEON_Supercomputer_via_Terminal#1_ |'''[https://wiki.efisonlt.com/wiki/Menggunakan_ALELEON_Supercomputer_via_Terminal#Login_SSH Login SSH]''' ke ALELEON Supercomputer.
|-
!2
|-
|Siapkan file komputasi dan ''pre-processing'' input yang dibutuhkan.
*User dapat upload / download file dengan [[Upload File dengan Aplikasi FTP|'''software FTP''']].
|-
!3A
|-
|Buat '''Submit Script''' yaitu 'formulir' untuk menjalankan job komputasi.
*Nama file bebas dengan format .sh, contoh '''<code>submit.sh</code>''' 
|-
!
|-
|Contoh template Submit Script, ikuti petunjuk NOTES didalamnya.
*''<small>Klik expand / kembangkan</small>''
{| class="wikitable mw-collapsible mw-collapsed"
!Template Submit Script GROMACS versi CPU
|-
|<syntaxhighlight lang="bash" line="1">
#!/bin/bash
 
# -----------------------------------------------------
# Template SLURM Submit Script
# GROMACS (versi CPU) | rev.201224
#
# NOTES:
# 1. Isi bagian yang ditandai 4 garing (////).
# 2. Template ini bersifat referensi.
#    User dapat mengubah bagian yang perlu diubah.
# -----------------------------------------------------
 
# -----------------------------------------------------
# Alokasi komputasi SBATCH dan file input
# -----------------------------------------------------
 
# Alokasi jumlah core thread CPU
#SBATCH --ntasks=////
 
# Alokasi jumlah memori RAM (satuan GB)
#SBATCH --mem=////GB
 
# Alokasi limit waktu menjalankan job
# Format HH:MM:SS atau D-HH:MM:SS
#SBATCH --time=////
 
# Definisi file untuk menampung output terminal program
#SBATCH --output=result-%j.txt
 
# Definisi file untuk menampung output error log   
#SBATCH --error=error-%j.txt
 
# Parameter input dan output untuk gmx_mpi mdrun
GROMACS_PARAMETER="////"
 
# ----------------------------------------------------
# Script jalannya program
# ----------------------------------------------------
 
# Memuat modul software GROMACS
# Daftar modul lihat subbab "Modul GROMACS" di atas
module load gromacs////
 
# Perintah menjakankan GROMACS
mpirun -np ${SLURM_NTASKS} gmx_mpi mdrun ${GROMACS_PARAMETER}
</syntaxhighlight>
|}
   
   
#SBATCH --ntasks=64              # Contoh menggunakan 64 core CPU
{| class="wikitable mw-collapsible mw-collapsed"
#SBATCH --mem=128GB              # Contoh menggunakan RAM 128GB
!Template Submit Script GROMACS versi GPU
#SBATCH --time=10:00:00          # Contoh menetapkan walltime maks 10 jam
|-
#SBATCH --output=result-%j.out   # Output terminal program
|'''Note:'''
#SBATCH --error=result-%j.err    # Output verbose program
* GROMACS versi GPU menggunakan threading OMP per task MPI
** Task MPI diwakili oleh jumlah GPU (SBATCH gpus)
# Memuat modul GROMACS
** Thread OMP diwakili oleh SBATCH cpus-per-task.
module load gromacs
* Jumlah thread OMP disarankan 2 atau 4.
* Perhatikan total CPU = ntasks * cpus-per-task
# RUN COMMAND
|-
# mpirun wajib menggunakan flag protokol UCX
|<syntaxhighlight lang="bash" line="1">
#!/bin/bash
'''mpirun -np $SLURM_NTASKS --mca pml ucx --mca osc ucx gmx_mpi mdrun''' <parameter_input_dan_output>
 
# --------------------------------------------------------
# Template SLURM Submit Script
# GROMACS (versi GPU) | rev.201224
#
# NOTES:
# 1. Isi bagian yang ditandai 4 garing (////).
# 2. Template ini bersifat referensi.
#    User dapat mengubah bagian yang perlu diubah.
# 3. GROMACS GPU menggunakan threading OMP per task MPI
#    Perhatikan usage CPU = ntasks * cpus-per-task
# --------------------------------------------------------
 
# -----------------------------------------------------
# Alokasi komputasi SBATCH dan file input
# -----------------------------------------------------
 
# Menggunakan partisi compute node GPU
#SBATCH --partition=ampere
 
# Alokasi jumlah core thread CPU
#SBATCH --ntasks=////
 
# Alokasi jumlah GPU, menjadi jumlah task MPI
#SBATCH --gpus=////
 
# Alokasi jumlah thread OMP per task MPI
# Disarankan 2 atau 4
#SBATCH --cpus-per-task=////
 
# Alokasi jumlah memori RAM (satuan GB)
#SBATCH --mem=////GB
 
# Alokasi limit waktu menjalankan job
# Format HH:MM:SS atau D-HH:MM:SS
#SBATCH --time=////
 
# Definisi file untuk menampung output terminal program
#SBATCH --output=result-%j.txt
 
# Definisi file untuk menampung output error log    
#SBATCH --error=error-%j.txt
 
# Parameter input dan output untuk gmx_mpi mdrun
GROMACS_PARAMETER="////"
 
# ----------------------------------------------------
# Script jalannya program
# ----------------------------------------------------
 
# Memuat modul software GROMACS yang dapat menggunakan GPU
# Daftar modul lihat subbab "Modul GROMACS" di atas
module load gromacs////
 
# Threading OMP
export OMP_NUM_THREADS=${SLURM_CPUS_PER_TASK}
 
# Perintah menjalankan GROMACS 1 GPU dan multiple GPU
if [ $SLURM_GPUS -eq 1 ]
then
        echo "Terdeteksi running GROMACS dengan 1 GPU"
        gmx_mpi mdrun ${GROMACS_PARAMETER}


=== '''Multi Node CPU''' ===
elif [ $SLURM_GPUS -gt 1 ]
Contoh berikut untuk menjalankan GROMACS pada lebih dari satu node CPU.
then
#!/bin/bash
        echo "Terdeteksi running GROMACS dengan $SLURM_GPUS GPU"
#SBATCH --nodes=2                # Contoh menggunakan 2 node ...
#SBATCH --ntasks-per-node=64      # dengan 64 core per node.
                                  # Maka dari itu total menggunakan 128 core CPU
#SBATCH --mem=128GB              # Contoh menggunakan RAM 128GB per node
#SBATCH --time=10:00:00          # Contoh menggunakan walltime maks 10 jam
#SBATCH --output=result-%j.out    # Output terminal program
#SBATCH --error=result-%j.err    # Output verbose program
# Memuat modul GROMACS
module load gromacs
# RUN COMMAND
# mpirun wajib menggunakan flag protokol UCX
# SLURM_NTASKS menangkap total proses MPI (nodes * ntasks-per-node)
'''mpirun -np $SLURM_NTASKS --mca pml ucx --mca osc ucx gmx_mpi mdrun''' <parameter_input_dan_output>


=== '''Akselerasi Satu GPU di GPU Node''' ===
        # Unset UCX supaya MPI berjalan di NVIDIA
User juga dapat menjalankan pekerjaan di GPU node menggunakan resource GPU. Perlu diketahui '''tidak semua input dan parameter berjalan kencang dengan akselerasi GPU'''. Harap user dapat menguji terlebih dahulu mdrun-nya dengan nsteps kecil untuk mengetahui peningkatan performa yang bisa diperoleh melalui akselerasi GPU. Perlu diketahui pula akselerasi GPU umumnya hanya bisa berjalan dengan '''hybrid OpenMP'''.
        unset UCX_TLS
        unset UCX_NET_DEVICES


Biasanya, GROMACS mdrun '''tidak memerlukan parameter tambahan''' untuk menjalankan akselerasi GPU. Namun dalam beberapa kasus, optimasi menggunakan parameter tambahan bisa berpengaruh positif ke kecepatan komputasi. Referensi mengenai parameter akselerasi GPU lanjutan (-nb, -bonded, -pme) dapat dibaca di laman [https://manual.gromacs.org/current/user-guide/mdrun-performance.html '''Getting good performance from mdrun — GROMACS 2021.1 documentation'''] dan '''[https://developer.nvidia.com/blog/creating-faster-molecular-dynamics-simulations-with-gromacs-2020 Creating Faster Molecular Dynamics Simulations with GROMACS 2020 | NVIDIA Developer Blog].'''
        mpirun -np $SLURM_GPUS gmx_mpi mdrun ${GROMACS_PARAMETER}
fi
</syntaxhighlight>
|}
|-
|
* ''<small>Info script lebih detail lihat [[Submit Script ALELEON Supercomputer|'''Submit Script ALELEON Supercomputer''']].</small>''


Berikut adalah contoh SLURM script dengan penggunaan 1 GPU.
* ''<small>Untuk SBATCH notifikasi email status jalannya job lihat [https://wiki.efisonlt.com/wiki/Submit_Script_ALELEON_Supercomputer#SBATCH_untuk_notifikasi_email_SLURM '''Slurm Jojo'''].</small>''
  #!/bin/bash
|-
!3B
|-
|'''SBATCH komputasi (ntasks, mem, time, dll) mempunyai limit''' berdasarkan:
*Sisa Core Hour user dan [[Limitasi Fair Usage ALELEON Supercomputer|'''Fair Usage Limit''']].
*Spesifikasi sistem dan software komputasi.
Untuk melihat limit, jalankan perintah berikut:
  '''$ slimit-gromacs'''
|-
!4
|-
| Jalankan job komputasi dengan perintah:
$ '''sbatch ''[nama-submit-script]'''''
   
   
  #SBATCH --partition=gpu_ampere    # Menggunakan Compute Node GPU.
  ''Contoh:''
#SBATCH --ntasks=32              # Contoh menggunakan 32 core CPU ...
$ sbatch submit.sh
#SBATCH --gres=gpu:1              # dengan 1 GPU.
|-
#SBATCH --mem=48GB                # Contoh menggunakan RAM 48GB.
!6
#SBATCH --time=10:00:00          # Contoh menetapkan walltime maks 10 jam.
|-
#SBATCH --output=result-%j.out    # Output terminal program.
| User dapat melihat status jalannya job dengan perintah:
  #SBATCH --error=result-%j.err    # Output verbose program.
'''<code>$ squeue -ul $USER</code>'''
{| class="wikitable"
! colspan="2" |''Kolom ST atau STATE menunjukkan status jalannya job.''
|-
!STATE
!Penjelasan
|-
|R (RUN)
|Job berjalan
|-
|PD (PENDING)
|Job tertahan, lihat [[Daftar Reason NODELIST ALELEON Supercomputer|'''NODELIST(REASON)''']]
|-
|CG (COMPLETING)
| Job selesai dan dalam proses clean-up
|-
| CA (CANCELED)
| Job dibatalkan user
|-
|PR (PREEMPETED)
|Job dibatalkan admin, alasan dikabarkan via email
|-
|S (SUSPENDED)
|Job ditahan admin, alasan dikabarkan via email
|}
|-
!
|-
| Apabila user ingin menghentikan job yang berjalan, jalankan perintah:
  '''$ scancel ''[job-ID]'''''
   
   
  # Memuat modul GROMACS
  ''Job ID ada pada squeue diatas.''
  module load gromacs
  contoh membatalkan job ID 231:
   
  $ scancel 231
# RUN COMMAND
|}
'''# Definisikan jumlah thread OpenMP menyesuaikan ntasks'''
{| class="wikitable mw-collapsible mw-collapsed"
export OMP_NUM_THREADS=${SLURM_NTASKS}
!Menggunakan Portal Web EFIRO
   
[[Berkas:Efiro jobcomposer display.png|nirbing|400x400px]]
gmx_mpi mdrun <parameter_input_dan_output>
|-
!1
|-
| Lakukan [https: / wiki.efisonlt.com wiki Menggunakan_ALELEON_Supercomputer_via_Terminal#1_ |'''[https://wiki.efisonlt.com/wiki/Menggunakan_ALELEON_Supercomputer_via_EFIRO#Login_Web_EFIRO Login ke web EFIRO]''' ALELEON Supercomputer.
|-
! 2
|-
| [[Berkas:New Pinnedapps jc.png|nirbing|128x128px]]Buka pinned apps '''Job Composer''' di homepage EFIRO.
Pilih menu '''<code>New Job</code>''' -> '''<code>From Template</code>'''


=== '''Akselerasi Banyak GPU di GPU Node dan Hybrid MPI/OMP''' ===
[[Berkas:Jcnewjobmarked.png|nirbing|180x180px]]
User dapat menggunakan lebih dari satu GPU dengan paralelisme hybrid MPI dan OpenMP. Terdapat beberapa aturan mengenai hybrid MPI/OMP dari software GROMACS:
|-
!3
|-
|
{| class="wikitable"
! colspan="2" |Pilih template GROMACS yang diinginkan:
|-
!Nama Template
!Penjelasan
|-
|GROMACS 2021.1 (CPU)
|Menjalankan GROMACS 2021.1 pada CPU
|-
|GROMACS 2022.4 (CPU)
|Menjalankan GROMACS 2022.4 pada CPU
|-
|GROMACS 2022.4 (GPU)
|Menjalankan GROMACS 2022.4 pada GPU
|-
|GROMACS 2024.4 (CPU)
|Menjalankan GROMACS 2022.4 pada CPU
|-
|GROMACS 2024.4 (GPU)
|Menjalankan GROMACS 2022.4 pada GPU
|}Kemudian Isi '''<code>Job Name</code>''' dan klik '''<code>Create New Job</code>'''


* '''Jumlah thread OMP maksimal adalah 6 thread OMP per MPI.'''
[[Berkas:Jctemplate-2.png|nirbing]]
* Jumlah core CPU yang dipakai (ntasks) mengikuti perumusan:
|-
!4
|-
|Siapkan file komputasi  dan ''pre-processing'' input yang dibutuhkan.
[[Berkas:JC job menu.png|nirbing|400x400px]]
*Upload / download / edit file via menu <code>'''Edit Files'''</code>
**Untuk upload file tunggal diatas 2GB gunakan [[Upload File dengan Aplikasi FTP|'''software FTP''']].
*''Pre-processing'' input dan parameter via menu <code>'''Open Terminal'''</code>.
|-
!5A
|-
| Lengkapi '''Submit Script''' melalui tombol '''<code>Open Editor</code>'''.
*Submit script adalah 'formulir' untuk menjalankan job komputasi.
**Ikuti petunjuk NOTES didalamnya.
* Klik '''<code>Save</code>''' setiap kali mengubah script.
[[Berkas:Jceditor3.png|al=|nirbing|400x400px]]
{| class="wikitable"
|'''Note untuk GROMACS versi GPU:'''
* GROMACS versi GPU menggunakan threading OMP per task MPI
** Task MPI diwakili oleh jumlah GPU (SBATCH gpus)
** Thread OMP diwakili oleh SBATCH cpus-per-task.
* Jumlah thread OMP disarankan 2 atau 4.
* Perhatikan total CPU = ntasks * cpus-per-task
|}
|-
|
*''<small>Info script lebih detail lihat [[Submit Script ALELEON Supercomputer|'''Submit Script ALELEON Supercomputer''']].</small>''
*''<small>Untuk SBATCH notifikasi email status jalannya job lihat [https://wiki.efisonlt.com/wiki/Submit_Script_ALELEON_Supercomputer#SBATCH_untuk_notifikasi_email_SLURM '''Slurm Jojo'''].</small>''
|-
!5B
|-
| SBATCH komputasi (ntasks, mem, time, dll) '''mempunyai limit''' berdasarkan:
*Sisa Core Hour user dan [[Limitasi Fair Usage ALELEON Supercomputer|'''Fair Usage Limit''']].
*Spesifikasi sistem dan software komputasi.
Untuk melihat limit, jalankan perintah berikut melalui '''<code>Open Terminal</code>''':
'''$ slimit-gromacs'''
|-
!6
|-
|Jalankan job dengan klik tombol '''<code>Submit</code>'''.
*Pantau kolom status yang menjelaskan status jalannya job.
*Apabila ingin membatalkan job yang berjalan, klik '''<code>Stop</code>'''.
[[Berkas:JC job runstop.png|al=|nirbing|400x400px]]
{| class="wikitable"
! colspan="2" |Daftar Status Job
|-
! Status
!Arti
|-
|Not Submitted
|Job belum pernah dijalankan.
|-
| Running
|Job berjalan.
|-
| Queue
|Job mengantri dan belum berjalan.
|-
|Completed
|Job selesai berjalan.
|-
|Failed
|Job berhenti di tengah jalan, antara error atau di stop user
|-
| colspan="2" |'''''Untuk melihat alasan job yang queue:'''''[[Berkas:Active Jobs detail.png|nir|jmpl|300x300px|''Buka pinned apps '''Active Jobs''' di homepage EFIRO. Ubah opsi All jobs ke '''Your Jobs'''. Klik simbol '''>''' untuk melihat status job yang pending pada kolom Reason. Arti reason lihat laman [[Daftar Reason NODELIST ALELEON Supercomputer|'''Daftar Reason NODELIST ALELEON Supercomputer''']].'']]
|}
|-
!7
|-
|Lihat output file komputasi pada kolom '''<code>Folder Contents</code>'''
*Atau dengan membuka menu '''<code>Edit Files</code>'''
[[Berkas:Jcfoldercontentsedit.png|al=|nir|jmpl|''Kolom '''<code>Folder Contents</code>'''.'']]
|-
!8
|-
|Untuk menghapus ruang job dan datanya:
* Pilih ruang job yang akan dihapus.
*Klik menu '''<code>Delete</code>'''
[[Berkas:JC delete menu.png|nirbing|400x400px]]
|}
=='''Pelaporan Kendala dan Support''' ==
Apabila menjumpai masalah teknis dalam menjalankan komputasi, silahkan lapor dengan klik gambar berikut ini.


'''ntasks''' = jumlah GPU yang dipakai * jumlah thread OMP per MPI yang dipilih user
[[Berkas:Wiki-pelaporankendala.jpg|1000x1000px|link=https://efisonlt.com/aleleonbugreport]]
Terdapat rekomendasi dari admin EFISON supaya dapat menghasilkan performa terbaik:


* Sangat dianjurkan untuk hanya menggunakan '''1 proses MPI per unit GPU''' untuk mencegah penurunan performa sehingga dapat dirumuskan:
---


'''Jumlah proses MPI''' = jumlah GPU yang digunakan
Bila terdapat pertanyaan lainnya, silahkan hubungi admin EFISON melalui email:
Berikut adalah contoh SLURM script dengan penggunaan 2 GPU dimana user memilih untuk menggunakan 4 thread OMP per MPI.
  '''support@efisonlt.com'''
#!/bin/bash
#SBATCH --partition=gpu_ampere    # Menggunakan Compute Node GPU.
#SBATCH --ntasks=8                # Pada contoh ini, user menggunakan 4 thread OMP per MPI ...
                                  # sehingga ntasks = 2 GPU * 4 OMP = 8
#SBATCH --gres=gpu:2              # Menggunakan 2 GPU.
#SBATCH --mem=48GB                # Contoh menggunakan RAM 48GB.
#SBATCH --time=10:00:00          # Contoh menetapkan walltime maks 10 jam.
#SBATCH --output=result-%j.out    # Output terminal program.
#SBATCH --error=result-%j.err    # Output verbose program.
# Memuat modul GROMACS
module load gromacs
# Set nilai OMP
export OMP_NUM_THREADS=4
  '''# PERINTAH SPESIFIK UNTUK OPENMPI DI PARTITION gpu_ampere
# Tanpa unset, proses MPI tidak akan berjalan di partition gpu_ampere'''
unset UCX_TLS
unset UCX_NET_DEVICES
# RUN COMMAND
'''# Jumlah mpirun = jumlah GPU yang dipakai'''
mpirun -np 2 --mca pml ucx --mca osc ucx gmx_mpi mdrun <parameter_input_dan_output>

Revisi terkini sejak 20 Desember 2024 05.03


GROMACS.png

GROMACS adalah package berkecepatan tinggi untuk komputasi dinamika molekular baik untuk biokimia (seperti protein, lipids) maupun non-biokimia (seperti polimer).

Modul GROMACS

Berikut adalah detail versi GROMACS yang tersedia secara global di ALELEON Supercomputer:

Modul GROMACS versi CPU
Versi Nama modul software Dukungan hardware
CPU GPU OMP

Threading

MPI

multi-node

2021.1 gromacs/2021.1-GCC10-MKL V - - V
Modul GROMACS versi CPU dan GPU
Versi Nama modul software Dukungan hardware
CPU GPU OMP

Threading

MPI

multi-node

2022.4 gromacs/2022.4-GCC11.3-AOCL4.0-CUDA11.8 V V V V
2024.4 gromacs/2024.4-GCC12.3-AOCL5.0-CUDA12.5 V V V V

Hubungi tim admin melalui email support@efisonlt.com untuk permintaan instalasi versi lain.

Info Menjalankan GROMACS dengan Akselerasi GPU

ALELEON Supercomputer menyediakan GROMACS yang dapat berjalan dengan akselerasi GPU. Beberapa hal perlu menjadi pertimbangan user:

  • Akselerasi GPU bukan jaminan peningkatan performa pada semua jenis input dan parameter.
    • Tim admin menyarankan user untuk menguji hal ini di perangkat komputer pribadi.

Pre-processing Input dan Parameter

GROMACS membutuhkan pengolahan file input dan parameter sebelum menjalankan komputasi.

  • Kegiatan ini dilakukan di login node sehingga tidak mengkonsumsi Kredit Core Hour.
  • Hubungi tim admin apabila user membutuhkan panduan atau tambahan software package tertentu.
  • Kegiatan ini dilakukan di terminal. Bagi user portal web EFIRO buka apps Aleleon Shell Access.

ALELEON Supercomputer menyediakan variasi berikut:

gmx_mpi

GROMACS ALELEON Supercomputer diinstal dengan dukungan MPI sehingga user menggunakan gmx_mpi, bukan gmx.

1
Aktifkan modul GROMACS yang akan dipakai.
$ ml [nama-modul-GROMACS]
Nama modul lihat subbab 'Modul GROMACS' diatas.
2
Gunakan perintah gmx_mpi untuk pre-processing input.
Contoh dengan pdb2gmx:
$ gmx_mpi pdb2gmx [parameter-input-output]

ACPYPE (AnteChamber PYthon Parser InterfacE)

ACPYPE adalah wrapper Python berdasarkan software ANTECHAMBER untuk membantu pengolahan file input dan parameter software MD (Molecular Dynamic) seperti GROMACS ini. Tim admin menyediakan 2 opsi untuk menjalankan ACPYPE: (klik expand / kembangkan)

Container ACPYPE siap pakai
1
Aktifkan container Apptainer:
$ ml apptainer
2
Aktifkan container ACPYPE, tersedia versi 2023.10.27:
$ apptainer run $SCONT/acpype-2023.10.27.sif

Shell masuk ke container tersebut dan user dapat menggunakan ACPYPE:

Apptainer> [jalankan perintah ACPYPE ...]
3
Untuk keluar dari container, jalankan perintah:
Apptainer> exit
User Membuat Conda Environment* ACPYPE
1
Aktifkan Mamba:
$ ml Mamba/23.11.0-0
2
Buat conda env dengan environment ACPYPE yang disediakan:
$ mamba env create -f $CONDAYML/acpype.yml
  • Perintah ini membuat conda env bernama acpype di HOME user.
  • Conda env ini membutuhkan kapasitas storage 901MB.
3
Aktifkan conda env acpype:
$ source activate acpype

Shell masuk ke conda env tersebut dan user dapat menggunakan ACPYPE:

(acpype) $ [jalankan perintah ACPYPE ...]
4
Untuk keluar dari conda env, jalankan perintah:
(acpype) $ conda deactivate
5
Untuk mengaktifkan kembali conda env lakukan langkah 1 dan 3.

* Note:

  1. Conda environment adalah ruang isolasi untuk instalasi library Python. Conda env ada karena karakteristik umum setiap komputasi Python (biasanya) membutuhkan instalasi library spesifik sehingga membutuhkan ruang isolasi untuk menghindari konflik library. Analogikan seperti anak sekolah mempunyai buku catatan tersendiri (conda environment) untuk setiap pelajaran (komputasi Python).
  2. Opsi conda environment mempunyai kelebihan yaitu user dapat mengendalikan instalasi versi ACPYPE dan depedencies-nya apabila dibutuhkan.

Pilihan Menjalankan Komputasi

User dapat menjalankan GROMACS dengan pilihan metode:

Batch Job

Menjalankan komputasi di compute node melalui manajemen Slurm kemudian user menunggu hingga selesai. Terdapat dua opsi tampilan yang dapat dipilih sesuai preferensi user: (klik expand atau kembangkan)

Menggunakan Terminal

Sbatch terminal display rev2.png

1
Login SSH ke ALELEON Supercomputer.
2
Siapkan file komputasi dan pre-processing input yang dibutuhkan.
3A
Buat Submit Script yaitu 'formulir' untuk menjalankan job komputasi.
  • Nama file bebas dengan format .sh, contoh submit.sh
Contoh template Submit Script, ikuti petunjuk NOTES didalamnya.
  • Klik expand / kembangkan
Template Submit Script GROMACS versi CPU
#!/bin/bash
  
# -----------------------------------------------------
# Template SLURM Submit Script
# GROMACS (versi CPU) | rev.201224
# 
# NOTES: 
# 1. Isi bagian yang ditandai 4 garing (////).
# 2. Template ini bersifat referensi.
#    User dapat mengubah bagian yang perlu diubah.
# -----------------------------------------------------

# -----------------------------------------------------
# Alokasi komputasi SBATCH dan file input
# -----------------------------------------------------

# Alokasi jumlah core thread CPU
#SBATCH --ntasks=////

# Alokasi jumlah memori RAM (satuan GB)
#SBATCH --mem=////GB

# Alokasi limit waktu menjalankan job
# Format HH:MM:SS atau D-HH:MM:SS
#SBATCH --time=////

# Definisi file untuk menampung output terminal program
#SBATCH --output=result-%j.txt

# Definisi file untuk menampung output error log    
#SBATCH --error=error-%j.txt 

# Parameter input dan output untuk gmx_mpi mdrun
GROMACS_PARAMETER="////"

# ----------------------------------------------------
# Script jalannya program
# ----------------------------------------------------

# Memuat modul software GROMACS 
# Daftar modul lihat subbab "Modul GROMACS" di atas
module load gromacs////

# Perintah menjakankan GROMACS
mpirun -np ${SLURM_NTASKS} gmx_mpi mdrun ${GROMACS_PARAMETER}
Template Submit Script GROMACS versi GPU
Note:
  • GROMACS versi GPU menggunakan threading OMP per task MPI
    • Task MPI diwakili oleh jumlah GPU (SBATCH gpus)
    • Thread OMP diwakili oleh SBATCH cpus-per-task.
  • Jumlah thread OMP disarankan 2 atau 4.
  • Perhatikan total CPU = ntasks * cpus-per-task
#!/bin/bash

# --------------------------------------------------------
# Template SLURM Submit Script
# GROMACS (versi GPU) | rev.201224
# 
# NOTES: 
# 1. Isi bagian yang ditandai 4 garing (////).
# 2. Template ini bersifat referensi.
#    User dapat mengubah bagian yang perlu diubah.
# 3. GROMACS GPU menggunakan threading OMP per task MPI
#    Perhatikan usage CPU = ntasks * cpus-per-task
# --------------------------------------------------------

# -----------------------------------------------------
# Alokasi komputasi SBATCH dan file input
# -----------------------------------------------------

# Menggunakan partisi compute node GPU
#SBATCH --partition=ampere

# Alokasi jumlah core thread CPU
#SBATCH --ntasks=////

# Alokasi jumlah GPU, menjadi jumlah task MPI
#SBATCH --gpus=////

# Alokasi jumlah thread OMP per task MPI
# Disarankan 2 atau 4 
#SBATCH --cpus-per-task=////

# Alokasi jumlah memori RAM (satuan GB)
#SBATCH --mem=////GB

# Alokasi limit waktu menjalankan job
# Format HH:MM:SS atau D-HH:MM:SS
#SBATCH --time=////

# Definisi file untuk menampung output terminal program
#SBATCH --output=result-%j.txt

# Definisi file untuk menampung output error log    
#SBATCH --error=error-%j.txt 

# Parameter input dan output untuk gmx_mpi mdrun
GROMACS_PARAMETER="////"

# ----------------------------------------------------
# Script jalannya program
# ----------------------------------------------------

# Memuat modul software GROMACS yang dapat menggunakan GPU
# Daftar modul lihat subbab "Modul GROMACS" di atas
module load gromacs////

# Threading OMP
export OMP_NUM_THREADS=${SLURM_CPUS_PER_TASK}

# Perintah menjalankan GROMACS 1 GPU dan multiple GPU
if [ $SLURM_GPUS -eq 1 ]
then
        echo "Terdeteksi running GROMACS dengan 1 GPU"
        gmx_mpi mdrun ${GROMACS_PARAMETER}

elif [ $SLURM_GPUS -gt 1 ]
then
        echo "Terdeteksi running GROMACS dengan $SLURM_GPUS GPU"

        # Unset UCX supaya MPI berjalan di NVIDIA
        unset UCX_TLS
        unset UCX_NET_DEVICES

        mpirun -np $SLURM_GPUS gmx_mpi mdrun ${GROMACS_PARAMETER}
fi
  • Untuk SBATCH notifikasi email status jalannya job lihat Slurm Jojo.
3B
SBATCH komputasi (ntasks, mem, time, dll) mempunyai limit berdasarkan:
  • Sisa Core Hour user dan Fair Usage Limit.
  • Spesifikasi sistem dan software komputasi.

Untuk melihat limit, jalankan perintah berikut:

$ slimit-gromacs
4
Jalankan job komputasi dengan perintah:
$ sbatch [nama-submit-script]

Contoh:
$ sbatch submit.sh
6
User dapat melihat status jalannya job dengan perintah:

$ squeue -ul $USER

Kolom ST atau STATE menunjukkan status jalannya job.
STATE Penjelasan
R (RUN) Job berjalan
PD (PENDING) Job tertahan, lihat NODELIST(REASON)
CG (COMPLETING) Job selesai dan dalam proses clean-up
CA (CANCELED) Job dibatalkan user
PR (PREEMPETED) Job dibatalkan admin, alasan dikabarkan via email
S (SUSPENDED) Job ditahan admin, alasan dikabarkan via email
Apabila user ingin menghentikan job yang berjalan, jalankan perintah:
$ scancel [job-ID]

Job ID ada pada squeue diatas.
contoh membatalkan job ID 231:
$ scancel 231
Menggunakan Portal Web EFIRO

Efiro jobcomposer display.png

1
Login ke web EFIRO ALELEON Supercomputer.
2
New Pinnedapps jc.pngBuka pinned apps Job Composer di homepage EFIRO.

Pilih menu New Job -> From Template

Jcnewjobmarked.png

3
Pilih template GROMACS yang diinginkan:
Nama Template Penjelasan
GROMACS 2021.1 (CPU) Menjalankan GROMACS 2021.1 pada CPU
GROMACS 2022.4 (CPU) Menjalankan GROMACS 2022.4 pada CPU
GROMACS 2022.4 (GPU) Menjalankan GROMACS 2022.4 pada GPU
GROMACS 2024.4 (CPU) Menjalankan GROMACS 2022.4 pada CPU
GROMACS 2024.4 (GPU) Menjalankan GROMACS 2022.4 pada GPU
Kemudian Isi Job Name dan klik Create New Job

Jctemplate-2.png

4
Siapkan file komputasi dan pre-processing input yang dibutuhkan.

JC job menu.png

  • Upload / download / edit file via menu Edit Files
  • Pre-processing input dan parameter via menu Open Terminal.
5A
Lengkapi Submit Script melalui tombol Open Editor.
  • Submit script adalah 'formulir' untuk menjalankan job komputasi.
    • Ikuti petunjuk NOTES didalamnya.
  • Klik Save setiap kali mengubah script.

Note untuk GROMACS versi GPU:
  • GROMACS versi GPU menggunakan threading OMP per task MPI
    • Task MPI diwakili oleh jumlah GPU (SBATCH gpus)
    • Thread OMP diwakili oleh SBATCH cpus-per-task.
  • Jumlah thread OMP disarankan 2 atau 4.
  • Perhatikan total CPU = ntasks * cpus-per-task
5B
SBATCH komputasi (ntasks, mem, time, dll) mempunyai limit berdasarkan:
  • Sisa Core Hour user dan Fair Usage Limit.
  • Spesifikasi sistem dan software komputasi.

Untuk melihat limit, jalankan perintah berikut melalui Open Terminal:

$ slimit-gromacs
6
Jalankan job dengan klik tombol Submit.
  • Pantau kolom status yang menjelaskan status jalannya job.
  • Apabila ingin membatalkan job yang berjalan, klik Stop.

Daftar Status Job
Status Arti
Not Submitted Job belum pernah dijalankan.
Running Job berjalan.
Queue Job mengantri dan belum berjalan.
Completed Job selesai berjalan.
Failed Job berhenti di tengah jalan, antara error atau di stop user
Untuk melihat alasan job yang queue:
Buka pinned apps Active Jobs di homepage EFIRO. Ubah opsi All jobs ke Your Jobs. Klik simbol > untuk melihat status job yang pending pada kolom Reason. Arti reason lihat laman Daftar Reason NODELIST ALELEON Supercomputer.
7
Lihat output file komputasi pada kolom Folder Contents
  • Atau dengan membuka menu Edit Files
Kolom Folder Contents.
8
Untuk menghapus ruang job dan datanya:
  • Pilih ruang job yang akan dihapus.
  • Klik menu Delete

JC delete menu.png

Pelaporan Kendala dan Support

Apabila menjumpai masalah teknis dalam menjalankan komputasi, silahkan lapor dengan klik gambar berikut ini.

Wiki-pelaporankendala.jpg

---

Bila terdapat pertanyaan lainnya, silahkan hubungi admin EFISON melalui email:

support@efisonlt.com