GROMACS

Dari ALELEON by EFISON

GROMACS.png

GROMACS adalah package berkecepatan tinggi untuk komputasi dinamika molekular baik untuk biokimia (seperti protein, lipids) maupun non-biokimia (seperti polimer).

Versi yang Tersedia

Versi Dukungan MPI Dukungan Hardware
2021.1 (CPU) Pure MPI CPU, multi-node
2021.1 (GPU) Hybrid MPI/OMP CPU-GPU, single-node

Menjalankan GROMACS di Job Composer

1 Buka menu dashboard EFIRO Jobs > Jobs Composer

2 Pilih New Jobs > From Template

3

Memilih Template GROMACS

Pilih template GROMACS yang dibutuhkan. Isi atau ganti Job Name sesuai keinginan user, kemudian klik Create New Job.
Template GROMACS
Nama Template Penjelasan
GROMACS 2021.1 (CPU) Menjalankan GROMACS 2021.1 versi CPU
GROMACS 2021.1 dengan 1 GPU GROMACS 2021.1 dengan akselerasi 1 GPU
GROMACS 2021.1 dengan 2 GPU GROMACS 2021.1 dengan akselerasi 2 GPU
4

Mempersiapkan File untuk Menjalankan Job

Jcjoboption3.png

  • Gunakan menu Edit Files untuk upload file yang dibutuhkan.
    • Laman Edit Files juga dapat melakukan view / download / edit / rename / delete file.
Fitur upload pada laman Edit Files mempunyai batasan ukuran upload 2GB per file. Gunakan aplikasi FTP apabila user hendak mengupload file tunggal diatas 2GB.
5

Mempersiapkan Parameter Input GROMACS

Jcjoboption4.png

Beberapa perintah GROMACS bekerja secara interaktif dan membutuhkan input dari user (contoh: pdb2gmx, grompp) sehingga harus dijalankan via terminal melalui menu Open Terminal.

  • Muat modul GROMACS sesuai dengan versi template yang digunakan.
Versi GROMACS Perintah
2021.1 $ module load gromacs
  • Lanjutkan dengan melakukan perintah interaktif GROMACS (contoh: pdb2gmx):
$ gmx_mpi pdb2gmx <parameter_input_dan_output>
6A

Melengkapi Submit Script Template

Melalui Open Editor, lengkapi Submit Script dengan mengganti bagian yang di tandai 4 garis miring (////).

  • Jangan lupa klik Save setiap sekali mengubah script.
6B

Panduan lengkap mengisi Submit Script:

SLURM Script ALELEON Supercomputer

Fitur MPI pada GROMACS versi CPU

GROMACS versi CPU menggunakan MPI (Message Passing Interface) sehingga memberi kebebasan user untuk:

  • MPI Satu Node vs Multi Node
    • User dapat menjalankan GROMACS versi CPU hanya dengan 1 node (maksimal 128 core thread CPU)
    • Atau menggunakan multi-node alias lebih dari 128 core thread CPU.
7

Menjalankan Job

Jalankan job dengan klik tombol Submit.

Berikut penjelasan kolom Status, pantau dengan refresh halaman job:
Status Arti
Not Submitted Job belum pernah dijalankan.
Running Job berjalan.
Queue Job mengantri dan belum berjalan.
Completed Job selesai berjalan.
Failed Job berhenti di tengah jalan,

Bisa karena di Stop atau Delete oleh user.

Stop atau Cancel Job

Untuk menghentikan job yang tengah berjalan, klik tombol Stop.

Stop.png

8A

Melihat hasil job yang selesai

Hasil output job dapat dilihat pada kolom Folder Contents atau membuka halaman Edit Pages.
User dapat melihat semua file output yang keluar di kolom Folder Contents.
atau dengan membuka menu Edit Files.
8B

Submit Ulang Job

User dapat menjalankan ulang ruang job yang sama (misalkan ketika ada koreksi file input atau Submit Script) dengan mengklik kembali tombol Submit.

Akselerasi GPU di GROMACS

User dapat menjalankan GROMACS dengan bantuan akselerasi GPU di Compute Node GPU. Perlu diketahui tidak semua input dan parameter berjalan kencang dengan akselerasi GPU.

  • Harap user dapat menguji terlebih dahulu mdrun-nya dengan nsteps kecil untuk mengetahui peningkatan performa yang bisa diperoleh melalui akselerasi GPU.
  • Perhatikan bahwa pengujian tersebut menggunakan kredit CPU Core Hour dan GPU Hour user.

Biasanya, GROMACS mdrun tidak memerlukan parameter tambahan untuk menjalankan akselerasi GPU. Namun dalam beberapa kasus, optimasi menggunakan parameter tambahan bisa berpengaruh positif ke kecepatan komputasi. Referensi mengenai parameter akselerasi GPU lanjutan (-nb, -bonded, -pme) dapat dibaca di laman:

---

Ikuti Arahan Template

User disarankan untuk tidak mengubah parameter CPU, GPU, RAM, OMP, dan perintah mdrun pada template karena telah dirancang untuk berjalan optimal di Compute Node GPU ALELEON Supercomputer.