GROMACS: Perbedaan antara revisi

Dari ALELEON by EFISON
(Add GROMACS version, how to run on login node, and SLURM script)
(Add hardware support)
Baris 11: Baris 11:
|2021.1
|2021.1
|gromacs
|gromacs
|CPU, parallel multi-node
|CPU-GPU, parallel multi-node
|epyc
|epyc, gpu_ampere
|}
|}



Revisi per 7 April 2021 08.48

Software GROMACS

GROMACS adalah package berkecepatan tinggi untuk komputasi dinamika molekular baik untuk biokimia (seperti protein, lipids) maupun non-biokimia (seperti polimer).

Versi yang Tersedia

Versi Nama Modul Dukungan Hardware Partisi
2021.1 gromacs CPU-GPU, parallel multi-node epyc, gpu_ampere

Menjalankan Perintah GROMACS di Login Node

Beberapa perintah GROMACS bekerja secara interaktif dan membutuhkan input dari user (contoh: pdb2gmx, grompp) sehingga tidak mungkin dijalankan melalui scheduler SLURM. Beberapa perintah tersebut hanya membutuhkan resource yang kecil dan dapat dilakukan langsung di login node melalui terminal.

Sebelum melakukan perintah-perintah interaktif GROMACS, load module GROMACS:

$ module load gromacs

Lanjutkan dengan melakukan perintah interaktif GROMACS (contoh: pdb2gmx):

$ gmx_mpi pdb2gmx <parameter_input_dan_output>

Perintah-perintah GROMACS yang membutuhkan resource komputasi berat (contoh: mdrun), harus dijalankan melalui SLURM.

SLURM Submission Script

User harus menggunakan Scheduler SLURM untuk menjalankan komputasi GROMACS di Compute Node. User dapat menjalankan GROMACS dengan satu node atau paralel (lebih dari satu node) untuk performa lebih kencang.

Satu Node

Contoh menggunakan 64 core CPU dan RAM 128GB.

#!/bin/bash

#SBATCH --ntasks=64
#SBATCH --mem=128GB
#SBATCH --time=10:00:00
#SBATCH --output=result-%j.out
#SBATCH --error=result-%j.err

# MODULE
module load gromacs

# RUN COMMAND
# mpirun wajib menggunakan flag protokol UCX
mpirun -np 64 --mca pml ucx --mca osc ucx gmx_mpi mdrun <parameter_input_dan_output>

Banyak Node

Contoh menggunakan 2 node, masing-masing 64 core CPU dan RAM 128GB.

#!/bin/bash

#SBATCH --nodes=2
#SBATCH --ntasks-per-node=64
#SBATCH --mem=128GB
#SBATCH --time=10:00:00
#SBATCH --output=result-%j.out
#SBATCH --error=result-%j.out

# MODULE
module load gromacs

# RUN COMMAND
# mpirun wajib menggunakan flag protokol UCX
# Total proses MPI = ntasks per node X nodes
mpirun -np 128 --mca pml ucx --mca osc ucx gmx_mpi mdrun <parameter_input_dan_output>