GROMACS: Perbedaan antara revisi
LSlowmotion (bicara | kontrib) (→SLURM Submission Script: Tambah penggunaan multi GPU) |
LSlowmotion (bicara | kontrib) (Change sub-heading) |
||
Baris 1: | Baris 1: | ||
== ''' | == '''Deskripsi''' == | ||
[https://www.gromacs.org/ '''GROMACS'''] adalah package berkecepatan tinggi untuk komputasi dinamika molekular baik untuk biokimia (seperti protein, lipids) maupun non-biokimia (seperti polimer). | [https://www.gromacs.org/ '''GROMACS'''] adalah package berkecepatan tinggi untuk komputasi dinamika molekular baik untuk biokimia (seperti protein, lipids) maupun non-biokimia (seperti polimer). | ||
Revisi per 13 September 2021 07.20
Deskripsi
GROMACS adalah package berkecepatan tinggi untuk komputasi dinamika molekular baik untuk biokimia (seperti protein, lipids) maupun non-biokimia (seperti polimer).
Versi yang Tersedia
Versi | Nama Modul | Dukungan Hardware | Partisi |
---|---|---|---|
2021.1 | gromacs | CPU-GPU, parallel multi-node | epyc, gpu_ampere |
Menjalankan Perintah GROMACS di Login Node
Beberapa perintah GROMACS bekerja secara interaktif dan membutuhkan input dari user (contoh: pdb2gmx, grompp) sehingga tidak mungkin dijalankan melalui scheduler SLURM. Beberapa perintah tersebut hanya membutuhkan resource yang kecil dan dapat dilakukan langsung di login node melalui terminal.
Sebelum melakukan perintah-perintah interaktif GROMACS, load module GROMACS:
$ module load gromacs
Lanjutkan dengan melakukan perintah interaktif GROMACS (contoh: pdb2gmx):
$ gmx_mpi pdb2gmx <parameter_input_dan_output>
Perintah-perintah GROMACS yang membutuhkan resource komputasi berat (contoh: mdrun), harus dijalankan melalui SLURM.
SLURM Submission Script
User harus menggunakan Scheduler SLURM untuk menjalankan komputasi GROMACS di Compute Node. User dapat menjalankan GROMACS dengan satu node atau paralel (lebih dari satu node) untuk performa lebih kencang.
Satu Node
Contoh menggunakan 64 core CPU dan RAM 128GB.
#!/bin/bash #SBATCH --ntasks=64 #SBATCH --mem=128GB #SBATCH --time=10:00:00 #SBATCH --output=result-%j.out #SBATCH --error=result-%j.err # MODULE module load gromacs # RUN COMMAND # mpirun wajib menggunakan flag protokol UCX mpirun -np 64 --mca pml ucx --mca osc ucx gmx_mpi mdrun <parameter_input_dan_output>
Banyak Node
Contoh menggunakan 2 node, masing-masing 64 core CPU dan RAM 128GB.
#!/bin/bash #SBATCH --nodes=2 #SBATCH --ntasks-per-node=64 #SBATCH --mem=128GB #SBATCH --time=10:00:00 #SBATCH --output=result-%j.out #SBATCH --error=result-%j.err # MODULE module load gromacs # RUN COMMAND # mpirun wajib menggunakan flag protokol UCX # Total proses MPI = ntasks per node X nodes mpirun -np 128 --mca pml ucx --mca osc ucx gmx_mpi mdrun <parameter_input_dan_output>
Akselerasi Satu GPU di GPU Node
User juga dapat menjalankan pekerjaan di GPU node menggunakan resource GPU. Perlu diketahui tidak semua input dan parameter berjalan kencang dengan akselerasi GPU. Harap user dapat menguji terlebih dahulu mdrun-nya dengan nsteps kecil untuk mengetahui peningkatan performa yang bisa diperoleh melalui akselerasi GPU. Perlu diketahui pula akselerasi GPU umumnya hanya bisa berjalan dengan paralelisme OpenMP.
Biasanya, GROMACS mdrun tidak memerlukan parameter tambahan untuk menjalankan akselerasi GPU. Namun dalam beberapa kasus, optimasi menggunakan parameter tambahan bisa berpengaruh positif ke kecepatan komputasi. Referensi mengenai parameter akselerasi GPU lanjutan (-nb, -bonded, -pme) dapat dibaca di laman Getting good performance from mdrun — GROMACS 2021.1 documentation dan Creating Faster Molecular Dynamics Simulations with GROMACS 2020 | NVIDIA Developer Blog.
Berikut adalah contoh SLURM script dengan penggunaan 1 GPU (32 proses OpenMP).
#!/bin/bash #SBATCH --partition=gpu_ampere #SBATCH --ntasks=32 #SBATCH --gres=gpu:1 #SBATCH --mem=48GB #SBATCH --time=10:00:00 #SBATCH --output=result-%j.out #SBATCH --error=result-%j.err # MODULE module load gromacs # RUN COMMAND # Definisikan jumlah thread OpenMP menyesuaikan ntasks export OMP_NUM_THREADS=32 gmx_mpi mdrun <parameter_input_dan_output>
Akselerasi Banyak GPU di GPU Node
User dapat menggunakan lebih dari satu GPU dengan paralelisme MPI yang digabungkan dengan paralelisme OpenMP. Sangat dianjurkan untuk hanya menggunakan 1 proses MPI per unit GPU untuk mencegah penurunan performa. Perlu diperhatikan bahwa GROMACS dengan gabungan paralelisme MPI dan OpenMP hanya bisa berjalan dengan maksimal 6 proses OpenMP.
Berikut adalah contoh SLURM script dengan penggunaan 2 GPU (2 proses MPI * 4 proses OpenMP).
#!/bin/bash #SBATCH --partition=gpu_ampere #SBATCH --ntasks=8 #SBATCH --gres=gpu:2 #SBATCH --mem=48GB #SBATCH --time=10:00:00 #SBATCH --output=result-%j.out #SBATCH --error=result-%j.err # MODULE module load gromacs # PERINTAH SPESIFIK UNTUK OPENMPI DI PARTITION gpu_ampere # Tanpa unset, proses MPI tidak akan berjalan di partition gpu_ampere unset UCX_TLS unset UCX_NET_DEVICES # RUN COMMAND # Definisikan jumlah thread OpenMP # Jumlah ntasks maksimal = proses MPI * proses OpenMP # Pada contoh ini digunakan 8 tasks = 2 proses MPI * 4 proses OpenMP export OMP_NUM_THREADS=4 mpirun -np 2 --mca pml ucx --mca osc ucx gmx_mpi mdrun <parameter_input_dan_output>