NAMD

Dari ALELEON by EFISON

Revisi sejak 15 September 2021 11.08 oleh WilsonLisan (bicara | kontrib) (major paraphrasing)

Software NAMD

NAMD adalah framework dinamika molekular yang digunakan untuk komputasi biomolekuler skala besar di HPC. NAMD mendukung komputasi paralel.

Versi yang Tersedia

Versi Nama Modul Dukungan MPI Dukungan Hardware Partisi
2.14 namd/2.14-GCC10-FFTW3F-UCX Pure MPI CPU, parallel multi-node epyc
2.14 namd/2.14-GCC10-FFTW3F-CUDA11 - CPU - GPU, single-node gpu_ampere

Contoh SLURM Script

User harus menggunakan manajemen SLURM untuk menjalankan komputasi NAMD di Compute Node. User dapat menjalankan NAMD versi CPU dengan satu node atau multi node (lebih dari satu node) untuk performa lebih kencang. User juga dapat menjalankan NAMD versi GPU pada partisi Compute Node GPU. Pastikan memuat modul NAMD yang tepat.

NAMD (CPU) - Satu Node

Contoh berikut untuk menjalankan NAMD CPU pada satu node CPU.

#!/bin/bash

#SBATCH --ntasks=64               # Contoh menggunakan 64 core CPU
#SBATCH --mem=128GB               # Contoh menggunakan RAM 128GB
#SBATCH --time=10:00:00           # Contoh menetapkan walltime maks 10 jam
#SBATCH --output=result-%j.out    # Output terminal program
#SBATCH --error=result-%j.err     # Output verbose program

# Memuat modul NAMD CPU
module load namd/2.14-GCC10-FFTW3F-UCX

# RUN COMMAND
# mpirun wajib menggunakan flag protokol UCX

mpirun -np $SLURM_NTASKS --mca pml ucx --mca osc ucx namd2 <file_input>

NAMD (CPU) - Multi Node

Contoh menggunakan 2 node, masing-masing 64 core CPU dan RAM 128GB.

#!/bin/bash

#SBATCH --nodes=2                 # Contoh menggunakan 2 node ...
#SBATCH --ntasks-per-node=128     # dengan 128 core per node.
                                  # Maka dari itu total menggunakan 256 core CPU
#SBATCH --mem=128GB               # Contoh menggunakan RAM 128GB per node
#SBATCH --time=10:00:00           # Contoh menggunakan walltime maks 10 jam
#SBATCH --output=result-%j.out    # Output terminal program
#SBATCH --error=result-%j.err     # Output verbose program

# Memuat modul NAMD CPU
module load namd/2.14-GCC10-FFTW3F-UCX

# RUN COMMAND
# mpirun wajib menggunakan flag protokol UCX
# $SLURM_NTASKS menangkap total proses MPI (nodes * ntasks-per-node)

mpirun -np $SLURM_NTASKS --mca pml ucx --mca osc ucx namd2 <file_input>

NAMD (GPU)

User hanya dapat menjalankan NAMD (GPU) dengan satu node namun dengan banyak GPU untuk performa lebih kencang.

#!/bin/bash

# Total GPU yang digunakan ada di argumen --gres=gpu:<jumlah_GPU>
#SBATCH --partition=gpu_ampere    # Menggunakan Compute Node GPU.
#SBATCH --ntasks=64               # Contoh menggunakan 64 core CPU
#SBATCH --mem=64GB                # Contoh menggunakan RAM 64GB
#SBATCH --gres=gpu:2              # Menggunakan 2 GPU
#SBATCH --time=10:00:00           # Contoh menetapkan walltime maks 10 jam.
#SBATCH --output=result-%j.out    # Output terminal program.
#SBATCH --error=result-%j.err     # Output verbose program.

# Memuat modul NAMD GPU
module load namd/2.14-GCC10-FFTW3F-CUDA11

# RUN COMMAND menggunakan perintah charmrun
# Total proses +p<proses> = ntasks 

charmrun ++local +p${SLURM_NTASKS} namd2 <file_input>

Pelajari Lebih Lanjut

User dapat melihat laman SLURM Script untuk Komputasi Paralel MPI dan SLURM Script untuk Komputasi GPU untuk memahami lebih lanjut tentang berbagai contoh SLURM script diatas,