NAMD: Perbedaan antara revisi

Dari ALELEON by EFISON
(Add versi yang tersedia)
(Add NAMD submission script and modules)
Baris 21: Baris 21:


== '''SLURM Submission Script''' ==
== '''SLURM Submission Script''' ==
User harus menggunakan Scheduler SLURM untuk menjalankan komputasi NAMD di Compute Node.
==== NAMD (CPU) ====
User dapat menjalankan NAMD (CPU) dengan satu node atau paralel (lebih dari satu node) untuk performa lebih kencang.
===== Satu Node =====
Contoh menggunakan 64 core CPU dan RAM 128GB.
#!/bin/bash
#SBATCH --ntasks=64
#SBATCH --mem=128GB
#SBATCH --time=10:00:00
#SBATCH --output=result-%j.out
#SBATCH --error=result-%j.err
# MODULE
module load namd/2.14-GCC10-FFTW3F-UCX
# RUN COMMAND
# mpirun wajib menggunakan flag protokol UCX
mpirun -np 64 --mca pml ucx --mca osc ucx namd2 <file_input>
===== Banyak Node =====
Contoh menggunakan 2 node, masing-masing 64 core CPU dan RAM 128GB.
#!/bin/bash
#SBATCH --nodes=2
#SBATCH --ntasks-per-node=64
#SBATCH --mem=128GB
#SBATCH --time=10:00:00
#SBATCH --output=result-%j.out
#SBATCH --error=result-%j.out
# MODULE
module load namd/2.14-GCC10-FFTW3F-UCX
# RUN COMMAND
# mpirun wajib menggunakan flag protokol UCX
# Total proses MPI = ntasks per node X nodes
mpirun -np 128 --mca pml ucx --mca osc ucx namd2 <file_input>
==== NAMD (GPU) ====
User hanya dapat menjalankan NAMD (GPU) dengan satu node namun dengan banyak GPU untuk performa lebih kencang.
#!/bin/bash
# Total GPU yang digunakan ada di argumen --gres=gpu:<jumlah_GPU>
#SBATCH --partition=gpu_ampere
#SBATCH --ntasks=64
#SBATCH --mem=64GB
#SBATCH --gres=gpu:1
#SBATCH --time=10:00:00
#SBATCH --output=result-%j.out
#SBATCH --error=result-%j.out
# MODULE
module load namd/2.14-GCC10-FFTW3F-CUDA11
# RUN COMMAND
# Total proses +p<proses> = ntasks per node X nodes
charmrun ++local +p64 namd2 <file_input>

Revisi per 5 April 2021 08.46

Software NAMD

NAMD adalah framework dinamika molekular yang digunakan untuk komputasi biomolekuler skala besar di HPC. NAMD mendukung komputasi paralel.

Versi yang Tersedia

Versi Nama Modul Dukungan Hardware Partisi
2.14 namd/2.14-GCC10-FFTW3F-UCX CPU, parallel multi-node epyc
2.14 namd/2.14-GCC10-FFTW3F-CUDA11 CPU - GPU, single-node gpu_ampere

SLURM Submission Script

User harus menggunakan Scheduler SLURM untuk menjalankan komputasi NAMD di Compute Node.

NAMD (CPU)

User dapat menjalankan NAMD (CPU) dengan satu node atau paralel (lebih dari satu node) untuk performa lebih kencang.

Satu Node

Contoh menggunakan 64 core CPU dan RAM 128GB.

#!/bin/bash

#SBATCH --ntasks=64
#SBATCH --mem=128GB
#SBATCH --time=10:00:00
#SBATCH --output=result-%j.out
#SBATCH --error=result-%j.err

# MODULE
module load namd/2.14-GCC10-FFTW3F-UCX

# RUN COMMAND
# mpirun wajib menggunakan flag protokol UCX
mpirun -np 64 --mca pml ucx --mca osc ucx namd2 <file_input>
Banyak Node

Contoh menggunakan 2 node, masing-masing 64 core CPU dan RAM 128GB.

#!/bin/bash

#SBATCH --nodes=2
#SBATCH --ntasks-per-node=64
#SBATCH --mem=128GB
#SBATCH --time=10:00:00
#SBATCH --output=result-%j.out
#SBATCH --error=result-%j.out

# MODULE
module load namd/2.14-GCC10-FFTW3F-UCX

# RUN COMMAND
# mpirun wajib menggunakan flag protokol UCX
# Total proses MPI = ntasks per node X nodes
mpirun -np 128 --mca pml ucx --mca osc ucx namd2 <file_input>

NAMD (GPU)

User hanya dapat menjalankan NAMD (GPU) dengan satu node namun dengan banyak GPU untuk performa lebih kencang.

#!/bin/bash

# Total GPU yang digunakan ada di argumen --gres=gpu:<jumlah_GPU>
#SBATCH --partition=gpu_ampere
#SBATCH --ntasks=64
#SBATCH --mem=64GB
#SBATCH --gres=gpu:1
#SBATCH --time=10:00:00
#SBATCH --output=result-%j.out
#SBATCH --error=result-%j.out

# MODULE
module load namd/2.14-GCC10-FFTW3F-CUDA11

# RUN COMMAND
# Total proses +p<proses> = ntasks per node X nodes
charmrun ++local +p64 namd2 <file_input>