NAMD: Perbedaan antara revisi
Dari ALELEON by EFISON
LSlowmotion (bicara | kontrib) (Add versi yang tersedia) |
LSlowmotion (bicara | kontrib) (Add NAMD submission script and modules) |
||
Baris 21: | Baris 21: | ||
== '''SLURM Submission Script''' == | == '''SLURM Submission Script''' == | ||
User harus menggunakan Scheduler SLURM untuk menjalankan komputasi NAMD di Compute Node. | |||
==== NAMD (CPU) ==== | |||
User dapat menjalankan NAMD (CPU) dengan satu node atau paralel (lebih dari satu node) untuk performa lebih kencang. | |||
===== Satu Node ===== | |||
Contoh menggunakan 64 core CPU dan RAM 128GB. | |||
#!/bin/bash | |||
#SBATCH --ntasks=64 | |||
#SBATCH --mem=128GB | |||
#SBATCH --time=10:00:00 | |||
#SBATCH --output=result-%j.out | |||
#SBATCH --error=result-%j.err | |||
# MODULE | |||
module load namd/2.14-GCC10-FFTW3F-UCX | |||
# RUN COMMAND | |||
# mpirun wajib menggunakan flag protokol UCX | |||
mpirun -np 64 --mca pml ucx --mca osc ucx namd2 <file_input> | |||
===== Banyak Node ===== | |||
Contoh menggunakan 2 node, masing-masing 64 core CPU dan RAM 128GB. | |||
#!/bin/bash | |||
#SBATCH --nodes=2 | |||
#SBATCH --ntasks-per-node=64 | |||
#SBATCH --mem=128GB | |||
#SBATCH --time=10:00:00 | |||
#SBATCH --output=result-%j.out | |||
#SBATCH --error=result-%j.out | |||
# MODULE | |||
module load namd/2.14-GCC10-FFTW3F-UCX | |||
# RUN COMMAND | |||
# mpirun wajib menggunakan flag protokol UCX | |||
# Total proses MPI = ntasks per node X nodes | |||
mpirun -np 128 --mca pml ucx --mca osc ucx namd2 <file_input> | |||
==== NAMD (GPU) ==== | |||
User hanya dapat menjalankan NAMD (GPU) dengan satu node namun dengan banyak GPU untuk performa lebih kencang. | |||
#!/bin/bash | |||
# Total GPU yang digunakan ada di argumen --gres=gpu:<jumlah_GPU> | |||
#SBATCH --partition=gpu_ampere | |||
#SBATCH --ntasks=64 | |||
#SBATCH --mem=64GB | |||
#SBATCH --gres=gpu:1 | |||
#SBATCH --time=10:00:00 | |||
#SBATCH --output=result-%j.out | |||
#SBATCH --error=result-%j.out | |||
# MODULE | |||
module load namd/2.14-GCC10-FFTW3F-CUDA11 | |||
# RUN COMMAND | |||
# Total proses +p<proses> = ntasks per node X nodes | |||
charmrun ++local +p64 namd2 <file_input> |
Revisi per 5 April 2021 08.46
Software NAMD
NAMD adalah framework dinamika molekular yang digunakan untuk komputasi biomolekuler skala besar di HPC. NAMD mendukung komputasi paralel.
Versi yang Tersedia
Versi | Nama Modul | Dukungan Hardware | Partisi |
---|---|---|---|
2.14 | namd/2.14-GCC10-FFTW3F-UCX | CPU, parallel multi-node | epyc |
2.14 | namd/2.14-GCC10-FFTW3F-CUDA11 | CPU - GPU, single-node | gpu_ampere |
SLURM Submission Script
User harus menggunakan Scheduler SLURM untuk menjalankan komputasi NAMD di Compute Node.
NAMD (CPU)
User dapat menjalankan NAMD (CPU) dengan satu node atau paralel (lebih dari satu node) untuk performa lebih kencang.
Satu Node
Contoh menggunakan 64 core CPU dan RAM 128GB.
#!/bin/bash #SBATCH --ntasks=64 #SBATCH --mem=128GB #SBATCH --time=10:00:00 #SBATCH --output=result-%j.out #SBATCH --error=result-%j.err # MODULE module load namd/2.14-GCC10-FFTW3F-UCX # RUN COMMAND # mpirun wajib menggunakan flag protokol UCX mpirun -np 64 --mca pml ucx --mca osc ucx namd2 <file_input>
Banyak Node
Contoh menggunakan 2 node, masing-masing 64 core CPU dan RAM 128GB.
#!/bin/bash #SBATCH --nodes=2 #SBATCH --ntasks-per-node=64 #SBATCH --mem=128GB #SBATCH --time=10:00:00 #SBATCH --output=result-%j.out #SBATCH --error=result-%j.out # MODULE module load namd/2.14-GCC10-FFTW3F-UCX # RUN COMMAND # mpirun wajib menggunakan flag protokol UCX # Total proses MPI = ntasks per node X nodes mpirun -np 128 --mca pml ucx --mca osc ucx namd2 <file_input>
NAMD (GPU)
User hanya dapat menjalankan NAMD (GPU) dengan satu node namun dengan banyak GPU untuk performa lebih kencang.
#!/bin/bash # Total GPU yang digunakan ada di argumen --gres=gpu:<jumlah_GPU> #SBATCH --partition=gpu_ampere #SBATCH --ntasks=64 #SBATCH --mem=64GB #SBATCH --gres=gpu:1 #SBATCH --time=10:00:00 #SBATCH --output=result-%j.out #SBATCH --error=result-%j.out # MODULE module load namd/2.14-GCC10-FFTW3F-CUDA11 # RUN COMMAND # Total proses +p<proses> = ntasks per node X nodes charmrun ++local +p64 namd2 <file_input>