ORCA: Perbedaan antara revisi

Dari ALELEON by EFISON
(Major paraphrasing)
Baris 6: Baris 6:
!Versi
!Versi
!Nama Modul
!Nama Modul
!Dukungan MPI
!Dukungan Hardware
!Dukungan Hardware
![[Partisi Aleleon Mk.II|Partisi]]
![[Partisi Aleleon Mk.II|Partisi]]
Baris 11: Baris 12:
|4.2.1
|4.2.1
|orca
|orca
|Pure MPI
|CPU, parallel multi-node
|CPU, parallel multi-node
|epyc
|epyc
|}
|}


=='''Contoh SLURM Submission Script'''==
=='''Contoh SLURM Script'''==
User harus menggunakan [[Scheduler SLURM Aleleon|Scheduler SLURM]] untuk menjalankan komputasi ORCA di Compute Node. User dapat menjalankan ORCA dengan satu node atau paralel (lebih dari satu node) untuk performa lebih kencang.  
User harus menggunakan [[Manajemen SLURM Aleleon|'''manajemen SLURM''']] untuk menjalankan komputasi ORCA di Compute Node. User dapat menjalankan ORCA dengan satu node atau multi node (lebih dari satu node) untuk performa lebih kencang.  


=== Satu Node ===
=== '''Satu Node CPU''' ===
Contoh menggunakan 64 core CPU dan RAM 128GB.
Contoh menggunakan 64 core CPU dan RAM 128GB.
  #!/bin/bash
  #!/bin/bash
   
   
  #SBATCH --ntasks=64
  #SBATCH --ntasks=64               # Contoh menggunakan 64 core CPU
  #SBATCH --mem=128GB
  #SBATCH --mem=128GB              # Contoh menggunakan RAM 128GB
  #SBATCH --time=10:00:00
  #SBATCH --time=10:00:00           # Contoh menetapkan walltime maks 10 jam
  #SBATCH --output=result-%j.out
  #SBATCH --output=result-%j.out   # Output terminal program
  #SBATCH --error=result-%j.err
  #SBATCH --error=result-%j.err     # Output verbose program
   
   
  # MODULE
  # Memuat modul orca
  module load orca
  '''module load orca'''
   
   
  # RUN COMMAND
  # RUN COMMAND
  # mpirun wajib menggunakan flag protokol UCX
  # mpirun wajib menggunakan flag protokol UCX
  mpirun -np 64 --mca pml ucx --mca osc ucx orca <file_input>
   
'''mpirun -np $SLURM_NTASKS --mca pml ucx --mca osc ucx orca''' <file_input>


=== Banyak Node ===
=== '''Multi Node CPU''' ===
Contoh menggunakan 2 node, masing-masing 64 core CPU dan RAM 128GB.
Contoh menggunakan 2 node, masing-masing 64 core CPU dan RAM 128GB.
  #!/bin/bash
  #!/bin/bash
   
   
  #SBATCH --nodes=2
  #SBATCH --nodes=2                 # Contoh menggunakan 2 node ...
  #SBATCH --ntasks-per-node=64
  #SBATCH --ntasks-per-node=128    # dengan 128 core per node.
  #SBATCH --mem=128GB
                                  # Maka dari itu total menggunakan 256 core CPU
  #SBATCH --time=10:00:00
  #SBATCH --mem=128GB               # Contoh menggunakan RAM 128GB per node
  #SBATCH --output=result-%j.out
  #SBATCH --time=10:00:00           # Contoh menggunakan walltime maks 10 jam
  #SBATCH --error=result-%j.err
  #SBATCH --output=result-%j.out   # Output terminal program
  #SBATCH --error=result-%j.err     # Output verbose program
   
   
  # MODULE
  # Memuat modul orca
  module load orca
  '''module load orca'''
   
   
  # RUN COMMAND
  # RUN COMMAND
  # mpirun wajib menggunakan flag protokol UCX
  # mpirun wajib menggunakan flag protokol UCX
  # Total proses MPI = ntasks per node X nodes
  # $SLURM_NTASKS menangkap total proses MPI (nodes * ntasks-per-node)
  mpirun -np 128 --mca pml ucx --mca osc ucx orca <file_input>
  '''mpirun -np $SLURM_NTASKS --mca pml ucx --mca osc ucx orca''' <file_input>
==='''Pelajari Lebih Lanjut'''===
User dapat melihat laman [https://wiki.efisonlt.com/wiki/Contoh_SLURM_Script#SLURM_Script_untuk_Komputasi_Paralel_MPI '''SLURM Script untuk Komputasi Paralel MPI'''] untuk memahami lebih lanjut tentang berbagai contoh SLURM script diatas,

Revisi per 15 September 2021 11.11

Software ORCA

ORCA adalah package ab-inito kimia kuantum yang menyediakan semua metode electronic structure seperti density functional theory, many-body perturbation and coupled cluster theories, dll.

Versi yang Tersedia

Versi Nama Modul Dukungan MPI Dukungan Hardware Partisi
4.2.1 orca Pure MPI CPU, parallel multi-node epyc

Contoh SLURM Script

User harus menggunakan manajemen SLURM untuk menjalankan komputasi ORCA di Compute Node. User dapat menjalankan ORCA dengan satu node atau multi node (lebih dari satu node) untuk performa lebih kencang.

Satu Node CPU

Contoh menggunakan 64 core CPU dan RAM 128GB.

#!/bin/bash

#SBATCH --ntasks=64               # Contoh menggunakan 64 core CPU
#SBATCH --mem=128GB               # Contoh menggunakan RAM 128GB
#SBATCH --time=10:00:00           # Contoh menetapkan walltime maks 10 jam
#SBATCH --output=result-%j.out    # Output terminal program
#SBATCH --error=result-%j.err     # Output verbose program

# Memuat modul orca
module load orca

# RUN COMMAND
# mpirun wajib menggunakan flag protokol UCX

mpirun -np $SLURM_NTASKS --mca pml ucx --mca osc ucx orca <file_input>

Multi Node CPU

Contoh menggunakan 2 node, masing-masing 64 core CPU dan RAM 128GB.

#!/bin/bash

#SBATCH --nodes=2                 # Contoh menggunakan 2 node ...
#SBATCH --ntasks-per-node=128     # dengan 128 core per node.
                                  # Maka dari itu total menggunakan 256 core CPU
#SBATCH --mem=128GB               # Contoh menggunakan RAM 128GB per node
#SBATCH --time=10:00:00           # Contoh menggunakan walltime maks 10 jam
#SBATCH --output=result-%j.out    # Output terminal program
#SBATCH --error=result-%j.err     # Output verbose program

# Memuat modul orca
module load orca

# RUN COMMAND
# mpirun wajib menggunakan flag protokol UCX
# $SLURM_NTASKS menangkap total proses MPI (nodes * ntasks-per-node)

mpirun -np $SLURM_NTASKS --mca pml ucx --mca osc ucx orca <file_input>

Pelajari Lebih Lanjut

User dapat melihat laman SLURM Script untuk Komputasi Paralel MPI untuk memahami lebih lanjut tentang berbagai contoh SLURM script diatas,