並列計算の実行

提供:biaswiki
2018年6月25日 (月) 04:45時点におけるCproom (トーク | 投稿記録)による版 (→‎アレイジョブ)
ナビゲーションに移動 検索に移動

並列計算について

並列計算は「マルチプロセス」および「マルチスレッド」と呼ばれるものに分けられます。

  • マルチプロセス: 複数の子プロセスを生成して並列処理するプログラム、メモリは共有しない
  • マルチスレッド: プロセスが複数スレッドを持ち、並列処理するプログラム、メモリを共有する

Multi.jpg
当システムにおいては、

  • 分散処理計算機クラスタ:「マルチプロセス」用(small, medium, large キュー)
  • 共有メモリ型計算サーバ:「マルチスレッド」用(bias, cat キュー)

マルチプロセス並列計算においては、それぞれのプロセス同士で独立した計算が可能でないと並列化できません。 互いの結果が影響し合うような並列計算には向いていません
マルチスレッド並列計算は主にソフトウェアの仕様により、オプションを付けることで並列化される場合が多いです。(例: BLASTの -a オプション, tophatの -p オプションなど)

マルチプロセス

大きく分けて2つの方法があります、

  • 大きなジョブを小さく分割する
  • MPI対応のソフトウェアを利用する

MPI

MPIマルチプロセスの並列計算には、利用するホスト数とCPU数を指定します。

  • 環境はOpenMPIです。
  • MPI対応のソフトウェアのコンパイラに「mpicc」が用意されています。
  • MPI並列ジョブ用スクリプト(2ノード x 40cpu、80並列)
#!/bin/sh
#PBS -l select=2:ncpus=40

export PATH=/usr/mpi/gcc/openmpi-3.1.0rc2/bin:$PATH
export LD_LIBRARY_PATH=/usr/mpi/gcc/openmpi-3.1.0rc2/lib64:$LD_LIBRARY_PATH
cd ${PBS_O_WORKDIR}
 
mpirun -n ${NCPUS} -hostfile ${PBS_NODEFILE} myprog -option
  • PBS環境変数:${NCPUS} に、指定した ncpus数が入ります。mpirun -n ${NCPUS} を必ずつけてください
  • PBS環境変数:${PBS_NODEFILE} に、ジョブが実行されるノードのホスト名が入ります。

マルチスレッド

  • メモリを共有できないため、複数ホストにわたる並列化を行うことができません。
  • ソフトcufflinks, 4並列の例:
#!/bin/sh
#PBS -l ncpus=4
cufflinks -p 4 aligned_reads.sam

アレイジョブ

似たようなジョブをいくつも用意するのは面倒ですが、そんな時に便利な「アレイジョブ」という機能があります。

  • オプション  -J 開始番号-終了番号

ジョブファイルの中で、変数 $PBS_ARRAY_ID にアレイジョブ数がセットされ、インクリメントしながら実行されます。

#!/bin/sh
#PBS -l 8
#PBS -J 1-100
#PBS -q small
cd {$PBS_O_WORKDIR}
blastx -outfmt 5 -evalue 0.001 -num_threads ${NCPUS} -query mydata.fasta.${PBS_ARRAY_ID} -db nr -out result.${PBS_ARRAY_ID}

ジョブファイルの書き方で使い方はいろいろです。

  • lsコマンドの結果を配列に格納し、配列の添字として $SGE_TASK_ID を使います。
#!/bin/sh
#$ -t 1-10
target=(`ls`)
program -i ${target[$SGE_TASK_ID]}
  • $SGE_TASK_ID は3から始まり2飛びでインクリメントされます。caseの添字として使います。
#!/bin/sh
#$ -t 3-7:2
case $SGE_TASK_ID in
   3) name=control1;;
   5) name=control3;;
   7) name=phos1;;
esac
program -i $name

qstat での見え方はこうなります。 job-ID は一つで、最終カラム ja-task-ID に $SGE_TASK_ID が出ます。

job-ID prior  name user  state submit/start at       queue                slots  ja-task-ID
-----------------------------------------------------------------------------------------------
6597 0.5050 1job hiroyo r 07/19/2012 18:04:04 small@node03.local 1 3
6597 0.5050 1job hiroyo r 07/19/2012 18:04:04 small@node06.local 1 5
6597 0.5050 1job hiroyo r 07/19/2012 18:04:04 small@node08.local 1 7