CCMS

東北大学 金属材料研究所 計算材料学センター

Center for Computational Materials Science

FAQ

  1. システム全般
  2. 大規模並列計算サーバ
  3. アクセラレータサーバ
  4. 並列計算&インフォマティクスサーバ
  5. アプリケーション
  6. ノード時間割り当て
  7. スパコンシステムアカウント

システム全般

Q.A-1 PCとスーパーコンピューティングシステム間でファイル転送をしたい。
A.A-1 ファイル転送方法についてはこちらをご覧ください。SFTPに対応しているソフトウェアがあればポートフォワーディングをすることで、利用可能です。初めにsuper.sc.imr.tohoku.ac.jpの22番ポートをローカルの8022番ポートに転送する設定でcms-ssh.sc.imr.tohoku.ac.jpへ接続します。その後、SFTP対応のソフトウェアで、サーバ名をlocalhostとし、8022番ポートへ接続してください。
Q.A-2 ホームディレクトリの使用状況を確認したい。
A.A-2 アクセラレータサーバ(gpu.sc.imr.tohoku.ac.jp)あるいは可視化サーバ(vis.sc.imr.tohoku.ac.jp)で以下のコマンドを実行してください。usedに現在の使用量、quotaにクオータ値が表示されます。
lfs quota -p $UID -h /home
Disk quotas for prj UID (pid XXX):
Filesystem used quota limit grace files quota limit grace
/home 196k 500G 550G - 15 0 0 -
Q.A-3 ホームディレクトリの容量を拡張したい。
A.A-3 ディスククォータ拡張申請を行っていただく必要がございます。申請書をお送りいたしますので、計算材料学センターにご連絡ください。
Q.A-4 ログイン時に以下のエラーが出る。
@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
@ WARNING: UNPROTECTED PRIVATE KEY FILE! @
@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
Permissions 0775 for '/home/UID/.ssh/keys/id_rsa' are too open.
It is required that your private key files are NOT accessible by others.
This private key will be ignored.
Load key "/home/UID/.ssh/keys/id_rsa": bad permissions
Permission denied (publickey).
A.A-4 以下のコマンドで権限を変更してください。
chmod 600 /home/UID/.ssh/keys/id_rsa
Q.A-5 プロキシ経由で通信を行いたい。
A.A-5 プロキシサーバーと使用ポートを指定する必要があります。プロキシサーバー名を
proxy.imr.tohoku.ac.jp、ポート番号を8080に設定してください。
環境変数で設定する場合は、以下のコマンドを実行してください。
export http_proxy=http://proxy.imr.tohoku.ac.jp:8080/
export ftp_proxy=http://proxy.imr.tohoku.ac.jp:8080/
export https_proxy=http://proxy.imr.tohoku.ac.jp:8080/
Q.A-6 ジョブの実行順序はどのように決まりますか?
A.A-6 ユーザーごとに過去に使用した資源量を基に優先順位を計算し、優先順位の高いユーザーのジョブから実行されます。
使用した資源量の重みは時間経過につれ減衰します。
Q.A-7 ジョブの待ち時間を減らす方法はありますか?
A.A-7 バックフィル機能*1を有効にしていますので、上限時間(-l walltime)を減らすと待ち時間が減少する可能性があります。
*1: 優先度の最も高いジョブの実行開始時間に影響がない範囲で空いているノードで後続のジョブを実行する機能。

大規模並列計算サーバ

Q.B-1 ジョブ実行時に以下のエラーが出る。
forrtl: severe (41): insufficient virtual memory
A.B-1 ノードあたりのプロセス数を減らすことで、プロセスあたりの使用メモリ量を増やすことができます。ノードあたりのプロセス数はaprunコマンドの-Nオプションで指定することができます。
Q.B-2 ジョブ実行時に以下のエラーが出る。
apsched: claim exceeds reservation's node-count
A.B-2 使用ノードの並列数の上限を超えたためです。ノードあたりの並列数は72以下で指定してください。
Q.B-3 インタラクティブでプログラムを実行しようとすると以下のエラーが出る。
apsched: request exceeds max alloc
A.B-3 デバッグ用キューを使用して以下のように実行してください。
$ qsub -I -q IP_001
$ aprun -n 36 -N 36 -j 1 ./a.out

アクセラレータサーバ

Q.C-1 デバッグキューで以下のエラーが出てジョブを実行できない。
ERROR: Submitted job uses the area of Lustre File System.
Please submit the job from GPFS area for performance improvement.
1. Create working directory in GPFS
(e.g. Lustre -> /work, GPFS -> /work_da )
2. Prepare input files in working directory
3. Submit a job from working directory
4. Move the files to your home directory
A.C-1 デバッグキューのwork領域は/work_daです。/work_da以下に作業ディレクトリを作成してジョブを実行してください。
Q.C-2 ジョブ投入時に以下のエラーが出る。
qsub: request rejected as filter hook 'qsub_filter' encountered an exception. Please inform Admin
A.C-2 大規模並列計算サーバからアクセラレータサーバへはジョブ投入できません。gpu.sc.imr.tohoku.ac.jpからジョブを投入してください。

並列計算&インフォマティクスサーバ

Q.D-1 並列計算・インフォマティクスサーバでジョブを実行するにはどうでしょうか。
A.D-1 アクセラレータサーバからジョブを投入することができます。gpuにログインし、#PBS -q C_002を指定してジョブを投入してください。

アプリケーション

Q.E-1 大規模数値計算サーバでGaussianのユーティリティ(formchk、cubegen等)を使用したい。
A.E-1 以下のコマンドでGaussianの環境設定後、実行可能になります。
source /work/app/Gaussian/g16.profile
Q.E-2 VASPの擬ポテンシャルファイルはどこにありますか?
A.E-2 大規模並列計算サーバの/work/app/VASP_potentialにあります。
Q.E-3 VASPでvdw-DFT計算をする際に必要なprecalculated kernel (vdw_kernel.bindat) はどこにありますか?
A.E-3 大規模並列計算サーバの/work/app/VASP_potentialにあります。
Q.E-4 VASP実行時に以下のエラーメッセージが出る。
M_divide: can not subdivide 36 nodes by X
A.E-4 INCARファイルで指定するNPARの値は、使用するコアの約数を指定してください。
Q.E-5 VASP実行時に以下のエラーメッセージが出る。
vdW-DF calculation: either NGZhalf or NGXhalf needs to be used for compilation
A.E-5 /work/app/VASP5/current/bin/vasp_stdを使用してください。
Q.E-6 VASP実行時に以下のエラーメッセージが出る。
ERROR: non collinear calculations require that VASP is compiled without the flag -DNGXhalf and -DNGZhalf
A.E-6 /work/app/VASP5/current/bin/vasp_nclを使用してください。
Q.E-7 アクセラレータサーバでVASP実行時に以下のエラーメッセージが出る。
A pointer passed to DEALLOCATE points to an object that cannot be deallocated
A.E-7 /usr/local/app/VASP5/vasp.5.4.4_mod/bin/vasp_gpuを使用してください。

ノード時間割当て

Q.F-1 ノード利用時間の適用は大規模並列計算サーバを利用する場合だけですか?
A.F-1 大規模並列計算サーバ、アクセラレータサーバ、並列計算・インフォマティクスサーバ(物理サーバ)を利用する場合に適用されます。
Q.F-2 割り当てられたノード利用時間と残りのノード利用時間はどうすれば分かりますか?
A.F-2 jobtimeコマンドを使用することで確認できます。 また、リアルタイムジョブ参照システムのJob Timeメニューからも確認できます。
Q.F-3 累計利用時間はどのように算出されますか?
A.F-3 対象の計算機で実行されたすべてのジョブについて「実行時間×使用ノード数」の総和で算出されます。
Q.F-4 現在投入しているジョブの実行途中で割り当てノード利用時間を使い切った場合、実行中のジョブはどうなりますか?
A.F-4 実行中のジョブは途中でノード利用時間を使い切った場合でも、最後まで計算されます。
Q.F-5 障害によって異常終了したジョブの実行時間は累計利用時間に含まれますか?
A.F-5 当該ジョブの実行時間分を割り当てノード利用時間に加算することで調整します。累計利用時間に含まれますが、ノード利用時間には影響ありません。
Q.F-6 ジョブ投入時に以下のエラーが出る。
ERROR: No assigned time remained. Check results by jobtime command.
A.F-6 累積利用時間が割り当てノード利用時間を超過したことが原因です。Jobtimeコマンドで累積利用時間(Used)を確認してください。残りのノード時間(Remained)が0になっている場合はジョブを投入することはできません。
Q.F-7 割り当てノード利用時間を使いきりそうです(使いきりました)。どうすればよいですか?
A.F-7 課題管理者に連絡し、他の分担者との残りのノード利用時間に対する割合を調整してもらってください。課題管理者の連絡先はリアルタイムジョブ参照システムのJob Timeメニューから確認できます。
Q.F-8 課題管理者が分担者の利用状況を確認するにはどうすればよいですか?
A.F-8 リアルタイムジョブ参照システムのSubjectメニューから確認できます。
Q.F-9 分担者への割り当てノード利用時間を変更することはできますか?
A.F-9 課題管理者は課題への総割り当て時間内であれば、リアルタイムジョブ参照システムのSubjectメニューから配分時間を変更できます。
Q.F-10 課題に対するノード利用時間を増やすことはできますか?
A.F-10 課題管理者の方から計算材料学センターへご相談ください。
Q.F-11 ジョブを投入せずに自分のPCでアプリケーションを利用するだけの場合、割り当てノード利用時間はどのように指定すればよいですか?
A.F-11 割り当てノード利用時間は0時間としてください。

スパコンシステムアカウント

Q.G-1 スーパーコンピューティングシステムを使用したい。
A.G-1 利用資格、利用手続きについては、こちらをご覧ください。
Q.G-2 アカウント廃止後のホームディレクトリやデータについて。
A.G-2 ユーザーのホームディレクトリやデータは基本的にアカウント廃止処理と同時に削除します。アカウント廃止処理はユーザーから廃止申請書が提出された時と年度ごとの更新申請書が提出されない場合に行います。なお、必要なデータは年度ごとにダウンロードしてください。