CCMS

東北大学 金属材料研究所 計算材料学センター

Center for Computational Materials Science

FAQ

  1. システム全般
  2. 大規模並列計算サーバ
  3. アクセラレータサーバ
  4. 並列計算&インフォマティクスサーバ
  5. アプリケーション
  6. ノード時間割り当て
  7. スパコンシステムアカウント

システム全般

Q.A-1 PCとスーパーコンピューティングシステム間でファイル転送をしたい。
A.A-1 ファイル転送方法についてはこちらをご覧ください。SFTPに対応しているソフトウェアがあればポートフォワーディングをすることで、利用可能です。初めにsuper.sc.imr.tohoku.ac.jpの22番ポートをローカルの8022番ポートに転送する設定でcms-ssh.sc.imr.tohoku.ac.jpへ接続します。その後、SFTP対応のソフトウェアで、サーバ名をlocalhostとし、8022番ポートへ接続してください。
Q.A-2 ホームディレクトリの使用状況を確認したい。
A.A-2 以下のコマンドを実行してください。UIDにはご自分のUIDを指定します。kbytesに現在の使用量、quotaにクオータ値が表示されます。
lfs quota -u UID /home
Disk quotas for user UID (uid XXX):
Filesystem kbytes quota limit grace files quota limit grace
/home 56 524288000 576716800 - 15 0 0 -
Q.A-3 ホームディレクトリの容量を拡張したい。
A.A-3 ディスククォータ拡張申請を行っていただく必要がございます。申請書をお送りいたしますので、計算材料学センターにご連絡ください。
Q.A-4 ログイン時に以下のエラーが出る。
@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
@ WARNING: UNPROTECTED PRIVATE KEY FILE! @
@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
Permissions 0775 for '/home/UID/.ssh/keys/id_rsa' are too open.
It is required that your private key files are NOT accessible by others.
This private key will be ignored.
Load key "/home/UID/.ssh/keys/id_rsa": bad permissions
Permission denied (publickey).
A.A-4 以下のコマンドで権限を変更してください。
chmod 600 /home/UID/.ssh/keys/id_rsa
Q.A-5 プロキシ経由で通信を行いたい。
A.A-5 プロキシサーバーと使用ポートを指定する必要があります。プロキシサーバー名を
proxy.imr.tohoku.ac.jp、ポート番号を8080に設定してください。
環境変数で設定する場合は、以下のコマンドを実行してください。
export http_proxy=http://proxy.imr.tohoku.ac.jp:8080/
export ftp_proxy=http://proxy.imr.tohoku.ac.jp:8080/
export https_proxy=http://proxy.imr.tohoku.ac.jp:8080/

大規模並列計算サーバ

Q.B-1 ジョブ実行時に以下のエラーが出る。
forrtl: severe (41): insufficient virtual memory
A.B-1 ノードあたりのプロセス数を減らすことで、プロセスあたりの使用メモリ量を増やすことができます。ノードあたりのプロセス数はaprunコマンドの-Nオプションで指定することができます。
Q.B-2 ジョブ実行時に以下のエラーが出る。
apsched: claim exceeds reservation's node-count
A.B-2 使用ノードの並列数の上限を超えたためです。ノードあたりの並列数は72以下で指定してください。
Q.B-3 インタラクティブでプログラムを実行しようとすると以下のエラーが出る。
apsched: request exceeds max alloc
A.B-3 デバッグ用キューを使用して以下のように実行してください。
$ qsub -I -q IP_001
$ aprun -n 36 -N 36 -j 1 ./a.out

アクセラレータサーバ

Q.C-1 デバッグキューで以下のエラーが出てジョブを実行できない。
ERROR: Submitted job uses the area of Lustre File System.
Please submit the job from GPFS area for performance improvement.
1. Create working directory in GPFS
(e.g. Lustre -> /work, GPFS -> /work_da )
2. Prepare input files in working directory
3. Submit a job from working directory
4. Move the files to your home directory
A.C-1 デバッグキューのwork領域は/work_daです。/work_da以下に作業ディレクトリを作成してジョブを実行してください。
Q.C-2 ジョブ投入時に以下のエラーが出る。
qsub: request rejected as filter hook 'qsub_filter' encountered an exception. Please inform Admin
A.C-2 大規模並列計算サーバからアクセラレータサーバへはジョブ投入できません。gpu.sc.imr.tohoku.ac.jpからジョブを投入してください。

並列計算&インフォマティクスサーバ

Q.D-1 並列計算・インフォマティクスサーバでジョブを実行するにはどうでしょうか。
A.D-1 アクセラレータサーバからジョブを投入することができます。gpuにログインし、#PBS -q C_002を指定してジョブを投入してください。

アプリケーション

Q.E-1 大規模数値計算サーバでGaussianのユーティリティ(formchk、cubegen等)を使用したい。
A.E-1 以下のコマンドでGaussianの環境設定後、実行可能になります。
source /work/app/Gaussian/g16.profile
Q.E-2 VASPの擬ポテンシャルファイルはどこにありますか?
A.E-2 大規模並列計算サーバの/work/app/VASP_potentialにあります。
Q.E-3 VASPでvdw-DFT計算をする際に必要なprecalculated kernel (vdw_kernel.bindat) はどこにありますか?
A.E-3 大規模並列計算サーバの/work/app/VASP_potentialにあります。
Q.E-4 VASP実行時に以下のエラーメッセージが出る。
M_divide: can not subdivide 36 nodes by X
A.E-4 INCARファイルで指定するNPARの値は、使用するコアの約数を指定してください。
Q.E-5 VASP実行時に以下のエラーメッセージが出る。
vdW-DF calculation: either NGZhalf or NGXhalf needs to be used for compilation
A.E-5 /work/app/VASP5/current/bin/vasp_stdを使用してください。
Q.E-6 VASP実行時に以下のエラーメッセージが出る。
ERROR: non collinear calculations require that VASP is compiled without the flag -DNGXhalf and -DNGZhalf
A.E-6 /work/app/VASP5/current/bin/vasp_nclを使用してください。
Q.E-7 アクセラレータサーバでVASP実行時に以下のエラーメッセージが出る。
A pointer passed to DEALLOCATE points to an object that cannot be deallocated
A.E-7 /usr/local/app/VASP5/vasp.5.4.4_mod/bin/vasp_gpuを使用してください。

ノード時間割当て

Q.F-1 ノード利用時間の適用は大規模並列計算サーバを利用する場合だけですか?
A.F-1 大規模並列計算サーバ、アクセラレータサーバ、並列計算・インフォマティクスサーバ(物理サーバ)を利用する場合に適用されます。
Q.F-2 割り当てられたノード利用時間と残りのノード利用時間はどうすれば分かりますか?
A.F-2 jobtimeコマンドを使用することで確認できます。
Q.F-3 累計利用時間はどのように算出されますか?
A.F-3 対象の計算機で実行されたすべてのジョブについて「実行時間×使用ノード数」の総和で算出されます。
Q.F-4 現在投入しているジョブの実行途中で割り当てノード利用時間を使い切った場合、実行中のジョブはどうなりますか?
A.F-4 実行中のジョブは途中でノード利用時間を使い切った場合でも、最後まで計算されます。
Q.F-5 障害によって異常終了したジョブの実行時間は累計利用時間に含まれますか?
A.F-5 当該ジョブの実行時間分を割り当てノード利用時間に加算することで調整します。累計利用時間に含まれますが、ノード利用時間には影響ありません。
Q.F-6 ジョブ投入時に以下のエラーが出る。
ERROR: No assigned time remained. Check results by jobtime command.
A.F-6 累積利用時間が割り当てノード利用時間を超過したことが原因です。Jobtimeコマンドで累積利用時間(Used)を確認してください。残りのノード時間(Remained)が0になっている場合はジョブを投入することはできません。
Q.F-7 残りのノード利用時間が無くなりそうです(無くなりました)。どうすればよいですか?
A.F-7 研究代表者に連絡し、他の分担者との残りのノード利用時間に対する割合を調整してもらってください。年度途中で課題に対する残りのノード時間を確認したい場合および分担者の割り当てノード利用時間を変更したい場合は、研究代表者から計算材料学センターへご連絡ください。
Q.F-8 研究代表者が分担者の利用状況を確認するにはどうすればよいですか?
A.F-8 計算材料学センターへご連絡いただければ、お知らせいたします。
Q.F-9 分担者への割り当てノード利用時間を変更することはできますか?
A.F-9 研究代表者は課題への総割り当て時間内であれば、分担者への配分時間を変更可能です。変更後の割り当てノード利用時間を必ず研究代表者から計算材料学センターへご連絡ください。また、年度途中で課題に対する残りの利用時間を確認したい場合は、計算材料学センターへご連絡ください。
Q.F-10 課題に対するノード利用時間を増やすことはできますか?
A.F-10 年度途中の変更はできません。課題申請時に前年度の利用時間を確認の上、利用時間の想定は慎重に行ってください。
Q.F-11 ジョブを投入せずに自分のPCでアプリケーションを利用するだけの場合、割り当てノード利用時間はどのように指定すればよいですか?
A.F-11 割り当てノード利用時間は0時間としてください。

スパコンシステムアカウント

Q.G-1 スーパーコンピューティングシステムを使用したい。
A.G-1 利用資格、利用手続きについては、こちらをご覧ください。
Q.G-2 アカウント廃止後のホームディレクトリやデータについて。
A.G-2 ユーザーのホームディレクトリやデータは基本的にアカウント廃止処理と同時に削除します。アカウント廃止処理はユーザーから廃止申請書が提出された時と年度ごとの更新申請書が提出されない場合に行います。なお、必要なデータは年度ごとにダウンロードしてください。