グリッドサービス

(運用を終了しました)

TSUBAME2.0は、東工大学術国際情報センター含む8センターからなるネットワーク型共同利用・共同研究拠点と筑波大学計算科学研究センター、国立情報学研究所の計10拠点からなる学術グリッド試験運用に参加しています。また、RENKEIプロジェクトにて構築されたNAREGIグリッドにも参加しています。2つのグリッド環境に対して、TSUBAME2.0の計算資源の最大600TFlopsを提供しています(2011/1月時点)。

利用対象者

RENKEIプロジェクト関係者、および、その共同研究者、紹介者で、NII管理のNAREGI VOにアカウントを持つ者。

ドキュメント

TSUBAME2.0グリッド利用の手引き(日本語): PDF, HTML

ツール

NAREGIミドルウェア動作整合性監視システム

  • TSUBAME2.0グリッド管理サーバ監視用に設定(調整中)

利用上の注意

  • グリッド利用のためのアカウント

    TSUBAMEのアカウントを取得しただけではNAREGIグリッドサービスは使えません。RENKEIプロジェクト関連研究機関から発行されたユーザ証明書も必要となります。証明書を取得されましたら、TSUBAMEにてNAREGIグリッド利用のための設定を行いますので、証明書サブジェクトとTSUBAMEアカウントを上記コンタクト先までお送りください。
     

  • NAREGIグリッドサービスで使える資源

    以下の構成を持つキューがご利用いただけます。

    キュー名: N
    ノードタイプ: Thinノード (Sキュー相当)
    ノード数: 5
    最大並列数: 120 (5 nodes x 12 cores x 2 threads)
    サポートするジョブタイプ: ノード共有 (各ノード最大24並列まで、複数の利用者のジョブが共存実行されます)
    最大ジョブ実行時間: 24時間

     

  • TSUBAME利用のためのNAREGI WFT設定

    TSUBAMEの有料サービスを利用したジョブ実行を行う際には、WFTのJobのPropertyにて環境変数をいくつか指定する必要があります。詳細は上記ドキュメントを参照していただきたいのですが、最低限以下の2つのオプションを指定してください。

    TSUBAME_q=N (キュー名。現在Nキューのみサポート)
    TSUBAME_W=group_list=XXX (お伝えした、課金対象とするTSUBAMEグループ名をしてください)
     

  • グループ共有ストレージの利用方法

    所属するTSUBAMEグループにてグループ共有ストレージが有効となっている場合、グループに割り当てられた容量分のストレージが利用できます。グループ共有ストレージにはLustreで構成された領域、GPFSで構成された領域の2種類有り、それぞれ以下のようにパスが設定されています。

    Lustre: /work0/グループ名
    GPFS: /data0/グループ名

    もしグループ名に相当するディレクトリが存在しなければ、共有ストレージは有効となっておりません。学内のグループ管理者にお尋ねください。
     

  • ピークシフト運用時にジョブ状態がQueuedのままでいる問題を避ける方法

    現在、SキューはNAREGIから利用できませんので、本件の対応は不要です。

    Sキューを指定してTSUBAME2.0にNAREGIジョブを投入した場合、ジョブタイプ・実行時間によってはSキューではなく、ピークシフト運用キュー(Xキュー)でジョブが実行される場合があります。このとき、NAREGIからはXキューで実行されたジョブの状態を取得できないため、TSUBAME2.0上ではジョブが実行完了してもNAREGIには通知されず、いつまでもジョブ状態がQueuedのままでいます。
    現状、この問題を回避するには、Xキューにジョブが転送されないようにジョブの条件を設定する方法しかありません。このためには、ジョブのwalltimeを24時間に設定すればよく、NAREGI WFTではEnvironmentで以下のように設定できます。

    TSUBAME_l=walltime=24:00:00

    なお、TSUBAME2.0では実実行時間ベースで課金されるため、このオプションを指定しても課金額には変更はありません。ただ、グループに割り当てられている残り実行時間が24時間未満である場合はジョブ投入で失敗します。