ページの先頭行へ戻る
Interstage Application Server V12.2.0 高信頼性システム運用ガイド
FUJITSU Software

4.2.4 Interstageの環境設定

クラスタサービス上にInterstageの環境を構築するための手順を説明します。
本手順では、作業開始時点の運用ノードをノード1、待機ノードをノード2として説明します。また、ネットワーク(IPアドレス)や共用ディスク装置の設定は完了しているという前提で説明します。


  1. クラスタサービス(PRIMECLUSTERではuserApplication)の起動

  2. Interstage事前処理

  3. Interstage初期化

  4. 各サービスの環境設定


4.2.4.1 クラスタサービス(userApplication)の起動

Interstageのセットアップ時には、引継ぎIPアドレスの活性化が必要となります。また、共用ディスクを使用する場合は、共用ディスクも必要となります。
このため、以下の作業を行います。


  1. Interstageが設定されるクラスタサービス(PRIMECLUSTERではuserApplication)を作成する。

  2. 引継ぎIPアドレス、共用ディスクをクラスタサービスに登録する。

  3. クラスタサービスを起動する。


注意

作業1、および2の方法や順序は、OSやクラスタシステムによって異なります。詳しくは使用しているクラスタシステムのマニュアルを参照してください。

4.2.4.2 Interstage事前処理

注意

本製品を標準インストールでインストールした場合、Interstage事前処理を行う必要はありません。
カスタムインストールで以下の機能をインストールしてクラスタシステム上で使用する場合は、Interstage事前処理を行ってください。

  • マルチ言語サービス

  • J2EE互換

運用ノード(ノード1)および待機ノード(ノード2)においてオブジェクトリファレンス生成時に埋め込むホスト名を、OD_set_envコマンドによって設定します。
このとき、ホスト名にはクラスタサービスで引き継がれるIPアドレスに対応するホスト名を設定する必要があります。
OD_set_envコマンドについては、「リファレンスマニュアル(コマンド編)」を参照してください。


OD_set_env -n vhost

上記の例では、クラスタサービスで引き継がれるIPアドレスに対応するホスト名としてvhostを使用しています。

4.2.4.3 Interstage初期化

注意

本製品を標準インストールでインストールした場合、Interstageの初期化を行う必要はありません。
カスタムインストールで以下の機能をインストールしてクラスタシステム上で使用する場合は、必要に応じて、Interstageの初期化を行ってください。

  • マルチ言語サービス

  • J2EE互換

1. Interstageの停止

Interstageが動作している場合は、Interstageを停止します。


isstop -f

2. Interstageシステム定義ファイルの生成

運用ノード(ノード1)および待機ノード(ノード2)でInterstageシステム定義ファイルを生成します。

なお、あらかじめ、クラスタ上で動作するInterstageのシステム規模を決定する必要があります。
システム規模については、「運用ガイド(基本編)」の「Interstage統合コマンドによる運用操作」-「Interstageの環境設定」-「Interstageシステム定義ファイルの生成」を参照してください。


isgendef large

3. Interstageシステム定義ファイルの登録

運用ノード(ノード1)および待機ノード(ノード2)において、生成したInterstageシステム定義ファイルを登録します。

Interstageシステム定義ファイルの登録については、「運用ガイド(基本編)」の「Interstage統合コマンドによる運用操作」-「Interstageの環境設定」-「Interstageシステム定義ファイルの登録」を参照してください。


isregistdef

4. Interstage初期化

Interstage初期化は、運用ノード(ノード1)、待機ノード(ノード2)の順に行います。


5. 運用ノード(ノード1)でのInterstageの初期化

運用ノード(ノード1)においてInterstageの初期化を行います。

Interstage初期化(isinitコマンド実行)の際、使用機能により事前にInterstage動作環境定義の設定を行う必要があります。また、構成/使用機能などを考慮して運用形態を指定します。
Interstage初期化の詳細については、「運用ガイド(基本編)」の「Interstage統合コマンドによる運用操作」-「Interstageの環境設定」-「Interstageの初期化」を参照してください。


注意

  • データベース連携サービスを利用する場合は、Interstage動作環境定義ファイルの「OTS path for system log」に共用ディスクへのパスを指定してください。また、システムログファイルは共用ディスク上に作成してください。


  • PRIMECLUSTERを使用する場合は、以下の点に注意してください。
    Interstage動作環境定義には、CORBAサービスが使用するホスト名(Corba Host Name)を指定しないでください。

isinit -f type1 ejb

6. 待機ノード(ノード2)でのInterstageの初期化

運用ノード(ノード1)のInterstageの初期化が完了したら、次に、クラスタの切り替えを行い、ノード2を運用ノードにした後、Interstageの初期化を行います。
Interstageの初期化時には、Interstage動作環境定義の設定や運用形態を、ノード1の初期化時と一致させます。
また、isinitコマンド実行時には「-w」を指定します。


isinit -f -w type1 ejb

7. 設定の確認

Interstageの初期化によって、クラスタ用のCORBAサービス環境設定が正しく行われたことを確認します。

ノード1、ノード2のそれぞれで、以下の確認を行ってください。


  1. Interstageを起動する。

  2. OD_or_admコマンドを実行し、ホスト/IPアドレス情報を確認します。コマンド実行結果より、「NameService」、「InterfaceRepository」等のホスト名が「4.2.4.2 Interstage事前処理」で設定したホスト名となっていれば正しく設定が行われたと判断できます。
    なお、OD_or_admコマンドの詳細については、「リファレンスマニュアル(コマンド編)」を参照してください。


> isstart
> OD_or_adm -l
ImplementationRepository     IDL:FJ/ImplementationRep:1.0     (自ホスト名:8002:1.0:)
FJ_LightInterfaceRepository  IDL:FJ/Repository:1.0            (自ホスト名:8002:1.0:)
FJ_ORB_admin                 IDL:OM_ORB/admin:1.0             (自ホスト名:8002:1.0:)
nill_oref
InterfaceRep                 IDL:CORBA/InterfaceRep:1.0       (vhost:8002:1.0:)
InterfaceRepLock             IDL:CORBA/IrOBF/backup:1.0       (vhost:8002:1.0:)
InterfaceRepository          IDL:CORBA/Repository:1.0         (vhost:8002:1.0:)
NameService                  IDL:CosNaming/NamingContextExt:1.0 (vhost:8002:1.0:)
InterfaceRep_e               IDL:CORBA/InterfaceRep:1.0       (vhost:8002:1.0:)
InterfaceRepository_e        IDL:CORBA/Repository:1.0         (vhost:8002:1.0:)

) プラットフォームによって、表示される情報は異なります。


4.2.4.4 各サービスの環境設定

Interstageの使用機能によっては、機能ごとに環境設定を行う必要があります。以下の機能を使用している場合には、各々の環境設定手順を実施してください。


4.2.4.4.1 Interstage HTTP Serverを使用する場合

Interstage HTTP Serverを使用する場合に必要な設定について、以下に説明します。


環境設定方法

Interstage HTTP Serverの環境定義を運用ノード(ノード1)、待機ノード(ノード2)それぞれのローカルディスク上に設定します。このとき、それぞれ同一の環境定義を行う必要があります。
また、このとき、運用ノード(ノード1)と待機ノード(ノード2)でInterstage HTTP Serverの環境定義ファイルは、同一のディレクトリ構成とする必要があります。

各ノードで作成したInterstage HTTP Serverの環境定義ファイル(httpd.conf)のServerNameディレクティブに設定するホスト名には、DNS(Domain Name Server)に登録されている名前(共通のホスト名またはIPアドレス)を設定してください。
Interstage HTTP Serverの環境定義ファイルの設定については、「Interstage HTTP Server 運用ガイド」の「環境設定」および「ディレクティブ一覧」を参照してください。


注意事項

4.2.4.4.2 IJServerワークユニットを使用する場合

IJServerワークユニットを使用する場合、Interstageの初期化(isinitコマンド)での設定に加え、別途設定作業が必要になります。
手順を以下に説明します。


環境定義の設定

運用ノード(ノード1)、待機ノード(ノード2)でそれぞれIJServerワークユニットの環境定義を行います。このとき、運用ノード(ノード1)、待機ノード(ノード2)で同一の環境定義を行う必要があります。
また、各ノードで作成したIJServerワークユニットについては、Interstage起動時に自動起動しない設定としなければなりません。
自動起動しない設定ついては、Interstage管理コンソールの[ワークユニット] > [IJServerワークユニット名を選択] > [環境設定]タブ > [ワークユニット設定]の「ワークユニット自動起動」で設定します。
IJServerワークユニットの設定は、isj2eeadminコマンドでも設定できます。詳細は、「リファレンスマニュアル(コマンド編)」を参照してください。


注意事項

Interstage HTTP Serverを使用する場合、事前に「4.2.4.4.1 Interstage HTTP Serverを使用する場合」を参照してWebサーバの設定を行う必要があります。


4.2.4.4.3 Servletサービスのセションリカバリ機能を使用する場合

Session Registry Serverをクラスタスステム上で運用する場合、Interstageの初期化(isinitコマンド)での設定に加え、別途設定作業が必要になります。
手順を以下に説明します。


1. 環境定義の設定

Session Registry ServerはIJServerワークユニットとして運用します(業務用のWebアプリケーションを運用するIJServerワークユニットとは別に、Session Registry Server用のIJServerワークユニットを用意して運用します)。
Session Registry Serverを運用するIJServerワークユニットを、クラスタシステム上で運用できるように設定してください。IJServerワークユニットの設定については「4.2.4.4.2 IJServerワークユニットを使用する場合」を参照してください。


2. Session Registry Server環境定義ファイルの設定

Session Registry Serverをクラスタシステム上で運用する場合、セションの永続化を有効とすることで、待機ノードに切り替わった際にセション情報を引き継ぐことが可能となります。
セションの永続化を有効とするには、Session Registry Server環境定義ファイルに以下を定義します。

<param-name>session.store</param-name>
<param-value>on</param-value>

また、永続化ファイルの保存先は共用ディスクを指定します。
Session Registry Server環境定義ファイルに以下を定義します。

<param-name>serialize.file.path</param-name>
<param-value>$SWITCH</param-value>

$SWITCH:共用ディスク上のディレクトリ


4.2.4.4.4 ノーティフィケーションサービスの不揮発チャネル運用を行う場合

ノーティフィケーションサービスの不揮発チャネル運用を行う場合、Interstageの初期化(isinitコマンド)での設定に加え、別途設定作業が必要になります。
手順を以下に説明します。
なお、環境を再構築する場合は、「4.9.1 ノーティフィケーションサービスの不揮発チャネル運用時の注意事項」を参照し、ユニットおよびイベントチャネルを削除してから実行してください。


1. 「イベントチャネルの不揮発化情報関連ファイル」を共用ディスクに作成

運用ノード(ノード1)でessetcnfコマンドにより「イベントチャネルの不揮発化情報関連ファイル」を共用ディスクに作成します。

essetcnf -f $SWITCH

$SWITCH:共用ディスク上のディレクトリ

注意

運用ノード(ノード1)でイベントサービスの構成情報を変更する場合は、再度essetcnfコマンドにより構成情報を設定してください。

essetcnf -s -edmax 5000

2. ユニット定義のファイルの準備

運用ノード(ノード1)で以下のディレクトリ配下にユニット定義を準備します。

C:\Interstage\eswin\etc\def

/etc/opt/FJSVes/def

/etc/opt/FJSVes/def

定義ファイル中のtrandir、sysdir、userdirは、共用ディスク上の不揮発用ファイルの格納ディレクトリを指定してください。また、trandirには、ローデバイスを指定しないでください。
なお、このディレクトリは、essetcnfコマンドの-fオプションで指定したディレクトリと関連はありません。


3. 不揮発用ファイルを共用ディスクに設定

運用ノード(ノード1)でesmkunitコマンドにより不揮発用のファイルを共用ディスク上に作成します。

esmkunit

4. Interstageの起動

運用ノード(ノード1)でisstartコマンドによりInterstageを起動します。

isstart

5. ユニットの起動

拡張ユニットを使用する場合は、運用ノード(ノード1)でesstartunitコマンドにより拡張ユニットを起動します。
なお、標準ユニットを使用する場合は、「4. Interstageの起動」において自動的に起動されるため、本操作を行う必要はありません。

esstartunit -unit ユニット名

6. イベントチャネルの作成

運用ノード(ノード1)でesmkchnlコマンドによりイベントチャネルを作成します。

esmkchnl -g グループ名 -c イベントチャネル名 -notify -persist all -unit ユニット名

注意

作成したイベントチャネルの動作環境を変更する場合は、ここでessetcnfchnlコマンドにより動作環境を設定してください。

7. ネーミングサービスからイベントチャネルのオブジェクトリファレンスを取得

運用ノード(ノード1)と待機ノード(ノード2)で同一のオブジェクトリファレンスを参照する必要があるため、待機ノード(ノード2)に運用ノード(ノード1)で作成したイベントチャネルのオブジェクトリファレンスを登録します。

運用ノード(ノード1)でesgetchnliorコマンドによりネーミングサービスからイベントチャネルのオブジェクトリファレンスを取得してください。指定したパス配下に、ファイル「(-gオプションに指定したグループ名).ior」が作成されます。

esgetchnlior -g グループ名 -p パス名

8. Interstageの停止

運用ノード(ノード1)でisstopコマンドによりInterstageを停止します。このとき、-fオプションを指定する必要があります。

isstop -f

9. クラスタサービスの切り替え

クラスタサービスを切り替えます。ノード2を運用ノードに、ノード1を待機ノードにします。
なお、Interstageの停止時にクラスタサービスが切り替わる設定をすでに行っている場合は、「8. Interstageの停止」においてクラスタサービスが切り替わるため、本操作を行う必要はありません。


10. 「イベントチャネルの不揮発化情報関連ファイル」を共用ディスクに作成

運用ノード(ノード2)でessetcnfコマンドを、-wオプションを指定して実行し、「イベントチャネルの不揮発化情報関連ファイル」を共用ディスクに作成します。

essetcnf -f $SWITCH -w

$SWITCH:共用ディスク上のディレクトリ

注意

1. 「イベントチャネルの不揮発化情報関連ファイル」を共用ディスクに作成」において、ノード1でイベントサービスの構成情報を変更した場合は、運用ノード(ノード2)のイベントサービスでも再度essetcnfコマンドによりノード1と同様の構成情報を設定してください。

essetcnf -s -edmax 5000

11. ユニット定義ファイルの準備

運用ノード(ノード2)で以下のディレクトリ配下にユニット定義を準備します。

C:\Interstage\eswin\etc\def

/etc/opt/FJSVes/def

/etc/opt/FJSVes/def

注意

ユニット定義ファイルは、「2. ユニット定義のファイルの準備」で作成したものとすべて同じ設定を記述します。

12. 不揮発用ファイルを共用ディスクに設定

運用ノード(ノード2)でesmkunitコマンドを、-wオプションを指定して実行し、不揮発用ファイルを共用ディスクに設定します。

esmkunit -w

13. Interstageの起動

運用ノード(ノード2)でisstartコマンドによりInterstageを起動します。

isstart

14. ユニットの起動

拡張ユニットを使用する場合は、運用ノード(ノード2)でesstartunitコマンドにより拡張ユニットを起動します。
なお、標準ユニットを使用する場合は、「13. Interstageの起動」において自動的に起動されるため、本操作を行う必要はありません。

esstartunit -unit ユニット名

15. ネーミングサービスの登録

運用ノード(ノード2)と待機ノード(ノード1)で同一のオブジェクトリファレンスを参照する必要があるため、運用ノード(ノード2)に待機ノード(ノード1)で作成したイベントチャネルのオブジェクトリファレンスを登録します。

ノード1で取得したイベントチャネルのオブジェクトリファレンスを、essetchnliorコマンドにより運用ノード(ノード2)のネーミングサービスに登録してください。ファイル名には、「7. ネーミングサービスからイベントチャネルのオブジェクトリファレンスを取得」においてesgetchnliorコマンドで作成したファイル名を指定します。

essetchnlior -f ファイル名

16. イベントチャネルの作成

運用ノード(ノード2)でesmkchnlコマンドを、-wオプションを指定して実行し、イベントチャネルを作成します。

esmkchnl -g グループ名 -c イベントチャネル名 -notify -persist all -unit ユニット名 -w

注意

6. イベントチャネルの作成」において、ノード1で作成したイベントチャネルの動作環境を変更した場合は、運用ノード(ノード2)で作成したイベントチャネルでもessetcnfchnlコマンドによりノード1と同様の動作環境を設定してください。

17. Interstageの停止

運用ノード(ノード2)でisstopコマンドによりInterstageを停止します。このとき、-fオプションを指定する必要があります。

isstop -f

4.2.4.4.5 イベントサービスおよびノーティフィケーションサービスの揮発チャネル運用を行う場合

イベントサービスおよびノーティフィケーションサービスの揮発チャネル運用を行う場合、Interstageの初期化(isinitコマンド)での設定に加え、別途設定作業が必要になります。
手順を以下に説明します。
なお、環境を再構築する場合は、「4.9.2 イベントサービスおよびノーティフィケーションサービスの揮発チャネル運用時の注意事項」を参照し、イベントチャネルを削除してから実行してください。


1. イベントサービスの構成情報の設定

運用ノード(ノード1)でイベントサービスの構成情報を変更する場合は、essetcnfコマンドにより構成情報を設定します。

essetcnf -s -edmax 5000

2. Interstageの起動

運用ノード(ノード1)でisstartコマンドによりInterstageを起動します。

isstart

3. イベントチャネルの作成

運用ノード(ノード1)でesmkchnlコマンドによりイベントチャネルを作成します。

ノーティフィケーションサービスの場合

esmkchnl -g グループ名 -c イベントチャネル名 -notify

イベントサービスの場合

esmkchnl -g グループ名 -c イベントチャネル名

注意

作成したイベントチャネルの動作環境を変更する場合は、ここでessetcnfchnlコマンドにより動作環境を設定してください。

4. ネーミングサービスからイベントチャネルのオブジェクトリファレンスを取得

運用ノード(ノード1)と待機ノード(ノード2)で同一のオブジェクトリファレンスを参照する必要があるため、待機ノード(ノード2)に運用ノード(ノード1)で作成したイベントチャネルのオブジェクトリファレンスを登録します。

運用ノード(ノード1)でesgetchnliorコマンドによりネーミングサービスからイベントチャネルのオブジェクトリファレンスを取得してください。指定したパス配下にファイル「(-gオプションに指定したグループ名).ior」が作成されます。

esgetchnlior -g グループ名 -p パス名

5. Interstageの停止

運用ノード(ノード1)でisstopコマンドによりInterstageを停止します。このとき、-fオプションを指定する必要があります。

isstop -f

6. クラスタサービスの切り替え

クラスタサービスを切り替えます。ノード2を運用ノードに、ノード1を待機ノードにします。
なお、Interstageの停止時にクラスタサービスが切り替わる設定をすでに行っている場合は、「5. Interstageの停止」においてクラスタサービスが切り替わるため、本操作を行う必要はありません。

7. イベントサービスの構成情報の設定

1. イベントサービスの構成情報の設定」においてノード1でイベントサービスの構成情報を変更した場合は、運用ノード(ノード2)でもessetcnfコマンドによりノード1と同様の構成情報を設定します。

essetcnf -s -edmax 5000

8. Interstageの起動

運用ノード(ノード2)でisstartコマンドによりInterstageを起動します。

isstart

9. ネーミングサービスの登録

運用ノード(ノード2)と待機ノード(ノード1)で同一のオブジェクトリファレンスを参照する必要があるため、運用ノード(ノード2)に待機ノード(ノード1)で作成したイベントチャネルのオブジェクトリファレンスを登録します。

ノード1で取得したイベントチャネルのオブジェクトリファレンスを、essetchnliorコマンドにより運用ノード(ノード2)のネーミングサービスに登録してください。ファイル名には、「4. ネーミングサービスからイベントチャネルのオブジェクトリファレンスを取得」においてesgetchnliorコマンドで作成したファイル名を指定します。

essetchnlior -f ファイル名

10. イベントチャネルの作成

運用ノード(ノード2)でesmkchnlコマンドによりイベントチャネルを作成します。このとき、-wオプションを指定する必要があります。

ノーティフィケーションサービスの場合

esmkchnl -g グループ名 -c イベントチャネル名 -notify -w

イベントサービスの場合

esmkchnl -g グループ名 -c イベントチャネル名 -w

注意

3. イベントチャネルの作成」において、ノード1で作成したイベントチャネルの動作環境を変更した場合は、運用ノード(ノード2)で作成したイベントチャネルでもessetcnfchnlコマンドによりノード1と同様の動作環境を設定してください。

11. Interstageの停止

運用ノード(ノード2)でisstopコマンドによりInterstageを停止します。このとき、-fオプションを指定する必要があります。

isstop -f

4.2.4.4.6 データベース連携サービスを使用する場合

データベース連携サービスは1:1運用待機形態のみ利用可能です。
データベース連携サービスを使用する場合、Interstageの初期化(isinitコマンドでtype2を指定)での設定に加え、別途設定作業が必要になります。


注意


JTSを利用したJ2EEアプリケーションを使用する場合は、isinitコマンドでtype2とejbを指定する必要があります。詳細については、「リファレンスマニュアル(コマンド編)」を参照してください。


CORBAアプリケーション/トランザクションアプリケーションによるOTS利用時の手順


1. XA連携用プログラム/リソース管理プログラム/APMの作成

XA連携用プログラムおよびリソース管理プログラムの作成を行います。

当該クラスタサービスに対する運用ノード(ノード1)、待機ノード(ノード2)で作成する必要があります。
リソース管理プログラムは、otsmkxapgmコマンドでXA連携用プログラムを作成してから、otslinkrscコマンドでリソース管理プログラムを作成します。


トランザクションアプリケーションを利用する場合は、tdlinkapmコマンドでAPMを作成する必要があります。


それぞれのコマンドについては、「リファレンスマニュアル(コマンド編)」を参照してください。


2. リソース管理プログラムの登録

作成したリソース管理プログラムの登録を行います。登録については、当該クラスタサービスに対する運用ノード(ノード1)と待機ノード(ノード2)で登録する必要があります。また、その場合、作成したすべてのリソース管理プログラムの登録を行ってください。待機ノード(ノード2)での登録時には、コマンドのオプションに-wを付けるようにしてください。
なお、リソース管理プログラムの登録を行う前にInterstageを起動し、すべてのリソース管理プログラムの登録完了後にInterstageを停止するようにしてください。


  1. 運用ノード(ノード1)の状態確認

    ノード1が運用状態になっていなければ、クラスタの切り替えを行い、運用状態に切り替えてください。

  2. Interstageの起動

    isstart
  3. ノード1でのリソース管理プログラムの登録

    otssetrsc -a -rf リソース定義ファイル
  4. ノード1でのInterstageの停止

    isstop -f
  5. リソース定義ファイルのコピー

    ノード1から、以下に示すディレクトリ配下のファイルを、ノード2の同一ディレクトリ配下へ、コピーします。

    C:\Interstage\ots\etc\repository配下

    /opt/FSUNots/etc/repository配下

    /opt/FJSVots/etc/repository配下

    注意

    コピー時は、運用ノード(ノード1)と待機ノード(ノード2)両方のInterstageが停止していることを確認してください。

  6. ノードの切り替え

    クラスタの切り替えを行い、ノード2を運用状態に切り替えてください。

  7. ノード2でのInterstageの起動

    isstart
  8. ノード2でのリソース管理プログラムの登録

    otssetrsc -a -w -rf リソース定義ファイル

    注意

    otssetrscコマンドには、-wオプションを指定してください。指定しない場合、すでに登録されている旨のエラーが発生します。

  9. ノード2でのInterstageの停止

    isstop -f
  10. ノードの切戻し

    クラスタの切戻しを行い、初期状態に戻してください。


J2EEアプリケーションによるJTS利用時の手順


1. JTS用リソース定義ファイルの登録

JTS用リソース定義ファイルを登録します。


  1. 運用ノード(ノード1)の状態確認

    ノード1が運用状態になっていなければ、クラスタの切り替えを行い、運用状態に切り替えてください。

  2. Interstageの起動

    isstart
  3. ノード1でのリソース定義ファイルの登録

    otssetrsc -a -rf リソース定義ファイル
  4. ノード1でのInterstageの停止

    isstop -f
  5. リソース定義ファイルのコピー

    ノード1から、以下に示すディレクトリ配下のファイルを、ノード2の同一ディレクトリ配下へ、コピーします。

    C:\Interstage\ots\etc\repository配下

    /opt/FJSVots/etc/repository配下

    注意

    コピー時は、運用ノード(ノード1)と待機ノード(ノード2)両方のInterstageが停止していることを確認してください。


2. JTS用リソース定義ファイルの登録CLASSPATHの設定

JTS用のリソース管理プログラムを利用する場合は、リソースと連携するために必要となるクラスライブラリへのパスを以下のファイルに設定してください。


C:\Interstage\ots\etc\RMP.properties

/opt/FJSVots/etc/RMP.properties


クラスライブラリの詳細な内容については、「アプリケーション作成ガイド(データベース連携サービス編)」の「リソース管理プログラムの作成から起動まで」を参照してください。


RecoveryTarget= 
Classpath=C:\oracle\jdbc\lib\ojdbc6.jar

RecoveryTarget=
Classpath=/oracle/jdbc/lib/ojdbc6.jar

4.2.4.4.7 Interstage JMSを使用する場合

Interstage JMSを使用する場合、メッセージの送受信に使用する静的イベントチャネルの運用を行うために、まずノーティフィケーションサービスの環境を設定する必要があります。

ノーティフィケーションサービスの環境設定は、運用形態により設定方法が異なります。

以下の機能を使用する場合は、「4.2.4.4.4 ノーティフィケーションサービスの不揮発チャネル運用を行う場合」を参照して、ノーティフィケーションサービスの環境を設定してください。

上記の機能を使用しない場合は、「4.2.4.4.5 イベントサービスおよびノーティフィケーションサービスの揮発チャネル運用を行う場合」を参照して、ノーティフィケーションサービスの環境を設定してください。

なお、ユニットの作成、静的イベントチャネルの作成で指定するオプションの詳細については、「J2EE ユーザーズガイド(旧版互換)」の「イベントチャネル運用マシンの運用前の環境設定」を参照してください。

ノーティフィケーションサービスの環境設定後に行うInterstage JMSの環境設定の手順を以下に説明します。


1. 環境の設定

運用ノード(ノード1)でInterstage JMSの環境定義を行います。詳細については、「J2EE ユーザーズガイド(旧版互換)」の「JMSアプリケーション運用マシンの運用前の環境設定」を参照してください。


2. JMS不揮発化ファイルの設定

Durable Subscription機能を使用する場合は、jmssetupclusterコマンドを使用して、JMS不揮発化ファイルを共用ディスク上に作成します。

jmssetupcluster  $SWITCH

$SWITCH:共用ディスク上のディレクトリ


3. ノード切り替え

クラスタサービスの切り替えを行い、ノード2を運用ノードに、ノード1を待機ノードにします。


4. 環境の設定

運用ノード(ノード2)でInterstage JMSの環境定義を行います。この時、待機ノード(ノード1)と同一の環境設定を行う必要があります。ConnectionFactory定義、Destination定義を待機ノード(ノード1)と同一のJNDI名、オプションを指定して登録してください。


5. JMS不揮発化ファイルの設定

Durable Subscription機能を使用する場合は、jmssetupclusterコマンドに-wオプションを指定して実行します。

jmssetupcluster  $SWITCH  -w

$SWITCH:共用ディスク上のディレクトリ


4.2.4.4.8 Interstage シングル・サインオンを使用する場合

Interstage シングル・サインオンを使用する場合は、事前に以下の作業を行ってください。

また、上記作業に加えて、別途設定作業が必要になります。手順を以下に説明します。


ポイント

Interstage シングル・サインオンでは、リポジトリサーバ(リポジトリサーバが複数のマシンで構成されている場合は更新系)のみクラスタシステムに対応しています。


環境構築方法


1. 運用ノード(ノード1)での構築

  1. 運用ノード(ノード1)において、Interstage管理コンソールを使用してSSOリポジトリを構築します。SSOリポジトリの構築については「4.2.4.4.10 Interstage ディレクトリサービスを使用する場合」を参照してください。

  2. 運用ノード(ノード1)において、Interstage管理コンソールを使用してリポジトリサーバを構築します。リポジトリサーバの構築については「シングル・サインオン運用ガイド」の「リポジトリサーバの構築」を参照してください。

  3. セション管理の運用を行うInterstage シングル・サインオンを使用する場合は、Interstage シングル・サインオン専用のパスを共用ディスクに用意します。

    E:\sso

    /sso

  4. 共用ディスクに作成したInterstage シングル・サインオン専用のパスに、リポジトリサーバの環境定義ファイルのserviceidpathに指定されている暗号化情報(サービスID)ファイルを移動してください。

    注意

    セション管理の運用を行わない場合は、作業を行う必要はありません。

    リポジトリサーバの環境定義ファイル(C:\Interstage\F3FMsso\ssoatcsv\conf\ssoatcsv.conf)が以下のように設定されていた場合、暗号化情報(サービスID)ファイル(C:\Interstage\F3FMsso\ssoatcsv\conf\serviceid)を、共用ディスクのInterstage シングル・サインオン専用のパスに移動します。

    serviceidpath=C:\Interstage\F3FMsso\ssoatcsv\conf\serviceid

    リポジトリサーバの環境定義ファイル(/etc/opt/FJSVssosv/conf/ssoatcsv.conf)が以下のように設定されていた場合、暗号化情報(サービスID)ファイル(/etc/opt/FJSVssosv/conf/serviceid)を、共用ディスクのInterstage シングル・サインオン専用のパスに移動します。

    serviceidpath=/etc/opt/FJSVssosv/conf/serviceid
  5. リポジトリサーバの環境定義ファイル、およびセション管理を行うための定義ファイルに設定されているserviceidpathを、手順3で暗号化情報(サービスID)ファイルを移動したパスに変更してください。

    注意

    • セション管理の運用を行わない場合は、作業を行う必要はありません。

    • serviceidpath以外は編集しないでください。serviceidpath以外を編集した場合、リポジトリサーバが正しく動作しなくなる場合があります。環境定義ファイルを編集する際には、十分注意してください。

    暗号化情報(サービスID)ファイルを共用ディスクの「E:\sso」に移動した場合
    リポジトリサーバの環境定義ファイル(C:\Interstage\F3FMsso\ssoatcsv\conf\ssoatcsv.conf)、およびセション管理を行うための定義ファイル(C:\Interstage\F3FMsso\ssoatcsv\conf\ssossmgr.conf)に設定されているserviceidpathを以下のように変更します。

    serviceidpath=E:\sso\serviceid

    暗号化情報(サービスID)ファイルを共用ディスクの「/sso」に移動した場合
    リポジトリサーバの環境定義ファイル(/etc/opt/FJSVssosv/conf/ssoatcsv.conf)、およびセション管理を行うための定義ファイル(/etc/opt/FJSVssosv/conf/ssossmgr.conf)に設定されているserviceidpathを以下のように変更します。

    serviceidpath=/sso/serviceid
  6. 構築したリポジトリサーバの資源、およびInterstage HTTP Serverの資源をバックアップします。バックアップについては「運用ガイド(基本編)」の「資源のバックアップとリストア」を参照してください。

  7. 構築したSSOリポジトリの資源をバックアップします。バックアップについては「4.2.4.4.10 Interstage ディレクトリサービスを使用する場合」を参照してください。


2. 待機ノード(ノード2)での構築

  1. 運用ノード(ノード1)でバックアップしたSSOリポジトリの資源を、待機ノード(ノード2)にリストアします。リストアについては「4.2.4.4.10 Interstage ディレクトリサービスを使用する場合」を参照してください。

  2. 運用ノード(ノード1)でバックアップしたリポジトリサーバの資源、およびInterstage HTTP Serverの資源を、待機ノード(ノード2)にリストアします。リストアについては「運用ガイド(基本編)」の「資源のバックアップとリストア」を参照してください。


注意

  • 構築後に運用ノード(ノード1)において、リポジトリサーバの環境設定を変更する場合は、待機ノード(ノード2)においても同様に変更し、リポジトリサーバの環境設定を同一にしてください。

  • すでにクラスタシステムとして構成したリポジトリを「SSOリポジトリ」として使用する場合は、待機ノード(ノード2)のInterstage管理コンソールを使用して、[システム] > [セキュリティ] > [シングル・サインオン] > [認証基盤] > [リポジトリサーバ] > [環境設定]タブの[適用]ボタンをクリックしてください。

  • ポート番号には、システム上のアプリケーションを含むすべてのサービスにおいてそれぞれ異なるポート番号を設定する必要があります。万が一、同じポート番号を設定して運用した場合、リポジトリサーバが正常に起動しません。ポート番号の設定については、「システム設計ガイド」の「ポート番号」を参照してください。


環境削除方法

  1. 運用ノード(ノード1)において、Interstage管理コンソールを使用してリポジトリサーバを削除します。

  2. クラスタサービスの切り替えを行い、待機ノード(ノード2)において、Interstage管理コンソールを使用してリポジトリサーバを削除します。

  3. 共用ディスクに暗号化情報(サービスID)ファイルが存在するか確認してください。存在する場合は、暗号化情報(サービスID)ファイルを削除します。
    ) セション管理の運用を行わない場合は、作業を行う必要はありません。

  4. 各ノードでSSOリポジトリを削除してください。SSOリポジトリの削除については「4.2.4.4.10 Interstage ディレクトリサービスを使用する場合」を参照してください。


注意

削除手順を誤った場合、クラスタサービスの切り替えに失敗する可能性があります。


4.2.4.4.9 Interstage証明書環境を使用する場合

Interstage証明書環境を使用するサービスにおいて、各ノードで同じサイト証明書を使用する場合には、サービスでの設定に加えて以下の手順が必要となります。

注意

認証局の運用方針によっては、異なるノードで同じサイト証明書を利用することを許可していない場合があります。また、条件付きで許可している場合もあります。そのため、想定している運用でサイト証明書が利用可能かを認証局に確認してから、以下の手順を実施してください。認証局で許可されていない場合は、ノードごとに異なるサイト証明書を利用する(ノードごとにInterstage証明書環境を構築する)か、または、想定している運用を許可している認証局からサイト証明書を入手するようにしてください。


環境設定方法


1. 運用ノードでのInterstage証明書環境の構築

運用ノードにおいて、Interstage証明書環境を構築します。Interstage証明書環境の構築方法については、「セキュリティシステム運用ガイド」の「Interstage証明書環境の構築と利用」を参照してください。


2. 待機ノードでのInterstage証明書環境の構築

待機ノードにおいては、以下の手順でInterstage証明書環境を構築します。
なお、各コマンドの詳細については、「リファレンスマニュアル(コマンド編)」を参照してください。


  1. Interstage証明書環境の作成

    scsmakeenvコマンドで、Interstage証明書環境を作成します。このとき、CSRやテスト用証明書を作成しないため、-eオプションを指定してください。

    scsmakeenv -e -c
    scsmakeenv -e -c -g iscertg
  2. 認証局証明書の登録

    運用ノードに登録した認証局の証明書をすべて、scsenterコマンドで登録してください。

    scsenter -n ca -f C:\my_folder\CA.der
    scsenter -n ca -f /usr/home/my_dir/CA.der
  3. サイト証明書の移出(取り出し)

    運用ノードのInterstage証明書環境から、サイト証明書と秘密鍵をPKCS#12データで移出します。サイト証明書が複数ある場合は、すべてのサイト証明書を移出してください。

    scsexppfx -n sitecert -f C:\my_folder\MyCert.p12
    scsexppfx -n sitecert -f /usr/home/my_dir/MyCert.p12
  4. サイト証明書の移入(登録)

    3.で移出したPKCS#12データを、待機ノードのInterstage証明書環境に移入します。移出したPKCS#12データが複数ある場合は、すべてのPKCS#12データを移入してください。

    scsimppfx -f C:\my_folder\MyCert.p12
    scsimppfx -f /usr/home/my_dir/MyCert.p12
  5. 他サイト証明書の登録

    運用ノードに登録した他サイトの証明書をすべて、scsenterコマンドで登録してください。

    scsenter -n othersite -e -f C:\my_folder\otherSite.der
    scsenter -n othersite -e -f /usr/home/my_dir/otherSite.der
  6. CRLの登録

    運用ノードに登録したCRLをすべて、scsenterコマンドで登録してください。

    scsenter -c -f C:\my_folder\crl.der
    scsenter -c -f /usr/home/my_dir/crl.der

注意事項

運用開始後に証明書やCRLを追加登録・削除する場合、すべてのノードで登録・削除を実施してください。


4.2.4.4.10 Interstage ディレクトリサービスを使用する場合

クラスタ環境でのリポジトリの作成手順、および操作手順を説明します。

注意

  • Interstage ディレクトリサービスは、運用待機型にだけ対応しています。

  • 以下に説明する手順は、各クラスタ環境で共通の操作手順です。管理者権限で実行してください。

  • 以下に説明する手順は、すでにクラスタ環境が構築されていることを前提としています。

  • ノード1、ノード2とも、ディレクトリ構成を完全に一致させてください。

  • リポジトリの新規作成時に指定するアクセスログの格納先には、共用ディスクのパスを指定してください。

  • 共用ディスクパスには、リソースに登録されているパスを指定してください。

  • クラスタ環境ですでに運用されているリポジトリの環境を更新する場合は、「リポジトリの更新手順」に従ってください。

  • リポジトリの新規作成時に指定するポート番号には、システム上のアプリケーションを含むすべてのサービスにおいてそれぞれ異なるポート番号を設定する必要があります。万が一、同じポート番号を設定して運用した場合、リポジトリが正常に起動しません。ポート番号の設定については、「システム設計ガイド」の「ポート番号」を参照してください。

  • Windows Server(R) フェールオーバー クラスタリング(WSFC)を利用したリソースは、「リポジトリの作成手順」のあとに登録してください。

  • WSFCのクラスタ環境で運用されているリポジトリは停止できないため、リポジトリの更新/削除を行うことができません。
    WSFCのクラスタ環境で運用されているリポジトリの更新/削除を行う場合は、WSFCへ登録したリポジトリのリソースを削除した後、リポジトリを停止して行ってください。

参照

  • irepbacksysコマンドの詳細については、「リファレンスマニュアル(コマンド編)」の「バックアップコマンド」-「irepbacksys」を参照してください。

  • ireprestsysコマンドの詳細については、「リファレンスマニュアル(コマンド編)」の「バックアップコマンド」-「ireprestsys」を参照してください。

  • バックアップの詳細については、「運用ガイド(基本編)」の「メンテナンス(資源のバックアップ/他サーバへの資源移行/ホスト情報の変更)」-「バックアップ手順詳細」-「Interstage ディレクトリサービス資源のバックアップ」を参照してください。

リポジトリの作成手順(スタンドアロン運用)

クラスタ環境でInterstage ディレクトリサービスのスタンドアロン運用(RDB)を行う場合は、以下の手順でリポジトリ作成します。
クラスタ環境の初期設定は、運用ノードをノード1、待機ノードをノード2とします。


  1. RDBのクラスタシステムを構築します。

    注意

    Symfoware Serverのクラスタシステムを構築する場合は、フェイルオーバ運用のスタンバイ機能を使用して構築してください。

    参照

    • Symfoware Serverのクラスタシステムの構築については、Symfoware Serverのマニュアル「クラスタ導入運用ガイド」の「フェイルオーバ運用のセットアップ」、および「フェイルオーバの運用」を参照してください。

    • Oracleデータベースのクラスタシステムの構築については、Oracleデータベースのマニュアルを参照してください。

    • RDBのクラスタシステムを構築する際の、データベースの環境構築時に指定する各種パラメタについては、「ディレクトリサービス運用ガイド」の「データベースの構築」に記載されている値を指定してください。

  2. リポジトリを作成します。

    • コマンドの場合

      irepconfigコマンドのcreateサブコマンドを使用します。

      • accesslog_dir (アクセスログの格納先)

        共用ディスクのパスを指定します。

    • Interstage管理コンソールの場合

      [システム] > [サービス] > [リポジトリ] > [新規作成]タブ
      • [アクセスログ定義]の[格納先]

        共用ディスクのパスを指定します。


  3. 運用ノード(ノード1)で、irepbacksysコマンドを実行し、手順1.で作成したリポジトリの情報をバックアップします。


    ディレクトリにバックアップします。

    irepbacksys -d X:\Backup\irep\rep001_back -R rep001 -confonly


    ファイルにバックアップします。

    irepbacksys -f /backup/irep/rep001_back -R rep001 -confonly
  4. 手順3.で作成したバックアップファイルを、ftpなどを使用して待機ノード(ノード2)に転送します。


  5. クラスタの切り替えを行い、ノード2を運用ノードにします。


  6. 運用ノード(ノード2)で、ireprestsysコマンドを実行し、手順1.で作成したリポジトリの情報をリストアします。


    ディレクトリからリストアします。

    ireprestsys -d X:\Backup\irep\rep001_back -R rep001 -confonly


    ファイルからリストアします。

    ireprestsys -f /back/irep/rep001_back.tar.gz -R rep001 -confonly
  7. 運用ノード(ノード2)で、リポジトリを起動します。


レプリケーション導入方法

クラスタ環境で、RDBを使用してInterstage ディレクトリサービスのレプリケーション運用を行う場合のリポジトリの作成手順は、スタンドアロン運用を行う場合の作成手順と同様です。

参照

RDBのレプリケーション機能を使用したクラスタシステムの構築手順については、各RDBのマニュアルを参照してください。


リポジトリの更新手順

クラスタ環境の初期設定を、運用ノードをノード1、待機ノードをノード2とします。



  1. WSFCのクラスタ環境で運用されているリポジトリを更新する場合は、WSFCへ登録した対象リポジトリの汎用サービス・リソースをオフラインにします。

  2. 運用ノード(ノード1)で、リポジトリを停止してから更新し、起動します。

  3. クラスタの切り替えを行い、ノード2を運用ノードに切り替えてから、手順1と同じ操作を実行します。


  4. WSFCのクラスタ環境で運用されているリポジトリを更新した場合は、手順1でオフラインにしたリソースをオンラインにします。


リポジトリの削除手順

クラスタ環境の初期設定を、運用ノードをノード1、待機ノードをノード2とします。



  1. WSFCのクラスタ環境で運用されているリポジトリを削除する場合は、WSFCへ登録した対象リポジトリの汎用サービス・リソースを削除します。

  2. 運用ノード(ノード1)で、リポジトリを停止してから削除します。

  3. クラスタの切り替えを行い、ノード2を運用ノードに切り替えてから、手順1と同じ操作で実行します。


リポジトリのバックアップ手順

クラスタ環境で、リポジトリのバックアップを行う場合のバックアップ手順は、「運用ガイド(基本編)」の「メンテナンス(資源のバックアップ/他サーバへの資源移行/ホスト情報の変更)」-「資源のバックアップとリストア(クラスタ環境)」-「バックアップ手順(クラスタ環境の場合)」を参照してください。


リポジトリのリストア手順

クラスタ環境で、リポジトリのリストアを行う場合のリストア手順は、「運用ガイド(基本編)」の「メンテナンス(資源のバックアップ/他サーバへの資源移行/ホスト情報の変更)」-「資源のバックアップとリストア(クラスタ環境)」-「リストア手順(クラスタ環境の場合)」を参照してください。


メンテナンスの一括実行

クラスタ環境で、メンテナンスの一括実行を行う場合の詳細は、「運用ガイド(基本編)」の「メンテナンス(資源のバックアップ/他サーバへの資源移行/ホスト情報の変更)」-「メンテナンスの一括実行」-「バックアップ・リストア対象資源の定義方法」を参照してください。