ページの先頭行へ戻る
PRIMECLUSTER  導入運用手引書 4.7

8.1.3 ハードウェアの変更

ハードウェアを変更する場合の作業手順について説明します。

8.1.3.1 共用ディスク装置の変更

共用ディスク装置を変更する場合は、事前に、変更する共用ディスク装置のリソースを削除し、共用ディスク装置の変更後に、変更した共用ディスク装置のリソースを追加する必要があります。

図8.5 共用ディスク装置の変更手順

◆操作手順

  1. クラスタアプリケーションの変更

    変更対象の共用ディスク装置を使用している以下のリソースを、クラスタアプリケーションから削除します。

    • Fsystemリソース

    • Gdsリソース

    参照

    クラスタアプリケーションの構成を変更し、リソースを削除する方法については、“10.3 クラスタアプリケーションの変更”および“10.5 リソースの削除”を参照してください。

  2. GDSのオブジェクトの削除

    変更する共用ディスク装置に関連する、GDSのオブジェクトを削除します。

    参照

    GDSのオブジェクトの削除については、“PRIMECLUSTER Global Disk Services 説明書” の“構成削除”を参照してください。

  3. 共用ディスク装置のリソースのデバイス名を変更

    リソースを削除する前に、リソースに設定されているデバイス名を現在のデバイス名に更新するため、以下のコマンドを実行します。filepathには空のファイルを絶対パスで指定します。

    # /etc/opt/FJSVcluster/bin/clautoconfig -f filepath
  4. 変更する共用ディスク装置のリソース削除

    cldelrscコマンドを使用して、登録された共用ディスク装置のリソースを削除します。

    cldelrscコマンドについては、マニュアルページを参照してください。

    cldelrscコマンド実行後、リソースを削除したことをGDSに通知するため、以下のコマンドを実行します。filepathには空のファイルを絶対パスで指定します。

    # /etc/opt/FJSVcluster/bin/clautoconfig -f filepath

    注意

    • 削除する共用ディスク装置のリソースがGDSのクラスに登録されている場合は、共用ディスクをGDSのクラスから削除した後、共用ディスク装置のリソースを削除してください。共用ディスクをGDSのクラスから削除する方法については、“PRIMECLUSTER Global Disk Services 説明書”を参照してください。

    • GDSの設定ファイル/etc/opt/FJSVsdx/sdx.cfにSDX_UDEV_USE=offが記述されている場合、clautoconfigコマンドは実行しないでください。

  5. 共用ディスク装置の変更

    12.2 保守作業の流れ”に従い、当社技術員(CE)に共用ディスク装置の変更を依頼してください。

  6. 共用ディスク装置のリソースのデバイス名を変更

    変更した共用ディスク装置に対するリソースを追加する前に、リソースに設定されているデバイス名を最新のデバイス名に更新します。以下のコマンドを実行してください。filepathには空のファイルを絶対パスで指定します。

    # /etc/opt/FJSVcluster/bin/clautoconfig -f filepath

    注意

    GDSの設定ファイル/etc/opt/FJSVsdx/sdx.cfにSDX_UDEV_USE=offが記述されている場合、clautoconfigコマンドは実行しないでください。

  7. 変更した共用ディスク装置のリソース追加

    変更した共用ディスク装置に対応するリソースを、リソースデータベースに登録します。

    参照

    リソースデータベースへの登録については、“5.1.3.2 ハードウェア装置の登録”を参照してください。

  8. Gdsリソースの設定

    GDSを使用する場合には、GDSの設定を行い、Gdsリソースを作成します。

    参照

    GDSの設定、Gdsリソースの作成については、“6.3 GDSの構成設定”、“6.7.3.4 Gdsリソースの設定”を参照してください。

  9. リソースの追加

    手順1.でFsystemリソースを削除した場合は、Fsystemリソースを追加します。

    参照

    リソースの追加については、“6.7.3 リソースの設定”を参照してください。

8.1.3.2 業務LAN/管理LANで使用するネットワークインタフェースカードの変更

業務LAN/管理LANで使用するネットワークインタフェースカードを変更する場合は、事前に、変更するネットワークインタフェースカードのリソースを削除し、ネットワークインタフェースカードの変更後に、変更したネットワークインタフェースカードのリソースを追加する必要があります。

図8.6 ネットワークインタフェースカードの変更手順

◆操作手順

  1. クラスタアプリケーションの変更

    変更対象のネットワークインタフェースカードを使用している以下のリソースを、クラスタアプリケーションから削除します。

    • 引継ぎネットワークリソース

    • Glsリソース

    参照

    クラスタアプリケーションの構成を変更し、リソースを削除する方法については、“10.3 クラスタアプリケーションの変更”および“10.5 リソースの削除”を参照してください。

  2. ネットワークインタフェースカードの変更

    12.2 保守作業の流れ”に従い、当社技術員(CE)にネットワークインタフェースカードの変更を依頼してください。

  3. リソースの追加

    手順1.で引継ぎネットワークリソース、Glsリソースを削除した場合は、引継ぎネットワークリソース、Glsリソースを追加します。

    参照

    リソースの追加については、“6.7.3 リソースの設定”を参照してください。

8.1.3.3 CIPで使用するネットワークインタフェースカードの変更

CF over IP を使用していない場合とCF over IP を使用している場合で変更手順が異なります。

注意

クラスタインタコネクトで使用しているネットワークインタフェースカードをPCI Hot Plugで交換することはできません。CFを停止してからネットワークインタフェースカードを交換してください。
CFの停止方法については、“PRIMECLUSTER Cluster Foundation 導入運用手引書”の“4.6 CFの起動と停止”を参照してください。

■CF over IP を使用していない場合

eth3をeth4に変更する手順

  1. クラスタを構成する全ノードのCFを停止します。

    CF の停止方法については、“PRIMECLUSTER Cluster Foundation 導入運用手引書”を参照してください。

  2. 全ノードで以下のコマンドを実行して現在使用しているインタフェースを確認します。

    # cfconfig -g
    自ノード名 クラスタ名 eth3
  3. 全ノードで以下のコマンドを実行してCF設定を削除します。

    # cfconfig -d
  4. 全ノードで以下のコマンドを実行してCF設定を行います。

    # cfconfig -S 自ノード名 クラスタ名 eth4
  5. 全ノードで以下のコマンドを実行して現在使用しているインタフェースが変更されたことを確認します。

    # cfconfig -g
    自ノード名 クラスタ名 eth4      ……  eth4が表示されていることを確認します。
  6. VMware環境のシャットダウンエージェントSA_icmpを使用している環境において、生存確認にクラスタインタコネクトを使用している場合、各ノードで/etc/opt/SMAW/SMAWsf/SA_icmp.cfgの修正を行います。

  7. クラスタを構成する全ノードのCFを起動します。

    1. Web-Based Admin Viewにログインします。

    2. Cluster Adminを開きます。

    3. cfタブを選択します。

    4. ドライバのロードを選択します。

    5. ポップアップのチェックボックス(ドライバ)をすべて選択して[確認]をクリックします。

    6. 1号機(初期接続)のCFが起動後に2号機のCFの起動を選択しポップアップのチェックボックス(ドライバ)をすべて選択して[確認]をクリックします。

    7. Cluster Adminのcf上から全ノードがOnline状態であることを確認します。また各インタコネクトがUP状態であることを確認します。

    8. Cluster Adminを終了します。

    9. Web-Based Admin Viewからログアウトします。

■CF over IPを使用している場合
  1. クラスタを構成する全ノードのCFを停止します。

    CF の停止方法については、“PRIMECLUSTER Cluster Foundation 導入運用手引書”を参照してください。

  2. 変更後のインタフェースにIPアドレスが設定されていない場合、IPアドレスを設定します。

    [RHEL8の場合]

    /etc/sysconfig/network-scripts/ifcfg-ethXファイルを編集して、IPアドレスを設定してください。

    [RHEL9の場合]

    以下のコマンドを実行し、IPアドレスを設定してください。

    # nmcli connection modify ethX ipv4.addresses <IPアドレス>/<プレフィックス長>
  3. 変更前と変更後で異なるIPアドレスを使用する場合は、CF over IPのIPアドレス変更を行います。詳細は、“9.2.3 CF over IPのIPアドレスの変更”を参照してください。

    ネットワークインタフェースカードのみ変更し、変更後も同じIPアドレスを使用する場合、本手順は不要です。

  4. VMware環境のシャットダウンエージェントSA_icmpを使用している環境において、生存確認にクラスタインタコネクトを使用している場合、各ノードで/etc/opt/SMAW/SMAWsf/SA_icmp.cfgの修正を行います。

  5. クラスタを構成する全ノードのCFを起動します。

    1. Web-Based Admin Viewにログインします。

    2. Cluster Adminを開きます。

    3. cfタブを選択します。

    4. ドライバのロードを選択します。

    5. ポップアップのチェックボックス(ドライバ)をすべて選択して[確認]をクリックします。

    6. 1号機(初期接続)のCFが起動後に2号機のCFの起動を選択しポップアップのチェックボックス(ドライバ)をすべて選択して[確認]をクリックします。

    7. Cluster Adminのcf上から全ノードがOnline状態であることを確認します。また各インタコネクトがUP状態であることを確認します。

    8. Cluster Adminを終了します。

    9. Web-Based Admin Viewからログアウトします。