ページの先頭行へ戻る
PRIMECLUSTER 導入運用手引書 4.5
FUJITSU Software

18.6 マルチユーザモードでの設定変更とGFS/GDSの構成情報のリストア

  1. ゲストドメインをマルチユーザモードで起動します。

    # shutdown -y -g0 -i6 

    GLS、クラスタインタコネクト(CF)に設定されているNICが存在しないため、GLS、CFのエラーメッセージが出力されますが、無視してください。

    また、クラスタリソース管理機構の以下のメッセージが表示される場合がありますが、問題ありません。

    2914 A new disk device(disk ) was found.
         ディスク装置 (disk) を新規に検出しました。
    6807 Disk device (NodeID NodeID , disk ) cannot be detected.
         ディスク装置 (ノード識別番号NodeID 、disk) が検出できません。
    6836 The disk device (NodeID NodeID , disk ) has changed.
         ディスク装置 (ノード識別番号NodeID 、disk) が以前と異なっています。
  2. Web-Based Admin Viewのネットワークアドレスの変更

    移行後の環境で、Web-Based Admin Viewで使用するIPアドレスが変更される場合は、“Web-Based Admin View操作手引書”の、“7.1 ネットワークアドレスの変更”、“7.3 管理サーバの変更”、および“7.5 管理サーバにおけるネットワークの分離”を参照してください。

  3. 移行先でクラスタインタコネクトのNICが異なる場合の手順

    移行先でクラスタインタコネクトのNICが異なる場合の手順を以下に示します。

    1. クラスタを構成するすべてのノードのCFを停止します。

      CFの停止方法については、“PRIMECLUSTER Cluster Foundation 導入運用手引書”の“4.7 CFの起動と停止”を参照してください。

    2. cfconfigによる設定変更(クラスタを構成するすべてのノードで実行します)

      # cfconfig -d
      # cfconfig -S <CFノード名> <クラスタ名> <デバイス名> [...]

      設定後は以下のコマンドにより正しく設定されていることを確認してください。

      # cfconfig -g
    3. クラスタを構成するすべてのノードのCFを起動します。

      CFの起動方法については、“PRIMECLUSTER Cluster Foundation 導入運用手引書”の“4.7 CFの起動と停止”を参照してください。

      起動時に“ドライバーのロード”を実行する際、“CF の起動”ポップアップ画面では、SF、GFSのチェックを外してください。

    4. CFの状態確認

      CFメインウィンドウで、すべてのノードのCFが起動していること、およびクラスタインタコネクトが動作していることを確認してください。

  4. IPアドレスの変更

    IPアドレスを変更する場合は、必要に応じて、以下の設定を変更してください。

    • CIPのIPアドレス、サブネット

      9.2.2 CIPのアドレス変更”を参照してください。

      CFの起動時に“ドライバーのロード”を実行する際、“CF の起動”ポップアップ画面では、SF、GFSのチェックを外してください。

    • 業務LAN/管理LANのIPアドレス

      以下の手順で設定変更してください。

      1. /etc/inet/hosts ファイルを編集し、各ノードのIPアドレスを変更します。

        Solaris 11の場合、さらに、ipadmコマンドによる設定が必要です。

      2. 引継ぎIPアドレスの変更が必要な場合には、各ノードの/etc/inet/hostsファイルに対し、引継ぎIPアドレスで使用するIPアドレスを修正します。

      3. すべてのノードでシステムを再起動します。

        # /usr/sbin/shutdown -y -g0 -i6
      4. userApplication Configuration Wizardを使用してIPv4のIpaddressリソースを設定していた場合、以下の手順を実施し、リソースデータベースの引継ぎIPアドレスを変更します。
        IPv6のIpaddressリソースを設定している場合、本手順は不要です。

        (1) リソースデータベースの変更する引継ぎIPアドレスのリソースを特定します。

        特定には、クラスタノードの1つのノードにおいて、clgettree(1)コマンドを使用します。引継ぎIPアドレスのリソースは、IPアドレスのリソースクラス名のリソースです。

        例) 以下の例の場合、リソースのリソースIDが56と57のリソースが、引継ぎIPアドレスのリソースです。

         # /etc/opt/FJSVcluster/bin/clgettree
        Cluster 1 cluster Domain 2 RC2 Shared 7 SHD_RC2 SHD_Host 58 config_Ipaddress0_ip1 UNKNOWN IP_Address 56 hme0:1 UNKNOWN node1 IP_Address 57 hme0:1 UNKNOWN node2 Node 3 node1 ON Ethernet 21 hme0 UNKNOWN IP_Address 56 hme0:1 UNKNOWN Application 31 proc1 UNKNOWN DISK 19 c0t0d0 UNKNOWN Node 5 node2 ON Ethernet 22 hme0 UNKNOWN IP_Address 57 hme0:1 UNKNOWN Application 32 proc1 UNKNOWN DISK 20 c0t0d0 UNKNOWN

        (2) 引継ぎIPアドレスの共用リソースを特定します。

        特定には、クラスタノードの1つでclgettree(1)コマンドを使用します。

        引継ぎIPアドレスの共用リソースは、SHD_Hostのリソースクラス名のリソースです。

        例) 上記(1)の例の場合、リソースのリソースIDが58のリソースが、引継ぎIPアドレスの共用リソースです。

        (3) 引継ぎIPアドレスを変更します。

        変更には、clsetrsc(1M)コマンドを使用します。引継ぎIPアドレスは、上記(2)で特定した引継ぎIPアドレスの共用リソースの属性に定義されています。

        各クラスタノードにおいて、以下の形式でclsetrsc(1M)コマンドを実行し、引継ぎIPアドレスを変更します。

        # /etc/opt/FJSVcluster/sys/clsetrsc -A ip_addr=<変更後のIPアドレス> <IPアドレスの共用リソースのリソースID>

        例) 引継ぎIPアドレスの共用リソース(リソースのリソースID=58)の引継ぎIPアドレスを 10.10.10.10 に変更する場合

        # /etc/opt/FJSVcluster/sys/clsetrsc -A ip_addr=10.10.10.10 58

        (4) 引継ぎIPアドレスが変更されたことを確認します。

        確認には、clgetrsc(1)コマンドを使用します。

        以下の形式でクラスタノードの1つでclgetrsc(1)コマンドを実行し、引継ぎIPアドレスが変更されたことを確認します。

        # /etc/opt/FJSVcluster/sys/clgetrsc -a ip_addr IP<アドレスの共用リソースのリソースID>

        例) 引継ぎIPアドレスの共用リソース(リソースのリソースID=58)の引継ぎIPアドレスを 10.10.10.10 に変更した場合

        # /etc/opt/FJSVcluster/sys/clgetrsc -a ip_addr 58
        ip_addr 10.10.10.10
  5. 移行先でのSFの設定変更

    1. コンソール非同期監視の設定確認

      いずれか1ノードで以下のコマンドを実行してください。

      # /etc/opt/FJSVcluster/bin/clrccusetup -l

      <実行例>

      # /etc/opt/FJSVcluster/bin/clrccusetup -l
      device-name cluster-host-name  IP-address host-name user-name connection-type
      -----------------------------------------------------------------------------
      xscf        node1              xscf2      1         xuser     ssh
      xscf        node2              xscf2      1         xuser     ssh
    2. コンソール非同期監視の設定解除

      いずれか1ノードで、1.で表示されたCFノード名(cluster-host-name)を指定して以下のコマンドを実行してください。本手順は、1.で表示されたすべてのCFノード名分実施します。

      # /etc/opt/FJSVcluster/bin/clrccusetup -d node1
      # /etc/opt/FJSVcluster/bin/clrccusetup -d node2

      すべてのノードのCFノード名を指定してコマンドを実行した後、1.のコマンドを再度実行し、何も表示されないことを確認してください。

      # /etc/opt/FJSVcluster/bin/clrccusetup -l
      #
    3. SFの設定

      5.1.2.1 SPARC M10、M12の場合”を参照して、SFの設定を実施してください。

      以下の設定値については、ここで設定可能です。

      • XSCFのIPアドレス

      • 管理LANのIPアドレス

        注意

        SPARC EnterpriseからSPARC M10、M12のOVMへ移行される場合、以下のIPアドレスの追加が必要です。

        - 非同期監視サブLAN(サーバ側)

        - XSCFのIPアドレスが2つ(XSCF-LAN#0/XSCF-LAN#1)、XSCFの冗長化構成では6つ(XSCF-LAN#0/XSCF-LAN#1*2、引継ぎIP*2)

  6. userApplication のパトロール診断対象の削除

    userApplication のパトロール診断対象をすべて削除します。userApplicationにパトロール診断リソースを登録していない場合には本手順は不要です。

    # /etc/opt/FJSVcluster/bin/clspconfig -u <userApplication名> -d

    削除後に、以下のコマンドにより設定が削除されていることを確認してください。

    # /etc/opt/FJSVcluster/bin/clspconfig -u <userApplication名>

    <実行例>

    # /etc/opt/FJSVcluster/bin/clspconfig -u userApp_0 -d
    # /etc/opt/FJSVcluster/bin/clspconfig -u userApp_0
    FJSVcluster: ERROR: clspconfig: 6690: The specified userApplication or resource is not monitored. (userApplication:userApp_0)
  7. ネットワークインタフェースカードのリソースを削除

    cldelrscコマンドを使用してネットワークインタフェースカードのリソースを削除します。cldelrscコマンドの詳細は“PRIMECLUSTER活用ガイド コマンドリファレンス編”を参照してください。

    ネットワークインタフェースカードのリソースの削除後には、下記のコマンドを実行し、削除したネットワークインタフェースカードのリソースが表示されないことを確認してください。

    # /etc/opt/FJSVcluster/bin/clgettree
  8. GLSの設定変更

    以下の手順で、GLSのSMFサービスが起動しているか確認してください。

    # svcs -a | grep fjsvhanet
    disabled HH:MM:SS svc:/network/fjsvhanet:default disabled HH:MM:SS svc:/network/fjsvhanet-poll:default

    GLSのSMFサービスが“disable”状態の場合は、SMFサービスを起動します。

    # svcadm enable /network/fjsvhanet
    # svcadm enable /network/fjsvhanet-poll
    # svcs -a | grep fjsvhanet
    online         HH:MM:SS svc:/network/fjsvhanet:default
    online         HH:MM:SS svc:/network/fjsvhanet-poll:default

    GLSのSMFサービスが“online”状態になっていることを確認してください。

    SMFサービスを起動した場合は、ゲストドメインを再起動します。

    # shutdown -y -g0 -i6 

    すべてのノードで以下の設定を変更します。

    • NIC名(fjgiX等→vnetX)

    • 待機パトロールのMACアドレス(ゲストドメインでは00:00:00:00:00:00とします)

    以下に仮想インタフェースsha0が使用するNICをfjgi0,fjgi2からvnet0,vnet1に変更し、待機パトロールsha1のMACアドレスを00:00:00:00:00:00に変更する場合の例を記載します。

    設定確認

    # /opt/FJSVhanet/usr/sbin/hanetconfig print
    [IPv4,Patrol]
    
     Name        Hostname        Mode MAC Adder/Phys ip Interface List
    +-----------+---------------+----+-----------------+-----------------------+
     sha0        192.168.0.100    d   192.168.0.1       fjgi0,fjgi2
     sha1        -                p   02:00:00:00:00:01 sha0
    
     Name        Hostname/prefix                   Mode Interface List
    +-----------+---------------------------------+----+-----------------------+
    # /opt/FJSVhanet/usr/sbin/hanethvrsc print
     ifname     takeover-ipv4    takeover-ipv6
    +----------+----------------+----------------------------------------------+
     sha0:65    192.168.0.100    -

    一時的に引継ぎ仮想インタフェースを削除

    # /opt/FJSVhanet/usr/sbin/hanethvrsc delete -n sha0:65
    hanet: 00000: information: normal end.
    # /opt/FJSVhanet/usr/sbin/dsphanet
    [IPv4,Patrol]
     Name       Status   Mode CL  Device
    +----------+--------+----+----+------------------------------------------------+
     sha0       Inactive  d   OFF  fjgi0(OFF),fjgi2(OFF)
     sha1       Inactive  p   OFF  sha0(OFF)
    [IPv6]
     Name       Status   Mode CL  Device
    +----------+--------+----+----+------------------------------------------------+

    [補足]

    dsphanetコマンドでStatusがInactiveとなっていることを確認してください。

    StatusがActiveとなっている仮想インタフェースがある場合にはstphanet -n shaXコマンドで仮想インタフェースを非活性化してください。非活性化する仮想インタフェースはModeが“d”、“e”または“c”である仮想インタフェースです。

    ■設定変更

    # /opt/FJSVhanet/usr/sbin/hanetconfig modify -n sha0 -t vnet0,vnet1
    hanet: 00000: information: normal end.
    # /opt/FJSVhanet/usr/sbin/hanetconfig modify -n sha1 -a 00:00:00:00:00:00
    hanet: 00000: information: normal end.
    # /opt/FJSVhanet/usr/sbin/hanethvrsc create -n sha0
    hanet: 00000: information: normal end.

    設定確認

    # /opt/FJSVhanet/usr/sbin/hanetconfig print
    [IPv4,Patrol]
    
     Name        Hostname        Mode MAC Adder/Phys ip Interface List
    +-----------+---------------+----+-----------------+-----------------------+
     sha0        192.168.0.100    d   192.168.0.1       vnet0,vnet1
     sha1        -                p   00:00:00:00:00:00 sha0
    
    [IPv6]
    
     Name        Hostname/prefix                   Mode Interface List
    +-----------+---------------------------------+----+-----------------------+
    # /opt/FJSVhanet/usr/sbin/hanethvrsc print
     ifname     takeover-ipv4    takeover-ipv6
    +----------+----------------+----------------------------------------------+
     sha0:65    192.168.0.100    -

    参照

    IPアドレスを変更する場合の変更手順は、“PRIMECLUSTER Global Link Services 説明書 4.5 (伝送路二重化機能編)”を参照してください。

  9. 共用クラスの強制解除

    1. クラスリソースを削除します。

      # /etc/opt/FJSVsdx/bin/sdxdcrsc -R -c class01
      # /etc/opt/FJSVsdx/bin/sdxdcrsc -R -c class02

      リソースが存在しない旨のメッセージが出力された場合、メッセージを無視して先に進んでください。

    2. ディスクリソースの属性を修正します。

      # /etc/opt/FJSVsdx/bin/sdxpdrsc -R -d c0t0d0
      # /etc/opt/FJSVsdx/bin/sdxpdrsc -R -d c1t0d0

      クラスに登録されていたすべての物理ディスクについて行ってください。

      ディスク名は以下の形式で指定してください。

      cXtXdX  emcpowerX  mphdX  mplbX  ...

      すでに修正されている旨のメッセージが出力された場合、メッセージを無視して先に進んでください。

    3. 共用クラスが削除されたことを確認してください。

      # sdxinfo -c class01
      # sdxinfo -c class02

      共用クラスの場合、クラススコープ内のすべてのノードで確認してください。

  10. 共用ディスク装置のリソースの削除

    全ノードが起動している状態でcldeldevice(1M)コマンドを使用し、登録された共用ディスク装置のリソースを削除します。cldeldevice(1M)コマンドの詳細は“PRIMECLUSTER活用ガイド コマンドリファレンス編”を参照してください。

    # /etc/opt/FJSVcluster/bin/cldeldevice -a

    リソースの削除後には、下記のコマンドを実行し、削除した共用ディスク装置のリソースが表示されないことを確認してください。

    # /etc/opt/FJSVcluster/bin/clgettree
  11. リソースの再登録(clautoconfig)

    # /etc/opt/FJSVcluster/bin/clautoconfig -r
  12. パトロール診断の動作設定を行います。

    パトロール診断が設定されていない場合、本手順は不要です。

    clspconfig(1M)コマンドで、パトロール診断の構成を設定します。パトロール診断の構成手順は、“6.9 パトロール診断の設定”の“パトロール診断の構成を設定する”を参照してください。

    設定後には以下のコマンドにより設定値が正しいことを確認してください。

    # /etc/opt/FJSVcluster/bin/clspconfig -u <userApplication名>

    <実行例>

    # /etc/opt/FJSVcluster/bin/clspconfig -u userApp_0
    ACTIVE=true
    INTERVAL=360
    TARGET_LAN=vnet2
    TARGET_DISK=c1d0
    TARGET_DISK=c1d1
    TARGET_DISK=c1d2
    TARGET_DISK=c1d3
  13. GDS構成情報の変換

    移行元と移行先で物理ディスク名が異なる場合、以下の手順でGDS構成情報を変換してください。正常であれば、コマンドは復帰コード“0”で完了します。クラスが複数ある場合は、すべてのクラスに対して行ってください。(いずれか1ノードで行います)

    構成ファイル/var/tmp/Class1.conf に記述されている物理ディスク c0t4d1 を c1d3 に変更します。

    # sdxconfig Convert -e replace -c class01 -p c0t4d1=c1d3 -i /var/tmp/Class1.conf -o /var/tmp/Class1.conf -e update
    # echo $?
    0
  14. GDS構成情報のリストア

    クラスが複数ある場合は、すべてのクラスに対して行ってください。(手順13を行ったノードで行います)

    # sdxconfig Restore -c class01 -i /var/tmp/Class1.conf -e chkps
    # shutdown -y -i6 -g0

    再起動後、sdxinfoコマンドで、移行元の共用クラスオブジェクトがローカルクラスで復元できていることを確認してください。

  15. ローカルクラスを共用クラスに変更

    構成情報をリストアすると、バックアップ元が共用クラスでもローカルクラスで復元されます。

    以下のコマンドで共用クラスに復旧してください。クラスが複数ある場合は、すべてのクラスに対して行ってください。(手順14を行ったノードで行います)

    # sdxvolume -F -c class01
    # sdxattr -C -c class01 -a type=shared,scope=node1:node2

    sdxinfoコマンドで、class01のtypeおよびscopeが指定通りに変更されていることを確認してください。

  16. userApplicationに登録するGdsリソースの設定

    共用クラスをuserApplicationに登録して使用するための設定を行います。

    userApplicationに登録する共用クラスに対し、クラススコープ内の任意の1ノードで以下のコマンドを実行します。

    # /opt/SMAW/SMAWRrms/bin/hvgdsetup -a クラス名
  17. GFSの管理パーティション情報のリストア

    1. 管理パーティションの再初期化

      いずれか1つのノードで以下のコマンドを実行します。

      # sfcsetup -c -f /dev/sfdsk/class01/rdsk/control
    2. 管理パーティションへの構成ノード情報再登録

      すべてのノードで以下のコマンドを実行します。

      # sfcsetup -a /dev/sfdsk/class01/rdsk/control

      設定した管理パーティションのパス名は、sfcsetup(1M) に -p オプションを指定することで確認できます。

      # sfcsetup -p
      /dev/sfdsk/class01/rdsk/control

      登録したノード情報は、sfcsetup(1M) をオプションなしで実行することで確認できます。

      # sfcsetup
      HOSTID      CIPNAME     MP_PATH
      80a4f75b    node1RMS     yes
      80960096    node2RMS     yes
    3. sfcfrmd デーモンの起動

      すべてのノードで以下のコマンドを実行します。

      # sfcfrmstart
    4. 管理パーティション情報のリストア

      18.1 GFS/GDSの構成情報のバックアップ”でsfcgetconf(1M)により採取したシェルスクリプト_backup_file_を、いずれか1つのノードで以下のように実行します。

      # sh _backup_file_
      get other node information start ... end
      get other node information start ... end

      GFSの管理パーティション情報がリストアできたことをsfcinfo(1M)、および、sfcrscinfo(1M)で確認します。

      # sfcinfo -a
      /dev/sfdsk/class02/dsk/volume01:
      FSID special                                            size  Type  mount
         1 /dev/sfdsk/class02/dsk/volume01(11500000021)        14422  META  -----
         1 /dev/sfdsk/class02/dsk/volume01(11500000021)         5116  LOG   -----
         1 /dev/sfdsk/class02/dsk/volume01(11500000021)        95112  DATA  -----
      
      /dev/sfdsk/class02/dsk/volume02:
      FSID special                                            size  Type  mount
         2 /dev/sfdsk/class02/dsk/volume02(11500000022)        14422  META  -----
         2 /dev/sfdsk/class02/dsk/volume02(11500000022)         5116  LOG   -----
         2 /dev/sfdsk/class02/dsk/volume02(11500000022)        95112  DATA  -----
         2 /dev/sfdsk/class02/dsk/volume03(11500000023)        65512  DATA  -----
      # sfcrscinfo -m -a
      /dev/sfdsk/class02/dsk/volume01:
      FSID  MDS/AC  STATE  S-STATE   RID-1   RID-2   RID-N  hostname
         1  MDS(P)  stop   -             0       0       0  host1
         1  AC      stop   -             0       0       0  host1
         1  MDS(S)  stop   -             0       0       0  host2
         1  AC      stop   -             0       0       0  host2
      
      /dev/sfdsk/class02/dsk/volume02:
      FSID  MDS/AC  STATE  S-STATE   RID-1   RID-2   RID-N  hostname
         2  MDS(P)  stop   -             0       0       0  host2
         2  AC      stop   -             0       0       0  host2
         2  MDS(S)  stop   -             0       0       0  host1
         2  AC      stop   -             0       0       0  host1
    5. GFS共用ファイルシステムのマウント

      対象ファイルシステムをマウントします。

      注意

      /etc/vfstabファイルのGFS共用ファイルシステムのエントリ(ファイルシステムのタイプがsfcfsの行)が有効になっているか確認してください。

      エントリがコメントアウトされている場合(行の先頭が“#”で始まる場合)は、エントリのコメントを削除してください。

      参照

      GFS共用ファイルシステムのマウント方法の詳細は、“PRIMECLUSTER Global File Services 説明書”の“11.2.4 マウント”を参照してください。

  18. システムディスクのミラーリングの再設定

    システムディスクのミラーリングの再設定を行います。

    参照

    手順の詳細は、“PRIMECLUSTER Global Disk Services 説明書 4.5”を参照してください。

  19. 引継ぎネットワークの設定の変更

    引継ぎネットワークリソースを使用している場合は、“10.6.1 リソースで使用するインタフェースの変更”に従い、P2V 後のネットワークインタフェースに対して引継ぎネットワークの再設定を行ってください。

  20. RMSの自動起動設定

    OSを起動時に RMS を自動起動する場合は、すべてのノードで以下の設定を実施してください。

    設定

    # hvsetenv HV_RCSTART 1

    確認

    # hvsetenv HV_RCSTART
    1 ←「1」が出力されることを確認します
  21. RMSの設定を有効にします。この操作は、クラスタを構成するいずれか1ノードで実行します。

    1. userApplication Configuration Wizard を起動します。

    2. 画面左側の「ツリービュー」の最上位にある Configurationを意味するアイコンで右クリックします。

    3. プルダウンメニュー「Wizard menu」に表示された「Configuraitonの配布」を選び、左クリックします。

  22. RMSの起動

    すべてのノードで以下のコマンドを実施し、RMSを起動します。

    # hvcm
  23. RMS 起動、リソース状態の確認

    すべてのノードで以下のコマンドを実施し、RMSの起動とリソース状態を確認します。

    # hvdisp -a
    Local System:  node1RMS
    Configuration: /opt/SMAW/SMAWRrms/build/config.us
    
    Resource            Type    HostName            State        StateDetails
    -----------------------------------------------------------------------------
    node1RMS            SysNode                     Online       
    node2RMS            SysNode                     Online       
    userApp_0           userApp                     Online       
    Machine001_userApp_0 andOp   node2RMS                   
    Machine000_userApp_0 andOp   node1RMS           Online       
    ManageProgram000_Cmdline1 gRes                  Online       
    ManageProgram000_Cmdline0 gRes                  Online       
    ManageProgram000_Cmdline2 gRes                  Online       
    SDISK.64            gRes                        Online       
    Ipaddress000_Gls0   gRes                        Online       
    MountPoint001_Fsystem0 gRes                     Online       
    MountPoint001_Fsystem1 gRes                     Online       
    MountPoint001_Fsystem2 gRes                     Online       
    Zpool000_Fsystem2   gRes                        Online       
    AllDiskClassesOk_Gds0 andOp                     Online       
    class01_Gds0        gRes                        Online