ページの先頭行へ戻る
PRIMECLUSTER  導入運用手引書 4.7

G.2.1 ソフトウェアのインストール

各ノードにPRIMECLUSTERに必要なソフトウェアのインストールを行います。

ここでは、以下について説明をします。

G.2.1.1 関連ソフトウェアのインストールと設定

PRIMECLUSTERに関連したソフトウェアのインストール後、実際に導入/運用を行ううえでOS、およびハードウェア等に関して設定を行う必要があります。

必要に応じて、以下の作業を行ってください。

  1. 仮想マシンの作成

    下記に従い、システムディスク関連の設定、共用ディスク関連の設定、仮想ネットワークの設定を行ってください。

    • システムディスク関連の設定

      • vSphere Client または vSphere Web Client で仮想マシンを作成する場合、システムディスクのプロビジョニング設定は[Eager Zeroed]を選択してください。

      • SCSIコントローラのタイプは、[LSI Logic パラレル] または [VMware 準仮想化] に設定してください。

      • SCSI バスの共有を [なし] に設定してください。

    • 共用ディスク関連の設定(I/Oフェンシング機能使用時)

      • クラスタシステムで引き継ぐ共用ディスクは、Raw Device Mapping(RDM)として仮想マシンに追加してください。また、クラスタシステムで引き継ぐ共用ディスクとは別に複数のESXiホスト間で共用するデータストアを作成し、そのデータストア上に共用ディスクのマッピングファイル(.vmdk)を配置してください。

      • 1台目の仮想マシンに共用ディスクを追加するときは、[Rawデバイスのマッピング]を選択してください。

      • 2台目の仮想マシンに共用ディスクを追加するときは、[既存の仮想ディスクを使用] を選択し、1台目の仮想マシンに追加した共用ディスクのマッピングファイルを指定してください。

      • 共用ディスクの互換モードは [物理] としてください。

      • 仮想デバイスノードは、システムディスクとは異なる新たなSCSIコントローラを使用するように設定してください。

        (例: SCSI接続のディスク[SCSI(X:Y)]は、Xがコントローラ番号、Yがディスク番号です。システムディスクの仮想デバイスノードが [SCSI(0:0)] の場合は、コントローラ番号が 0 の仮想デバイスノード [SCSI(0:Y)] は使用できません。[SCSI(1:0)] などを設定してください)

      • 仮想デバイスノードのコントローラ番号とディスク番号は、クラスタシステムを構成するすべてのノードで同じになるよう設定してください。

      • SCSIコントローラのタイプは、ゲストOSのシステムディスクと同じ設定にしてください。

      • SCSIバスの共有は、[物理] に設定してください。

      • PRIMECLUSTER が動作するすべてのESXi ホストにおいて、PRIMECLUSTER が共用ディスクとして使用する Raw Device Mapping のディスクのデバイスに対し、[永久予約] としてマークする操作を行う必要があります。

        次の esxcli コマンドを使用してデバイスを[永久予約]としてマークします。

        esxcli storage core device setconfig -d <naa.id> --perennially-reserved=true

        設定方法については、VMware 社の Knowledge Base のサイトにて KB1016106 を参照してください。

        注意

        共用ディスクのマッピングファイルを配置しているVMFSデータストアのLUNに対しては[永久予約]としてマークする操作は行わないでください。

    • 共用ディスク関連の設定(VMware vCenter Server連携機能使用時)

      • RDMのディスクを共用ディスクとする場合は、“共用ディスク関連の設定(I/Oフェンシング機能使用時)”の手順を実施してください。

      • 仮想ディスクを共用ディスクとする場合は、以下のどちらかの設定を実施してください。

        ・マルチライターで共有する(推奨)

        1. 共用ディスク用に、以下の設定で新たなSCSIコントローラを追加します。

           SCSIコントローラのタイプ:ゲストOSのシステムディスク用のコントローラと同じ
           SCSIバスの共有          :なし

        2. 各ESXiホスト間で共用するデータストアを作成します。

        3. 手順2. で作成したデータストアに、以下の設定で仮想ディスクを作成します。

           タイプ                  :シックプロビジョニング(Eager Zeroed)
           ディスクモード          :独立型:通常
           共有                    :マルチライター
           仮想デバイスノード      :手順1.で作成したSCSIコントローラの任意のID

        ・SCSIバスで共有する

        1. 共用ディスク用に、以下の設定で新たなSCSIコントローラを追加します。

           SCSIコントローラのタイプ:ゲストOSのシステムディスク用のコントローラと同じ
           SCSIバスの共有          :仮想(1つのESXiホスト上のゲストOS間クラスタ環境の場合)
                                     物理(複数のESXiホスト上のゲストOS間クラスタ環境の場合)

        2. 各ESXiホスト間で共用するデータストアを作成します。

        3. 手順2. で作成したデータストアに、以下の設定で仮想ディスクを作成します。

           タイプ                  :シックプロビジョニング(Eager Zeroed)
           ディスクモード          :独立型:通常
           共有                    :未指定
           仮想デバイスノード      :手順1.で作成したSCSIコントローラの任意のID
      • 仮想デバイスノードのコントローラ番号とディスク番号は、クラスタシステムを構成するすべてのノードで同じになるよう設定してください。

    • 仮想ネットワークの設定

      • 仮想マシンの作成時、クラスタインタコネクト用のネットワークを2系統以上作成し、それぞれを異なる物理アダプタに接続してください。

      • クラスタインタコネクトに使用する物理ネットワークアダプタを複数のクラスタで共用する場合は、vSwitchに対して、クラスタシステムごとに異なるポートグループを割り当ててください。この場合、VLAN IDをポートグループごとに異なる値にしてください。

      注意

      • インタコネクトに指定するネットワークをVMwareのNICチーミングの機能を用いて束ねる場合は注意が必要です。NICチーミングにロードバランシングオプション(active-active構成)を指定する場合、以下のいずれかの構成を使用してください。

        1. 発信元のポートIDに基づいたルート

        2. 発信元MACハッシュに基づいたルート

        3. 明示的なフェイルオーバ順序を使用

        4. IPハッシュに基づいたルート

        ただし、IPハッシュに基づいたルートを使用する場合は、CF over IPを使用してください。

        冗長化(active-standby)構成の場合は、上記1~4以外の構成でも問題ありません。

      • VMware vSphere HA を使用する場合、仮想マシンの移行先となるホストにも設定を行ってください。

  2. NTPの設定(ゲストOS)

    NTPは、クラスタシステムを構築する各ノードの時刻を同期させるための設定です。クラスタを構築する際には必ず行う必要があります。

    本設定はPRIMECLUSTERをインストールする前にゲストOSで行ってください。

  3. ゲストOSの設定(ゲストOS)

    下記に従い、ゲストOSの設定を行ってください。

    • システムボリュームのファイルシステムの設定

      システムボリュームを配置したI/O装置が故障した場合、クラスタ切替えが発生せず、メモリ上に保持している情報を基にシステムの動作が継続してしまうことがあります。

      システムボリュームを配置したI/O装置の故障時に、ノードをパニックさせて、PRIMECLUSTERによるクラスタ切替え運用を行いたい場合は、システムボリュームをext4ファイルシステムにして、以下の設定を行ってください。

      設定

      システムボリュームに含まれる各パーティション(ext4ファイルシステム)のmountオプションに「errors=panic」を指定します。

      例) /etc/fstab に設定する場合 ( /、/var、/home が 1つのシステムボリュームに存在するとき)

      LABEL=/     /     ext4 errors=panic 1 1
      LABEL=/boot /boot ext4 errors=panic 1 2
      LABEL=/var  /var  ext4 errors=panic 1 3
      LABEL=/home /home ext4 errors=panic 1 4

      ただし、I/Oエラーがファイルシステムに伝わるまでに時間がかかり、即時切替えにならない場合があります。定期的にシステムボリュームに書込みを行うことで、I/Oエラーの検出頻度を上げることができます。

    • ネットワークの設定

      クラスタシステムを構築するゲストOSで、業務LAN、管理LANのIPアドレスなどネットワークの設定が必要です。

      本設定はクラスタとして動作させるゲストOS上で実施してください。

  4. PRIMECLUSTERインストール(ゲストOS)

    PRIMECLUSTERのインストールには、インストールスクリプト(CLI Installer)を使用します。

    Linux(R)ソフトウェアと関連ソフトウェアが、すでにインストールされているシステムに対し、インストールスクリプトを使用してノード単位にPRIMECLUSTERのインストールを行う方法です。また、クラスタ管理サーバへのインストールを行う場合もこの方法で行います。

    参照

    インストール方法の詳細については、PRIMECLUSTERのインストールガイドを参照してください。

  5. カーネルパラメタの確認/設定

    環境に応じて、カーネルパラメタを変更する必要があります。

    対象ノード:

    PRIMECLUSTERをインストールするすべてのノード

    使用する製品/コンポーネントによって、必要とするカーネルパラメタが異なります。

    PRIMECLUSTER デザインシートを確認し、カーネルパラメタの変更が必要な場合は設定し直してください。

    参照

    カーネルパラメタについては、“3.1.7 カーネルパラメタの確認/設定を参照してください。

  6. GDSのI/Oフェンシング機能の設定

    I/Oフェンシング機能を使用する場合は、GDSのI/Oフェンシング機能の設定を行います。

    /etc/opt/FJSVsdx/sdx.cfファイルに以下の行を追加します。

    SDX_VM_IO_FENCE=on
    対象ノード:

    PRIMECLUSTERをインストールするすべてのノード

  7. /etc/hostidファイルの設定

    I/Oフェンシング機能で使用するhostidの設定を行います。

    以下の手順に従い、/etc/hostidファイルの設定が必要かを確認し、必要があれば設定を行います。

    ◆確認手順
    PRIMECLUSTERをインストールするすべてのノードで、hostidコマンドを実行し、出力結果を確認します。
    出力結果が 00000000 以外、かつ、すべてのノードで出力結果が異なる場合、/etc/hostidファイルへの設定は不要です。

    # hostid
    a8c00101

    出力結果が 00000000、または、異なるノードで出力結果が同じ場合は、以降の設定手順に従い、ホスト識別子(hostid の出力結果)を設定します。ホスト識別子には、ノードごとに異なる値、かつ、00000000 以外の値を設定してください。

    ◆設定手順

    1. /etc/hostid ファイルを作成します。

      # touch /etc/hostid
    2. 次のpython スクリプトファイルを作成します。
      [作成するスクリプトファイルの内容]

      #!/usr/bin/python
      from struct import pack
      filename = "/etc/hostid"
      hostid = pack("I",int("0x<hhhhhhhh>",16))
      open(filename, "wb").write(hostid)

      (<hhhhhhhh>: 指定したいホスト識別子を16進数8桁の数字で記述)

    3. 作成したスクリプトファイルに実行権を付与し、実行します。

      # chmod +x <作成したスクリプトファイル名>
      # ./<作成したスクリプトファイル名>
    4. hostid コマンドで、指定したホスト識別子が取得されることを確認します。

      # hostid
      hhhhhhhh

      (hhhhhhhh: スクリプトファイル内で指定したホスト識別子)

  8. VMware vCenter Server の構築

    VMware vCenter Server連携機能を使用する場合、VMware vCenter Server を構築します。

    VMware vCenter Server の構築についてはVMware 社から公開されているドキュメントを参照してください。

    また、VMware vCenter Serverの構築後に、以下を実施してください。

    1. VMware vCenter Server連携機能用にVMware vCenter Serverに以下の権限を適用したロールを追加してください。

      • 仮想マシン-相互作用-パワーオフ

      • 仮想マシン-相互作用-パワーオン

      ロールを追加できない場合は、上記の権限を持つ登録済みのロールを確認してください。

    2. VMware vCenter Server連携機能用にVMware vCenter Serverにユーザを作成してください。

    3. クラスタとして使用する仮想マシンの権限に、2.で作成したユーザを追加し、1.で追加、または確認したロールを割り当ててください。

    なお、上記のロールを持つ既存のユーザがある場合は、ユーザを作成せずにそのユーザを使用することが可能です。

    注意

    • 仮想マシンからVMware vCenter Server への経路が途切れた場合、仮想マシンを強制停止できないため、VMware vCenter Server への経路は冗長化することを推奨します。

    • 作成するユーザおよびユーザのパスワードに“\”は含めないでください。“\”を含めた場合、仮想マシンの強制停止が正常に行えなくなります。

  9. VMware vSphere HA の設定

    VMware vSphere HAの機能を使用する場合、VMware vSphere HAの設定を行います。

    VMware vSphere HAの設定については、VMware 社から公開されているドキュメントを参照してください。

    注意

    • ホストの障害対応は”仮想マシンを再起動”を設定してください

    • Proactive HAの障害および対応は、“無効化”を設定してください

    • ホスト隔離への対応は“仮想マシンをパワーオフして再起動”を選択することを推奨します。他の項目を選択した場合、 ESXiホスト隔離時にuserApplicationの切替えが行われなかったり、切替えに時間がかかったりすることがあります。

注意

  • 変更したカーネルパラメタおよびGDSのI/Oフェンシング機能を有効にするために、関連ソフトウェアのインストールの設定が完了後、ゲストOSを再起動してください。

  • VMware vCenter Server連携機能を使用する場合、仮想マシン名に“\”は含めないでください。含めた場合、仮想マシンの強制停止が正常に行えなくなります。

G.2.1.2 アプリケーションのインストールと環境設定

PRIMECLUSTERシステム上で動作させるアプリケーションのインストール、および環境設定を必要に応じて行ってください。

参照

  • 環境設定の方法については、各アプリケーションのマニュアルを参照してください。

  • PRIMECLUSTER関連製品のVMwareの対応については、各製品のマニュアルを参照してください。