ページの先頭行へ戻る
PRIMECLUSTER  導入運用手引書 4.3
FUJITSU Software

G.2.1 ソフトウェアのインストール

各ノードにPRIMECLUSTERに必要なソフトウェアのインストールを行います。

ここでは、以下について説明をします。

G.2.1.1 関連ソフトウェアのインストールと設定

PRIMECLUSTERに関連したソフトウェアのインストール後、実際に導入/運用を行ううえでOS、およびハードウェア等に関して設定を行う必要があります。

必要に応じて、以下の作業を行ってください。

  1. VMware vSphere の導入

    下記に従い、システムディスク関連の設定、共用ディスク関連の設定、仮想ネットワークの設定を行ってください。

    • システムディスク関連の設定

      • vSphere Client バージョン 5 から仮想マシンを作成する場合、新規仮想マシン作成ウィザードの [ディスクの作成]において、[Eager Zeroed]を選択してください。

      • vSphere Client バージョン 4 から仮想マシンを作成する場合、新規仮想マシン作成ウィザードの [ディスクの作成]において、[フォールトトレランスなどのクラスタリング機能をサポート] を選択して eagerzeroedthick フォーマットのディスクを作成してください。

      • SCSIコントローラのタイプは、RHEL5環境の場合は [LSI Logic パラレル] に、RHEL6環境の場合は [LSI Logic パラレル] または [VMware 準仮想化] に設定してください。

      • SCSI バスの共有を [なし] に設定してください。

    • 共用ディスク関連の設定

      • 1台目の仮想マシンの作成時、クラスタシステムで引き継ぐ共用ディスクは、Raw Device Mapping(RDM)で作成してください。2台目の仮想マシンについては、[既存の仮想ディスクを使用] を選択し、1台目で作成したRDMディスクを指定してください。

      • クラスタシステムで引き継ぐ共用ディスクとは別に複数のESXiホスト間で共用するデータストアを作成してください。クラスタシステムで引き継ぐ共用ディスクの仮想マシンディスク(.vmdk)ファイルは、このデータストアに作成してください。

      • 共用ディスクの互換モードは [物理] としてください。

      • 仮想デバイスノードは、システムディスクとは異なる新たなSCSIコントローラを使用するように設定してください。

        (例: SCSI接続のディスク[SCSI(X:Y)]は、Xがコントローラ番号、Yがディスク番号です。システムディスクの仮想デバイスノードが [SCSI(0:0)] の場合は、コントローラ番号が 0 の仮想デバイスノード [SCSI(0:Y)] は使用できません。[SCSI(1:0)] などを設定してください。)

      • 仮想デバイスノードのコントローラ番号とディスク番号は、クラスタシステムを構成するすべてのノードで同じになるよう設定してください。

      • SCSIコントローラのタイプは、ゲストOSのシステムディスクと同じ設定にしてください。

      • SCSIバスの共有は、[物理] に設定してください。

      • VMware ESXi/ESX ホストにおいて、PRIMECLUSTER が共有ディスクとして使用するディスクのデバイスに対し、[永久予約] としてマークする操作を行う必要があります。

        次の esxcli コマンドを使用してデバイスを永久予約としてマークします。

        esxcli storage core device setconfig -d <naa.id> --perennially-reserved=true

        設定方法については、VMware 社の Knowledge Base のサイトにて KB1016106 を参照ください。

    • 仮想ネットワークの設定

      • 仮想マシンの作成時、クラスタインタコネクト用のネットワークを2系統以上作成し、それぞれを異なる物理アダプタに接続してください。

      • クラスタインタコネクトに使用する物理ネットワークアダプタを複数のクラスタで共用する場合は、vSwitchに対して、クラスタシステムごとに異なるポートグループを割り当ててください。この場合、VLAN IDをポートグループごとに異なる値にしてください。

      注意

      インタコネクトに指定するネットワークをVMwareのNICチーミングの機能を用いて束ねる場合は注意が必要です。NICチーミングにロードバランシングオプション(active-active構成)を指定する場合、以下のいずれかの構成を使用してください。

      1. 発信元のポートIDに基づいたルート

      2. 発信元MACハッシュに基づいたルート

      3. 明示的なフェイルオーバー順序を使用

      冗長化(active-standby)構成の場合は、上記1~3以外の構成でも問題ありません。

  2. NTPの設定(ゲストOS)

    クラスタシステムを構築する各ノードの時刻を同期させるための設定です。クラスタを構築する際には必ず行う必要があります。

    本設定はPRIMECLUSTERをインストールする前にゲストOSで行ってください。

  3. ゲストOSの設定(ゲストOS)

    下記に従い、ゲストOSの設定を行ってください。

    • システムボリュームのファイルシステムの設定

      ext3、またはext4ファイルシステムのデフォルトの設定では、システムボリュームを配置したI/O装置が故障しても、クラスタ切替えが発生せず、メモリ上に保持している情報を基にシステムの動作が継続してしまう場合があります。

      システムボリュームを配置したI/O装置の故障時に、即時にPRIMECLUSTERによるクラスタ切替え運用を行いたい場合は、以下の設定を行ってください。

      設定

      システムボリュームに含まれる各パーティション(ext3、またはext4ファイルシステム)のmountオプションに「errors=panic」を指定します。

      例) /etc/fstab に設定する場合 ( /、/var、/home が 1つのシステムボリュームに存在するとき)

      LABEL=/ / ext3 errors=panic 1 1
      LABEL=/boot /boot ext3 errors=panic 1 2
      LABEL=/var /var ext3 errors=panic 1 3
      LABEL=/home /home ext3 errors=panic 1 4

      ただし、I/Oエラーがファイルシステムに伝わるまでに時間がかかり、即時切替えにならない場合があります。定期的にシステムボリュームに書込みを行うことで、I/Oエラーの検出頻度を上げることができます。

    • ネットワークの設定

      クラスタシステムを構築するゲストOSで、業務LAN、管理LANのIPアドレスなどネットワークの設定が必要です。本設定はクラスタとして動作させるゲストOS上で実施してください。

  4. PRIMECLUSTERインストール(ゲストOS)

    PRIMECLUSTERのインストールには、インストールスクリプト(CLI Installer)を使用します。

    Linux(R)ソフトウェアと関連ソフトウェアが、すでにインストールされているシステムに対し、インストールスクリプトを使用してノード単位にPRIMECLUSTERのインストールを行う方法です。また、クラスタ管理サーバへのインストールを行う場合もこの方法で行います。

    参照

    インストール方法の詳細については、PRIMECLUSTERのインストールガイドを参照してください。

  5. カーネルパラメタの確認/設定

    環境に応じて、カーネルパラメタを変更する必要があります。

    対象ノード:

    PRIMECLUSTERをインストールするすべてのノード

    使用する製品/コンポーネントによって、必要とするカーネルパラメタが異なります。

    カーネルパラメタ・ワークシートを確認し、カーネルパラメタの変更が必要な場合は設定し直してください。

    参照

    カーネルパラメタについては、“A.6 カーネルパラメタ・ワークシート”を参照してください。

  6. GDSのI/Oフェンシング機能の設定

    共用ディスクがGDSのクラスに登録されている場合は、GDSのI/Oフェンシング機能の設定を行います。

    /etc/opt/FJSVsdx/sdx.cfファイルに以下の行を追加します。

    SDX_VM_IO_FENCE=on
    対象ノード:

    PRIMECLUSTERをインストールするすべてのノード

  7. /etc/hostidファイルの設定

    I/O フェンシング機能を正しく動作させるため、環境によっては、/etc/hostidファイルの設定が必要になることがあります。

    以下の手順に従い、/etc/hostidファイルの設定が必要かを確認し、必要があれば設定を行います。

    ◆確認手順
    hostidコマンドを実行し、出力結果を確認します。
    出力結果が 00000000 以外の場合、/etc/hostidファイルへの設定は不要です。

    # hostid
    a8c00101

    出力結果が 00000000 の場合は、以降の設定手順に従い、クラスタを構成する全てのノードでホスト識別子(hostid の出力結果)を設定します。ホスト識別子には、ノードごとに異なる値、かつ、00000000 以外の値を設定してください。

    ◆設定手順

    1. /etc/hostid ファイルを作成します。

      # touch /etc/hostid
    2. 次のpython スクリプトファイルを作成します。
      [作成するスクリプトファイルの内容]

      #!/usr/bin/python
      from struct import pack
      filename = "/etc/hostid"
      hostid = pack("I",int("0x<hhhhhhhh>",16))
      open(filename, "wb").write(hostid)

      (hhhhhhhh: 指定したいホスト識別子を16進数8桁の数字で記述)

    3. 作成したスクリプトファイルに実行権を付与し、実行します。

      # chmod +x <作成したスクリプトファイル名>
      # ./<作成したスクリプトファイル名>
    4. hostid コマンドで、指定したホスト識別子が取得されることを確認します。

      # hostid
      hhhhhhhh

      (hhhhhhhh: スクリプトファイル内で指定したホスト識別子)

注意

変更したカーネルパラメタおよびGDSのI/Oフェンシング機能を有効にするために、関連ソフトウェアのインストールの設定が完了後、ゲストOSを再起動してください。

G.2.1.2 アプリケーションのインストールと環境設定

PRIMECLUSTERシステム上で動作させるアプリケーションのインストール、および環境設定を必要に応じて行ってください。

参照

  • 環境設定の方法については、各アプリケーションのマニュアルを参照してください。

  • PRIMECLUSTER関連製品のVMwareの対応については、各製品のマニュアルを参照してください。