このページの本文へ移動

2017年 8月 現在

Oracle Solaris Cluster 4.3 (一年間24時間サポート付)

Oracle Solaris Cluster 4.3 は多重化したハードウェア/ソフトウェアのコンポーネントを制御することにより、ハード障害/ソフト障害に対応し、高可用性(HA:High Availability)を目的としたクラスタシステムを実現するソフトウェアです。

【セールスポイント】
・Oracle Solaris 11.2 および 11.3 に対応しています。
・Oracle Solaris 11 のデフォルトルートファイルシステムの Oracle Solaris ZFSをサポートします。
・カーネルゾーンのライブマイグレーションをサポートします。
・GUIにて操作できる Oracle Solaris Cluster Manager を提供していします。

購入について

適応機種 概要

  • サーバ
    SPARC Servers / SPARC Enterprise Mシリーズ / SPARC Enterprise Tシリーズ

適応OS 概要

  • サーバ
    Solaris 11(64bit)

機能説明

1. takeover

・takeoverとは主系ノードの障害時などに従系ノードにIPアドレス、データサービス、必要に応じてデータ(共有ディスク)の引継ぎを行い運用を継続させる機能です。
・takeoverを行う方法は2種類存在します。
- failover
ノードを相互監視し、従系ノードが主系ノードの障害を検知した場合は自ノードへ運用を自動的に引継ぎます。 また、自ノードの監視も行っており、障害によっては自ら運用継続を放棄して従系ノードへ引継ぐ場合もあります。
- switchover
ハードウェアの交換など、オンラインでメンテナンスを行う場合は手動で運用の引継ぎを行います。


2. Resource Group

各ノードの物理IPアドレスに対して、論理ホストには各ノード間で引継ぎ可能な論理IPアドレスを設定します。
Oracle Solaris Cluster 4.3 ではこの論理IPアドレスとデータサービスをグループ化(Resource Group)して使用します。
Resource Group をノード間で移動させることにより運用するノードを切り替えることができます。
またクライアントから論理IPアドレスに対してアクセスさせることにより、フェイルオーバが発生してResource Groupがノード間を移動した場合でもノードを意識せず継続使用が可能となり、クライアントからの透過性を実現します。


3. Global Device/Cluster File System (Global File System)

●Global Device
Global Deviceを使用して、クラスタ内のあるノードに接続されているデバイス(ディスク、テープ、CD-ROM装置など)を、物理的に接続されている/いないに関わらず、クラスタ内の全てのノードから、あたかもローカルに接続されているデバイスのように同じデバイス名でアクセス可能にします。

●Cluster File System (Global File System)
Global Deviceをファイルシステムで使用すると、同一ファイルシステムをクラスタ内の全てのノードにマウントさせることができ、全てのノードから同じパス名でファイルにアクセスできるようになります。これをCluster File System(もしくは Global File System)と呼びます。


4. クラスタ構成

2から16ノードにおいて多様な運用形態をサポートします。以下に2ノード形態時、3ノード以上の形態時の各々の代表的な運用形態例を示します。ここで示すのは動作内容です。接続形態はシステム構成を参照してください。

●HAシステム(2ノード構成)
2ノード構成時のHAシステムには非対称系(運用待機系)と対称系(相互待機系)が存在します。
- 非対称系(運用待機系)
主系サーバで全業務を実行し、主系サーバが障害でダウンした場合、従系サーバで全業務を継続します。対称系と比べて設計が容易です。
- 対称系(相互待機系)
各サーバで異なる業務を実行し、片サーバが障害でダウンした場合、残りのサーバで全業務を継続します。 フェイルオーバ時に片系で両方の業務を行う必要があるため、業務負荷を考慮した設計が必要となります。

●HAシステム(3ノード以上)
3から16ノードのHAシステム構成は N+1トポロジ、Clustered PairsトポロジとPair + Nトポロジをサポートします。 以下に4ノード構成時の例を示します。
- N+1トポロジ
この構成は運用ノードN個に対して、バックアップノード1個で運用を行う構成です。 運用ノード(主系ノードX)のいずれかに障害が生じた時はバックアップノードに引継ぎを行い運用を継続します。よって、複数の主系ノードに障害が生じた場合のことを想定して バックアップノードの資源を設計する必要があります。
- Clustered Pairsトポロジ
この構成は2ノード構成を複数併せたようなイメージです。2ノードクラスタが対となった形で互いのノードでフェイルオーバが可能となります。 ただし、クラスタ内に含まれる全てのノードがクラスタインターコネクト(プライベートネットワーク)により相互監視が行なわれます。
- Pair + Nトポロジ
この構成は共有ディスクを物理的に接続しないノードを含む構成です。共有ディスクを接続しないノードから共有ディスクへのアクセスは Global Device(Cluster File System)を使用します。また、データ(共有ディスク)は使用せず、起動、停止のみのアプリケーションにおいても使用可能です。


5. ディスク管理

ディスク管理ツールとしてHAシステムでは Oracle Solaris ZFS をサポートし以下の機能を実現します。
- システムディスクのミラーリング。
- ディスクアレイ装置あるいはマルチパック装置の筐体間でRAID 1(ミラーリング)します。また、異なるコントローラー間でのミラーリングによりコントローラー障害時でも処理が継続できる冗長性を持たせることもできます。
- RAID構成時にホットスペア用のディスクを用意することによって、ディスク障害時に自動的にディスクを置き換えることができます。


6. パブリックネットワーク/クラスタインターコネクト(プライベートネットワーク)

●・パブリックネットワーク
- クライアントがデータサービスに接続するために使用されるネットワークでGigabit Ethernetが利用できます。
- Oracle Solarisの機能であるIPMPにより、パブリックネットワークに冗長性を持たせることができます。
●クラスタインターコネクト(プライベートネットワーク)
- クラスタノード間のクラスタ制御通信およびデータサービス通信に使用されるネットワークでGigabit Ethernetが利用できます。
- 2~6本のクラスタインターコネクト(プライベートネットワーク)をサポートします。


7. 障害検知

以下の障害検知の機能を備えています。

●ネットワーク監視
マルチパッシングデーモン(in.mpathd)にてパブリックネットワークの状態を監視します。 バックアップインターフェースが設定されていれば異常検出時にネットワークインターフェースが切り替わります(IPMP)。 切り替わるネットワークインターフェースが存在しなければtakeoverします。
●ハートビート監視
パブリックネットワーク(LAN)とは別にノード間をローカルな専用ネットワークで接続します。 それをクラスタインターコネクト(プライベートネットワーク)と呼びます。クラスタインターコネクト(プライベートネットワーク)を使用して定期的にメッセージを送受信し、各ノードが互いに監視しています。 相手ノードのメッセージが一定時間内に受信できないと、相手ノードがダウンしたと判断し、takeoverなどの処理を行います。
●データサービス監視
データサービス異常を検知したら、restart、もしくはtakeoverなどを行います (restart とは、takeoverを行わず自ノードでデータサービスを再起動すること)。データサービスの監視はデータサービスごとに設定されるフォールトモニタが行います。 よって複数のデータサービスを運用する際にはデータサービスの異常により別々にtakeoverできます。
●共有ディスクパス障害監視
全ての共有ディスクへのパスに障害が検出された場合に、ノードを自動的に再起動をするための設定が可能です。これによりディスクパスの障害発生時の対応が即座に実行され、サービスの可用性を向上させることができます。
●共有ファイスシステム障害監視
共有ファイルシステムに対して定期的にアクセスを実施し障害が検出された場合に、restart、もしくはtakeoverなどを行います。これによりファイルシステムの障害発生時の対応が即座に実行され、サービスの可用性を向上させることができます。


8. Resource Management API

Resource Management API を用いることによりユーザアプリケーションをクラスタシステム管理下のデータサービスとして扱えるようになります。

- Data Service API
ユーザアプリケーションをクラスタシステム管理下にデータサービスとして登録できます。HA化されたユーザアプリケーションは障害時、 自動的にリスタートしたり他ノードにフェイルオーバしてクライアントにサービスを提供し続けます。
- Fault Monitor API
APIでフォールトモニタプログラムを作成することにより、ユーザアプリケーションをデータサービスとして監視することができます。 これによりユーザアプリケーションで異常が発生すると自動的にフェイルオーバさせることができます。
- Solaris Cluster Agent Builder
データサービス用のエージェントを作成する開発ツールキットです。 ウィザード機能にてGUIベースでエージェントを作成することができます。


9. SMF サービスとの統合

Oracle Solaris Cluster が SMF(Solaris Service Management Facility)と緊密に統合されたことで、SMF によって管理されるアプリケーションを Oracle Solaris Cluster リソース管理モデルの中にカプセル化することができます。
これにより Oracle Solaris 11 の SMF によって管理されるアプリケーションを新たに Cluster 対応に書き直すことなく、容易に Oracle Solaris Cluster 上で可用性を高めることができます。


10. Oracle Solaris Cluster Manager

Oracle Solaris Cluster Manager を使用すると、クラスタ情報のグラフィカルな表示、クラスタコンポーネントのステータスのチェック、および構成変更のモニタリングを行うことができます。
また、Oracle Solaris Cluster Manager では、次の Oracle Solaris Cluster コンポーネントに対して管理することができます。

- データサービス
- ゾーンクラスタ
- ノード
- プライベートアダプタ
- ケーブル
- スイッチ
- デバイスグループ
- ディスク
- 定足数デバイス
- リソースグループ
- リソース

システム/機能構成図

システム構成図
システム構成図
システム構成図
システム構成図

新規機能

4.2から4.3の機能強化項目は以下のとおりです。

Oracle Solaris Cluster 4.2 からの新規機能
・Oracle Solaris 11.3 をサポート
・カーネルゾーンのライブマイグレーションをサポート
・Oracle Solaris Zones on shared storage(ZOSS)をサポート

商品体系

〔メディア製品〕
なし (バイナリ入手については弊社営業/SEにお問合せください。)

〔ライセンス製品〕
Oracle Solaris Cluster 1 Processor License (一年間24時間サポート付)

購入方法

Oracle Solaris Cluster のライセンスについて

・本商品のライセンスは、サーバに搭載されるプロセッサ数に応じて購入する Processor License です。
下記計算式で算出されるクラスタ全体の必要ライセンス数をご購入ください。
1ノード当たりの必要ライセンス数 (小数点以下は切り上げ)= 1ノードに搭載されているコア数 ×コア係数
クラスタ全体の必要ライセンス数= クラスタを構成する全てのノードで必要なライセンス数の合計

・コア係数は、関連URLの[お客様向けURL][Oracle Processor Core Factor Table]を参照願います。

・SPARC M12/M10 で Oracle VM Server for SPARC、および、ハードウェアパーティショニング機能を使用せずサーバを分割しない場合、CPUアクティベーションされたコア数がライセンスの対象になります。

・Oracle VM Server for SPARC を使用しサーバを分割した環境では、Oracle Solaris Cluster が動作するドメインで使用するコア数分のみがライセンスの対象になります。

・ハードウェアパーティショニング機能を使用しサーバを分割した環境では、Oracle Solaris Cluster が動作する物理パーティションで使用するコア数分のみがライセンスの対象になります。

動作保証周辺機器

1. サーバ

SPARC M12-1
SPARC M12-2
SPARC M12-2S
SPARC M10-1
SPARC M10-4
SPARC M10-4S
SPARC S7-2
SPARC S7-2L
SPARC T7-1
SPARC T7-2
SPARC T7-4
SPARC M7-8
SPARC M7-16
SPARC T5-2
SPARC T5-4
SPARC T5-8
SPARC T4-1
SPARC T4-2
SPARC T4-4
SPARC T3-1
SPARC T3-2
SPARC T3-4
SPARC Enterprise M3000
SPARC Enterprise M4000
SPARC Enterprise M5000
SPARC Enterprise M8000
SPARC Enterprise M9000
SPARC Enterprise T5120
SPARC Enterprise T5140
SPARC Enterprise T5220
SPARC Enterprise T5240
SPARC Enterprise T5440
SPARC Enterprise T2000

記載のないサーバについては弊社営業/SEにお問合せ下さい。


2. ストレージ

ETERNUS DX60 S4
ETERNUS DX100 S4
ETERNUS DX200 S4
ETERNUS DX60 S3
ETERNUS DX100 S3
ETERNUS DX200 S3
ETERNUS DX200F
ETERNUS DX500 S3
ETERNUS DX600 S3
ETERNUS DX60
ETERNUS DX60 S2
ETERNUS DX80
ETERNUS DX80 S2
ETERNUS DX90
ETERNUS DX90 S2
ETERNUS DX400 シリーズ
ETERNUS DX400 S2 シリーズ
ETERNUS DX8000 シリーズ
ETERNUS DX8000 S2 シリーズ
ETERNUS DX8000 S3 シリーズ

記載のないストレージについては弊社営業/SEにお問合せ下さい。

留意事項

1. Oracle Solaris Cluster 4.3 の留意事項

Oracle Solaris Cluster 4.3 の留意事項は、弊社営業/SEへお問い合わせください。


2. 利用による効果

・より高い可用性を持つシステムを構築できます。
・ダウンタイムを大幅に削減できます。

関連URL

お客様向けURL