付録U.7 クラスタの定義
(1) リソース・グループ及びアプリケーション・サーバの設定
アプリケーションをクラスタに登録するためには,smitコマンドを使用します。ここでは,Groupmaxのリソース・グループの追加及びアプリケーション・サーバの追加方法について記述します。詳細は,AIXのマニュアルなどを参照してください。なお,ここでは,現用系ノードをノード1,待機系ノードをノード2として記述します。
- ノード1で,リソース・グループを追加します。
Groupmax用のリソース・グループを追加します。
# smit cm_add_grp
次のとおり設定します。
リソース・グループの追加
フィールドの値を入力または選択してください。
変更を完了したら ENTER キーを押してください。
[入力フィールド]
* リソース・グループ名 [rsg1]
* ノード関係 [ローテート]
* 参加ノード名 [node1 node2] |
- ノード1で,アプリケーション・サーバを追加します。
Groupmax用のアプリケーション・サーバを追加し,Groupmaxの始動スクリプト,停止スクリプトを登録します。
# smit claddserv.dialog
次のとおり設定します。
アプリケーション・サーバーの追加
フィールドの値を入力または選択してください。
変更を完了したら ENTER キーを押してください。
[入力フィールド]
* サーバ名 [aps1]
* 始動スクリプト [/tmp/start]
* 停止スクリプト [/tmp/stop] |
- 注
- 始動スクリプト及び停止スクリプトに指定したスクリプトの例は,「付録U.10 サンプルファイル」を参照してください。
- ノード1で,リソース・グループの属性を変更します。
手順1.で作成したリソース・グループrsg1に対して,幾つかの項目を設定します。
# smit cm_cfg_res.select
次の画面が表示されます。
リソース・グループの選択
カーソルを選択したい項目へ移動して ENTER キーを押してください。
rsg1 |
「rsg1」を選択してENTERキーを押し,次のとおり設定します。
リソース・グループのリソース/属性の変更/表示
フィールドの値を入力または選択してください。
変更を完了したら ENTER キーを押してください。
[TOP] [入力フィールド]
リソース・グループ名 rsg1
ノード関係 ローテート
参加ノード名 node1 node2
サービスIPラベル [SVC1]
ファイルシステム(デフォルトは「すべて」) [/HACMPdata]
・
・
・
ボリューム・グループ [HACMPvg]
・
・
・
アプリケーション・サーバー [aps1]
・
・
・
IP構成の前にファイルシステムをマウントする はい |
- ノード1で,アプリケーション・サーバのモニターの設定をします。
Scheduler Server,Facilities Manager(Address連携時にはAddress Server及びObject Server)のサービスをHACMPに監視させ,サービスがダウンした場合に,フォールオーバさせる必要がある場合に設定します。ただし,この設定を行うためにはHACMP/ESがインストールされている必要があります。
# smit clappserv_to_custom_monitor.select
次の画面が表示されます。
モニターするアプリケーション・サーバー
カーソルを選択したい項目へ移動して ENTER キーを押してください。
rsg1 |
「rsg1」を選択してENTERキーを押し,次のとおり設定します。
ユーザー定義アプリケーション・モニターの追加
フィールドの値を入力または選択してください。
変更を完了したら ENTER キーを押してください。
[入力フィールド]
・アプリケーション・サーバー名 aps1
・モニター・メソッド [/tmp/monitor]
モニター間隔 [30]
モニターを停止するシグナル [15]
・安定化間隔 [600]
・再始動カウント [0]
再始動間隔 [0]
・アプリケーション障害時のアクション [fallover]
通知メソッド []
クリーンアップ・メソッド []
再始動メソッド [] |
- 注
- ・モニター・メソッドに指定したスクリプトの例は,「付録U.10 サンプルファイル」を参照してください。
- ・モニター間隔に指定する値は,モニター・メソッドに指定する監視スクリプトが確実に完了する時間を指定することを推奨します。
- ・安定化間隔に指定する値は,始動スクリプトが確実に完了する時間を指定することを推奨します。
- ノード1で,クラスタ・リソースをノード2と同期させます。
ノード1で定義したクラスタ・リソースをノード2と同期させます。
# smit clsyncnode.dialog
次の画面が表示されます。
クラスター・リソースの同期化
フィールドの値を入力または選択してください。
変更を完了したら ENTER キーを押してください。
[TOP] [入力フィールド]
クラスター検証エラーを無視する [いいえ]
クラスター・リソースを構成/構成解除する [はい]
*エミュレートまたは実際 [実際]
*クラスターの検証をスキップする [いいえ] |
同期化中に画面に出力されるエラーメッセージに注意し,正常に終了することを確認してください。エラーが発生した場合は適切な処置を行い,再度同期化を行ってください。
- ノード1で,クラスタを検証します。
クラスタ・トポロジー及びリソースを検証します。
# smit clverify.dialog
次の画面が表示されます。
クラスターの検証
フィールドの値を入力または選択してください。
変更を完了したら ENTER キーを押してください。
[入力フィールド]
基本 HACMP 検証メソッド 両方
(トポロジー,リソース,両方,どちらでもない)
ユーザー定義の検証メソッド []
エラー件数 []
出力を保管するためのログ・ファイル [] |
検証中に画面に出力されるエラーメッセージに注意し,正常に終了することを確認してください。エラーが発生した場合は適切な処置を行い,再度トポロジー及びリソースの同期化を行ってから検証を再実行してください。
- ノード1及びノード2で,クラスタサービスを始動させます。
各ノードでクラスタサービスを始動させ,クラスタを利用できるようにします。
# smit clstart.dialog
次のとおり設定します。
クラスター・サービスの始動
フィールドの値を入力または選択してください。
変更を完了したら ENTER キーを押してください。
[入力フィールド]
*即時始動,システム再始動時に始動,あるいは両方 即時
始動時にメッセージをブロードキャストする いいえ
クラスター・ロック・サービスを始動する いいえ
クラスター情報デーモンを始動する はい |
- 注
- 「クラスター情報デーモンを始動する」で「はい」を選択すると,HACMPクラスタステータスモニタ(/usr/sbin/cluster/clstat)を利用できるようになります。
(2) クラスタの起動の確認
クラスタの起動後,(1)の手順4.で「安定化間隔」に指定した時間内に,Scheduler Server,Facilities Managerのサービスが正常に起動することを確認してください。以下のコマンドを実行して,プロセスが存在すれば,正常に起動しています。
# ps -ef | grep /usr/bin/SV
# ps -ef | grep /usr/bin/AppoMan※1
# ps -ef | grep /usr/bin/RMSV※2
# ps -ef | grep /usr/bin/RoomMan※1,※2
- 注※1
- プロセスは複数存在します。
- 注※2
- Facilities Managerを使用している場合だけ確認してください。
起動が確認できたら,「安定化間隔」に指定した時間を過ぎた後に,フォールオーバさせてください。そして,フォールオーバ先でScheduler Server,Facilities Managerのサービスが正常に起動することを確認してください。なお,このフォールオーバの確認は各ノードで行なってください。
(3) ユーザ登録
クラスタを正常に起動できたら,「Scheduler_Facilities管理ツール」を使用してユーザ情報を登録してください。管理ツールで指定する「管理データの取得先サーバ名」には,クラスタで使用するサービスIPアドレスに対応するホスト名を指定します。なお,Address連携機能を使用する場合は,Address Serverにユーザを登録後,登録したユーザ情報を取り込んでください。ユーザ情報を取り込むには,aconsoleコマンド(Facilities Manager使用時はroomconsoleコマンド)から「その他の手動実行」-「ユーザ情報再作成」を選択します。