Tuning Manager - Agent for Network Attached Storage

[目次][索引][前へ][次へ]


4.6.2 アンセットアップ手順

論理ホスト環境をアンセットアップします。アンセットアップ手順には,実行系ノードの手順と,待機系ノードの手順があります。実行系ノード,待機系ノードの順にアンセットアップしてください。

[図]は実行系ノードで行う項目を,[図]は待機系ノードで行う項目を示します。また,[図]は使用する環境によって必要になるセットアップ項目,またはデフォルトの設定を変更する場合のオプションのセットアップ項目を示します。

HTM - Agent for NASのアンセットアップ手順について説明します。

この項の構成
(1) クラスタソフトからの停止[図] [図]
(2) 共有ディスクのマウント[図]
(3) ポート番号の設定の解除[図] [図]
(4) PFM - Agentの論理ホストのアンセットアップ[図]
(5) 他Performance Managementプログラムの論理ホストのアンセットアップ[図] [図]
(6) 論理ホスト環境定義ファイルのエクスポート[図]
(7) 論理ホスト環境定義ファイルの待機系ノードへのコピー[図] [図]
(8) 共有ディスクのアンマウント[図] [図]
(9) 論理ホスト環境定義ファイルのインポート[図]
(10) クラスタソフトからのPFM - Agentの登録解除[図] [図]
(11) PFM - Managerでの設定の削除[図] [図]

(1) クラスタソフトからの停止[図] [図]

クラスタソフトからの操作で,実行系ノードと待機系ノードで起動しているPerformance Managementのプログラムおよびサービスを停止してください。停止する方法については,クラスタソフトのマニュアルを参照してください。

(2) 共有ディスクのマウント[図]

共有ディスクがマウントされていることを確認します。共有ディスクがマウントされていない場合は,クラスタソフトからの操作やボリュームマネージャの操作などで,共有ディスクをマウントしてください。

注意
共有ディスクがアンマウントされていても,アンセットアップする論理ホストの環境ディレクトリにjp1pcディレクトリがあり,jp1pcディレクトリ以下にファイルがある場合は,共有ディスクをマウントしないでセットアップしています。この場合は次の手順で対処してください。
  1. ローカルディスク上のアンセットアップする論理ホストの環境ディレクトリにあるjp1pcディレクトリをtarコマンドでアーカイブする。
  2. 共有ディスクをマウントする。
  3. 共有ディスク上にアンセットアップする論理ホストの環境ディレクトリがない場合は,環境ディレクトリを作成する。
  4. 共有ディスク上のアンセットアップする論理ホストの環境ディレクトリにtarファイルを展開する。
  5. 共有ディスクをアンマウントする。
  6. ローカルディスク上のアンセットアップする論理ホストの環境ディレクトリにあるjp1pcディレクトリ以下を削除する。

(3) ポート番号の設定の解除[図] [図]

この手順は,ファイアウォールを使用する環境で,セットアップ時にjpcconf port definejpcnsconfig port)コマンドでポート番号を設定した場合だけに必要な手順です。

通信ポート番号の設定の解除方法については,マニュアル「JP1/Performance Management 運用ガイド」の,クラスタシステムでの構築と運用について説明している章を参照してください。

(4) PFM - Agentの論理ホストのアンセットアップ[図]

手順を次に示します。ここではHTM - Agent for NASの論理ホスト名をjp1-ha1,インスタンス名をNS21としています。

注意
共有ディスクがマウントされていない状態で論理ホスト環境を削除した場合は,物理ホスト上に存在する論理ホストの設定が削除され,共有ディスク上のディレクトリやファイルは削除されません。この場合,共有ディスクをマウントして,環境ディレクトリ以下のjp1pcディレクトリを手動で削除する必要があります。

  1. jpcconf ha listjpchasetup list)コマンドを実行して,論理ホスト設定を確認する。
    次の例のようにコマンドを実行します。
    jpcconf ha list -key all -lhost jp1-hal(jpchasetup list all -lhost jp1-ha1)
    論理ホスト環境をアンセットアップする前に,現在の設定を確認します。論理ホスト名や共有ディスクのパスなどを確認してください。
  2. HTM - Agent for NASのインスタンス環境を削除する。
    次の例のようにコマンドを実行します。
    jpcconf inst unsetup -key NAS -lhost jp1-hal -inst NS21(jpcinsunsetup agtn -lhost jp1-ha1 -inst NS21)
    ここでは,対話形式の実行例を示していますが,jpcconf inst unsetupコマンドは非対話形式でも実行できます。jpcconf inst unsetupコマンドの詳細については,マニュアル「JP1/Performance Management リファレンス」のコマンドについて説明している章を参照してください。
    jpcconf inst unsetupjpcinsunsetup)コマンドを実行すると,論理ホストのインスタンスを起動するための設定が削除されます。また,共有ディスク上のインスタンス用のファイルが削除されます。
  3. jpcconf ha unsetupjpchasetup delete)コマンドを実行して,HTM - Agent for NASの論理ホスト環境を削除する。
    次の例のようにコマンドを実行します。
    jpcconf ha unsetup -key NAS -lhost jp1-hal(jpchasetup delete agtn -lhost jp1-ha1)
    jpcconf ha unsetupjpchasetup delete)コマンドを実行すると,論理ホストのHTM - Agent for NASを起動するための設定が削除されます。また,共有ディスク上の論理ホスト用のファイルが削除されます。
  4. jpcconf ha listjpchasetup list)コマンドで,論理ホスト設定を確認する。
    次の例のようにコマンドを実行します。
    jpcconf ha list -key all(jpchasetup list all)
    論理ホスト環境からHTM - Agent for NASが削除されていることを確認してください。

(5) 他Performance Managementプログラムの論理ホストのアンセットアップ[図] [図]

HTM - Agent for NASのほかに,同じ論理ホストからアンセットアップするPerformance Managementのプログラムがある場合は,この段階でアンセットアップしてください。

アンセットアップ手順については,マニュアル「JP1/Performance Management 運用ガイド」の,クラスタシステムでの構築と運用について説明している章,または各PFM - Agentマニュアルの,クラスタシステムでの構築と運用について説明している章を参照してください。

(6) 論理ホスト環境定義ファイルのエクスポート[図]

論理ホストのHTM - Agent for NASを削除したあと,環境定義をファイルにエクスポートします。

Performance Managementでは,環境定義のエクスポートおよびインポートによって実行系と待機系の環境を合わせる方式を採っています。

実行系ノードでエクスポートした環境定義(Performance Managementの定義が削除されている)を,待機系ノードにインポートすると,待機系ノードの既存の環境定義(Performance Managementの定義が削除前のままの状態で定義が残っている)と比較して差分(実行系ノードで削除された部分)を確認してPerformance Managementの環境定義を削除します。

手順を次に示します。

  1. jpcconf ha exportjpchasetup export)コマンドを実行して,論理ホスト環境定義をエクスポートする。
    Performance Managementの論理ホスト環境の定義情報を,エクスポートファイルに出力します。エクスポートファイル名は任意です。
    例えば,lhostexp.txtファイルに論理ホスト環境定義をエクスポートする場合,次の例のようにコマンドを実行します。
    jpcconf ha export -f lhostexp.txt(jpchasetup export -f lhostexp.txt)
    ここでは,対話形式の実行例を示していますが,jpcconf ha exportコマンドは非対話形式でも実行できます。jpcconf ha exportコマンドの詳細については,マニュアル「JP1/Performance Management リファレンス」のコマンドについて説明している章を参照してください。

(7) 論理ホスト環境定義ファイルの待機系ノードへのコピー[図] [図]

(6) 論理ホスト環境定義ファイルのエクスポート[図]」でエクスポートしたファイルを,実行系ノードから待機系ノードにコピーします。

(8) 共有ディスクのアンマウント[図] [図]

ファイルシステムをアンマウントして,作業を終了します。なお,その共有ディスクを続けて使用する場合は,ファイルシステムをアンマウントする必要はありません。

(9) 論理ホスト環境定義ファイルのインポート[図]

実行系ノードからコピーしたエクスポートファイルを,待機系ノードに反映させるためにインポートします。なお,待機系ノードでは,インポート時に共有ディスクをアンマウントする必要はありません。

手順を次に示します。

  1. jpcconf ha importjpchasetup import)コマンドを実行して,論理ホスト環境定義をインポートする。
    次の例のようにコマンドを実行します。
    jpcconf ha import -f lhostexp.txt(jpchasetup import -f lhostexp.txt)
    ここでは,対話形式の実行例を示していますが,jpcconf ha importコマンドは非対話形式でも実行できます。jpcconf ha importコマンドの詳細については,マニュアル「JP1/Performance Management リファレンス」のコマンドについて説明している章を参照してください。
    コマンドを実行すると,待機系ノードの環境を,エクスポートファイルの内容と同じ環境になるように設定変更します。これによって,論理ホストのHTM - Agent for NASを起動するための設定が削除されます。ほかの論理ホストのPerformance Managementのプログラムをアンセットアップしている場合は,それらの設定も削除されます。
    また,セットアップ時にjpcconf port definejpcnsconfig port)コマンドで固定のポート番号を設定している場合も,解除されます。
  2. jpcconf ha listjpchasetup list)コマンドを実行して,論理ホスト設定を確認する。
    次の例のようにコマンドを実行します。
    jpcconf ha list -key all(jpchasetup list all)
    実行系ノードでjpcconf ha listjpchasetup list)コマンドを実行したときと同じ内容が表示されることを確認してください。

(10) クラスタソフトからのPFM - Agentの登録解除[図] [図]

クラスタソフトから,論理ホストのHTM - Agent for NASに関する設定を削除してください。

設定を削除する方法は,クラスタソフトのマニュアルを参照してください。

(11) PFM - Managerでの設定の削除[図] [図]

PFM - Managerから,アンセットアップするHTM - Agent for NASに関連する定義を削除してください。

手順を次に示します。

  1. PFM - Managerのエージェント情報を削除する。
    例えば,PFM - Managerが論理ホストjp1-ha2上で動作しており,HTM - Agent for NASが論理ホストjp1-ha1上で動作している場合,次の例のように指定してコマンドを実行します。
    jpctool service delete -id サービスID -host jp1-hal -lhost jp1-ha2(jpcctrl delete サービスID host=jp1-ha1 lhost=jp1-ha2)
    サービスIDには削除するエージェントのサービスIDを指定してください。
  2. PFM - Managerサービスを再起動する。
    サービスの起動方法については,マニュアル「JP1/Performance Management 運用ガイド」の,Performance Managementの起動と停止について説明している章を参照してください。
  3. Performance Reporterを再起動する。
    サービス情報の削除をPerformance Reporterで有効にするには,PFM - Managerサービスを再起動したあと,Performance Reporterを再起動する必要があります。

[目次] [前へ] [次へ]


All Rights Reserved. Copyright© 2010, 2013, Hitachi, Ltd.