DB2 V8.1 for Sun Cluster 3 -...
Transcript of DB2 V8.1 for Sun Cluster 3 -...
DB2™ V8.1 for Sun™ Cluster 3.1
日本アイ・ビー・エム システムズ・エンジニアリング株式会社
オンデマンド・テクノロジー
1. 概要............................................................1
1-1. ファイルシステム......................................................... 1 1-2. IP ネットワークマルチパスグループ........................................ 2 1-3. サポート条件............................................................. 3
2. 構成手順........................................................4
2-1. Sun Cluster 3.1 サンプル構成 ............................................. 4 2-2. OS のバージョンおよびパッチ .............................................. 4 2-3. Sun Cluster 3.1 導入のためのワークシート ................................. 5 2-4. Sun Cluster 3.1 の導入(pmars) ............................................ 6 2-5. Sun Cluster 3.1 の導入(pvenus) .......................................... 13 2-6. クラスタ導入後の設定.................................................... 18 2-7. VERITAS Volume Manager のインストール ................................... 23 2-8. IP ネットワークマルチパスの設定 ......................................... 26
3. DB2™ V8.1 の導入 ...............................................28
3-1. データサービス構成のためのワークシート.................................. 28 3-2. DB2™用ファイルシステムの作成............................................ 29 3-3. DB2™ V8.1 の導入 ........................................................ 41 3-4. DB2™データサービスの構成................................................ 56 3-5. サンプル構成のテスト.................................................... 62
DB2 V8.1 for Sun Cluster 3.1 ii
1.概要
本書では、IBM が提供するソフトウェア製品 DB2™ユニバーサル・データベース・エンタープライズ・サー
バー・エディション V8.1 を、Sun Microsystems が提供するクラスタ製品 Sun Cluster 3.1 を使用して高
可用性環境を構築する手順について記述します。
ここでは、Sun Cluster 3.1 を導入するにあたっての考慮すべき条件を以下に記述します。
1-1.ファイルシステム
Solaris™ オペレーティングシステムをインストールするときは、必要な Sun Cluster パーティションを
作成し、すべてのパーティションが各領域の最小必要条件を満たすようにします。
ルート(/) :Sun Cluster ソフトウェア自体は、ルート(/) ファイルシステムの領域を 40M バイト
未満しか占有しません。但し、ボリューム管理ソフトウェア用に、最低でもさらに 100M
バイトを追加する必要があります。
/var :クラスタ化されたノードでは、標準的なスタンドアロンサーバーよりも、ログに記
録されるメッセージが増えることがあります。したがって、/var ファイルシステムに
は最低でも 100M バイトの余裕を設けてください。
/usr :Sun Cluster ソフトウェアは、/usr ファイルシステムの領域を 25M バイト未満占有
します。Solstice DiskSuite™/Solaris™ Volume Manager および VxVM ソフトウェアが
必要とする領域は、それぞれ 15M バイト未満です。
1
/opt :Sun Cluster フレームワークソフトウェアは、/opt ファイルシステムの領域を 2M バ
イト未満使用します。ただし、各 Sun Cluster データサービスで 1M から 5M バイトが
使用されることがあります。Solstice DiskSuite/Solaris™ Volume Manager ソフトウ
ェアは/opt ファイルシステムの領域をまったく使用しません。VxVM ソフトウェアは、
そのパッケージとツールをすべてインストールした場合、40M バイト以上を使用するこ
とがあります。また、ほとんどのデータベースおよびアプリケーションソフトウェアは、
/opt ファイルシステムにインストールされます。Sun™ Management Center ソフトウェ
アを使用してクラスタを監視する場合、Sun Management Center エージェントと Sun
Cluster モジュールパッケージをサポートするために、ノードごとに 25M バイトの追加
の空間が必要です。
swap :Solaris™ と Sun Cluster ソフトウェアを合わせて少なくとも 750M バイトを割り当
てます。最適な結果を得るには、Solaris™オペレーティングシステムに必要とされる容
量に、少なくとも 512M バイトを Sun Cluster ソフトウェア用として追加します。
/globaldevices :scinstall(1M) ユーティリティが広域デバイスのために使用する 100M バイトのファ
イルシステムを作成します。クラスタ内に多数のディスクがある場合は、
/globaldevices ファイルシステムに、ブロック型の特殊デバイスと文字型の特殊デバ
イスの両方を作成するための十分な領域と i ノードの容量が必要です。ほとんどのクラ
スタ構成には、512M バイトのファイルシステムサイズで十分です。
ボリューム管理 :ボリューム管理が使用できるように、ディスクの終端のスライス(スライス 7) に 20M
バイトのパーティションを作成します。クラスタで VERITAS Volume Manager (VxVM) を
使用しており、ルートディスクをカプセル化する予定の場合は、VxVM で使用できるよ
うに、2 つの未使用スライスを用意します。
1-2.IP ネットワークマルチパスグループ
ネットワークアダプタフェイルオーバー(NAFO) グループに代わるインターネットプロトコル(IP) ネッ
トワークマルチパスグループは、パブリックネットワークアダプタの監視とフェイルオーバーを提供し、
ネットワークアドレスリソースの基盤構造です。
マルチパスグループが 2 つ以上のアダプタで構成されている場合に 1 つのアダプタで障害が発生すると、
その障害のあるアダプタ上のすべてのアドレスがマルチパスグループ内の別のアダプタにフェイルオー
バーされます。このようにして、マルチパスグループのアダプタは、マルチパスグループ内のアダプタが
DB2 V8.1 for Sun Cluster 3.1 2
接続するサブネットへのパブリックネットワーク接続を維持します。
マルチパスグループを計画する際は、次の点を考慮してください。
・ 各パブリックネットワークアダプタは、マルチパスグループに属している必要があります。
・ イーサネットアダプタの local-mac-address? 変数の値は、true である必要があります。これは、Sun
Cluster 3.0 ソフトウェア要件からの変更です。Solaris™では、local-mac-address? 変数のデフォ
ルト値は、false ですので、以下のコマンドで local-mac-address?の設定を true にしておく必要が
あります。
#eeprom local-mac-address?=true
・ マルチパスグループアダプタごとに、テスト IP アドレスを構成する必要があります。
・ 同一マルチパスグループ内において、すべてのアダプタ用のテスト IP アドレスは、単一の IP サブ
ネットに属する必要があります。
・ テスト IP アドレスは高可用性でないため、通常のアプリケーションが使用しないようにします。
・ マルチパスグループの名前には、必要条件または制限がありません。
IP ネットワークマルチパスの詳細については、『IP ネットワークマルチパスの管理』の「ネットワーク
マルチパスの導入」を参照するか、『Solaris のシステム管理(IP サービス)』の「ネットワークマルチパ
スの管理(手順)」を参照してください。
1-3.サポート条件
Sun Cluster 3.1 は以下の OS でサポートしています。
OS:Solaris™ 8 2/02 以降の Solaris 8、全てのリリースの Solaris 9
パッチについては、OS のバージョン/リビジョンによって異なりますので、以下のサイトを参照してくだ
さい。
Sun Cluster 3.1 Patch Info Doc for Solaris 9 users
http://sunsolve.sun.com/pub-cgi/retrieve.pl?doc=finfodoc%2F54960&zone_32=54960
Sun Cluster 3.1 Patch Info Doc for Solaris 8 users
http://sunsolve.sun.com/pub-cgi/retrieve.pl?doc=finfodoc%2F54961&zone_32=54961
DB2 V8.1 for Sun Cluster 3.1 3
2.構成手順
ここでは、クラスタのインストールおよび構成手順を記述します。
2-1.Sun Cluster 3.1 サンプル構成
今回のサンプル構成の主なコンポーネントは以下の通りです。
pmars
(ノード 1)
pvenus
(ノード 2)
(
コ
Ultra™60
(管理端末)
2-2.OS のバージョ
OS のバージョン
パッチ
ptc
ターミナル
ンセントレータ)
ンおよびパッチ
Solaris 9
SunOS 5.9: Recomme
SunOS 5.9: icmp Pa
SunOS 5.9: /Kernel
hme0
nded & Sec
tch( 11285
/drv/nca P
4
hme4
urityPatches
4-02 )
atch( 112967-
DB2
hme0
)
( Sep/29/03
04 )
V8.1 for S
hme4
hme2
hme3
serial
serial
SCSI ディスク
(共有ディスク
cluster “planet”
)
un Cluster 3.1
2-3.Sun Cluster 3.1 導入のためのワークシート
Sun Cluster 環境のインストールおよび構成に必要な定義項目は以下の通りです。
(1) クラスタ名とノード名
(2) クラスタインターコネクト
(3) パブリックネットワーク
(4) ローカルデバイス
(5) ローカルファイルシステム配置
(6) ディスクデバイスグループ構成
(7) ボリューム管理ソフトウェア構成
(8) メタデバイス
2-3-1.クラスタ名とノード名
クラスタ名 planet
プライベートネットワークアドレス 172.16.0.0
プライベートネットワークマスク 255.255.0.0
スポンサーノード名(主ノード) pmars
プライベートホスト名 clusternode1-priv
追加ノード名(副ノード) pvenus
プライベートホスト名 clusternode2-priv
2-3-2.プライベートネットワーク
ノード名:pmars ノード名:pvenus
アダプタ名 タイプ アダプタ名 タイプ
hme2 dlpi hme2 dlpi
hme3 dlpi hme3 dlpi
DB2 V8.1 for Sun Cluster 3.1 5
2-3-3.パブリックネットワーク
ノード名 pmars pvenus
ホスト名 pmars pvenus
IPMP グループ名 ipmp0 ipmp0
パブリックアダプタ hme0 hme0
パブリックアダプタ(追加アダプタ) hme4 hme4
ネットワーク名 - -
2-3-4.ローカルファイルシステム配置(pmars、pvenus 共通)
デバイス名 ファイルシステム サイズ
c0t0d0s0 / 3064M
c0t0d0s1 swap 1024M
c0t0d0s3 /globaldevices 512M
c0t0d0s4 /var 512M
c0t0d0s5 未使用スライス
c0t0d0s6 未使用スライス
c0t0d0s7 20M
2-3-5.ディスクデバイスグループ構成
ディスクグループ名 db2
ノード名 (1)pmars、(2)pvenus
優先度順指定 有
フェイルバック有無 無
2-4.Sun Cluster 3.1 の導入(pmars)
ここでは、プライマリノード ( pmars )に Sun Cluster 3.1 を導入する手順について記述します。
1. ネームサービスの更新
クラスタ内の各ノードのネームサービスを更新します。
/etc/inet/hosts
DB2 V8.1 for Sun Cluster 3.1 6
192.168.1.60 ultra60
192.168.1.10 ptc
192.168.1.11 pmars
192.168.1.12 pvenus
2. クラスタの一番目のノードに Sun Cluster 3.1 の導入
クラスタの一番目のノード(pmars)で、scinstall コマンドを実行して、Sun Cluster 3.1 を導入します。
# cd /cdrom/suncluster_3_1/SunCluster_3.1/Sol_9/Tools
# ./scinstall
3. このマシンをクラスタ内の最初のノードとして構成します。「Main Menu」から、「1」 を選択します。
次に新しいクラスタを作成します。「yes」と入力して次の画面に進みます。
*** Main Menu ***
Please select from one of the following (*) options:
* 1) Establish a new cluster using this machine as the first node
* 2) Add this machine as a node in an established cluster
3) Configure a cluster to be JumpStarted from this install server
4) Add support for new data services to this cluster node
5) Print release information for this cluster node
* ?) Help with menu options
* q) Quit
Option: 1
*** Establishing a New Cluster ***
...................................
Do you want to continue (yes/no) [yes]? yes
4. Sun Cluster ソフトウェアパッケージのインストールを継続するかどうかを尋ねられるので、「yes」
と入力します。
DB2 V8.1 for Sun Cluster 3.1 7
すべてのパッ
5. クラスタ
6. 事前イン
>>> Software Package Installation <<<
Installation of the Sun Cluster framework software packages will take
a few minutes to complete.
Is it okay to continue (yes/no) [yes]?yes
** Installing SunCluster 3.1 framework **
SUNWscr.....done
.....................
SUNWhscvw...done
ENTER を押すと継続します:
ケージの導入完了後、Return キーを押して次の画面に進みます。
名を指定します。ここでは、「planet」と入力します。
>>> クラスタ名<<<
...
確立したいクラスタ名は? planet
ストール検査を行います。ここでは Enter を入力してインストールを継続します。
DB2 V8.1 for Sun Cluster 3.1 8
>>> チェック <<<
このステップでは、sccheck(1M) を実行して、基本的なハードウェアおよび
ソフトウェアの事前構成条件に適合しているかどうかを確認します。当該
マシンをクラスタノードとして構成するのに不都合な問題を検出した場合、
sccheck(1M) は警告を出力します。
ENTER を押すと継続します:
Running sccheck ... done
すべての sccheck テストで異常は発見されませんでした。
ENTER を押すと継続します:
7. このクラスタの一部となる他のノードの名前(pvenus)を指定します。
8. データ
>>> クラスタノード <<<
このリリースの Sun Cluster は合計で 16 個のノードをサポートします。
初期クラスタ構成に参加させるその他のノードの名前を入力してください。
一行ごとに 1 つのノードを入力します。終了したら、Ctrl-D を押
してください:
ノード名: pvenus
ノード名 (終了するには Ctrl-D): ^D
完成したノードのリスト:
pmars
pvenus
よろしいですか (yes/no) [yes]? yes
暗号化標準(DES) 認証を使用するかどうかを指定します。今回は「no」を選択します。
DB2 V8.1 for Sun Cluster 3.1 9
>>> ノードを追加する要求を認証する<<<
...
DES 認証を使用しますか(yes/no) [no]?no
9. プライベートネットワークアドレスとネットマスクを指定します。今回はデフォルトのまま使用しま
すので「yes」を選択します。
>>> クラスタトランスポートのネットワークアドレス<<<
...
デフォルトのネットワークアドレスを使用しますか(yes/no) [yes]?yes
デフォルトのネットマスクを使用しますか(yes/no) [yes]?yes
10. クラスタがトランスポート接続点を使用するかどうかを指定します。今回は使用しないので「no」
を選択します。
>>> ポイントツーポイントケーブル<<<
...
この 2 ノードクラスタはトランスポート接続点を使用しますか(yes/no) [yes]?no
11. 1番目のクラスタインターコネクトトランスポートアダプタを指定します。今回は「hme2」、「hme3」
を選択します。ます「hme2」を選択します。
>>> クラスタトランスポートアダプタとケーブル<<<
...
ENTER を押すと継続します:
使用する 1 番目のクラスタトランスポートアダプタを選択します:
1) hme1
2) hme2
3) hme3
4) hme4
5) Other
オプション: 2
アダプタ「hme2」は Ethernet アダプタです。
DB2 V8.1 for Sun Cluster 3.1 10
12. 次に 2 番目のクラスタトランスポートアダプタとして「hme3」を選択します。
使用する 2 番目のクラスタトランスポートアダプタを選択します:
1) hme1
2) hme3
3) hme4
4) Other
オプション: 2
アダプタ「hme3」は Ethernet アダプタです。
13. 広域デバイスのファイルシステム名を指定します。今回はデフォルトのファイルシステム名を使用
します。
>>> 広域デバイスファイルシステム<<<
...
デフォルトでは、/globaldevices を使用します。
このデフォルトを使用しますか(yes/no) [yes]?yes
14. インストールの必要がある Sun Cluster ソフトウェアパッチがあるかどうかを確認します。今回は、
「no」を選択します
>>> 自動リブート<<<
...
scinstall にマシンをリブートさせますか(yes/no) [yes]?no
15. コマンドにより生成されたオプションを受け入れるか否か決定します。確認のため、これまでの入
力から生成された scinstall コマンドが表示されます。コマンドオプション確認後、「yes」を選択し
てインストールを開始します。
DB2 V8.1 for Sun Cluster 3.1 11
16. メインメニューに戻ったところで Quit します。
>>> 確認<<<
次のオプションを scinstall に指示しています:
scinstall -ik ¥
...
これらのオプションを使用しますか(yes/no) [yes]?yes
インストールを継続しますか(yes/no) [yes]?yes
次の (*) オプションのうちから 1 つを選択してください:
1) このマシンを最初のノードとして新しいクラスタを確立
2) すでに確立されているクラスタにこのマシンを追加
3) このインストールサーバーから JumpStart できるようにクラスタを構成
* 4) 新しいデータサービスのサポートをこのクラスタノードに追加
* 5) このクラスタノードのリリース情報を出力
* ?) メニューオプションのヘルプ
* q) 終了
Option: q
Log file - /var/cluster/logs/install/scinstall.log.1453
#
*** メインメニュー ***
17. Sun Cluster 3.1: Core/Sys Admin Patch( 113801-03 )の導入
Sun Cluster 3.1 導入後、Core/Sys Admin Patch( 113801-03 )を適用します。
# patchadd PATCH_PATH
18. クラスタの 1番目のノード再起動
Sun Cluster 3.1: Core/Sys Admin Patch を適用後、システムを再起動します。
# shutdown ‐y ‐g0
ok boot
DB2 V8.1 for Sun Cluster 3.1 12
2-5.Sun Cluster 3.1 の導入(pvenus)
ここでは、スタンバイノード( pvenus )へ、Sun Cluster 3.1 を導入する手順について記述します。
1.クラスタの二番目のノードへの Sun Cluster 3.1 の導入
クラスタの二番目のノード(pvenus)で、scinstall コマンドを実行して、Sun Cluster 3.1 を導入します。
# cd /cdrom/suncluster_3_1/SunCluster_3.1/Sol_9/Tools
# ./scinstall
2.「Main Menu」で、2 を選択します。「新しいクラスタの確立」画面の情報を確認し、yes と入力して
次の画面に進みます。
*** Main Menu ***
Please select from one of the following (*) options:
* 1) Establish a new cluster using this machine as the first node
* 2) Add this machine as a node in an established cluster
3) Configure a cluster to be JumpStarted from this install server
4) Add support for new data services to this cluster node
5) Print release information for this cluster node
* ?) Help with menu options
* q) Quit
Option: 2
..................................
Press Ctrl-d at any time to return to the Main Menu.
Do you want to continue (yes/no) [yes]?yes
3. Sun Cluster ソフトウェアパッケージのインストールを継続するかどうかをたずねられるので、「yes」
と入力します。
DB2 V8.1 for Sun Cluster 3.1 13
>>> Software Package Installation <<<
Installation of the Sun Cluster framework software packages will take
a few minutes to complete.
Is it okay to continue (yes/no) [yes]?yes
** Installing SunCluster 3.1 framework **
......................
SUNWhscvw...done
ENTER を押すと継続します:
すべてのパッケージをインストールしたなら、Return キーを押して次の画面に進みます。
4.スポンサーノードとなる既存のクラスタノードの名前を指定します。今回は「pmars」と入力します。
>>> スポンサーノード<<<
...
スポンサーノードの名前は? pmars
5.クラスタ名を指定します。今回は「planet」と入力します。
>>> クラスタ名<<<
...
参加したいクラスタ名は? planet
6. 事前インストール検査を行います。今回は「1」を選択します。
DB2 V8.1 for Sun Cluster 3.1 14
7.クラス
8. デバイ
>>> チェック <<<
このステップでは、sccheck(1M) を実行して、基本的なハードウェアおよび
ソフトウェアの事前構成条件に適合しているかどうかを確認します。当該
マシンをクラスタノードとして構成するのに不都合な問題を検出した場合、
sccheck(1M) は警告を出力します。
ENTER を押すと継続します:
Running sccheck ... done
すべての sccheck テストで異常は発見されませんでした。
ENTER を押すと継続します:
タインターコネクトトランスポートアダプタを指定します。今回は自動検出を選択します。
>>> クラスタトランスポートの自動検出 <<<
Ethernet アダプタをクラスタトランスポートアダプタとして使用している
場合、クラスタトランスポートを構成する最良の方法は自動検出です。
自動検出を使用しますか (yes/no) [yes]? yes
検証しています .........
次の接続が見つかりました:
pmars:hme2 - pvenus:hme2
pmars:hme3 - pvenus:hme3
これらの接続を構成に追加しますか (yes/no) [yes]? yes
スのファイルシステム名を指定します。今回はデフォルトのファイルシステム名を使用します。
DB2 V8.1 for Sun Cluster 3.1 15
>>> 広域デバイスファイルシステム<<<
...
デフォルトでは、/globaldevices を使用します。
このデフォルトを使用しますか(yes/no) [yes]?yes
9.インストールの必要がある Sun Cluster ソフトウェアパッチがあるかどうかを確認します。今回は、
「no」を選択します。
>>> 自動リブート<<<
...
scinstall にマシンをリブートさせますか(yes/no) [yes]?no
10.コマンドにより生成されたオプションを受け入れるか否か決定します。確認のため、これまでの入
力から生成された scinstall コマンドが表示されます。コマンドオプション確認後、「yes」を選択し
てインストールを開始します。
>>> 確認<<<
次のオプションを scinstall に指示しています:
scinstall -ik ¥
...
これらのオプションを使用しますか(yes/no) [yes]?yes
インストールを継続しますか(yes/no) [yes]?yes
DB2 V8.1 for Sun Cluster 3.1 16
11. メインメニューに戻ったところで Quit します。
Log file - /var/cluster/logs/install/scinstall.log.1453
#
* q) 終了
Option: q
次の (*) オプションのうちから 1 つを選択してください:
1) このマシンを最初のノードとして新しいクラスタを確立
2) すでに確立されているクラスタにこのマシンを追加
3) このインストールサーバーから JumpStart できるようにクラスタを構成
* 4) 新しいデータサービスのサポートをこのクラスタノードに追加
* 5) このクラスタノードのリリース情報を出力
* ?) メニューオプションのヘルプ
*** メインメニュー ***
12. Sun Cluster 3.1: Core/Sys Admin Patch( 113801-03 )の導入
Sun Cluster 3.1 導入後、Core/Sys Admin Patch( 113801-03 )を適用します。
# patchadd PATCH_PATH
13. クラスタの 2番目のノード再起動
Sun Cluster 3.1: Core/Sys Admin Patch ( 113801-03 ) を適用後、システムを再起動します。
# shutdown ‐y ‐g0
ok boot
導入の際、以下のマニュアルを参照に実施しました。
・Sun Cluster 3.1 ソフトウェアのインストール
http://docs.sun.com/db/doc/817-1020?l=ja
DB2 V8.1 for Sun Cluster 3.1 17
2-6.クラスタ導入後の設定
2-6-1.ネームサービススイッチの構成
クラスタ内の各ノードで、/etc/nsswitch.conf ファイルを参照し、hosts および netmasks の最初の参
照先が cluster になっていることを確認します。
/etc/nsswitch.conf
hosts: cluster files nis
...
netmasks: cluster files nis
...
2-6-2.root 環境の設定
クラスタ内の各ノードの / 以下に.profile を作成します。
.profile
PATH=$PATH:/usr/cluster/bin;export PATH
MANPATH=/usr/share/man:/usr/cluster/man;export MANPATH
2-6-3.クラスタノードの確認
クラスタ内の任意のノードで scstat コマンドを実行し、クラスタのすべてのノードが ”Online”である
ことを確認します。
# scstat -n
-- クラスタノード --
ノード名 状態
-------- ----
クラスタノード: pmars Online
クラスタノード: pvenus Online
DB2 V8.1 for Sun Cluster 3.1 18
2-6-4.クラスタノードのデバイスの確認
クラスタ内の任意のノードで、scrgadm コマンドを実行し、システムによって検査されるすべてのデバイ
スのリストを表示します。
# scdidadm ‐L
1 pmars:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
2 pmars:/dev/rdsk/c1t6d0 /dev/did/rdsk/d2
3 pmars:/dev/rdsk/c2t9d0 /dev/did/rdsk/d3
3 pvenus:/dev/rdsk/c2t9d0 /dev/did/rdsk/d3
4 pmars:/dev/rdsk/c2t10d0 /dev/did/rdsk/d4
4 pvenus:/dev/rdsk/c2t10d0 /dev/did/rdsk/d4
5 pmars:/dev/rdsk/c3t1d0 /dev/did/rdsk/d5
5 pvenus:/dev/rdsk/c3t1d0 /dev/did/rdsk/d5
6 pmars:/dev/rdsk/c3t2d0 /dev/did/rdsk/d6
6 pvenus:/dev/rdsk/c3t2d0 /dev/did/rdsk/d6
7 pvenus:/dev/rdsk/c0t0d0 /dev/did/rdsk/d7
8 pvenus:/dev/rdsk/c1t6d0 /dev/did/rdsk/d8
8190 pvenus:/dev/rmt/0 /dev/did/rmt/2
8191 pmars:/dev/rmt/0 /dev/did/rmt/1
2-6-5.定足数デバイス(quorum デバイス)の判別
scdidadm の出力で、定足数デバイスとして構成する各共有ディスクの DID 名を確認してください。たと
えば、上記の手順の出力は、広域デバイス d3、d4、d5、d6 が pmars と pvenus で共有されていることを示
しています。
2-6-6.クラスタのセットアップ
ここでは、quorum device の設定、および install mode の設定を行います。
クラスタ内の任意のノードで、scsetup ユーティリィティを使用してクラスタのセットアップを行います。
# scsetup
DB2 V8.1 for Sun Cluster 3.1 19
>>> 初期クラスタ設定 <<<
このプログラムは、現在クラスタの初期設定ステップが実行中であることを
意味する、クラスタの「installmode」属性がまだ有効であるかどうかを検出
します。この手順には、必要な定足数デバイスの追加や、その後の
定足数投票数と「installmode」プロパティのリセットも含まれます。
追加のノードがまだクラスタに参加していない間は、次に進まないでください
。
継続しますか (yes/no) [yes]? yes
定足数ディスクを追加しますか (yes/no) [yes]? yes
定足数デバイスを設定します。ここでは、「d3」とします。
DB2 V8.1 for Sun Cluster 3.1 20
>>> 定足数ディスクを追加 <<<
二重ポートの SCSI-2 ディスクは、2 ノードクラスタの定足数デバイスとして
使用できます。しかし、ノードが 2 つより多いクラスタでは、ノードから
ディスクまでのパスが 2 本より多いすべてのディスクに SCSI-3 PGR
ディスクを使用する必要があります。定足数デバイスとして、ユーザーデータ
が入ったディスク、つまり、デバイスグループのメンバーであるディスクを
使用できます。
各定足数ディスクは少なくとも 2 つのノードに接続される必要があります。
サポートされる定足数デバイスのトポロジの詳細については、Sun Cluster の
マニュアルを参照してください。
継続しますか (yes/no) [yes]? yes
どの広域デバイスを使用しますか (d<N>)? d3
更新を継続しますか (yes/no) [yes]? yes
scconf -a -q globaldev=d3
コマンドが正常に完了しました。
ENTER を押すと継続します:
別の定足数ディスクを追加しますか (yes/no)? no
「 「installmode」をリセットしますか? 」というプロンプトに、「Yes」と入力します。
DB2 V8.1 for Sun Cluster 3.1 21
「installmode」プロパティがリセットされると、このプログラムは以降、
実行ごとに「初期クラスタ設定」をスキップします。しかし、定足数デバイス
は常に、通常のメニューオプションを使用してクラスタに追加できます。この
プロパティをリセットすると、定足数の設定が完全にアクティブになります。
これはクラスタの通常の安全な運用に必要です。
「installmode」をリセットしますか (yes/no) [yes]? yes
scconf -c -q reset
scconf -a -T node=.
クラスタの初期化は完了しました。
ENTER を入力すると、メインメニューに戻ります。:
クラスタ内の任意のノードから、デバイスとノードの定足数構成を確認します。
# scstat -q
DB2 V8.1 for Sun Cluster 3.1 22
-- 定足数の概要 --
可能な定足数投票: 3
必要な定足数投票数: 2
現在の定足数投票数: 3
-- ノードによる定足数の投票数 --
ノード名 現在の数 可能な数 状態
-------- -------- -------- ----
ノードの投票数: pmars 1 1 Online
ノードの投票数: pvenus 1 1 Online
-- デバイスによる定足数の投票数 --
デバイス名 現在の数 可能な数 状態
---------- -------- -------- ----
デバイスの投票数: /dev/did/rdsk/d3s2 1 1 Online
scconf コマンドで、クラスタの install mode を確認します。
# scconf ‐p
2-7.VER
ここでは、
する手順に
2-7-1.承
ここでは、
1.プライ
たら、
クラスタのインストールモード: disabled
ITAS Volume Manager のインストール
クラスタ内の各ノードに VERITAS Volume Manager を導入して、ルートディスクをカプセル化
ついて記述します。
認リストへの追加
クラスタ内のすべてのノードをクラスタノード承認リストへ追加する手順について記述します。
マリノード(pmars)で scsetup(1M) ユーティリティを起動します。メインメニューが表示され
「新規ノード」メニューにアクセスするため、「6」を入力します。
DB2 V8.1 for Sun Cluster 3.1 23
# scsetup
*** メインメニュー ***
次のオプションのうちから 1 つを選択してください。:
1) 定足数
2) リソースグループ
3) クラスタインターコネクト
4) デバイスグループとボリューム
5) プライベートホスト名
6) 新規ノード
7) クラスタのその他のプロパティ
?) メニューオプション付きのヘルプ
q) 終了
オプション: 6
2.ノードを承認リストに追加するため、「新規ノードメニュー」で「3」を入力します。
*** 新規ノードメニュー ***
次のオプションのうちから 1 つを選択してください。:
1) 任意の新規マシンが (自分自身を) クラスタに追加することを禁止
2) 任意のマシンが自分自身をクラスタに追加することを許可
3) 自分自身を追加できるマシン名を指定
4) 標準 UNIX 認証を使用
5) Diffie-Hellman 認証を使用
?) ヘルプ
q) メインメニューに戻る
オプション: 3
3.認識されるマシンのリストに追加するホスト名を指定します。ここでは「pmars」と入力します。
DB2 V8.1 for Sun Cluster 3.1 24
4. 作業が
マンド
5. クラス
6. 「メイ
2-7-2.VE
1.ノード
2.scvxi
# s
3. パッ
# p
4.パッチ
入力し
# s
5.クラス
>>> 自分自身をクラスタにインストールできるマシンを指定 <<<
このオプションは、あるマシンが自分自身をクラスタにインストール
することを許可するときに使用します。これを実現するには、自分自身を
クラスタにインストールすることが許可されていると認識されるノードの
リストにノードを追加します。
..............................
継続しますか (yes/no) [yes]? yes
認識されるマシンのリストに追加するホスト名は ? pmars
更新を継続しますか (yes/no) [yes]? yes
正常に行われたことを確認します。作業が正常に行われた場合、scsetup ユーティリティは「コ
が正常に完了しました」というメッセージを出力します。
タ内の別ノード( pvenus )で、上記手順 2から手順 4 までを繰り返します。
ンメニュー」に戻って、scsetup ユーティリティを終了します。
RITAS Volume Manager の構成
の CD-ROM ドライブに VxVM CD-ROM を挿入します。
nstall をインストールのみのモードで起動します。
cvxinstall ‐i ‐d /cdrom/volume_manager3.5/pkgs
ケージ導入後、general patch for Solaris 7, 8, and 9 ( 112392-06 )を適用します。
atchadd PATCH_PATH
適用後、scvxinstall をカプセル化モードで起動します。その際、ライセンスキーも合わせて
ます。
cvxinstall ‐e ‐d /cdrom/volume_manager3.5/pkgs ‐L LISENCE_KEY
タ内の別ノード( pvenus )で、上記手順 1から手順 4 までを繰り返します。
DB2 V8.1 for Sun Cluster 3.1 25
2-7-3.導入の確認
クラスタ内の各ノードの、vxio ドライバの擬似デバイスメジャー番号が同一であることを、各ノードの
/etc/name_to_major ファイルで確認します。
# grep vxio /etc/name_to_major
(例)
導入の際、
・Sun Clu
htt
2-8.IP ネ
ここでは、
クラスタ内
クラスタ内
pma
pma
pve
pve
vxio 190
以下のマニュアルを参照に実施しました。
ster 3.1 ソフトウェアのインストール
p://docs.sun.com/db/doc/817-1020?l=ja
ットワークマルチパスの設定
IP ネットワークマルチパスの設定手順について記述します。
の各ノードで IP ネットワークマルチパスグループ IPMP0 を作成します。
において、各ノードのパブリックネットワークアダプタの設定を以下のように変更します。
rs:/etc/hostname.hme0
192.168.1.11 group ipmp0 up addif 192.168.1.111 -failover up
rs:/etc/hostname.hme4
192.168.1.113 group ipmp0 up -failover standby up
nus:/etc/hostname.hme0
192.168.1.12 group ipmp0 up addif 192.168.1.112 -failover up
nus:/etc/hostname.hme4
192.168.1.114 group ipmp0 up -failover standby up
DB2 V8.1 for Sun Cluster 3.1 26
両方のノードを再起動後、インターフェース hme0 と hme4 のパラメータに「groupname ipmp0」が追加さ
れていることを確認します。
# scshutdown ‐y ‐g0
# ifconfig ‐a
# ifconfig -a
hme0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
inet 192.168.1.12 netmask ffffff00 broadcast 192.168.1.255
groupname ipmp0
ether 8:0:20:a7:4f:e8
hme0:1: flags=9000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4,NOFAILOVER> mtu
1500 index 2 inet 192.168.1.112 netmask ffffff00 broadcast
192.168.1.255
hme4: flags=1000842<BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 3
inet 192.168.1.112 netmask ffffff00 broadcast 192.168.1.255
groupname ipmp0
ether 8:0:20:f2:31:88
DB2 V8.1 for Sun Cluster 3.1 27
3.DB2™ V8.1 の導入
3-1.データサービス構成のためのワークシート
Sun Cluster 3.1 環境に導入する際、必要な定義情報は以下のとおりです。
3-1-1.リソースタイプ
リソースタイプ名 概要
IBM.db2udb_db2inst1 DB2 データサービス登録用 RTR ファイル
SUNW.HAStoragePlus FFS 機能を利用するための RTR ファイル
3-1-2.リソースグループ
リソースグループ名 db2_db2inst1_0-rg
リソースグループの機能 DB2
優先度順指定有無 有
フェイルバックの有無 無
ノード名 pmars, pvenus
3-1-3.HAStoragePlus リソース
リソース名 db2-has-res
リソースグループ名 db2_db2inst1_0-rg
リソースタイプ名 SUNW.HAStoragePlus
拡張プロパティ AffinityOn=true
GlobalDevicePaths=/dev/vx/rdsk/db2/db2inst1,/dev/vx/rdsk/db2/db2fenc1,
/dev/vx/rdsk/db2/db2admin1
FilesystemMountPoints=/export/home/db2inst1,/export/home/db2fenc1,
/export/home/db2admin1
3-1-4.論理ホスト名リソース
リソース名 db2_mars
使用する論理ホスト名/IP アドレス db2_mars/192.168.1.101
DB2 V8.1 for Sun Cluster 3.1 28
3-1-5.データサービスリソース
リソース名 db2_db2inst1_0-rs
リソースグループ名 db2_db2inst1_0-rg
リソースタイプ名 IBM.db2udb_db2inst1
3-1-6.クラスタファイルシステム
用途 ファイルシステム マウントポイント ボリューム名 サイズ
DB2™バイナリ用 /dev/vx/rdsk/db2/db2code /global/opt/IBMdb2 db2code 1500M
DB2™レジストリ用 /dev/vx/rdsk/db2/db2var /global/var/db2 db2var 100M
DB2™インスタンス用 /dev/vx/rdsk/db2/db2inst1 /export/home/db2inst1 db2inst1 500M
DB2™UDF 用 /dev/vx/rdsk/db2/db2fenc1 /export/home/db2fenc1 db2fenc1 500M
DB2™管理サーバー用 /dev/vx/rdsk/db2/db2admin1 /export/home/db2admin1 db2admin1 500M
3-1-7.構成内容
今回の構成では、DB2 インスタンスに対して排他的なアクセスを行うため、DB2 インスタンスを
HAStoragePlus リソースとして登録するものとします。
尚、上記構成にするのは、DB2 インスタンスに他のノードからアクセスできないようにするためです。
DB2 のバイナリはグローバルファイルシステム上に導入して共有化するものとします。
3-2.DB2™用ファイルシステムの作成
3-2-1.ディスクグループの作成
ここでは、vxdiskadm ユーティリティを使用して、新規にディスクグループを作成します。
1.vxdiskadm メインメニューから「1 Add or initialize one or more disks」を選択します。
# vxdiskadm
DB2 V8.1 for Sun Cluster 3.1 29
2.「Add or
なディス
Volume Manager Support Operations
Menu: volumeManager/Disk
1 Add or initialize one or more disks
2 Encapsulate one or more disks
3 Remove a disk
4 Remove a disk for replacement
5 Replace a failed or removed disk
6 Mirror volumes on a disk
7 Move volumes from a disk
8 Enable access to (import) a disk group
9 Remove access to (deport) a disk group
10 Enable (online) a disk device
11 Disable (offline) a disk device
..................
..................
list List disk information
? Display help about menu
?? Display help about the menuing system
q Exit from menus
Select an operation to perform: 1
initialize disks」メニューが表示されたら、プロンプトに「list」と入力し現在利用可能
クを確認します。今回は c3t1d0 を選択します。
DB2 V8.1 for Sun Cluster 3.1 30
Add or initialize disks
Menu: VolumeManager/Disk/AddDisks
Use this operation to add one or more disks to a disk group. You can
add the selected disks to an existing disk group or to a new disk group
that will be created as a part of the operation. The selected disks may
also be added to a disk group as spares. Or they may be added as
nohotuses to be excluded from hot-relocation use. The selected
disks may also be initialized without adding them to a disk group
leaving the disks available for use as replacement disks.
More than one disk or pattern may be entered at the prompt. Here are
some disk selection examples:
all: all disks
c3 c4t2: all disks on both controller 3 and controller 4, target 2
c3t4d2: a single disk (in the c#t#d# naming scheme)
xyz_0 : a single disk (in the enclosure based naming scheme)
xyz_ : all disks on the enclosure whose name is xyz
Select disk devices to add: [<pattern-list>,all,list,q,?] list
DEVICE DISK GROUP STATUS
c0t0d0 rootdisk_1 rootdg online
c2t9d0 - - online
c3t1d0 - - online
Select disk devices to add: [<pattern-list>,all,list,q,?] c3t1d0
Here is the disk selected. Output format: [Device_Name]
c3t1d0
Continue operation? [y,n,q,?] (default: y) y
DB2 V8.1 for Sun Cluster 3.1 31
3.ディスクを追加したいディスクグループ名を選択します。今回は、新規にディスクグループを作成す
るためプロンプトに「db2」と入力します。
You can choose to add this disk to an existing disk group, a
new disk group, or leave the disk available for use by future
add or replacement operations. To create a new disk group,
select a disk group name that does not yet exist. To leave
the disk available for future use, specify a disk group name
of "none".
Which disk group [<group>,none,list,q,?] (default: rootdg) db2
There is no active disk group named db2.
Create a new group named db2? [y,n,q,?] (default: y) y
4.ディスク名は、デフォルトのディスク名を使用します。
Use a default disk name for the disk? [y,n,q,?] (default: y) y
5.スペアディスク、およびホットリロケーションは今回指定しません。
Add disk as a spare disk for db2? [y,n,q,?] (default: n) n
Exclude disk from hot-relocation use? [y,n,q,?] (default: n) n
6.確認のメッセージが表示されますので、継続します。
DB2 V8.1 for Sun Cluster 3.1 32
A new disk group will be created named test and the selected disks
will be added to the disk group with default disk names.
c3t1d0
Continue with operation? [y,n,q,?] (default: y) y
This disk is listed as added to a disk group. The disk group is
not currently enabled (imported). You may wish to import the disk
group. If so, quit from this operation and select "Enable access
to (import) a disk group" from the main disk operations menu.
Output format: [Device_Name,Disk_Access_Name,Disk_Group]
[c3t1d0,c3t1d0s2,db2]
Use this device? [y,n,q,?] (default: y) y
The following disk you selected for use appears to already have
been initialized for the Volume Manager. If you are certain the
disk has already been initialized for the Volume Manager, then you
do not need to reinitialize the disk device.
Output format: [Device_Name]
c3t1d0
Reinitialize this device? [y,n,q,?] (default: y) y
Initializing device c3t1d0.
Use a default private region length for this disk?
[y,n,q,?] (default: y) y
Creating a new disk group named db2 containing the disk
device c3t1d0 with the name db2.
Add or initialize other disks? [y,n,q,?] (default: n) n
DB2 V8.1 for Sun Cluster 3.1 33
7.ディスクグループが作成されたことを確認するには、次のコマンドを使用します。
# vxdisk list
DEVICE TYPE DISK GROUP STATUS
c0t0d0s2 sliced rootdisk_1 rootdg online
c2t9d0s2 sliced - - online
c3t1d0s2 sliced db201 db2 online
3-2-2.クラスタファイルシステム用ボリュームの作成
以下のコマンドを実行して、ディスクグループ db2 にボリュームを追加します。
# vxassist make db2code 1500m db201
# vxassist make db2var 100m db201
# vxassist make db2inst1 500m db201
# vxassist make db2fenc1 500m db201
# vxassist make db2admin1 500m db201
3-2-3.ディスクデバイスグループの登録
1.クラスタ内の任意のノードで、scsetup ユーティリィティを使用して、ディスクグループ db2 をディ
スクデバイスグループに登録します。メインメニュー画面が表示されたら、「4 デバイスグループと
ボリューム」を選択します。
# scsetup
DB2 V8.1 for Sun Cluster 3.1 34
*** メインメニュー ***
次のオプションのうちから 1 つを選択してください。:
1) 定足数
2) リソースグループ
3) クラスタインターコネクト
4) デバイスグループとボリューム
5) プライベートホスト名
6) 新規ノード
7) クラスタのその他のプロパティ
?) メニューオプション付きのヘルプ
q) 終了
オプション: 4
2.デバイスグループメニューが表示されたら「1」を選択します。
*** デバイスグループメニュー ***
次のオプションのうちから 1 つを選択してください。:
1) VxVM ディスクグループをデバイスグループとして登録
2) VxVM デバイスグループのボリューム情報の同期をとる
3) VxVM デバイスグループを登録を解除
4) ノードを VxVM デバイスグループに追加
5) VxVM デバイスグループからノードを削除
6) デバイスグループのキープロパティを変更
?) ヘルプ
q) メインメニューに戻る
オプション: 1
DB2 V8.1 for Sun Cluster 3.1 35
3.ディスクグループ db2 を登録します。
(
>>> VxVM ディスクグループをデバイスグループとして登録 <<<
VERITAS Volume Manager ディスクグループは常に、クラスタによって
クラスタデバイスグループとして管理されます。このオプションは、VxVM
ディスクグループをクラスタデバイスグループとしてクラスタに登録
するときに使用します。
継続しますか (yes/no) [yes]? yes
登録したい VxVM ディスクグループの名前は ? db2
デバイスグループのプライマリ所有者は、そのデバイスグループを所有できる
ノードの優先順位を指定しているかどうかによって決定されます。順序が指定
されている場合、その順序でノードは所有者を決定します。順序が指定
されていない場合、デバイスグループ内のディスクに最初にアクセスした
ノードが所有者となります。
優先順位を構成しますか (yes/no) [yes]? yes
両方のノードはこのグループのすべてのディスクに接続されていますか
(yes/no) [yes]? yes
どのノードがこのデバイスグループの優先プライマリですか ? pmars
このディスクデバイスグループに「フェイルバック」を有効にしますか
yes/no) [no]? no
更新を継続しますか (yes/no) [yes]? yes
scconf -a -D type=vxvm,name=db2,nodelist=pmars:pvenus,preferenced=true
コマンドが正常に完了しました。
ENTER を押すと継続します:
DB2 V8.1 for Sun Cluster 3.1 36
4.scsetup ユーティリティの「デバイスグループメニュー」に戻ったら、次にディスクグループの同期
化を行います。メニューの中から「2」を選択します。
*** デバイスグループメニュー ***
次のオプションのうちから 1 つを選択してください。:
1) VxVM ディスクグループをデバイスグループとして登録
2) VxVM デバイスグループのボリューム情報の同期をとる
3) VxVM デバイスグループを登録を解除
4) ノードを VxVM デバイスグループに追加
5) VxVM デバイスグループからノードを削除
6) デバイスグループのキープロパティを変更
?) ヘルプ
q) メインメニューに戻る
オプション: 2
5.同期を取りたい VxVM デバイスグループ名に「db2」と入力します。
DB2 V8.1 for Sun Cluster 3.1 37
3-2-4.ク
クラスタ内
テムを作成
# n
# n
# n
# n
# n
>>> VxVM デバイスグループのボリューム情報の同期をとる <<<
VERITAS Volume Manager ディスクグループは常に、クラスタによって
クラスタデバイスグループとして管理されます。このオプションは、VxVM
ソフトウェアとクラスタリングソフトウェア間で VxVM デバイスグループの
ボリューム情報の同期をとるときに使用します。
継続しますか (yes/no) [yes]? yes
同期を取りたい VxVM デバイスグループ名は ? db2
更新を継続しますか (yes/no) [yes]? yes
scconf -c -D name=db2,sync
コマンドが正常に完了しました。
ENTER を押すと継続します:
ラスタファイルシステムの作成
の任意のノードで、newfs コマンドを実行して、共有ディスク上のボリュームにファイルシス
します。
ewfs /dev/vx/rdsk/db2/db2code
ewfs /dev/vx/rdsk/db2/db2var
ewfs /dev/vx/rdsk/db2/db2inst1
ewfs /dev/vx/rdsk/db2/db2fenc1
ewfs /dev/vx/rdsk/db2/db2admin1
DB2 V8.1 for Sun Cluster 3.1 38
3-2-5.クラスタファイルシステムのマウントポイントの作成
クラスタ内の各ノードで、作成したクラスタファイルシステムのマウントポイントを作成します。
# mkdir ‐p /global/opt/IBMdb2
# mkdir ‐p /global/var/db2
# mkdir ‐p /export/home/db2inst1
# mkdir ‐p /export/home/db2fenc1
# mkdir ‐p /export/home/db2admin1
3-2-6./etc/vfstab の変更
クラスタ内の各ノードで、作成したクラスタファイルシステムのエントリを /etc/vfstab ファイルに追
加します。
# vi /etc/vfstab
3-2-7.整
クラスタ
た内容が
#
#
エラー出
/dev/vx/dsk/db2/db2code /dev/vx/rdsk/db2/db2code /global/opt/IBMdb2 ufs 3 yes
global
/dev/vx/dsk/db2/db2var /dev/vx/rdsk/db2/db2var /global/var/db2 ufs 3 yes
global
/dev/vx/dsk/db2/db2inst1 /dev/vx/rdsk/db2/db2inst1 /export/home/db2inst1 ufs 4 no
logging
/dev/vx/dsk/db2/db2fenc1 /dev/vx/rdsk/db2/db2fenc1 /export/home/db2fenc1 ufs 4 no
logging
/dev/vx/dsk/db2/db2admin1 /dev/vx/rdsk/db2/db2admin1 /export/home/db2admin1 ufs 4 no
logging
合性チェック
内の任意のノードで、sccheck コマンドを実行して、各ノードの/etc/vfstab ファイルに追加し
一致していることを確認します。
sccheck
力が無ければ、内容が一致しています。
DB2 V8.1 for Sun Cluster 3.1 39
3-2-8.クラスタファイルシステムのマウント
クラスタ内の任意のノードで、クラスタファイルシステムをマウントします。
pmars でマウントを実施します。
# mount /global/opt/IBMdb2
# mount /global/var/db2
# mount /export/home/db2inst1
# mount /export/home/db2fenc1
# mount /export/home/db2admin1
pmars でマウントを確認します。
# mount -p
............................
/dev/vx/dsk/db2/db2code - /global/opt/IBMdb2 ufs ‐ no rw,intr,largefiles,logging,noquota,xattr,
nodfratime,onerror=panic,suid,global
/dev/vx/dsk/db2/db2var - /global/var/db2 ufs ‐ no rw,intr,largefiles,logging,noquota,xattr,
nodfratime, onerror=panic,suid,global
/dev/vx/dsk/db2/db2inst1 - /export/home/db2inst1 ufs - no rw,intr,largefiles,logging,
xattr,onerror=panic,suid
/dev/vx/dsk/db2/db2fenc1 - /export/home/db2fenc1 ufs - no rw,intr,largefiles,logging,xattr,
onerror=panic,suid
/dev/vx/dsk/db2/db2admin1 - /export/home/db2admin1 ufs - no rw,intr,largefiles,logging,xattr,
onerror=panic,suid
pvenus でマウントを確認します。
# mount ‐p
....................................
/dev/vx/dsk/db2/db2var - /global/var/db2 ufs ‐ no rw,intr,largefiles,logging,noquota,xattr,
nodfratime,onerror=panic,suid,global
DB2 V8.1 for Sun Cluster 3.1 40
3-3.DB2™ V8.1 の導入
3-3-1.カーネル・パラメータの設定
クラスタ内の各ノード(pmars, pvenus)で、以下のカーネル・パラメータを/etc/system ファイルに定義し、
その後にノードを再起動します。
カーネル構成パラメータを更新するためのサンプル・ファイルは、 DB2™ 製品の CD-ROM の
db2/solaris/samples ディレクトリに提供されています。これらのファイルの名前は次のとおりです。
kernel.param.1GB 1~2GB の物理メモリーのシステム用
kernel.param.2GB 2~4GB の物理メモリーのシステム用
kernel.param.4GB 4~16GB の物理メモリーのシステム用
kernel.param.16GB 16 GB 以上の物理メモリーのシステム用
ここでは、kernel.param.1GB を参照します。
設定完了後、再起動を行い、設定を反映させます。
参照:DB2 インフォーメーションセンター ��カーネル・パラメーターの変更 (Solaris オペレーティング環境)
http://publib.boulder.ibm.com/infocenter/db2luw/v8//topic/com.ibm.db2.udb.doc/start/t0006476.htm
3-3-2.ユーザーの追加
クラスタ内の各ノードで db2 ユーザーおよびグループを作成します。
groupadd コマンドで、グループ db2grp1、db2fgrp1、dasgrp1 を作成します。
# groupadd ‐g 999 db2grp1
# groupadd ‐g 998 db2fgrp1
# groupadd ‐g 997 dasgrp1
useradd コマンドで、ユーザーdb2inst1、db2fenc1、dasusr1 を作成します。
DB2 V8.1 for Sun Cluster 3.1 41
# useradd ‐g db2grp1 ‐u 999 ‐d /export/home/db2inst1 ‐m ‐s /bin/ksh db2inst1
# useradd ‐g db2fgrp1 ‐u 998 ‐d /export/home/db2fenc1 ‐m ‐s /bin/ksh db2fenc1
# useradd ‐g dasgrp1 ‐u 997 ‐d /export/home/db2admin1 ‐m ‐s /bin/ksh dasusr1
作成したユーザーdb2inst1、db2fenc1、dasusr1 のパスワードを設定します。
# passwd db2inst1
# passwd db2fenc1
# passwd dasusr1
3-3-3.ディレクトリのオーナー変更
作成したユーザーの各ホームディレクトリは、事前に root ユーザーがクラスタファイルシステム上に作
成しましたので、ディレクトリのオーナーを変更する必要があります。
クラスタ内の任意のノード(pmars or pvenus)で、ユーザーdb2inst1、db2fenc1、dasusr1 のホームディレ
クトリのオーナーを変更します。
# chown db2inst1:db2grp1 /export/home/db2inst1
# chown db2fenc1:db2fgrp1 /export/home/db2fenc1
# chown dasusr1:dasgrp1 /export/home/db2admin1
3-3-4.シンボリックリンクの作成
製品はデフォルトで/opt/IBM/db2/V8.1 に導入されますが、当構成では両ノードから使用出来るようクラ
スタファイルシステム/global/opt/IBM/db2/V8.1 に導入します。そのため、両ノードで/opt/IBM/db2/V8.1
から/global/opt/IBM/db2/V8.1 へのシンボリックリンクを作成します。
また同様に、DB2™が使用する/var/db2 も両ノードで共有するように、/var/db2 から/global/var/db2 への
シンボリックリンクを作成します。
/global/opt/IBMdb2 以下に V8.1 ディレクトリ作成後、クラスタ内の各ノード(pmars, pvenus)で、以下の
ようにリンクを作成します。
# mkdir ‐p /opt/IBM/db2
# mkdir -p /global/opt/IBMdb2/V8.1
# ln -fs /global/opt/IBMdb2/V8.1 /opt/IBM/db2/V8.1
# ln -fs /global/var/db2 /var/db2
DB2 V8.1 for Sun Cluster 3.1 42
3-3-5.DB2™のインストール
DB2™のインストールには、db2setup ユーティリティを使用します。またこのユーティリティを使用してイ
ンスタンスの作成を行います。
まず、管理端末(ultra60) で xhost コマンドを実行して、管理端末の X サーバーに pmars が接続できるよ
うにします。
# xhost + pmars
これ以降の作業は pmars から行います。
1.root 権限を持つユーザーとしてログインします。
2.DISPLAY 環境変数を設定します。
# DISPLAY=ultra60:0.0
# export DISPLAY
3.DB2™ ユニバーサル・データベース V8.1 CD-ROM 内の、ese.tar.Z ファイルを展開します。
# zcat ese.tar.Z | tar ‐xvf ‐
4.db2setup によりインストールを行います。
./ese/db2setup
5.Install Products を選択します。
DB2 V8.1 for Sun Cluster 3.1 43
6.DB2 Universal Database™ Enterprise Server Edition を選択します。
DB2 V8.1 for Sun Cluster 3.1 44
7.Setup Wizard 画面が表示されます。
8.ライセンス画面で「同意」を選択します。
DB2 V8.1 for Sun Cluster 3.1 45
9.インストール方法を選択します。
10.インストール動作を選択します。
DB2 V8.1 for Sun Cluster 3.1 46
11.インストールするコンポーネントを選択します。
12.言語を選択します。
DB2 V8.1 for Sun Cluster 3.1 47
13.DB2 管理サーバー情報を入力します。
14.作成するインスタンスを選択します。
DB2 V8.1 for Sun Cluster 3.1 48
15.インスタンスの作成方法を選択します。
16.インスタンスオーナー情報を入力します。
DB2 V8.1 for Sun Cluster 3.1 49
17.fenced ユーザー情報を入力します。
18.TCP/IP 構成情報を入力します。
DB2 V8.1 for Sun Cluster 3.1 50
19.インスタンス属性を入力します。
DB2 V8.1 for Sun Cluster 3.1 51
20.DB2 tools catalog を選択します。
21.Administration contact list を設定します。
DB2 V8.1 for Sun Cluster 3.1 52
22.health monitor notification 情報を設定します。
23.設定を確認して実行します。
24.進行状況が表示されます。
DB2 V8.1 for Sun Cluster 3.1 53
25.セットアップの結果が表示されます。
DB2 V8.1 for Sun Cluster 3.1 54
3-3-6.導入後の設定
3-3-6-1./etc/inet/services ファイルの編集
DB2 インスタンス内のデータベース区画間通信で使用するポートを予約します。
pvenus で /etc/inet/services ファイルを以下のように編集します。(pmars は db2setup 実行により追加
されています。)
DB2_db2inst1 60000/tcp
DB2_db2inst1_1 60001/tcp
DB2_db2inst1_2 60002/tcp
DB2_db2inst1_END 60003/tcp
db2c_db2inst1 50000/tcp
3-3-6-2..profile の作成(インスタンス・ユーザー)
pmars で、/export/home/db2inst1 ディレクトリ以下の.profile に、以下の記述があることを確認します。
# The following three lines have been added by UDB DB2.
if [ -f /export/home/db2inst1/sqllib/db2profile ]; then
. /export/home/db2inst1/sqllib/db2profile
fi
もし、.profile が作成されていない場合、.profile を作成後、ファイルのオーナーを変更します。
# chown db2inst1:db2grp1 /export/home/db2inst1/.profile
3-3-6-3..profile の作成(管理ユーザー)
pmarsで、/export/home/db2admin1ディレクトリ以下の.profileに、以下の記述があることを確認します。
# The following three lines have been added by UDB DB2.
if [ -f /export/home/db2admin1/das/dasprofile ]; then
. /export/home/db2admin1/das/dasprofile
fi
もし、.profile が作成されていない場合、.profile を作成後、ファイルのオーナーを変更します。
# chown dasusr1:dasgrp1 /export/home/db2admin1/.profile
DB2 V8.1 for Sun Cluster 3.1 55
3-3-6-4.サンプル・データベースの作成
DB2™に付属のサンプル・データベースを作成します。
pmars で、以下の手順を実行します。
1.DB2 インスタンス・ユーザーdb2inst1 としてシステムにログインします。
2.db2start コマンドを入力して、データベース・マネージャーを開始します。
$ db2start
3.db2sampl コマンドを入力して、サンプル・データベースを作成します。
$ db2sampl
4.サンプル・データベースが作成されると、自動的にデータベース別名 SAMPLE としてカタログ
化されます。
5.作成された SAMPLE データベースに接続し、正しく作成されていることを確認してから、デー
タベース接続をリセットします。
$ db2 connect to sample
$ db2 list tables
$ db2 connect reset
DB2 インスタンスを停止するには、db2stop コマンドを実行します。
$ db2stop
3-4.DB2™データサービスの構成
3-4-1./etc/inet/hosts ファイルの編集
クラスタ内の各ノードで、論理ホスト名リソースで使用するホスト名 db2_mars を/etc/inet/hosts ファイ
ルに追加します。
102.168.1.101 db2_mars
DB2 V8.1 for Sun Cluster 3.1 56
3-4-2./var/db2/v81/default.env ファイルの編集
DB2™データサービスで論理ホスト名 db2_mars を使用するため、クラスタ内の任意のノード(pmars or
pvenus)で、/var/db2/v81/default.env ファイル以下のように編集します。
DB2SYSTEM='db2_mars'
DB2ADMINSERVER='dasusr1'
3-4-3.DB2 Fault Monitor Coordinator の削除
DB2 Fault Monitor Coordinator を削除します。このプロセスが稼動している場合、引継ぎがうまくでき
ない場合があります。
/etc/inittab から以下の行を削除します。
fmc:234:respawn:/opt/IBM/db2/V8.1/bin/db2fmcd #DB2 Fault Monitor Coordinator
削除後、 kill コマンドで以下のプロセスを停止します。
root 3326 1 0 12:58:09 ? 0:43 /opt/IBM/db2/V8.1/bin/db2fmcd
dasusr1 3369 1 0 12:58:12 ? 0:00 /export/home/db2admin1/das/bin/db
2fmd -i dasusr1 -m /export/home/db2admin1/das/
# kill <pid>
#
3-4-4.DB2™データサービスの登録
regdb2udb ユーティリティを使用して DB2 データサービスを登録します。このユーティリティを使用する
と、リソースタイプ、リソースグループ、リソースの登録が行えます。
pmars で、以下のように regdb2udb を実行します。
# cd /opt/IBM/db2/V8.1/ha/sc30/util
# ./regdb2udb ‐a db2inst1 ‐h db2_mars
-a オプションを使用して DB2 インスタンス(ここでは、db2inst1)を、-h オプションを使用して論理ホ
スト名(ここでは、db2_mars)を指定します。
DB2 V8.1 for Sun Cluster 3.1 57
-注-
テストした環境では、2003 年 9 月現在の regdb2udb ユーティリティを使用して論理ホスト名リソース、お
よびリソースグループを追加することができませんでした。
これは、スクリプトファイルのディレクトリの指定に幾つか不正があるためです。尚、2003 年 9 月現在発
表されている FixPak を適用しても、この現象は発生します。もし同様の現象が発生する場合、スクリプ
トファイルの修正を行うか、コマンドによる追加作業を行う必要があります。
3-4-5.HAStoragePlus リソースタイプの登録
ディスクリソースを登録するためには、HAStoragePlus リソースタイプを登録する必要があります。この
処理は regdb2udb ユーティリィティには提供されていません。以下のコマンドを実行してリソースタイプ
SUNW.HAStoragePlus を登録します。
# scrgadm ‐a ‐t SUNW.HAStoragePlus
リソースタイプ登録後、以下のコマンドで、リソースを登録します。
# scrgadm -a -j db2-has-res -g db2_db2inst1_0-rg -t SUNW.HAStoragePlus -x AffinityOn=true
-x GlobalDevicePaths=/dev/vx/rdsk/db2/db2inst1,/dev/vx/rdsk/db2/db2fenc1,
/dev/vx/rdsk/db2/db2admin1 -x FilesystemMountPoints=/export/home/db2inst1,
/export/home/db2fenc1,/export/home/db2admin1
リソース登録後、データサービスリソースと依存関係を結びます。
# scrgadm -c -j db2_db2inst1_0-rs -y Resource_Dependencies=db2-has-res
3-4-6.リソース状態の確認
クラスタ内の任意のノード(pmars or pvenus)で、登録の確認をします。
# scstat -g
DB2 V8.1 for Sun Cluster 3.1 58
.-- リソースグループ --
グループ名 ノード名 状態
---------- -------- ----
グループ: db2_db2inst1_0-rg pmars Offline
グループ: db2_db2inst1_0-rg pvenus Offline
-- リソース --
リソース名 ノード名 状態 状態メッセージ
---------- -------- ---- --------------
リソース: db2_mars pmars Offline Offline
リソース: db2_mars pvenus Offline Offline
リソース: db2_db2inst1_0-rs pmars Offline Offline
リソース: db2_db2inst1_0-rs pvenus Offline Offline
リソース: db2-has-res pmars Offline Offline
リソース: db2-has-res pvenus Offline Offline
3-4-7.DB2™データサービスの有効化
クラスタ内の任意のノードで、以下のコマンドを実行して、DB2 データサービスを有効化します。
# scswitch ‐Z ‐g db2_db2inst1_0-rg
-注-
DB2 で提供されている onlinedb2udb については、HAStoragePlus リソースをサポートしていないため、今
回の環境では使用できません。
3-4-8.リソース状態の確認
クラスタ内の任意のノード(pmars or pvenus)で、pmars が online になっている事を確認します。
# scstat -g
DB2 V8.1 for Sun Cluster 3.1 59
.-- リソースグループ --
グループ名 ノード名 状態
---------- -------- ----
グループ: db2_db2inst1_0-rg pmars Online
グループ: db2_db2inst1_0-rg pvenus Offline
-- リソース --
リソース名 ノード名 状態 状態メッセージ
---------- -------- ---- --------------
リソース: db2_mars pmars Online Online ‐ Logical
Hostname online
リソース: db2_mars pvenus Offline Offline
リソース: db2_db2inst1_0-rs pmars Online Online
リソース: db2_db2inst1_0-rs pvenus Offline Offline
リソース: db2-has-res pmars Online Online
リソース: db2-has-res pvenus Offline Offline
3-4-9.DB2™データサービスの無効化
クラスタ内の任意のノードで、以下のコマンドを実行して、DB2 データサービスを無効化します。
# scswitch ‐F ‐g db2_db2inst1_0-rg
-注-
DB2 で提供されている offlinedb2udb については、HAStoragePlus リソースをサポートしていないため、
今回の環境では使用できません。
DB2 V8.1 for Sun Cluster 3.1 60
3-4-10.DB2™データサービスの削除
クラスタ内の任意のノードで、以下の手順で、DB2 データサービスを削除します。
1.データサービスリソースを無効化します。
# scswitch ‐n ‐j db2_db2inst1_0-rs
2.ディスクリソースを無効化します。
# scswitch ‐n ‐j db2-has-res
3.ネットワークリソースを無効化します。
# scswitch ‐n ‐j db2_mars
4.データサービスリソースを削除します。
# scrgadm ‐r ‐j db2_db2inst1_0-rs
5.ディスクリソースを削除します。
# scrgadm ‐r ‐j db2-has-res
7. ネットワークリソースを削除します。
# scrgadm ‐r ‐j db2_mars
8. HAStoragePlus リソースタイプを削除します。
# scrgadm ‐r ‐t SUNW.HAStoragePlus
9. データサービスリソースタイプを削除します。
# scrgadm ‐r ‐t IBM.db2udb_db2inst1
10.リソースグループを削除します。
# scrgadm ‐r ‐g db2_db2inst1_0-rg
尚、DB2 で提供されている unregdb2udb については、HAStoragePlus リソースをサポートしていないため、
今回の環境では使用できません。
DB2 V8.1 for Sun Cluster 3.1 61
3-4-11.DB2 データサービス状態確認
クラスタ内の任意のノード(pmars、pvenus)で、データサービスが削除されたことを確認します。
# scstat ‐g
#
何も表示されないことを確認します。
3-5.サンプル構成のテスト
リソースグループの引き継ぎのテストを行います。リソースグループに引き継ぎが発生する原因は複数あ
りますが、今回は以下に 2つのパターンを挙げます。
・スイッチオーバーコマンドによる引き継ぎ
・ネットワーク障害による引き継ぎ
3-5-1.スイッチオーバーコマンドによる引継ぎ
scswitch コマンドを使用してリソースグループ db2_db2inst1_0-rg を pvenus へ引き継ぎます。
1.リソース状態の確認
クラスタ内の任意のノード(pmars or pvenus)で、リソースグループ db2_db2v8i1_0-rg が pmars で Online
になっていることを確認します。
# scstat -g
2.スイッチオーバーコマンド実行
クラスタ内の任意のノード(pmars or pvenus)で、リソースグループ db2_db2inst1_0-rg を pvenus にスイ
ッチします。
# scswitch ‐z ‐g db2_db2inst1_0-rg ‐h pvenus
3.リソース状態の確認
クラスタ内の任意のノード(pmars or pvenus)で、リソースグループdb2_db2inst1_0-rgが pvenusで Online
になっていることを確認します。
# scstat ‐g
DB2 V8.1 for Sun Cluster 3.1 62
リソース名 ノード名 状態 状態メッセージ
---------- -------- ---- --------------
リソース: db2_mars pmars Offline Offline
リソース: db2_mars pvenus Online Online
リソース: db2_db2inst1_0-rs pmars Offline Offline
リソース: db2_db2inst1_0-rs pvenus Online Online -
LogicalHostname online.
リソース: db2-has-res pmars Offline Offline
リソース: db2-has-res pvenus Online Online
-- リソースグループ --
グループ名 ノード名 状態
---------- -------- ----
グループ: db2_db2inst1_0-rg pmars Offline
グループ: db2_db2inst1_0-rg pvenus Online
-- リソース --
4.DB2™の確認
pvenus で DB2™が起動されていることを確認します。
# ps ‐ef | grep db2
DB2 V8.1 for Sun Cluster 3.1 63
3-5-2.ネットワーク障害による引継ぎ
リソースグループ db2_db2inst1_0-rg のネットワークリソース db2_mars をダウンさせて、リソースグル
ープ db2_db2inst1_0-rg を引き継がせます。
1.リソース状態の確認
クラスタ内の任意のノード(pmars or pvenus)で、リソースグループ db2_db2inst1_0-rg が pmars で Online
になっていることを確認します。
# scstat ‐g
2.ネットワークリソース db2_mars をダウンさせる
ネットワークリソース db2_mars は IPMP グループ ipmp0 に依存します。ipmp0 を構成するインターフェー
スは hme0、hme4 です。これをダウンさせるため、pmars で、hme0 および hme4 のケーブルを抜きます。
3.リソース状態の確認
クラスタ内の任意のノード(pmars or pvenus)で、リソースグループdb2_db2inst1_0-rgが pvenusで Online
になっていることを確認します。
# scstat -g
4.DB2™の確認
pvenus で、DB2™が起動されていることを確認します。
DB2 V8.1 for Sun Cluster 3.1 64
DB2 V8.1 for Sun Cluster 3.1 65
「Sun、Sun Microsystems、サンのロゴマーク、Solaris および Ultra は、米国 Sun Microsystems, Inc.
の米国およびその他の国における商標または登録商標です。」
IBM、DB2、DB2 Universal Database は、IBM Corporation の商標または登録商標です。
他の会社名、製品名およびサービス名等はそれぞれ各社の商標または登録商標です。