web-dev-qa-db-ja.com

スティッキネスが設定されていても、リソースの提供はプライマリノードに戻ります

これは私の現在の概念実証の設定です

node ha1
node ha2
primitive HA-mysql lsb:mysql \
        op monitor interval="15s"
primitive VIP ocf:heartbeat:IPaddr2 \
        params ip="10.100.0.10" nic="eth1" \
        op monitor interval="10s"
group HA-Group VIP HA-mysql \
        meta resource-stickiness="101"
location PREFER-NODE1 HA-Group 100: ha1
property $id="cib-bootstrap-options" \
        dc-version="1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b" \
        cluster-infrastructure="openais" \
        expected-quorum-votes="2" \
        stonith-enabled="false" \
        no-quorum-policy="ignore"

ドキュメントを正しく読んでいる場合は、十分に高いスティッキネス値を設定することで、障害から回復したときにリソースサービングがプライマリノードに戻るという問題を防ぐことができます。十分に高い場合、この場合、少なくともHAグループの粘着性の値を設定する必要があります

100 < $stickiness-of-group + $stickiness-of-VIP + $stickiness-of-HA-mysql
100 < $stickiness + 0 + 0
100 < $stickiness

だから私は101を使用しています。

私が探している望ましい動作は次のとおりです。

  1. 最初にha1を取り外し、次にリソースグループがha2によって提供されます
  2. Ha1を再プラグすると、リソースグループは引き続きha2によって提供されます

ただし、現在の構成では、ha1を再プラグインすると、リソースグループは、稼働していることが検出されるとすぐにha1によって提供されます。

粘着性について私が参照する別のブログ投稿: http://foaa.de/old-blog/2010/10/intro-to-pacemaker-part-2-advanced-topics/trackback/index.html#stickiness- vs-location-where-is-the-node-and-where-will-it-stay

P/S:200、500、1000など、グループの粘着性にはるかに高い値を使用しましたが、それでも同じ動作が得られます。

PP/S:私のペースメーカーバージョンは

ii  pacemaker                           1.0.9.1+hg15626-1            HA cluster resource manager

debianスクイーズで実行

Linux ha1 2.6.32-5-AMD64 #1 SMP Sun Sep 23 10:07:46 UTC 2012 x86_64 GNU/Linux
Distributor ID: Debian
Description:    Debian GNU/Linux 6.0.6 (squeeze)
Release:        6.0.6
Codename:       squeeze

PPP/S:構成をこれに減らしても、粘着性は機能しません

node ha1
node ha2
primitive VIP ocf:heartbeat:IPaddr2 \
        params ip="10.100.0.10" nic="eth1" \
        op monitor interval="10s" \
        meta resource-stickiness="1"
property $id="cib-bootstrap-options" \
        dc-version="1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b" \
        cluster-infrastructure="openais" \
        expected-quorum-votes="2" \
        stonith-enabled="false" \
        no-quorum-policy="ignore"
1
Jeffrey04

かなり長い間苦労した後、ほとんど自分で答えを見つけました。粘着性が設定されていても、プラグを抜くことは良いシミュレーションではないようです。スティッキネス設定が解決しようとしていることを達成するには、サーバーが完全に停止しているか、少なくともcorosyncサービスがダウンしている必要があります。

参照: https://www.mail-archive.com/[email protected]/msg16791.html

0
Jeffrey04