[Linux-ha-jp] 異なるOSの混在は可能でしょうか

Back to archive index

Hiroshi Matsuo yiu00****@nifty*****
2016年 5月 10日 (火) 23:05:44 JST


山内さん

export を削除した状態で再起動したときの変換後のログです

May 10 22:46:11 virtual16    info: Corosync is shutting down.
May 10 22:46:11 virtual16    info: Corosync shutdown complete.
May 10 22:46:26 virtual16    info: Starting Corosync 2.3.4.
May 10 22:50:41 virtual16    info: Corosync is shutting down.
May 10 22:50:42 virtual16    info: Corosync shutdown complete.
May 10 22:50:57 virtual16    info: Starting Corosync 2.3.4.

同じ時間帯の変換前のログです

May 10 22:46:11 virtual16 corosync[15577]: [MAIN  ] Node was shut down by a signalMay 10 22:46:11 virtual16 corosync[15577]: [SERV  ] Unloading all Corosync service engines.
May 10 22:46:11 virtual16 corosync[15577]: [QB    ] withdrawing server sockets
May 10 22:46:11 virtual16 corosync[15577]: [SERV  ] Service engine unloaded: corosync vote quorum service v1.0May 10 22:46:11 virtual16 corosync[15577]: [QB    ] withdrawing server sockets
May 10 22:46:11 virtual16 corosync[15577]: [SERV  ] Service engine unloaded: corosync configuration map access
May 10 22:46:11 virtual16 corosync[15577]: [QB    ] withdrawing server sockets
May 10 22:46:11 virtual16 corosync[15577]: [SERV  ] Service engine unloaded: corosync configuration service
May 10 22:46:11 virtual16 corosync[15577]: [QB    ] withdrawing server sockets
May 10 22:46:11 virtual16 corosync[15577]: [SERV  ] Service engine unloaded: corosync cluster closed process group
 service v1.01
May 10 22:46:11 virtual16 corosync[15577]: [QB    ] withdrawing server sockets
May 10 22:46:11 virtual16 corosync[15577]: [SERV  ] Service engine unloaded: corosync cluster quorum service v0.1
May 10 22:46:11 virtual16 corosync[15577]: [SERV  ] Service engine unloaded: corosync profile loading service
May 10 22:46:11 virtual16 corosync[15577]: [WD    ] magically closing the watchdog.
May 10 22:46:11 virtual16 corosync[15577]: [SERV  ] Service engine unloaded: corosync watchdog service
May 10 22:46:11 virtual16 corosync[15577]: [MAIN  ] Corosync Cluster Engine exiting normally
May 10 22:46:26 virtual16 corosync[16953]: [MAIN  ] Corosync Cluster Engine ('2.3.4'): started and ready to provide service.May 10 22:46:26 virtual16 corosync[16953]: [MAIN  ] Corosync built-in features: watchdog systemd snmp pie relro bindnowMay 10 22:46:26 virtual16 corosync[16954]: [TOTEM ] Initializing transport (UDP/IP Multicast).
May 10 22:46:26 virtual16 corosync[16954]: [TOTEM ] Initializing transmit/receive security (NSS) crypto: aes256 hash: sha1May 10 22:46:26 virtual16 corosync[16954]: [TOTEM ] The network interface [192.168.1.16] is now up.
May 10 22:46:26 virtual16 corosync[16954]: [SERV  ] Service engine loaded: corosync configuration map access [0]
May 10 22:46:26 virtual16 corosync[16954]: [QB    ] server name: cmap
May 10 22:46:26 virtual16 corosync[16954]: [SERV  ] Service engine loaded: corosync configuration service [1]
May 10 22:46:26 virtual16 corosync[16954]: [QB    ] server name: cfgMay 10 22:46:27 virtual16 corosync[16954]: [SERV  ] Service engine loaded: corosync cluster closed process group s
ervice v1.01 [2]
May 10 22:46:27 virtual16 corosync[16954]: [QB    ] server name: cpg
May 10 22:46:27 virtual16 corosync[16954]: [SERV  ] Service engine loaded: corosync profile loading service [4]
May 10 22:46:27 virtual16 corosync[16954]: [WD    ] Watchdog is now been tickled by corosync.
May 10 22:46:27 virtual16 corosync[16954]: [WD    ] no resources configured.
May 10 22:46:27 virtual16 corosync[16954]: [SERV  ] Service engine loaded: corosync watchdog service [7]May 10 22:46:27 virtual16 corosync[16954]: [QUORUM] Using quorum provider corosync_votequorum
May 10 22:46:27 virtual16 corosync[16954]: [SERV  ] Service engine loaded: corosync vote quorum service v1.0 [5]
May 10 22:46:27 virtual16 corosync[16954]: [QB    ] server name: votequorum
May 10 22:46:27 virtual16 corosync[16954]: [SERV  ] Service engine loaded: corosync cluster quorum service v0.1 [3]
May 10 22:46:27 virtual16 corosync[16954]: [QB    ] server name: quorum
May 10 22:46:27 virtual16 corosync[16954]: [TOTEM ] A new membership (192.168.1.16:340716) was formed. Members joined: -1062731504
May 10 22:46:27 virtual16 corosync[16954]: [QUORUM] Members[1]: -1062731504
May 10 22:46:27 virtual16 corosync[16954]: [MAIN  ] Completed service synchronization, ready to provide service.
May 10 22:46:27 virtual16 corosync[16954]: [TOTEM ] A new membership (192.168.1.5:340720) was formed. Members joined: -1062731515 -1062731513May 10 22:46:27 virtual16 corosync[16954]: [QUORUM] This node is within the primary component and will provide ser
vice.
May 10 22:46:27 virtual16 corosync[16954]: [QUORUM] Members[3]: -1062731515 -1062731513 -1062731504
May 10 22:46:27 virtual16 corosync[16954]: [MAIN  ] Completed service synchronization, ready to provide service.
May 10 22:50:41 virtual16 corosync[16954]: [MAIN  ] Node was shut down by a signal
May 10 22:50:41 virtual16 corosync[16954]: [SERV  ] Unloading all Corosync service engines.
May 10 22:50:41 virtual16 corosync[16954]: [QB    ] withdrawing server sockets
May 10 22:50:41 virtual16 corosync[16954]: [SERV  ] Service engine unloaded: corosync vote quorum service v1.0
May 10 22:50:41 virtual16 corosync[16954]: [QB    ] withdrawing server sockets
May 10 22:50:41 virtual16 corosync[16954]: [SERV  ] Service engine unloaded: corosync configuration map access
May 10 22:50:41 virtual16 corosync[16954]: [QB    ] withdrawing server socketsMay 10 22:50:41 virtual16 corosync[16954]: [SERV  ] Service engine unloaded: corosync configuration service
May 10 22:50:41 virtual16 corosync[16954]: [QB    ] withdrawing server socketsMay 10 22:50:41 virtual16 corosync[16954]: [SERV  ] Service engine unloaded: corosync cluster closed process group
 service v1.01
May 10 22:50:41 virtual16 corosync[16954]: [QB    ] withdrawing server sockets
May 10 22:50:41 virtual16 corosync[16954]: [SERV  ] Service engine unloaded: corosync cluster quorum service v0.1
May 10 22:50:41 virtual16 corosync[16954]: [SERV  ] Service engine unloaded: corosync profile loading service
May 10 22:50:41 virtual16 corosync[16954]: [WD    ] magically closing the watchdog.
May 10 22:50:41 virtual16 corosync[16954]: [SERV  ] Service engine unloaded: corosync watchdog service
May 10 22:50:42 virtual16 corosync[16954]: [MAIN  ] Corosync Cluster Engine exiting normally
May 10 22:50:57 virtual16 corosync[17975]: [MAIN  ] Corosync Cluster Engine ('2.3.4'): started and ready to provid
e service.
May 10 22:50:57 virtual16 corosync[17975]: [MAIN  ] Corosync built-in features: watchdog systemd snmp pie relro bi
ndnow
May 10 22:50:57 virtual16 corosync[17976]: [TOTEM ] Initializing transport (UDP/IP Multicast).
May 10 22:50:57 virtual16 corosync[17976]: [TOTEM ] Initializing transmit/receive security (NSS) crypto: aes256 ha
sh: sha1
May 10 22:50:57 virtual16 corosync[17976]: [TOTEM ] The network interface [192.168.1.16] is now up.
May 10 22:50:57 virtual16 corosync[17976]: [SERV  ] Service engine loaded: corosync configuration map access [0]
May 10 22:50:57 virtual16 corosync[17976]: [QB    ] server name: cmap
May 10 22:50:57 virtual16 corosync[17976]: [SERV  ] Service engine loaded: corosync configuration service [1]
May 10 22:50:57 virtual16 corosync[17976]: [QB    ] server name: cfg
May 10 22:50:57 virtual16 corosync[17976]: [SERV  ] Service engine loaded: corosync cluster closed process group service v1.01 [2]
May 10 22:50:57 virtual16 corosync[17976]: [QB    ] server name: cpg

この後は動きがありません。

松尾


>>>renayama19661014さん wrote:

> 松尾さん
> 
> こんばんは、山内です。
> 
> ご連絡いただいた内容を見る限り、logconvが変換できなかったのは、exportがCentOS7側で記載されていた為だとは思います。
> 
> が・・・・
> 起動しないというのは、また、別も問題かと思います。
> 
> /etc/sysconfig/pacemakerの設定自体は、問題はないと思いますので、
> 何か他の要因で起動しない可能性もあるかと思います。
> 
> 差し支えなければ、CentOS7でexportを削除した時の、ログを添付して頂ければ、
> もう少し詳細な原因が確認出来るかも知れません。
> 
> 以上です。
> 
> 
> 
> ----- Original Message -----
> > From: Hiroshi Matsuo <yiu00****@nifty*****>
> > To: renay****@ybb*****; linux****@lists*****
> > Cc: 
> > Date: 2016/5/10, Tue 19:58
> > Subject: Re: [Linux-ha-jp]異なるOSの混在は可能でしょうか
> > 
> > 山内さん
> > 
> > まず変更前の状況ですが、 Centos6側が
> > 
> > export PCMK_fail_fast=yes
> > 
> > export PCMK_logfile=none
> > export PCMK_logfacility=local3
> > export PCMK_logpriority=info
> > export HA_LOGFACILITY=local3
> > 
> > Centos7 側が
> > 
> > PCMK_fail_fast=yes
> > 
> > export PCMK_logfile=none
> > export PCMK_logfacility=local3
> > export PCMK_logpriority=info
> > export HA_LOGFACILITY=local3
> > 
> > となっています。 Centos7側のログ関係の4行の export を全部取ります
> > と、 Pacemaker が起動しなくなりました。
> > 
> > 具体的には systemctl restart pacemaker でプロンプトに戻らなくなり、
> > 強制的に電源オフして起動すると、 corosync は起動しますが pacemaker 
> > は起動しません。 ログ関係の4行に export を戻してやって os を再起動
> > すると元の状態に戻りました。
> > 
> > 変更をミスったかと、再度、4行の export を取って pacemaker を再起動
> > してやると、今度はプロンプトに戻りましたが、ログを見ると、 
> > corosync と pacemaker と起動中の RA のシャットダウンは完了していま
> > すが起動は corosync の起動までで、 pacemaker と RA の起動は出来て
> > いません。 export を戻して pacemaker を再起動すると元に戻りました。
> > 
> > こんなところです。
> > 
> > 松尾
> > 
> > 
> >>>> renayama19661014さん wrote:
> > 
> >>  松尾さん
> >> 
> >>  こんにちは、山内です。
> >> 
> >> 
> > 非常にわかりずらいのですが、ログのfacilityの設定などを行う/etc/sysconfig/pacemakerは、CentOS6/CentOS7で異なる設定を行う必要があります。
> >>  この設定の影響で、松尾さんの環境では変換がされない事象が起きていると思われます。
> >> 
> >>  以下となっているか、御確認ください。
> >> 
> >>  1)CentOS7側の/etc/sysconfig/pacemakerではPacemaker用の環境変数にはexportを付けない。
> >>  2)CentOS6側の/etc/sysconfig/pacemakerではPacemaker用の環境変数にはexportを付ける。
> >> 
> >>  確認した環境の記載例も添付以下に示します。
> >> 
> >>  1)CentOS7側の/etc/sysconfig/pacemaker
> >>  (省略)
> >>  #
> >>  VALGRIND_OPTS="--leak-check=full --trace-children=no
> >>  --num-callers=25 --log-file=/var/lib/pacemaker/valgrind-%p
> >>  --suppressions=/usr/share/pacemaker/tests/valgrind-pcmk.suppressions
> >>  --gen-suppressions=all"
> >>  PCMK_logfile=none
> >>  PCMK_logfacility=local1
> >>  PCMK_logpriority=info
> >>  PCMK_fail_fast=yes
> >>  HA_LOGFACILITY=local1
> >> 
> >>  2)CentOS6側の/etc/sysconfig/pacemaker
> >>  (省略)
> >>  #
> >>  VALGRIND_OPTS="--leak-check=full --trace-children=no
> >>  --num-callers=25 --log-file=/var/lib/pacemaker/valgrind-%p
> >>  --suppressions=/usr/share/pacemaker/tests/valgrind-pcmk.suppressions
> >>  --gen-suppressions=all"
> >>  export PCMK_logfile=none
> >>  export PCMK_logfacility=local1
> >>  export PCMK_logpriority=info
> >>  export PCMK_fail_fast=yes
> >>  export HA_LOGFACILITY=local1
> >> 
> >> 
> > ちなみに、確認したCentOS7/CentOS6の2ノード構成で、上記設定を正しく行っていない状況で、pingのcloneとdiskdのcloneリソースを起動した場合には、以下のようにCentOS7/CentOS6では、logconvのログが出力されました。
> >>  たぶん、松尾さんの状況も同じ用な出力になったものと思います。
> >>  -----------------
> >>  [root @ ct72-01
> >>  ~]# cat /var/log/pm_logconv.out 
> >>  May10 17:41:47 ct72-01 info: Starting Corosync 2.3.4.
> >>  May10 17:41:48 ct72-01 info: Starting Pacemaker 1.1.13.
> >>  May10 17:43:45 ct72-01 info: Resource prmDiskd started. (rc=0)
> >>  May10 17:43:45 ct72-01 info: Resource prmPing started. (rc=0)
> >> 
> >>  [root @ ct67-01
> >>  ~]# cat /var/log/pm_logconv.out 
> >>  May10 17:42:18 ct67-01 info: Starting Corosync 2.3.4.
> >>  May10 17:42:21 ct67-01 info: Starting Pacemaker 1.1.13.
> >>  May10 17:42:21 ct67-01 info: Start "cib" process.(pid=2982)
> >>  May10 17:42:21 ct67-01 info: Start "stonith-ng" 
> > process.(pid=2983)
> >>  May10 17:42:21 ct67-01 info: Start "lrmd" process.(pid=2984)
> >>  May10 17:42:21 ct67-01 info: Start "attrd" process..(pid=2985)
> >>  May10 17:42:21 ct67-01 info: Start "pengine" process.(pid=2986)
> >>  May10 17:42:21 ct67-01 info: Start "crmd" process.(pid=2987)
> >>  May10 17:42:22 ct67-01 info: Node ct67-01 is member
> >>  May10 17:42:22 ct67-01 info: Attribute "ringnumber_0" is updated 
> > to "192.168.10.170 is UP" at "ct72-01".
> >>  May10 17:42:22 ct67-01 info: Attribute "ringnumber_1" is updated 
> > to "192.168.20.170 is UP" at "ct72-01".
> >>  May10 17:42:22 ct67-01 info: Attribute "ringnumber_0" is updated 
> > to "192.168.10.171 is UP" at "ct67-01".
> >>  May10 17:42:22 ct67-01 info: Attribute "ringnumber_1" is updated 
> > to "192.168.20.171 is UP" at "ct67-01".
> >>  May10 17:42:23 ct67-01 info: Node ct72-01 is member
> >>  May10 17:42:23 ct67-01 info: Set DC node to ct72-01.
> >>  May10 17:43:43 ct67-01 info: Resource prmDiskd tries to start.
> >>  May10 17:43:43 ct67-01 info: Resource prmPing tries to start.
> >>  May10 17:43:43 ct67-01 info: Attribute "diskcheck_status" 
> > is updated to "normal" at "ct67-01".
> >>  May10 17:43:43 ct67-01 info: Attribute "diskcheck_status" 
> > is updated to "normal" at "ct72-01".
> >>  May10 17:43:44 ct67-01 info: Resource prmDiskd started. (rc=0)
> >>  May10 17:43:44 ct67-01 info: Resource prmPing started. (rc=0)
> >>  May10 17:43:44 ct67-01 info: Attribute "default_ping_set" 
> > is updated to "100" at "ct67-01".
> >>  May10 17:43:44 ct67-01 info: Attribute "default_ping_set" 
> > is updated to "100" at "ct72-01".
> >>  -----------------
> >> 
> >> 
> >>  logconvの設定については、linux-ha-japanのコミュニティでドキュメントの開示準備が進められています。
> >>  開示されれば、そちらも参考になると思います。
> >> 
> >>  以上です。
> >> 
> >> 
> >> 
> >> 
> >>  ----- Original Message -----
> >>  > From: Hiroshi Matsuo <yiu00****@nifty*****>
> >>  > To: renay****@ybb*****; linux****@lists*****
> >>  > Cc: 
> >>  > Date: 2016/5/10, Tue 07:51
> >>  > Subject: Re: [Linux-ha-jp]異なるOSの混在は可能でしょうか
> >>  > 
> >>  > 山内さん おはようございます。
> >>  > 
> >>  > 1)については再起動後出るようになったかは未確認でしたが今朝出ていな
> >>  > いことが確認されました。
> >>  > 
> >>  > 2)について、他のノードの起動のログが出ません。このときの変換前のロ
> >>  > グは先のメールでお送りしました。 logconv のログに出ているのは自分
> >>  > 自身の Corosync, Pacemaker のプロセスの起動・停止と RA の起動・停
> >>  > 止のログだけです。
> >>  > 
> >>  > 松尾
> >>  > 
> >>  > 
> >>  >>>> renayama19661014さん wrote:
> >>  > 
> >>  >>  松尾さん
> >>  >> 
> >>  >>  おはようございます。山内です。
> >>  >> 
> >>  >>  ご確認と情報、ありがとうございます。
> >>  >> 
> >>  >>  ifcheckdはきちんと起動したようですね。
> >>  >>  logconvの問題をまとめると、以下ということでしょうか?
> >>  >> 
> >>  >>  1)CentOS7側で、属性の変化のlogconvのログが出ない。
> >>  >> 
> >>  >>  2)CentOS7側で、ノードやリソースの起動・停止のlogconvのログは出る。
> >>  >>  #変換前のログはこの前のメールでいただいたもの・・・
> >>  >>  #CentOS6系は1)2)は、問題ない。
> >>  >> 
> >>  >> 
> >>  >>  以上です。
> >>  >> 
> >>  >> 
> >>  >> 
> >>  >> 
> >>  >>  ----- Original Message -----
> >>  >>  > From: Hiroshi Matsuo <yiu00****@nifty*****>
> >>  >>  > To: renayama19661014 @ ybb..ne.jp; 
> > linux****@lists*****
> >>  >>  > Cc: 
> >>  >>  > Date: 2016/5/9, Mon 23:56
> >>  >>  > Subject: Re: [Linux-ha-jp]異なるOSの混在は可能でしょうか
> >>  >>  > 
> >>  >>  > 松尾です。
> >>  >>  > 
> >>  >>  > systemctl enable pm_logconv
> >>  >>  > 
> >>  >>  > についてですが、.bash_history を調べましたところ、以前に、 centos6
> >>  >>  > と違って pm_logconv が自動的に起動していないのに気づいて
> >>  >>  > 
> >>  >>  > systemctl start pm_logconv
> >>  >>  > systemctl enable pm_logconv
> >>  >>  > 
> >>  >>  > を実施していました。ですから、 Corosync, Pacemaker の起動・停止、
> >>  >>  > リソースエージェントの起動・停止などの情報は以前から変換後のログに
> >>  >>  > 出力されていました。それ以外は出力されていないようですが。
> >>  >>  > 
> >>  >>  > 
> >>  >>  > 
> >>  >>  >>>> renayama19661014さん wrote:
> >>  >>  > 
> >>  >>  >>  松尾さん
> >>  >>  >> 
> >>  >>  >>  こんばんは、山内です。
> >>  >>  >> 
> >>  >>  >>  以下、御確認ください。
> >>  >>  >> 
> >>  >>  >>  1) CentOS7のノードのringnumberの属性が表示されない件
> >>  >>  >>  2) CentOS7のノードのpm_logconvがイベントを検知しない件
> >>  >>  >> 
> >>  >>  >>  ですが、CentOS7系では、systemd経由で1)2)関連のプロセスを起動する必要がありますので、
> >>  >>  >>  
> > ifcheckdならびに、pm_logconvをcorosync/Pacemaker起動前に起動する様に設定が必要となります。
> >>  >>  >> 
> >>  >>  >>  ----------------------
> >>  >>  >>  [root @ ct72-01 ~]# systemctl enable pm_logconv
> >>  >>  >>  Created symlink from 
> >>  >>  > 
> > /etc/systemd/system/multi-user.target.wants/pm_logconv..service to 
> >>  >>  > /usr/lib/systemd/system/pm_logconv.service.
> >>  >>  >>  [root @ ct72-01 ~]# systemctl enable ifcheckd
> >>  >>  >>  Created symlink from 
> >>  >>  > /etc/systemd/system/multi-user.target.wants/ifcheckd.service 
> > to 
> >>  >>  > /usr/lib/systemd/system/ifcheckd.service.
> >>  >>  >>  ----------------------
> >>  >>  >> 
> >>  >>  >>  上記を実施した後、CentOS7側のノードを一旦OS再起動していただければと思います。
> >>  >>  >> 
> >>  >>  >> 
> >>  >>  > 
> >>  > 
> > なお、CentOS6系では、initctl経由での1)2)起動の為、Pacemakerインストール後のOS再起動で、両プロセスが自動起動となりますので、
> >>  >>  >>  上記の手順は不要です。
> >>  >>  >> 
> >>  >>  >> 
> >>  >>  >>  以上です。
> >>  >>  >> 
> >>  >>  >> 
> >>  >>  >> 
> >>  >>  >>  ----- Original Message -----
> >>  >>  >>  > From: "renay****@ybb*****" 
> >>  >>  > <renay****@ybb*****>
> >>  >>  >>  > To: "linux****@lists*****" 
> >>  >>  > <linux****@lists*****>
> >>  >>  >>  > Cc: 
> >>  >>  >>  > Date: 2016/5/6, Fri 02:05
> >>  >>  >>  > Subject: Re: [Linux-ha-jp] 異なるOSの混在は可能でしょうか
> >>  >>  >>  > 
> >>  >>  >>  > 松尾さん
> >>  >>  >>  > 
> >>  >>  >>  > こんばんは、山内です。
> >>  >>  >>  > 
> >>  >>  >>  > 情報ありがとうございます。
> >>  >>  >>  > 
> >>  >>  >>  > どちらも少し気になる事象ではありますので、GW明けにでも
> >>  >>  >>  > 私も環境を作成して動作させてみようと思います。
> >>  >>  >>  > 
> >>  >>  >>  > また、何かわかりましたら、ご一報しますね。
> >>  >>  >>  > 
> >>  >>  >>  > 以上です。
> >>  >>  >>  > 
> >>  >>  >>  > 
> >>  >>  >>  > 
> >>  >>  >>  > ----- Original Message -----
> >>  >>  >>  >>  From: Hiroshi Matsuo 
> > <yiu00****@nifty*****>
> >>  >>  >>  >>  To: linux****@lists*****
> >>  >>  >>  >>  Cc: 
> >>  >>  >>  >>  Date: 2016/5/6, Fri 01:20
> >>  >>  >>  >>  Subject: Re: [Linux-ha-jp] 異なるOSの混在は可能でしょうか
> >>  >>  >>  >> 
> >>  >>  >>  >>  山内さん
> >>  >>  >>  >> 
> >>  >>  >>  >>  Pacemaker のログと Corosync のログをまとめて ha-log 
> > に出力しそれを 
> >>  >>  >>  >>  pm_logconv で変換しています。
> >>  >>  >>  >> 
> >>  >>  >>  >>  ログレベルの設定などは同じにしたつもりですが、 centos7 の方では属
> >>  >>  >>  >>  性値が変わったという情報や、ノードが消えたとか出現したとかの情報が 
> >>  >>  >>  >>  pm_logconv の出力に出ません。調べてみますと、後者(ノードの情報)
> >>  >>  >>  >>  のほうは pm_logconv による変換前のログには出ています。前者(属性値
> >>  >>  >>  >>  の情報)のほうは変換前のログにも出ていないようです。
> >>  >>  >>  >> 
> >>  >>  >>  >>  また、 crm_mon -A による属性値の連続表示で、 どちらのノードから表
> >>  >>  >>  >>  示させても centos7 のノードには、
> >>  >>  >>  >>  + ringnumber_0          : 192..168.1.X is UP
> >>  >>  >>  >>  の表示が出ないようです(表示されなくても特に問題はありませんが)。
> >>  >>  >>  >>  それ以外の属性値( ping の結果、 SysInfo に手を加えて表示させてい
> >>  >>  >>  >>  る属性値)は表示されています。
> >>  >>  >>  >> 
> >>  >>  >>  >>  松尾
> >>  >>  >>  >> 
> >>  >>  >>  >> 
> >>  >>  >>  >>>>>  renayama19661014さん wrote:
> >>  >>  >>  >> 
> >>  >>  >>  >>>   松尾さん
> >>  >>  >>  >>> 
> >>  >>  >>  >>>   こんばんは、山内です。
> >>  >>  >>  >>> 
> >>  >>  >>  >>>   情報ありがとうございます。
> >>  >>  >>  >>> 
> >>  >>  >>  >>>   ちなみに、情報とおっしゃっているのは、ログ回りでしょうか?
> >>  >>  >>  >>>   それとも、Pacemaker/Corosync系のコマンド系でしょうか?
> >>  >>  >>  >>> 
> >>  >>  >>  >>>   
> > ちょっと気にはなりますので、差し支えなければ情報をどんな違いか開示していただけると助かります。
> >>  >>  >>  >>> 
> >>  >>  >>  >>>   以上です。
> >>  >>  >>  >>> 
> >>  >>  >>  >>> 
> >>  >>  >>  >>>   ----- Original Message -----
> >>  >>  >>  >>>   > From: Hiroshi Matsuo 
> >>  > <yiu00****@nifty*****>
> >>  >>  >>  >>>   > To: linux****@lists*****
> >>  >>  >>  >>>   > Cc: 
> >>  >>  >>  >>>   > Date: 2016/5/5, Thu 23:08
> >>  >>  >>  >>>   > Subject: Re: [Linux-ha-jp] 
> > 異なるOSの混在は可能でしょうか
> >>  >>  >>  >>>   > 
> >>  >>  >>  >>>   > やってみましたがうまくクラスタに参加することが出来ました。
> >>  >>  >>  >>>   > 
> >>  >>  >>  >>>   > でも、 os によって情報の出方に微妙な違いがあるようです。
> >>  >>  >>  >>>   > 
> >>  >>  >>  >>>   > 松尾
> >>  >>  >>  >>>   > 
> >>  >>  >>  >>>   > 
> >>  >>  >>  >>>   >>>> renayama19661014さん 
> > wrote:
> >>  >>  >>  >>>   > 
> >>  >>  >>  >>>   >>  松尾さん
> >>  >>  >>  >>>   >> 
> >>  >>  >>  >>>   >>  今晩は、山内です。
> >>  >>  >>  >>>   >> 
> >>  >>  >>  >>>   >>  実際に構築にしたことはありませんが、
> >>  >>  >>  >>>   >>  
> >>  >>  > Centos6とCentos7であれば、同じバージョンのPacemakerであれば、大丈夫だと思われます。
> >>  >>  >>  >>>   >> 
> >>  >>  >>  >>>   >>  以上です。
> >>  >>  >>  >>>   >> 
> >>  >>  >>  >>>   >>  ----- Original Message -----
> >>  >>  >>  >>>   >>  > From: Hiroshi Matsuo 
> >>  >>  > <yiu00****@nifty*****>
> >>  >>  >>  >>>   >>  > To: 
> > linux****@lists*****
> >>  >>  >>  >>>   >>  > Cc: 
> >>  >>  >>  >>>   >>  > Date: 2016/5/3, Tue 19:30
> >>  >>  >>  >>>   >>  > Subject: [Linux-ha-jp] 
> >>  > 異なるOSの混在は可能でしょうか
> >>  >>  >>  >>>   >>  > 
> >>  >>  >>  >>>   >>  > 初めて投稿します。松尾博と申します。
> >>  >>  >>  >>>   >>  > 
> >>  >>  >>  >>>   >>  > 突飛な質問になるかもしれませんがお許しください。
> >>  >>  >>  >>>   >>  > 
> >>  >>  >>  >>>   >>  > os が centos6のマシンと 
> > centos7のマシンにそれぞれ 
> >>  >>  >>  >>>   >>  > 
> >>  > Pacemaker-1.1.13-1.1をインストールして一つのクラスタとすることは可
> >>  >>  >>  >>>   >>  > 能でしょうか。
> >>  >>  >>  >>>   >>  > 
> >>  >>  >>  >>>   >>  > 
> >>  >>  > _______________________________________________
> >>  >>  >>  >>>   >>  > Linux-ha-japan mailing 
> > list
> >>  >>  >>  >>>   >>  > 
> > Linux****@lists*****
> >>  >>  >>  >>>   >>  > 
> >>  >>  > http://lists.osdn.me/mailman/listinfo/linux-ha-japan
> >>  >>  >>  >>>   >>  > 
> >>  >>  >>  >>>   >> 
> >>  >>  >>  >>>   >>  
> >>  > _______________________________________________
> >>  >>  >>  >>>   >>  Linux-ha-japan mailing list
> >>  >>  >>  >>>   >>  Linux****@lists*****
> >>  >>  >>  >>>   >>  
> >>  >>  > http://lists.osdn.me/mailman/listinfo/linux-ha-japan
> >>  >>  >>  >>>   > 
> >>  >>  >>  >>>   > 
> >>  > _______________________________________________
> >>  >>  >>  >>>   > Linux-ha-japan mailing list
> >>  >>  >>  >>>   > Linux****@lists*****
> >>  >>  >>  >>>   > 
> >>  > http://lists.osdn.me/mailman/listinfo/linux-ha-japan
> >>  >>  >>  >>>   > 
> >>  >>  >>  >>> 
> >>  >>  >>  >>>   
> > _______________________________________________
> >>  >>  >>  >>>   Linux-ha-japan mailing list
> >>  >>  >>  >>>   Linux****@lists*****
> >>  >>  >>  >>>   
> >>  > http://lists.osdn.me/mailman/listinfo/linux-ha-japan
> >>  >>  >>  >> 
> >>  >>  >>  >>  
> > _______________________________________________
> >>  >>  >>  >>  Linux-ha-japan mailing list
> >>  >>  >>  >>  Linux****@lists*****
> >>  >>  >>  >>  
> > http://lists.osdn.me/mailman/listinfo/linux-ha-japan
> >>  >>  >>  >> 
> >>  >>  >>  > 
> >>  >>  >>  > _______________________________________________
> >>  >>  >>  > Linux-ha-japan mailing list
> >>  >>  >>  > Linux****@lists*****
> >>  >>  >>  > 
> > http://lists.osdn.me/mailman/listinfo/linux-ha-japan
> >>  >>  >>  > 
> >>  >>  >> 
> >>  >>  >>  _______________________________________________
> >>  >>  >>  Linux-ha-japan mailing list
> >>  >>  >>  Linux****@lists*****
> >>  >>  >>  http://lists.osdn.me/mailman/listinfo/linux-ha-japan
> >>  >>  > 
> >>  >> 
> >>  >>  _______________________________________________
> >>  >>  Linux-ha-japan mailing list
> >>  >>  Linux****@lists*****
> >>  >>  http://lists.osdn.me/mailman/listinfo/linux-ha-japan
> >>  > 
> > 
> 
> _______________________________________________
> Linux-ha-japan mailing list
> Linux****@lists*****
> http://lists.osdn.me/mailman/listinfo/linux-ha-japan




Linux-ha-japan メーリングリストの案内
Back to archive index