Thank you very much.<div><br></div><div>Sam<br><br><div class="gmail_quote">On Wed, Sep 12, 2012 at 1:30 PM, scott mcbrien <span dir="ltr">&lt;<a href="mailto:smcbrien@gmail.com" target="_blank">smcbrien@gmail.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">That would be my suggestion.  Mark it as the lest preferred in your<br>
failover domain, so that it won&#39;t get assigned the service in a<br>
failover.  It could even be a VM ;-)  But yes, I&#39;d recommend that over<br>
a qdisk.  In my experience, qdisks are flaky.<br>
<span class="HOEnZb"><font color="#888888"><br>
-Scott<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
On Wed, Sep 12, 2012 at 1:27 PM, Sam Davis &lt;<a href="mailto:aracthabar@gmail.com">aracthabar@gmail.com</a>&gt; wrote:<br>
&gt; They do reboot each other when the cluster is up and running.  Would a very<br>
&gt; small third node with an extremely low priorty be preferential over a qdisk?<br>
&gt;<br>
&gt; Sam<br>
&gt;<br>
&gt;<br>
&gt; On Wed, Sep 12, 2012 at 1:23 PM, Scott McBrien &lt;<a href="mailto:smcbrien@gmail.com">smcbrien@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; It&#39;s because your cluster is split-brained.  Best option would be to add a<br>
&gt;&gt; third node.  If you can&#39;t do that, you could add a qdisk *wretches*.<br>
&gt;&gt; Seriously, third node.<br>
&gt;&gt;<br>
&gt;&gt; Also, I the machines aren&#39;t constantly rebooting each other, I&#39;d guess<br>
&gt;&gt; your fencing isn&#39;t working as well.<br>
&gt;&gt;<br>
&gt;&gt; -Scott<br>
&gt;&gt;<br>
&gt;&gt; On Sep 12, 2012, at 1:15 PM, Sam Davis &lt;<a href="mailto:aracthabar@gmail.com">aracthabar@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; &gt; Hello All,<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;    I&#39;m wondering if anyone had expirence with RedHat&#39;s HA solution.<br>
&gt;&gt; &gt; We&#39;re trying to setup a 2 node failover cluster for a Drupal install using<br>
&gt;&gt; &gt; multipath disks attached via HBAs.   It seems to work fine at the start, but<br>
&gt;&gt; &gt; after a while neither node can take ownership of the clustered volume group.<br>
&gt;&gt; &gt; At this point, even trying to stop the clvmd service just hangs.  Any hints<br>
&gt;&gt; &gt; or pointers would be appreciated.  Below is the cluster.conf<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Thank you,<br>
&gt;&gt; &gt; Sam Davis<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; &lt;?xml version=&quot;1.0&quot;?&gt;<br>
&gt;&gt; &gt; &lt;cluster config_version=&quot;25&quot; name=&quot;moodle_cluster&quot;&gt;<br>
&gt;&gt; &gt;         &lt;clusternodes&gt;<br>
&gt;&gt; &gt;                 &lt;clusternode name=&quot;mario.REDACTED.REDACTED&quot; nodeid=&quot;1&quot;&gt;<br>
&gt;&gt; &gt;                         &lt;fence&gt;<br>
&gt;&gt; &gt;                                 &lt;method name=&quot;RSA&quot;&gt;<br>
&gt;&gt; &gt;                                         &lt;device name=&quot;Mario_RSA&quot;/&gt;<br>
&gt;&gt; &gt;                                 &lt;/method&gt;<br>
&gt;&gt; &gt;                         &lt;/fence&gt;<br>
&gt;&gt; &gt;                 &lt;/clusternode&gt;<br>
&gt;&gt; &gt;                 &lt;clusternode name=&quot;luigi.REDACTED.REDACTED&quot; nodeid=&quot;2&quot;/&gt;<br>
&gt;&gt; &gt;         &lt;/clusternodes&gt;<br>
&gt;&gt; &gt;         &lt;fencedevices&gt;<br>
&gt;&gt; &gt;                 &lt;fencedevice agent=&quot;fence_ipmilan&quot; auth=&quot;password&quot;<br>
&gt;&gt; &gt; ipaddr=&quot;REDACTED&quot; login=&quot;admin&quot; name=&quot;Mario_RSA&quot; passwd=&quot;REDACTED&quot;/&gt;<br>
&gt;&gt; &gt;                 &lt;fencedevice agent=&quot;fence_ipmilan&quot; auth=&quot;password&quot;<br>
&gt;&gt; &gt; ipaddr=&quot;REDACTED&quot; login=&quot;admin&quot; name=&quot;Luigi_RSA&quot; passwd=&quot;REDACTED&quot;/&gt;<br>
&gt;&gt; &gt;         &lt;/fencedevices&gt;<br>
&gt;&gt; &gt;         &lt;rm&gt;<br>
&gt;&gt; &gt;                 &lt;failoverdomains&gt;<br>
&gt;&gt; &gt;                         &lt;failoverdomain name=&quot;Mario_Preferred&quot;<br>
&gt;&gt; &gt; nofailback=&quot;1&quot; ordered=&quot;1&quot;&gt;<br>
&gt;&gt; &gt;                                 &lt;failoverdomainnode<br>
&gt;&gt; &gt; name=&quot;mario.REDACTED.REDACTED&quot; priority=&quot;1&quot;/&gt;<br>
&gt;&gt; &gt;                                 &lt;failoverdomainnode<br>
&gt;&gt; &gt; name=&quot;luigi.REDACTED.REDACTED&quot;/&gt;<br>
&gt;&gt; &gt;                         &lt;/failoverdomain&gt;<br>
&gt;&gt; &gt;                 &lt;/failoverdomains&gt;<br>
&gt;&gt; &gt;                 &lt;resources&gt;<br>
&gt;&gt; &gt;                         &lt;ip address=&quot;REDACTED&quot; sleeptime=&quot;10&quot;/&gt;<br>
&gt;&gt; &gt;                         &lt;clusterfs device=&quot;/dev/vg_moodle/moodle_lv&quot;<br>
&gt;&gt; &gt; force_unmount=&quot;on&quot; fsid=&quot;27336&quot; fstype=&quot;gfs2&quot; mountpoint=&quot;/srv&quot;<br>
&gt;&gt; &gt; name=&quot;moodle_gfs&quot; options=&quot;rw,noatime,_netdev&quot;/&gt;<br>
&gt;&gt; &gt;                         &lt;script file=&quot;/etc/init.d/httpd&quot; name=&quot;Httpd&quot;/&gt;<br>
&gt;&gt; &gt;                 &lt;/resources&gt;<br>
&gt;&gt; &gt;                 &lt;service domain=&quot;Mario_Preferred&quot; name=&quot;moodle_service&quot;<br>
&gt;&gt; &gt; recovery=&quot;relocate&quot;&gt;<br>
&gt;&gt; &gt;                         &lt;clusterfs ref=&quot;moodle_gfs&quot;/&gt;<br>
&gt;&gt; &gt;                         &lt;ip ref=&quot;REDACTED&quot;/&gt;<br>
&gt;&gt; &gt;                         &lt;script ref=&quot;Httpd&quot;/&gt;<br>
&gt;&gt; &gt;                 &lt;/service&gt;<br>
&gt;&gt; &gt;         &lt;/rm&gt;<br>
&gt;&gt; &gt;         &lt;cman expected_votes=&quot;1&quot; two_node=&quot;1&quot;/&gt;<br>
&gt;&gt; &gt; &lt;/cluster&gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt; &gt; Ale mailing list<br>
&gt;&gt; &gt; <a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
&gt;&gt; &gt; <a href="http://mail.ale.org/mailman/listinfo/ale" target="_blank">http://mail.ale.org/mailman/listinfo/ale</a><br>
&gt;&gt; &gt; See JOBS, ANNOUNCE and SCHOOLS lists at<br>
&gt;&gt; &gt; <a href="http://mail.ale.org/mailman/listinfo" target="_blank">http://mail.ale.org/mailman/listinfo</a><br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Ale mailing list<br>
&gt;&gt; <a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
&gt;&gt; <a href="http://mail.ale.org/mailman/listinfo/ale" target="_blank">http://mail.ale.org/mailman/listinfo/ale</a><br>
&gt;&gt; See JOBS, ANNOUNCE and SCHOOLS lists at<br>
&gt;&gt; <a href="http://mail.ale.org/mailman/listinfo" target="_blank">http://mail.ale.org/mailman/listinfo</a><br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Ale mailing list<br>
&gt; <a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
&gt; <a href="http://mail.ale.org/mailman/listinfo/ale" target="_blank">http://mail.ale.org/mailman/listinfo/ale</a><br>
&gt; See JOBS, ANNOUNCE and SCHOOLS lists at<br>
&gt; <a href="http://mail.ale.org/mailman/listinfo" target="_blank">http://mail.ale.org/mailman/listinfo</a><br>
&gt;<br>
_______________________________________________<br>
Ale mailing list<br>
<a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
<a href="http://mail.ale.org/mailman/listinfo/ale" target="_blank">http://mail.ale.org/mailman/listinfo/ale</a><br>
See JOBS, ANNOUNCE and SCHOOLS lists at<br>
<a href="http://mail.ale.org/mailman/listinfo" target="_blank">http://mail.ale.org/mailman/listinfo</a><br>
</div></div></blockquote></div><br></div>