<p dir="ltr"></p>
<p dir="ltr">On Oct 28, 2016 10:28 PM, &quot;Derek Atkins&quot; &lt;<a href="mailto:warlord@mit.edu">warlord@mit.edu</a>&gt; wrote:<br>
&gt;<br>
&gt; So here&#39;s a question:  have you tried running oVirt on a single machine<br>
&gt; (sort of like the old vmware-server)?  I.e., a single machine that has<br>
&gt; CPU and Disk, running a hypervisor, ovirt-engine, etc?</p>
<p dir="ltr">Closest is the converged setup with the manager as a vm.</p>
<p dir="ltr">&gt;<br>
&gt; It seems silly to run NFS off a local disk just to get Self-Hosted oVirt<br>
&gt; to work..  But of course they stopped supporting the &quot;AllInOne&quot; in<br>
&gt; ovirt-4.0 and don&#39;t seem to support local storage for the<br>
&gt; SelfHostedEngine.</p>
<p dir="ltr">Can&#39;t do local storage for converged. Just use the host system to provide the storage.<br>
&gt;<br>
&gt; Any Ideas?<br>
&gt;<br>
&gt; Second question:  is there a web-ui password-change for the AAA-JDBC<br>
&gt; plugin?  I.e., can users change their own passwords?</p>
<p dir="ltr">Not that I&#39;ve seen. Adding users to the internal auth process is not recommended. Ldap is recommended. I use freeipa.<br>
&gt;<br>
&gt; -derek<br>
&gt;<br>
&gt; Jim Kinney &lt;<a href="mailto:jim.kinney@gmail.com">jim.kinney@gmail.com</a>&gt; writes:<br>
&gt;<br>
&gt; &gt; On Fri, 2016-10-28 at 10:49 -0400, DJ-Pfulio wrote:<br>
&gt; &gt;<br>
&gt; &gt;     Thanks for responding.<br>
&gt; &gt;<br>
&gt; &gt;     Sheepdog is the storage backend. This is the way cloud stuff works on<br>
&gt; &gt;     the cheap. Not a NAS.  It is distributed storage with a minimal<br>
&gt; &gt;     redundancy set (I&#39;m planning 3 copies).  Sheepdog only works with qemu<br>
&gt; &gt;     according to research, which is fine.<br>
&gt; &gt;<br>
&gt; &gt;     Sure, I could setup a separate storage NAS (I&#39;d use AoE for this), but<br>
&gt; &gt;     that isn&#39;t needed. I already have multiple NFS servers, but don&#39;t use<br>
&gt; &gt;     them for hosting VMs today. They are used for data volumes, not redundancy.<br>
&gt; &gt;<br>
&gt; &gt;            &gt;&gt; Opinions follow (danger if you love what I don&#39;t) &lt;&lt;<br>
&gt; &gt;<br>
&gt; &gt;     Won&#39;t be using oVirt (really RHEL only and seems to be 50+ different<br>
&gt; &gt;     F/LOSS projects in 500 different languages [I exaggerate] ) or XenServer<br>
&gt; &gt;     (bad taste after running it 4 yrs).  I&#39;ve never regretted switching from<br>
&gt; &gt;     ESX/ESXi and Xen to KVM, not once.<br>
&gt; &gt;<br>
&gt; &gt; Ovirt is only 49 projects and 127 languages! Really!<br>
&gt; &gt;<br>
&gt; &gt; Ovirt is just the web gui front end (pile of java) with a mostly python<br>
&gt; &gt; backend that runs KVM and some custom daemons to keep track of what is running<br>
&gt; &gt; and where. It is most certainly geared towards RHEL/CentOS. That may be an<br>
&gt; &gt; irritant to some. I&#39;ve found the tool chain to JustWork(tm). I need VMs to run<br>
&gt; &gt; with minimal effort on my part as I have no time to fight the complexity. I&#39;ve<br>
&gt; &gt; hacked scripts to do coolness with KVM but found Ovirt did more than I could<br>
&gt; &gt; code up with the time I have. It really is a GPL replacement for VMWARE<br>
&gt; &gt; Vsphere.<br>
&gt; &gt;<br>
&gt; &gt;     And won&#39;t be dedicating the entire machines just to being storage or VM<br>
&gt; &gt;     hosts, so proxmox clusters aren&#39;t an option.  The migration from plain<br>
&gt; &gt;     VMs into sheepdog appears pretty straight forward (at least on youtube).<br>
&gt; &gt;<br>
&gt; &gt; One thing I like with Ovirt is I can install the host node code on a full<br>
&gt; &gt; CentOS install or use the hypervisor version and dedicate a node entirely.<br>
&gt; &gt; I&#39;ve used both and found them to be well suited for keeping VMs running. If<br>
&gt; &gt; there is an issue with a node, I have a full toolchain to work with. I don&#39;t<br>
&gt; &gt; use the hypervisor in production.<br>
&gt; &gt;<br>
&gt; &gt; A major issue for my use is the need to have certain VM up and running at all<br>
&gt; &gt; times. Ovirt provides a process to migrate a VM to an alternate host if it<br>
&gt; &gt; (host or VM) goes down. The only &quot;gotcha&quot; of that is the migration hosts must<br>
&gt; &gt; provide the same cpu capabilities so no mixing of AMD and Intel without<br>
&gt; &gt; setting the VMs to be i686.<br>
&gt; &gt;<br>
&gt; &gt;     Just doing research today. Need to sleep on it. Probably won&#39;t try<br>
&gt; &gt;     anything until Sunday night.<br>
&gt; &gt;<br>
&gt; &gt; Download CentOS 7.2<br>
&gt; &gt; Install VM host version<br>
&gt; &gt; yum install epel-release<br>
&gt; &gt; Follow direction here: <a href="https://www.ovirt.org/release/4.0.4/">https://www.ovirt.org/release/4.0.4/</a><br>
&gt; &gt; starting with:<br>
&gt; &gt; yum install <a href="http://resources.ovirt.org/pub/yum-repo/ovirt-release40.rpm">http://resources.ovirt.org/pub/yum-repo/ovirt-release40.rpm</a><br>
&gt; &gt;<br>
&gt; &gt; Be aware that when docs refer to NFS mounts, the server for that can be one of<br>
&gt; &gt; the nodes that has drive space. ISO space is where &lt;duh&gt; iso images are kept<br>
&gt; &gt; for installations. I have one win10 VM running now for a DBA with specialty<br>
&gt; &gt; tool needs.<br>
&gt; &gt;<br>
&gt; &gt;     On 10/28/2016 10:23 AM, Beddingfield, Allen wrote:<br>
&gt; &gt;<br>
&gt; &gt;         Will you have shared storage available (shared LUN or high performance NFS for the virtual hard drives that all hosts can access?)<br>
&gt; &gt;         If so, the easiest free out of the box setup is XenServer or oVirt.  I&#39;m familiar with XenServer, but there are some oVirt fans on here, I know.<br>
&gt; &gt;<br>
&gt; &gt;         --<br>
&gt; &gt;         Allen Beddingfield<br>
&gt; &gt;         Systems Engineer<br>
&gt; &gt;         Office of Information Technology<br>
&gt; &gt;         The University of Alabama<br>
&gt; &gt;         Office 205-348-2251<br>
&gt; &gt;         <a href="mailto:allen@ua.edu">allen@ua.edu</a><br>
&gt; &gt;<br>
&gt; &gt;         On 10/28/16, 9:17 AM, &quot;<a href="mailto:ale-bounces@ale.org">ale-bounces@ale.org</a> on behalf of DJ-Pfulio&quot; &lt;<a href="mailto:ale-bounces@ale.org">ale-bounces@ale.org</a> on behalf of <a href="mailto:DJPfulio@jdpfu.com">DJPfulio@jdpfu.com</a>&gt; wrote:<br>
&gt; &gt;<br>
&gt; &gt;             I&#39;m a little behind the times.  Looking to run a small cluster of VM<br>
&gt; &gt;             hosts, just 2-5 physical nodes.<br>
&gt; &gt;<br>
&gt; &gt;             Reading implies it is pretty easy with 2-5 nodes using a mix of<br>
&gt; &gt;             sheepdog, corosync and pacemaker running on qemu-kvm VM hosts.<br>
&gt; &gt;<br>
&gt; &gt;             Is that true?  Any advice from people who&#39;ve done this already?<br>
&gt; &gt;<br>
&gt; &gt;             So, is this where you&#39;d start for small home/biz redundant VM cluster?<br>
&gt; &gt;<br>
&gt; &gt;             I&#39;ve never done clustering on Linux, just Unix with those expensive<br>
&gt; &gt;             commercial tools and that was many years ago.<br>
&gt; &gt;<br>
&gt; &gt;             In related news - Fry&#39;s has a Core i3-6100 CPU for $88 today with their<br>
&gt; &gt;             emailed codes.  That CPU is almost 2x faster than a first gen Core<br>
&gt; &gt;             i5-750 desktop CPU. Clustering for data redundancy at home really is<br>
&gt; &gt;             possible with just 2 desktop systems these days. This can be used with<br>
&gt; &gt;             or without RAID (any sort).<br>
&gt; &gt;<br>
&gt; &gt;             _______________________________________________<br>
&gt; &gt;             Ale mailing list<br>
&gt; &gt;             <a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
&gt; &gt;             <a href="http://mail.ale.org/mailman/listinfo/ale">http://mail.ale.org/mailman/listinfo/ale</a><br>
&gt; &gt;             See JOBS, ANNOUNCE and SCHOOLS lists at<br>
&gt; &gt;             <a href="http://mail.ale.org/mailman/listinfo">http://mail.ale.org/mailman/listinfo</a><br>
&gt; &gt;<br>
&gt; &gt;         _______________________________________________<br>
&gt; &gt;         Ale mailing list<br>
&gt; &gt;         <a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
&gt; &gt;         <a href="http://mail.ale.org/mailman/listinfo/ale">http://mail.ale.org/mailman/listinfo/ale</a><br>
&gt; &gt;         See JOBS, ANNOUNCE and SCHOOLS lists at<br>
&gt; &gt;         <a href="http://mail.ale.org/mailman/listinfo">http://mail.ale.org/mailman/listinfo</a><br>
&gt;<br>
&gt; --<br>
&gt;        Derek Atkins, SB &#39;93 MIT EE, SM &#39;95 MIT Media Laboratory<br>
&gt;        Member, MIT Student Information Processing Board  (SIPB)<br>
&gt;        URL: <a href="http://web.mit.edu/warlord/">http://web.mit.edu/warlord/</a>    PP-ASEL-IA     N1NWH<br>
&gt;        <a href="mailto:warlord@MIT.EDU">warlord@MIT.EDU</a>                        PGP key available<br></p>