<html><head></head><body>There&#39;s a reason (several, actually) the default filesystem on RHEL and derivatives is now xfs. It has much of the happy stuff associated with zfs but none of the pain of half the RAM for filesystem. It scales larger than ext4 can (when are they going to fix that bug ?). It can handle multi-TB file sizes and not blink. And it&#39;s very mature. It plays very nicely with LVM. <br>
<br>
I&#39;ve become rather fond of the RedHat way of /boot is a partition and all else is under LVM. Makes it possible and rather painless to adjust things around and needs change over the life of a machine. Need more swap? No problem. Need a new partition for a special use? No problem. Need a snapshot before a huge pile of weird changes? No problem.  <br><br><div class="gmail_quote">On June 7, 2015 4:45:02 AM EDT, DJ-Pfulio &lt;djpfulio@jdpfu.com&gt; wrote:<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<pre class="k9mail">Do you seriously suggest btrfs for normal people without a specific requirement?<br /><br />Just switched to ext4 last year, because I didn't want to be on the bleeding<br />edge and wanted some real-world history behind the file system. Had jfs before<br />that and never lost a bit.<br /><br />Btrfs will be ready around 2020, I think.<br /><br />Would use ZFS, if I had 16G of RAM to blow for storage. Alas, I do not. I<br />consider it mature.<br /><br />Plus there are performance warnings about using btrfs with KVM.<br /><br /><br /><br />On 06/07/2015 04:32 AM, Michael Trausch wrote:<br /><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid #729fcf; padding-left: 1ex;"> +1.<br /> <br /> If you're running a system that "can't" go down under reasonably normal<br /> circumstances, have at least two drives and use btrfs on them, set to an<br /> appropriate redundancy mode. With weekly or monthly scrubs of the volume,<br />
  you'll
get even earlier warning than SMART monitoring alone, plus your data<br /> is recovered on the fly for errors that are spatially related.<br /> <br /> I use a four disk setup (4x1TB) with btrfs in double redundancy mode. I've<br /> had it catch some instances of silent corruption that wouldn't ever be caught<br /> by anything other than probably ZFS, and automatically recover. That's a<br /> winner for me. Plus it's insanely flexible, way more so than LVM2. Say<br /> goodbye to backup, drive swap, restore and resize. Just swap and resize.<br /> <br /> Note well: as with software raid, the processes for planned vs. emergency<br /> drive replacement differ. In this case, planned is shrink, swap, grow,<br /> rebalance. Emergency is of course swap, rebuild from redundancy. The former<br /> is less time-intensive compared to the latter. When you've seen the first<br /> scrub reporting recovery occurring on a disk due to media errors and not<br /> silent corruption, it's time to re
 place
that drive using the planned<br /> procedure before you have to use the emergency one, when possible.<br /> <br /> Sent from my iPhone<br /> <br /><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid #ad7fa8; padding-left: 1ex;"> On Jun 6, 2015, at 8:10 PM, Jim Kinney &lt;jim.kinney@gmail.com&gt; wrote:<br /> <br /> I do nothing more than install it and run it. I let my OS do the checking<br /> with smartctl.<br /> <br /> I will do a quick check of the specs and compare to the manual or<br /> manufactures specs to make sure nothing obvious.<br /> <br /> I've probably installed 3-4 hundred as singles and I don't _want_ to think<br /> how many as array units. I've never had a bad new drive out of the box.<br /> I've had a few, maybe 2 or 3 that failed within a couple of months and<br /> given the power supply died shortly after, I'm pretty sure it was killed<br /> the drives.<br /> <br /> Most of the used drives I've installed have failed wit
 hin a
few months. All<br /> were over 5 years old when I got them.<br /> <br /><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid #8ae234; padding-left: 1ex;"> On Sat, 2015-06-06 at 19:59 -0400, Sam Rakowski wrote: Hi,<br /> <br /> I've purchased a new hard drive(magnetic) to replace an old one that has <br /> some bad sectors on it. I haven't ever bought a new hard drive; most of<br /> my hard drives come used or part of a new device.<br /> <br /> I'm just interested in hearing what you all run through when you receive<br /> a new hard drive. Zero it? Run badblocks? All or none of the above?<br /></blockquote></blockquote></blockquote><hr /><br />Ale mailing list<br />Ale@ale.org<br /><a href="http://mail.ale.org/mailman/listinfo/ale">http://mail.ale.org/mailman/listinfo/ale</a><br />See JOBS, ANNOUNCE and SCHOOLS lists at<br /><a href="http://mail.ale.org/mailman/listinfo">http://mail.ale.org/mailman/listinfo</a><br /><br
/></pre></blockquote></div><br>
-- <br>
Sent from my Android device with K-9 Mail. Please excuse my brevity.</body></html>