<div dir="auto">synology for pre-made. freenas if you want to get real hardware (1 GB RAM / TB storage) and matching drives. unraid if you just wanna slap some random hardware and drives together. <br><br><div data-smartmail="gmail_signature">Sent from my mobile. Please excuse the brevity, spelling, and punctuation. </div></div><div class="gmail_extra"><br><div class="gmail_quote">On Jun 15, 2017 1:19 PM, &quot;Jim Kinney&quot; &lt;<a href="mailto:jim.kinney@gmail.com">jim.kinney@gmail.com</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto">Wow! A six month recovery time! I&#39;ve not had any of my RAID6 systems take longer than 10 days with pretty heavy use. These are 4TB SAS drives with 28 drives per array.</div><div class="gmail_extra"><br><div class="gmail_quote">On Jun 15, 2017 5:08 PM, &quot;DJ-Pfulio&quot; &lt;<a href="mailto:DJPfulio@jdpfu.com" target="_blank">DJPfulio@jdpfu.com</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 06/15/2017 09:29 AM, Ken Cochran wrote:<br>
&gt; Any ALEr Words of Wisdom wrt desktop NAS?<br>
&gt; Looking for something appropriate for, but not limited to, photography.<br>
&gt; Some years ago Drobo demoed at (I think) AUUG.  (Might&#39;ve been ALE.)<br>
&gt; Was kinda nifty for the time but I&#39;m sure things have improved since.<br>
&gt; Synology?  QNAP?<br>
&gt; Build something myself?  JBOD?<br>
&gt; Looks like they all running Linux inside these days.<br>
&gt; Rackmount ones look lots more expensive.<br>
&gt; Ideas?  What to look for?  Stay away from?  Thanks, Ken<br>
<br>
Every time I look at the pre-built NAS devices, I think - that&#39;s $400<br>
too much and not very flexible. These devices are certified with<br>
specific models of HDDs. Can you live with a specific list of supported<br>
HDDs and limited, specific, software?<br>
<br>
Typical trade off - time/convenience vs money.  At least initially.<br>
Nothing you don&#39;t already know.<br>
<br>
My NAS is a $100 x86 box built from parts.  Bought a new $50 intel G3258<br>
CPU and $50 MB. Reused stuff left over from prior systems for everything<br>
else, at least initially.<br>
Reused:<br>
* 8G of DDR3 RAM<br>
* Case<br>
* PSU<br>
* 4TB HDD<br>
* assorted cabled to connect to a KVM and network.  That was 3 yrs ago.<br>
<br>
Most of the RAM is used for disk buffering.<br>
<br>
That box has 4 internal HDDs and 4 external in a cheap $99 array<br>
connected via USB3. Internal is primary, external is the rsync mirror<br>
for media files.<br>
<br>
It runs Plex MS, Calibre, and 5 other services. The CPU is powerful<br>
enough to transcode 2 HiDef streams for players that need it concurrently.<br>
All the primary storage is LVM managed. I don&#39;t span HDDs for LVs.<br>
Backups are not LVM&#39;d and a simple rsync is used for media files.  OS<br>
application and non-media content gets backed up with 60 versions using<br>
rdiff-backup to a different server over the network.<br>
<br>
That original 4TB disk failed a few weeks ago. It was a minor<br>
inconvenience.  Just sayin&#39;.<br>
<br>
If I were starting over, the only thing I&#39;d do different would be to<br>
more strongly consider ZFS. Don&#39;t know that I&#39;d use it, but it would be<br>
considered for more than 15 minutes for the non-OS storage.  Bitrot is<br>
real, IMHO.<br>
<br>
I use RAID elsewhere on the network, but not for this box.  It is just a<br>
media server (mainly), so HA just isn&#39;t needed.<br>
<br>
At SELF last weekend, there was a talk about using RAID5/6 on HDDs over<br>
2TB in size by a guy in the storage biz.  The short answer was - don&#39;t.<br>
<br>
The rebuild time after a failure in their testing was measured in<br>
months. They were using quality servers, disks and HBAs for the test. A<br>
5x8TB RAID5 rebuild was predicted to finish in over 6 months under load.<br>
<br>
There was also discussions about whether using RAID with SSDs was smart<br>
or not.  RAID10 was considered fine. RAID0 if you needed performance,<br>
but not for long term. The failure rate on enterprise SSDs is so low to<br>
make it a huge waste of time except for the most critical applications.<br>
They also suggested avoiding SAS and SATA interfaces on those SSDs to<br>
avoid the limited performance.<br>
<br>
Didn&#39;t mean to write a book. Sorry.<br>
______________________________<wbr>_________________<br>
Ale mailing list<br>
<a href="mailto:Ale@ale.org" target="_blank">Ale@ale.org</a><br>
<a href="http://mail.ale.org/mailman/listinfo/ale" rel="noreferrer" target="_blank">http://mail.ale.org/mailman/li<wbr>stinfo/ale</a><br>
See JOBS, ANNOUNCE and SCHOOLS lists at<br>
<a href="http://mail.ale.org/mailman/listinfo" rel="noreferrer" target="_blank">http://mail.ale.org/mailman/li<wbr>stinfo</a><br>
</blockquote></div></div>
<br>______________________________<wbr>_________________<br>
Ale mailing list<br>
<a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
<a href="http://mail.ale.org/mailman/listinfo/ale" rel="noreferrer" target="_blank">http://mail.ale.org/mailman/<wbr>listinfo/ale</a><br>
See JOBS, ANNOUNCE and SCHOOLS lists at<br>
<a href="http://mail.ale.org/mailman/listinfo" rel="noreferrer" target="_blank">http://mail.ale.org/mailman/<wbr>listinfo</a><br>
<br></blockquote></div></div>