Back in the days &quot;when the silicon first cooled off&quot; drives came with a bad sector list and you had to do a low level format with debug and enter the bad sectors. With modern drives all running perpendicular recording, I not surprised that there may be a lot of ECC corrected reads. I also can&#39;t imagine that they don&#39;t have a lot of bad sectors in &quot;factory new&quot; condition and develop more over time, but the intelligence built into the modern drive controllers masks that information from &quot;mere mortals.&quot; In order to extract the maximum capacity for the lowest cost, I think, but haven&#39;t checked the specs, that most drives have all sorts of fancy thing going on &quot;under the hood&quot; like variable cluster counts per cylinder as the diameter of the platter increases and variable RPM, etc. All in all they are remarkable machines (wonder if there has been a &quot;Modern Marvels&quot; program about hard drives?) and I saw a Samsung 2TB for $69 after MIR on Newegg or TD this week! <br>
<br> Most folks probably wouldn&#39;t care or ever know that their drive had some &quot;minor&quot; 
errors so long as their computer kept working. Seems everybody gets 
&quot;religion&quot; about backing up immediately AFTER the drive crashes!<br><br>From the prices I see on 2.5&quot; drives these days, I rather doubt that they are all covered with diamond dust. However, they have been made with glass platters for quite a while. The glass platters are stiffer than metal ones that [used to be] used on 3.5&quot; drives so they don&#39;t flutter as much with minor bumps and this also helps account for their ruggedness. Smaller platters also mean smaller/less massive r/w heads which are less likely to flex enough to contact the media. I wonder if the diamond dust isn&#39;t/wasn&#39;t more a &quot;pixie dust&quot; marketing gimmick more than a real contributor to drive ruggedness? It would seem to me that the diamond dust would erode the heads in short order (can you say diamond grinding wheel?), rather than getting a gouge in the media surface; which would be better?<br>
GC<br> <br><br><br><div class="gmail_quote">On Wed, Jan 5, 2011 at 11:31 PM, Greg Freemyer <span dir="ltr">&lt;<a href="mailto:greg.freemyer@gmail.com">greg.freemyer@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<div class="im">On Wed, Jan 5, 2011 at 8:42 PM, Pat Regan &lt;<a href="mailto:thehead@patshead.com">thehead@patshead.com</a>&gt; wrote:<br>
&gt; On Wed, 5 Jan 2011 19:23:10 -0500<br>
&gt; Greg Freemyer &lt;<a href="mailto:greg.freemyer@gmail.com">greg.freemyer@gmail.com</a>&gt; wrote:<br>
&gt;<br>
&gt;&gt; The first thing I look at is POH (Power on Hours).  In this case<br>
&gt;&gt; 27,871.  This field has been pretty reliable in my experience to be<br>
&gt;&gt; exactly what it says.  So my drive is not exactly new.<br>
&gt;<br>
&gt; That&#39;s a pretty good specimen, 3 years powered on :)<br>
&gt;<br>
&gt;&gt; Then look at Reallocated_Sector_Ct.  Mine is zero.  That&#39;s cool.<br>
&gt;<br>
&gt; I&#39;m probably not telling you this, but when I see this number start to<br>
&gt; move away from 0 I start ordering a replacement drive :)<br>
&gt;<br>
&gt; Interestingly, the X25-M in my laptop is showing 1 relocated sector.<br>
&gt;<br>
&gt;&gt; But Hardware_ECC_Recovered is 140,010,573.  That may sound large, but<br>
&gt;&gt; remember, the reads succeeded because of the ECC data, so there is no<br>
&gt;&gt; data loss.  I tend to agree with you that as magnetism fades for a<br>
&gt;&gt; sector, checksum failures increase and ECC recovery is needed.<br>
&gt;&gt; Spinrite used as you describe may keep that value lower.<br>
&gt;<br>
&gt; It may sound large, but what does it really mean?  Is it literally the<br>
&gt; number of ECC errors?  How large is a single ECC block?  How many ECC<br>
&gt; blocks are involved in the read of a single sector?  Could every bad<br>
&gt; ECC in a sector result in the count going up?  5000 per hour sounds<br>
&gt; like a lot of recovered reads to me, assuming it means sectors.<br>
<br>
</div>Pat,<br>
<br>
A disk drive physical sector is the equivalent of a network packet.<br>
<br>
It has a header, payload, footer.<br>
<br>
And it has exactly one CRC / ECC value as I understand it.<br>
<br>
The new &quot;Advanced Format&quot; drives from WD have 4KB physical sectors.<br>
The benefit being less waste to overhead.  ie. Only one header/footer<br>
per 4KB instead of every 512 bytes.  The ECC is bigger, but not 8x<br>
bigger.<br>
<br>
&gt;&gt; But I don&#39;t think spinrite tries to detect sectors that have been ECC<br>
<div class="im">&gt;&gt; recovered.  So it doesn&#39;t really know the details.<br>
&gt;<br>
&gt; I would agree.  The drives in my laptop don&#39;t report ECC errors via<br>
&gt; smart.<br>
&gt;<br>
&gt;&gt; A smart long self test has the ability to know that a ECC recovery is<br>
&gt;&gt; needed for a sector.  What it does with the knowledge, I don&#39;t know.<br>
&gt;&gt; But it certainly has more knowledge to work with than spinrite.<br>
&gt;<br>
&gt; How thorough do you think a long smart test is?  I&#39;ve had drives die<br>
&gt; within a day or three of passing a long smart test.  They also don&#39;t<br>
&gt; take all that long, and they sure don&#39;t cause the drive to make any<br>
&gt; noise :)<br>
<br>
</div>I think / believe the long test to primarily be a surface test.  Total<br>
disk drive failure is not caused by platter surface errors I would<br>
guess, so I see little reason for correlation.  ie. I&#39;m not surprised<br>
at a controller failure a few hours after the platter surface test<br>
showed it good.<br>
<div class="im"><br>
&gt;&gt; fyi: hdparm has a long read capability that allows a full physical<br>
&gt;&gt; sector to be read with no error correction!  So spinrite could in<br>
&gt;&gt; theory read all of the sectors with CRC verification disabled and<br>
&gt;&gt; check the CRC itself.  The trouble is the the drive manufactures<br>
&gt;&gt; implement proprietary CRC / ECC solutions, so spinrite has no way to<br>
&gt;&gt; actually delve into the details of the sectors data accuracy.<br>
&gt;<br>
&gt; I doubt that spinrite does this.<br>
<br>
</div>So do I.<br>
<div><div></div><div class="h5"><br>
&gt;&gt; fyi: hdparm has a way to force a write to Pending Sector and put new<br>
&gt;&gt; good data on it.  Thus spinrite could do this if it wanted to as well.<br>
&gt;&gt;  I certainly hope it is not doing so.<br>
&gt;<br>
&gt; My understanding is that spinrite attempts to read every sector and<br>
&gt; (eventually) write them back to the disk.  If it fails to read<br>
&gt; correctly it will start reading similarly to dd_rescue.<br>
&gt;<br>
&gt;&gt; &gt; It also doesn&#39;t mean that the sector has been reallocated.<br>
&gt;&gt;<br>
&gt;&gt; You imply a sector can be moved without it being reallocated.  I think<br>
&gt;&gt; that is wrong.  The only way to move the sector is to allocate a spare<br>
&gt;&gt; and use it instead of the original.<br>
&gt;<br>
&gt; I think he&#39;s implying that the data in the sector can be moved by<br>
&gt; software.  That can&#39;t be done without Spinrite understanding the file<br>
&gt; system and making the appropriate changes.  It definitely doesn&#39;t do<br>
&gt; this.<br>
&gt;<br>
&gt;&gt; &gt; This forces the drive&#39;s firmware to evaluate the performance at<br>
&gt;&gt; &gt; that point, and forces the surface to absorb both a 1 and 0 in turn<br>
&gt;&gt; &gt; at that point.  Also, I believe that the magnetic fields<br>
&gt;&gt; &gt; deteriorate over time.  I could probably corroborate that with some<br>
&gt;&gt; &gt; extensive research.<br>
&gt;&gt;<br>
&gt;&gt; Agreed, but I often store hard drives offline for extended periods.<br>
&gt;&gt; We rarely see read failures for drives we put back on line.  So the<br>
&gt;&gt; deteriation is very slow and not likely to be an issue.<br>
&gt;<br>
&gt; How do you know?  Sun published a lot of numbers related to silent data<br>
&gt; corruption.  ECC is pretty fallible.  Especially when it has to be used<br>
&gt; to correct data 150 million times.<br>
<br>
</div></div>We MD5 hash our major data files before we put the drives off-line.<br>
<br>
When we bring them back we do a MD5 hash verify.<br>
<br>
Very few issues seem to crop up due to offline storage.  Even if its<br>
been a year or two.<br>
<br>
We also keep tape backups when we do this and I can rarely think of us<br>
having to restore the tape.<br>
<div class="im"><br>
&gt;&gt; fyi: The DOD uses thermite in the drive platter area to heat the media<br>
&gt;&gt; to several hundred degrees.  When this happens the magnetism is<br>
&gt;&gt; released and the data is gone.<br>
&gt;<br>
&gt; The magic smoke gets out!<br>
&gt;<br>
&gt;&gt; Especially with laptop drives, you get physical damage as the flying<br>
&gt;&gt; head hits the platters from time to time.  To protect the platters,<br>
&gt;&gt; they are often actually coated with a fine coat of diamond dust.<br>
&gt;&gt; That&#39;s one reason laptop drives cost more.<br>
&gt;<br>
&gt; Laptop drives are rated for higher g forces than desktop drives.<br>
&gt; Taking both apart I wouldn&#39;t guess that, it must have something to do<br>
&gt; with the inertia of lighter parts.<br>
<br>
</div>desktop drives are not designed to have the head hit the platter.  ie.<br>
The head is meant to always fly, so a small bump makes a gauge in the<br>
platter.<br>
<br>
Laptop drives are designed for occasional contact with no damage, so<br>
more G&#39;s.  (Thus the diamond dust coating.)<br>
<div class="im"><br>
&gt;&gt; &gt; The read invert write read invert write cycle, if nothing else,<br>
&gt;&gt; &gt; will ensure that all the magnetic bits are good and strong since<br>
&gt;&gt; &gt; they are all ultimately rewritten.<br>
&gt;&gt;<br>
&gt;&gt; True, but I think normal degradation is much slower than you imply.<br>
&gt;<br>
&gt; I agree.<br>
&gt;<br>
&gt;&gt; For a drive you&#39;ve treated with spinrite, what&#39;s your ECC_Recovered /<br>
&gt;&gt; POH ratio.<br>
&gt;&gt;<br>
&gt;&gt; ie. Mine is 5000 recoveries per power on hour.  And I don&#39;t do<br>
&gt;&gt; anything to &quot;maintain&quot; it.  This is just my desktop machine.<br>
&gt;<br>
&gt; I wish we had old smart numbers for your drive.  I wonder if that ratio<br>
&gt; has been increasing over time and if so, by how much.<br>
<br>
</div>Sorry, no history available.<br>
<div class="im"><br>
&gt;&gt; I believe a smart long self test will read all of the sectors and<br>
&gt;&gt; identify those that are not ECC Recoverable.  I don&#39;t think it will<br>
&gt;&gt; actually reallocate them.<br>
&gt;<br>
&gt; I don&#39;t believe a long smart self test touches every sector.  A long<br>
&gt; test runs much too fast for that, at least on the drives I&#39;ve paid<br>
&gt; attention to.<br>
<br>
</div>Do you have a rough GB / min rate for the long test?<br>
<br>
With modern drives, I can dd if=/dev/zero of=/dev/sda bs=4k  at about<br>
6GB / min.  I can&#39;t say I&#39;ve done a lot of the long tests, but that<br>
seems about the same performance.<br>
<br>
My 250GB drive says 92 minutes to run the long test.  That&#39;s less than<br>
3GB/min, so plenty of time to do a full surface scan.<br>
<div class="im"><br>
&gt;&gt; What spinrite likely does is read the sector in various ways.  ie many<br>
&gt;&gt; data recovery tools can read the sectors in reverse order.  This<br>
&gt;&gt; causes the drive to align the head slightly differently I believe.<br>
&gt;&gt; Due to that slight change, some bad sectors can be read.  So I<br>
&gt;&gt; actually do think spinrite could have some logic to do this that<br>
&gt;&gt; normal read logic would not have.<br>
&gt;<br>
&gt; BACKUPS, BACKUPS, BACKUPS.  And then more backups.  Data recovery is<br>
&gt; for people who don&#39;t have backups :).<br>
<br>
</div>I tend to work a lot with other peoples drives, so I&#39;m the one making<br>
the backup!  (And I never see spinrite recommended by people in my<br>
industry - computer forensics.)<br>
<br>
For files I control, I tend to keep two copies of important files on a<br>
minimum of 2 media, often 3 or more.  But I&#39;ve had 2 drives fail<br>
within hours of each other!  (both young drives during the height of<br>
Seagate&#39;s problems.  Fortunately, replacing the controller card on one<br>
of the drives brought it back to life.)<br>
<div><div></div><div class="h5"><br>
&gt;&gt; &gt; Again, this may or<br>
&gt;&gt; &gt; may not trigger sector reallocation.<br>
&gt;&gt;<br>
&gt;&gt; I surely hope writing to a sector previously had read failures not<br>
&gt;&gt; handle-able via ECC recovery triggers a reallocate.<br>
&gt;<br>
&gt; If it doesn&#39;t then you&#39;re out of spare sectors and the drive is ready<br>
&gt; for the scrap heap.  This is also one of the reasons why you want to<br>
&gt; image a bad drive onto a good drive.  Once you start writing you can<br>
&gt; really screw things up even more.<br>
&gt;<br>
&gt;&gt; &gt;  Spinrite will report these data<br>
&gt;&gt; &gt; areas as recovered or unrecovered as appropriate.  The drive itself<br>
&gt;&gt; &gt; may still be fully usable, if, for example, the data error was<br>
&gt;&gt; &gt; caused by a power failure, but the drive was not damaged.  If<br>
&gt;&gt; &gt; sectors start getting reallocated, I would agree that it&#39;s time to<br>
&gt;&gt; &gt; consider changing the drive out, as I did with one of mine last<br>
&gt;&gt; &gt; night.<br>
&gt;&gt;<br>
&gt;&gt; I&#39;m not so sure I agree.  A lot of reallocates are just physical<br>
&gt;&gt; platter issues.  It used to be that drives shipped new with lots<br>
&gt;&gt; reallocated sectors.<br>
&gt;&gt;<br>
&gt;&gt; Admittedly, new ones tend to have zero anymore.<br>
&gt;<br>
&gt; Drives are cheap.  RMAing a drive is cheap.  If a drive starts acting<br>
&gt; up and doesn&#39;t want to stay in one of my RAIDs it is time to replace<br>
&gt; it.  I saw a 5900 rpm seagate 2 TB drive on sale for $100 shipped<br>
&gt; today.<br>
&gt;<br>
&gt; I could probably also argue that I don&#39;t completely trust a drive fresh<br>
&gt; out of the box, either :)<br>
<br>
</div></div>I actually like the idea of putting 20 or 30 or more operational hours<br>
on a drive before putting real data on it.  We write a single pass of<br>
zeros to new drives before putting them in service, but a couple years<br>
ago with Seagate, that was not enough of a burn in.  Maybe 3 or 4<br>
passes would have done it.<br>
<br>
&gt; Pat<br>
<font color="#888888">Greg<br>
</font><div><div></div><div class="h5"><br>
_______________________________________________<br>
Ale mailing list<br>
<a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
<a href="http://mail.ale.org/mailman/listinfo/ale" target="_blank">http://mail.ale.org/mailman/listinfo/ale</a><br>
See JOBS, ANNOUNCE and SCHOOLS lists at<br>
<a href="http://mail.ale.org/mailman/listinfo" target="_blank">http://mail.ale.org/mailman/listinfo</a><br>
</div></div></blockquote></div><br>