<div dir="ltr">On Wed, Oct 28, 2015 at 2:19 AM, Alex Carver <span dir="ltr">&lt;<a href="mailto:agcarver+ale@acarver.net" target="_blank">agcarver+ale@acarver.net</a>&gt;</span> wrote:<br><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><span class="">On 2015-10-27 19:51, Steve Litt wrote:<br>
&gt; On Tue, 27 Oct 2015 08:02:39 -0700<br>
&gt; Alex Carver &lt;<a href="mailto:agcarver%2Bale@acarver.net">agcarver+ale@acarver.net</a>&gt; wrote:<br>
&gt;<br>
&gt;&gt; Ok, Google is failing me today.  I&#39;ve got some large files (larger<br>
&gt;&gt; than 5GB each) that I need to archive to DVD so I&#39;ll have to span<br>
&gt;&gt; DVDs.  The problem is I can&#39;t seem to find the appropriate magic<br>
&gt;&gt; incantations to accomplish this.<br>
&gt;<br>
&gt; You&#39;ve gotten a bunch of great answers to the question of how to split<br>
&gt; files. Another aspect is how to pack them onto DVDs. For instance, that<br>
&gt; last file of each split will be smaller than the DVD capacity, and if<br>
&gt; you have some files that are naturally smaller than the DVD capacity,<br>
&gt; you need to pack them too.<br>
&gt;<br>
&gt; I once wrote a Ruby program to perform a backtracking algorithm to find<br>
&gt; the very tightest way to pack files. That&#39;s the tightest alternative,<br>
&gt; but years later, I found myself loathe to modify that program (when Ruby<br>
&gt; changed versions) because it was so complicated. A slightly less<br>
&gt; efficient, but *much* simpler algorithm is to keep on writing the<br>
&gt; biggest file that will fit in the remaining space. This is especially<br>
&gt; good if you have lots of files of widely varying space.<br>
<br>
</span>Packing efficiency doesn&#39;t matter to me in general for backups (I care<br>
more about having the copy even if it takes extra media) but I also<br>
can&#39;t do anything unusual in this case because it&#39;s a work backup.<br>
Archival data has to be recoverable in the future so there&#39;s a limited<br>
set of tools that I am permitted to use to generate the archive in the<br>
first place.  So I could tar all the files into one big lump, split them<br>
with split into 4 GB chunks and burn all of those chunks (plus the small<br>
chunk that was left over at the end) onto however many DVDs it takes.<br>
That&#39;s what I did because tar and split (and later, cat for merging) are<br>
standard and accepted.  None of the final files on the DVDs are unusual<br>
(other than the DVDs having a single file with the split names of xaa,<br>
xab, etc.) and I only have to include a small text file to describe the<br>
file and the recovery method.<br>
<br>
So that&#39;s exactly what I did in this case because I had six files to<br>
archive that were over 3GB each (an 18, a 13, a 7, a 4, and a couple 3&#39;s<br>
and all of these were actually single-file backups from a specific<br>
backup program).  It worked well, I burned four DVDs with no issues.<br>
Three were full and the last was about 25% full but that&#39;s ok.<br>
<span class=""><br>
&gt;<br>
&gt;&gt;<br>
&gt;&gt; The file image and burning tools tools available are genisoimage and<br>
&gt;&gt; wodim (unfortunately no mkisofs or cdrecord, thanks Debian).<br>
&gt;<br>
&gt; Wodim is just the new name for cdrecord.<br>
&gt;<br>
&gt; I wasn&#39;t aware Debian didn&#39;t offer mkisofs. I used Wheezy til I<br>
&gt; dumpstered it in favor of Void two weeks ago, and I *know* it had<br>
&gt; growisofs, because I used growisofs every time I did a Blu-ray backup.<br>
&gt;<br>
<br>
</span>I know wodim is cdrecord except it&#39;s not, there&#39;s some bugs in wodim<br>
that aren&#39;t present in cdrecord.<br>
<br>
As for mkisofs, yes Debian pulled the wodim stunt and created<br>
genisoimage to replace mkisofs.  Growisofs is actually a symlink/script<br>
that calls genisoimage.<br>
<div class=""><div class="h5"><br>
_______________________________________________<br>
Ale mailing list<br>
<a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
<a href="http://mail.ale.org/mailman/listinfo/ale" rel="noreferrer" target="_blank">http://mail.ale.org/mailman/listinfo/ale</a><br>
See JOBS, ANNOUNCE and SCHOOLS lists at<br>
<a href="http://mail.ale.org/mailman/listinfo" rel="noreferrer" target="_blank">http://mail.ale.org/mailman/listinfo</a><br>
</div></div></blockquote></div><br><br></div><div class="gmail_extra">For archival purposes, be aware that DVDs, especially burned ones, degrade pretty quickly over time.  I&#39;d probably make a duplicate of each disc.  Also, you might consider creating parchive[1] recovery sets of all the files, so if there are partial problems when reading them back, you can hopefully recover that data from the parchive set.  There is a CentOS rpm for that somewhere.<br></div><div class="gmail_extra"><br></div><div class="gmail_extra">In the future, instead of breaking down the files into large chunks, break them down into smaller ones (like 250MB), and then you can pack them onto the disc as needed.  Also, the split command allows you to set a prefix, which is really a better way to name files than accepting the default &#39;xaa&#39; format.  Something like:<br></div><div class="gmail_extra">    split --bytes=250M datafile datafile-split.<br></div><div class="gmail_extra">will result in files named like &quot;datafile-split.aa&quot;, &quot;datafile-split.ab&quot;, etc...<br><br></div><div class="gmail_extra">[1] <a href="https://github.com/Parchive/par2cmdline">https://github.com/Parchive/par2cmdline</a><br><br clear="all"><div>~ Brian Mathis<br></div>@orev<br><br></div></div>