<div dir="ltr">Here's a second vote for using "wget -c" to restart downloads. It has worked for me many times. <div><br></div><div>Another option in this case would be to use the Manjaro torrents. Not only will it deal with download interruptions, it may download the file faster since it will be able to pull from multiple peers at once. </div>

<div><br></div><div>--</div><div>Michael Moore<br><div class="gmail_extra"><br></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Mon, Feb 24, 2014 at 12:28 PM, Harlan H. Bloom <span dir="ltr"><<a href="mailto:harlan@bloomenterprises.org" target="_blank">harlan@bloomenterprises.org</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div style="font-size:10pt;font-family:arial,helvetica,sans-serif">Does the file have a direct URL?  If so, you could use wget and just keep restarting it.  Not prettiest method, but it has worked for me several times.<br>

<br><hr><div style="font-size:12pt;font-style:normal;font-family:Helvetica,Arial,sans-serif;text-decoration:none;font-weight:normal"><b>From: </b>"Brian Wood" <<a href="mailto:woodbrian77@gmail.com" target="_blank">woodbrian77@gmail.com</a>><br>

<b>To: </b>"tclug-list" <<a href="mailto:tclug-list@mn-linux.org" target="_blank">tclug-list@mn-linux.org</a>><br><b>Sent: </b>Monday, February 24, 2014 12:22:15 PM<br><b>Subject: </b>[tclug-list] Downloads cut off<div>

<div class="h5"><br><br><div dir="ltr"><div><div><br></div>Yesterday I was downloading a Manjaro Linux file that was 1.1 gig.<br></div><div>Two times the download was stopped in the middle.  Both of those<br>times I had initiated a second download of a smaller file.  The down-<br>


</div><div>load of the smaller files completed fine, but the download of Manjaro<br></div><div>was halted before completion.  I don't have a real fast internet <br>connection, but am getting a great deal on it, so can't complain too <br>


much.  The machine I was downloading Manjaro on has Fedora <br>on it and the machine I initiated the smaller downloads on is<br></div><div>running Arch. <br></div><div>Both times the download of Manjaro had gotten over 400 meg.<br>


</div><div>It seemed like a waste of resources to download it from the <br>beginning multiple times.  Any ideas of things I could do to improve<br></div><div>the situation?  It would be nice if a download would just slow way <br>


down for a while rather than being aborted.  Thanks in advance.<br><br>-- <br><div>Brian<br>Ebenezer Enterprises - So far G-d has helped us.<br></div><div><a href="http://webEbenezer.net" target="_blank">http://webEbenezer.net</a></div>

</div>
</div>
<br></div></div>_______________________________________________<br>TCLUG Mailing List - Minneapolis/St. Paul, Minnesota<br><a href="mailto:tclug-list@mn-linux.org" target="_blank">tclug-list@mn-linux.org</a><br><a href="http://mailman.mn-linux.org/mailman/listinfo/tclug-list" target="_blank">http://mailman.mn-linux.org/mailman/listinfo/tclug-list</a><br>

</div><br></div></div><br>_______________________________________________<br>
TCLUG Mailing List - Minneapolis/St. Paul, Minnesota<br>
<a href="mailto:tclug-list@mn-linux.org">tclug-list@mn-linux.org</a><br>
<a href="http://mailman.mn-linux.org/mailman/listinfo/tclug-list" target="_blank">http://mailman.mn-linux.org/mailman/listinfo/tclug-list</a><br>
<br></blockquote></div><br></div></div></div>