Titel: Download großer Dateien
Beitrag von: heinrich am 17. März 2019, 10:56:04
Hallo Suletuxe, habt Ihr auch schon mal Probleme mit dem Download von großen Dateien über Euren Internetbrowser gehabt, z.B. einer Iso-Datei? Beim Downloaden von größeren Dateien kommt es oft vor, daß der Downloadserver nach einer gewissen Zeit den Download stoppt. Dann ist es sehr mühselig, den Download zu Vollenden, weil man immer wieder von vorn beginnen muß, wenn der Server oder der Internetbrowser eine Fortsetzung nicht erlaubt bzw. die heruntergeladenen Teile des Downloads automatisch bei Abbruch des Downloads gelöscht werden. Dies kann man umgehen, wenn man einen Downloadmanager wie z.B. wget benutzt. Dieses Programm läuft im Terminal, löscht nicht die bereits downgeloadeten Teile und kann den Download an der abgebrochenen Stelle fortsetzen.
Vorgehensweise (wget muß natürlich installiert sein):
1. Man geht mit dem Programmmanager in das Downloadverzeichnis und ruft von dort das Terminal auf. Alternativ kann man auch über das Terminal in das Downloadverzeichnis gehen. 2. Zum Download gibt man im Terminal den Befehl "wget (Downloadlink www......)" ein. 3. Sollte der Download dann mittendrin stoppen, bricht man manuell den Vorgang mit Strg+c ab. Die heruntergeladenen Teile bleiben im Downloadverzeichnis erhalten und müssen nicht noch einmal heruntergeladen werden. 4. Die Fortsetzung des Downloads erreicht man mit der Terminaleingabe "wget -c (Downloadlink www....)". Dies kann man solange wiederholen, bis der Download vollständig ist.
Weitere Ausführungen zu wget siehe https://wiki.ubuntuusers.de/wget/
Viel Erfolg
Heinrich
|
Titel: Re:Download großer Dateien
Beitrag von: Chris am 08. April 2019, 08:45:03
Okay, hier [bmuss ich mich einfach mal einklinken.
1.) Webserver haben normalerweise nicht die Angewohnheit, sich nach einer bestimmten Zeit aufzuhängen. Ich hab schon öfters Dateien für mehr als 10 Stunden heruntergeladen. Solange die Verbindung stabil ist und sich nicht gerade im Bytes/Sekunde befindet, ist das normalerweise kein Problem.
2.) (...) weil man immer wieder von vorn beginnen muß, wenn der Server oder der Internetbrowser eine Fortsetzung nicht erlaubt bzw. die heruntergeladenen Teile des Downloads automatisch bei Abbruch des Downloads gelöscht werden. Dies kann man umgehen, wenn man einen Downloadmanager wie z.B. wget benutzt. (...) 4. Die Fortsetzung des Downloads erreicht man mit der Terminaleingabe "wget -c (Downloadlink www....)". Dies kann man solange wiederholen, bis der Download vollständig ist.
|
|
Kurz: Browser prüfen vor dem Download ob ein Download forgesetzt werden kann. Ist das nicht der Fall, löschen Browser unfertige Dateien gerne. Daher funktioniert der "Trick" mit wget auch nicht. Denn wenn der Server mit partiellen Downloads nichts anfangen kann, kann sich wget auf den Kopf stellen. |
Titel: Re:Download großer Dateien
Beitrag von: heinrich am 09. April 2019, 09:15:23
Hallo Chris, ich bin kein Linux-Experte, gebe aber gerne meine gemachten Erfahrungen an andere User weiter. Ab und an lade ich mir mehrere GB große ISO-Dateien von Linux-Live-Distributionen herunter. Dabei kommt es häufig zu permanenter Verlangsamung des Downloads Richtung Stillstand und danach Abbruch. Es gibt, nicht immer, also viele Fehlversuche, was zeitraubend und frustierend ist. Der "Trick", wie Du meine Anregung nennst, um den Download zeitlich erträglich zu gestalten, funktioniert bei mir wie beschrieben. Warum es bei Dir nicht funktionieren sollte, kann ich nicht beurteilen. Dein Hinweis, daß Browser unvollständige Dowloads löschen ist okay. Aber: Benötigt das Programm wget überhaupt einen Browser? Heinrich |
Titel: Re:Download großer Dateien
Beitrag von: Andreas am 09. April 2019, 09:50:56
Heinrich,
der Knackpunkt ist dass der Server auf der anderen Seite (egal ob ftp oder http) einen "Resume" beherrschen muss. Wenn der das nicht beherrscht, kannst Du machen was Du willst: es geht nicht an der Stelle weiter wo Du warst.
Und wenn er einen "Resume" beherrscht, reicht es bei auf "Blink" basierten Browsern (Chromium, Brave) aus, unten in der Downloadleiste auf den Download zu klicken und dann auf "fortsetzen". Dazu braucht es kein wget. Das braucht man nur, wenn der verwendete Browser keinen Resume beherrscht. wget beherrscht das von Haus aus.
LG Andreas |
Titel: Re:Download großer Dateien
Beitrag von: heinrich am 09. April 2019, 11:38:41
Hallo Andreas, Danke für die Info! Gruß Heinrich |
Diskussions- und Newsboard der Linux Interessen Gruppe Suletuxe | Powered by YaBB SE
© 2001-2003, YaBB SE Dev Team. All Rights Reserved.
|