Seiten: [1]
|
|
|
|
Autor
|
Thema: Download großer Dateien (Gelesen 2055 mal)
|
|
heinrich
Jr. Member
Offline
Einträge: 59
Ich liebe dieses Forum!
|
|
Download großer Dateien
« am: 17. März 2019, 10:56:04 »
|
|
Hallo Suletuxe, habt Ihr auch schon mal Probleme mit dem Download von großen Dateien über Euren Internetbrowser gehabt, z.B. einer Iso-Datei? Beim Downloaden von größeren Dateien kommt es oft vor, daß der Downloadserver nach einer gewissen Zeit den Download stoppt. Dann ist es sehr mühselig, den Download zu Vollenden, weil man immer wieder von vorn beginnen muß, wenn der Server oder der Internetbrowser eine Fortsetzung nicht erlaubt bzw. die heruntergeladenen Teile des Downloads automatisch bei Abbruch des Downloads gelöscht werden. Dies kann man umgehen, wenn man einen Downloadmanager wie z.B. wget benutzt. Dieses Programm läuft im Terminal, löscht nicht die bereits downgeloadeten Teile und kann den Download an der abgebrochenen Stelle fortsetzen.
Vorgehensweise (wget muß natürlich installiert sein):
1. Man geht mit dem Programmmanager in das Downloadverzeichnis und ruft von dort das Terminal auf. Alternativ kann man auch über das Terminal in das Downloadverzeichnis gehen. 2. Zum Download gibt man im Terminal den Befehl "wget (Downloadlink www......)" ein. 3. Sollte der Download dann mittendrin stoppen, bricht man manuell den Vorgang mit Strg+c ab. Die heruntergeladenen Teile bleiben im Downloadverzeichnis erhalten und müssen nicht noch einmal heruntergeladen werden. 4. Die Fortsetzung des Downloads erreicht man mit der Terminaleingabe "wget -c (Downloadlink www....)". Dies kann man solange wiederholen, bis der Download vollständig ist.
Weitere Ausführungen zu wget siehe https://wiki.ubuntuusers.de/wget/
Viel Erfolg
Heinrich
|
|
Gespeichert
|
|
|
|
Chris
Full Member
Offline
Einträge: 164
Okay, wer hat meine Kekse gegessen?
|
|
Re:Download großer Dateien
« Antwort #1 am: 08. April 2019, 08:45:03 »
|
|
Okay, hier [bmuss[/b] ich mich einfach mal einklinken.
1.) Webserver haben normalerweise nicht die Angewohnheit, sich nach einer bestimmten Zeit aufzuhängen. Ich hab schon öfters Dateien für mehr als 10 Stunden heruntergeladen. Solange die Verbindung stabil ist und sich nicht gerade im Bytes/Sekunde befindet, ist das normalerweise kein Problem.
2.) (...) weil man immer wieder von vorn beginnen muß, wenn der Server oder der Internetbrowser eine Fortsetzung nicht erlaubt bzw. die heruntergeladenen Teile des Downloads automatisch bei Abbruch des Downloads gelöscht werden. Dies kann man umgehen, wenn man einen Downloadmanager wie z.B. wget benutzt. (...) 4. Die Fortsetzung des Downloads erreicht man mit der Terminaleingabe "wget -c (Downloadlink www....)". Dies kann man solange wiederholen, bis der Download vollständig ist.
|
| Kurz: Browser prüfen vor dem Download ob ein Download forgesetzt werden kann. Ist das nicht der Fall, löschen Browser unfertige Dateien gerne. Daher funktioniert der "Trick" mit wget auch nicht. Denn wenn der Server mit partiellen Downloads nichts anfangen kann, kann sich wget auf den Kopf stellen.
|
|
Gespeichert
|
Der einzig sichere Computer der Welt ist ausgestöpselt, in einem Tresor verstaut und auf dem Meeresboden. Und nur eine Person kennt die Kombination zum Tresor. Und diese ist tot. [Bruce Schneier]
|
|
|
heinrich
Jr. Member
Offline
Einträge: 59
Ich liebe dieses Forum!
|
|
Re:Download großer Dateien
« Antwort #2 am: 09. April 2019, 09:15:23 »
|
|
Hallo Chris, ich bin kein Linux-Experte, gebe aber gerne meine gemachten Erfahrungen an andere User weiter. Ab und an lade ich mir mehrere GB große ISO-Dateien von Linux-Live-Distributionen herunter. Dabei kommt es häufig zu permanenter Verlangsamung des Downloads Richtung Stillstand und danach Abbruch. Es gibt, nicht immer, also viele Fehlversuche, was zeitraubend und frustierend ist. Der "Trick", wie Du meine Anregung nennst, um den Download zeitlich erträglich zu gestalten, funktioniert bei mir wie beschrieben. Warum es bei Dir nicht funktionieren sollte, kann ich nicht beurteilen. Dein Hinweis, daß Browser unvollständige Dowloads löschen ist okay. Aber: Benötigt das Programm wget überhaupt einen Browser? Heinrich
|
|
Gespeichert
|
|
|
|
Andreas
Administrator
Offline
Einträge: 1319
Linux von Innen
|
|
Re:Download großer Dateien
« Antwort #3 am: 09. April 2019, 09:50:56 »
|
|
Heinrich,
der Knackpunkt ist dass der Server auf der anderen Seite (egal ob ftp oder http) einen "Resume" beherrschen muss. Wenn der das nicht beherrscht, kannst Du machen was Du willst: es geht nicht an der Stelle weiter wo Du warst.
Und wenn er einen "Resume" beherrscht, reicht es bei auf "Blink" basierten Browsern (Chromium, Brave) aus, unten in der Downloadleiste auf den Download zu klicken und dann auf "fortsetzen". Dazu braucht es kein wget. Das braucht man nur, wenn der verwendete Browser keinen Resume beherrscht. wget beherrscht das von Haus aus.
LG Andreas
|
« Letzte Änderung: 09. April 2019, 09:52:09 von Andreas » |
Gespeichert
|
Wissen ist das einzige Gut, das mehr wird, wenn man es teilt - wenn es Menschen gibt, die es teilen, und es Menschen gibt, die bereit sind, dieses Geschenk auch mit eigenem Einsatz anzunehmen.
Freiheit zu erkämpfen reicht nicht. Man muss sie auch verteidigen.
Ohne IT-Kompetenz ist man heutzutage ein willkommenes Opfer und Spielball anderer, egal, welches System oder Gerät man nutzt. Nur Wissen schützt vor Schaden!
|
|
|
heinrich
Jr. Member
Offline
Einträge: 59
Ich liebe dieses Forum!
|
|
Re:Download großer Dateien
« Antwort #4 am: 09. April 2019, 11:38:41 »
|
|
Hallo Andreas, Danke für die Info! Gruß Heinrich
|
|
Gespeichert
|
|
|
|
Seiten: [1]
|
|
|
|
|
|
|