Einzelnen Beitrag anzeigen
Ungelesen 17.04.13, 17:42   #9
logan517
Ausfänger
 
Benutzerbild von logan517
 
Registriert seit: Jun 2010
Beiträge: 280
Bedankt: 54
logan517 leckt gerne myGully Deckel in der Kanalisation! | 505874 Respekt Punktelogan517 leckt gerne myGully Deckel in der Kanalisation! | 505874 Respekt Punktelogan517 leckt gerne myGully Deckel in der Kanalisation! | 505874 Respekt Punktelogan517 leckt gerne myGully Deckel in der Kanalisation! | 505874 Respekt Punktelogan517 leckt gerne myGully Deckel in der Kanalisation! | 505874 Respekt Punktelogan517 leckt gerne myGully Deckel in der Kanalisation! | 505874 Respekt Punktelogan517 leckt gerne myGully Deckel in der Kanalisation! | 505874 Respekt Punktelogan517 leckt gerne myGully Deckel in der Kanalisation! | 505874 Respekt Punktelogan517 leckt gerne myGully Deckel in der Kanalisation! | 505874 Respekt Punktelogan517 leckt gerne myGully Deckel in der Kanalisation! | 505874 Respekt Punktelogan517 leckt gerne myGully Deckel in der Kanalisation! | 505874 Respekt Punkte
Standard

wget -nc ist es nur zum teil.

Zitat:
If a file is downloaded more than once in the same directory, [...] it will be preserved.
also werden die vorhandenen Dateien übersprungen/beiberhalten, falls diese gleich sin.

Fehlt nur noch die Funktion, welche die "alten" Dateien lokal löscht falls diese nicht mehr auf dem Webserver vorhanden sind.

Ich muss nicht wget benutzen, wenn jemand ein anderes Programm kennt, nehme ich dieses auch gerne.
logan517 ist offline   Mit Zitat antworten