Website Backup
lima-city → Forum → Die eigene Homepage → Homepage Allgemein
angst
bild
datei
datenmenge
einzelnen galerien
einzelnen zugriffe
ftp
galerie
gezielt ordner
klasse url
komprimieren
marginal verkleinern
nachholen
ordner
paket
server
solls
url
zerbrechen
zugriff
-
Hallo, ich suche schon ne ganze Weile nach einer guten Lösung größere Bilder Galerien zu backupen.
Bei zig tausend Bildern dauert es ja sehr lange alles über ftp runterzuladen. Ich dachte vielleicht daran die einzelnen Galerien zu zippen und diese dann einzeln als ein Paket runterzuladen. Wenn es belastend für den Server ist, dann wäre ein Splitten der Pakete auch ganz nett.
Ich habe leider nur Scripte gefunden, die perl/cgi voraussetzen. Soviel ich weiß sollte es aber auch mit reinem php gehen. Ist vielleicht jemandem ein nettes Script oder Webanwendung bekannt, die zum Beispiel einen Ordner mit Bildern komprimieren kann?
(Keine Angst, ich möchte das Script nicht auf Lima laufen lassen ;))
-
Diskutiere mit und stelle Fragen: Jetzt kostenlos anmelden!
lima-city: Gratis werbefreier Webspace für deine eigene Homepage
-
Also ein fertiges Script kenn ich da nicht, aber du könntest dir ja mal die ZipArchiv-Klasse anschauen.
Aber ich weiß nicht, ob ein Script mit der Zip-Klasse überhaupt läuft, denn dazu braucht man besondere PHP-Einstellungen, sprich höchstwarscheinlich einen Webspace, wo man Zugriff auf die PHP-Konfiguration hat.
Beitrag zuletzt geändert: 1.6.2009 11:30:17 von cookies -
Das Backup über FTP wäre aber trotzdem weiterhin die beste Methode. Auch wenn es ein bisschen länger dauert, das Herunterladen einer ZIP-Datei mit allen Bilddateien wäre nicht sehr "ökologisch". Die Bilder sind ja sowieso schon stark komprimiert und so würde sich die Grösse der zu herunterladenden Datenmenge nur marginal verkleinern.
Am einfachsten wäre es natürlich, wenn man gleich alle Dateien über ein Terminal in eine TAR.GZ-Datei einfügt, die du nachträglich herunterladen könntest. Nun stellt sich aber die Frage, ob du Zugriff auf das Terminal hast. -
HI
Also BackUps lassen sich doch leicht eigenhändig anlegen. Nutze doch einfach den HTTrack Webseiten Kopierer. Der speichert Deine Webseite auf dem gewünschten Ordner auf der Festplatte - zwar nicht im .zip Format, aber das kann man ja schnell und einfach nachholen.
LG
Webdesignerin -
Das Problem sind sicherlich die vielen einzelnen Zugriffe auf Dateien. Nunja, zippen muss nicht unbedingt sein, es geht mir eigentlich darum bereits auf dem Server ein Paket zu erstellen und dieses dann am Stück runterzuladen. TAR.GZ wäre eine Möglichkeit, stimmt.
Ich hab leider überhaupt keine Ahnung von Tar.gz. Es sei denn es gibt eine bequeme Webanwendung mit einem Wizard ;)
Ich weiß nicht, ob das mit HTTrack ein Scherz war? Braucht man damit nicht noch länger wie mit FTP? Über FTP lade ich doch gezielt Ordner mit Bildern runter, während HTTrack iterativ durch alle Seiten durchlaufen muss. Ich bleib wahrscheinlich bei der FTP Lösung, dann muss ich mir auch nicht den Kopf zerbrechen. Dauert halt lange.. Was solls..
-
Diskutiere mit und stelle Fragen: Jetzt kostenlos anmelden!
lima-city: Gratis werbefreier Webspace für deine eigene Homepage