je voulais juste savoir si je sauvegarde mon serveur a partir de plesk est la meme chose que si je fasse ca via le script ci dessus ??
merci
je vais être plus explicite , je veux sauvegarder trois éléments :
- mon serveur : configuration , paramètres , logiciels , ,,, ect.
- mon site : le dossier de mes fichiers site .
- ma base de donnée
est ce que a partir de webmin ou plesk je peux créer un backup cron ?
je vous remercie en avance
merci pour ta reponse , mais chui pas trop caller ds le ssh , c'est a dire ???
sinon si tu parle du fichier backup_exlude.txt , je l'ai editer et j'ai rajouter la ligne a la fin , il ma donné ca :
Sortie de la commande /usr/mes_Scripts/backupftpovh.sh ..
[/usr/mes_Scripts/backupftpovh.sh] -->Debut de backup de /home a 15:48:25
tar: Removing leading `/' from member names
tar: /usr/local/apache/conf: Cannot stat: No such file or directory
tar: Error exit delayed from previous errors
[/usr/mes_Scripts/backupftpovh.sh] -->ERREUR TAR à 15:48:25 Backup NON effectué.
!!!
je suis sur un kimsufi sous centos
Bonjour, à l'aide du fichier d'exclusion, dans la commande des tar, ajoutes la ligne
/var/named/run-root/*
Cela fonctionne à merveille chez moi, je ne sais par contre si cela est vraiment valable pour faire une image du système ( backup root incrémental )
bonsoir ts le monde
j'ai suivi ce tuto a la lettre , mais a la fin de compte je me trouve avec cette erreur :
(désolé c un peu long , mais j'ai pas de le choix )
Sortie de la commande /usr/mes_Scripts/backupftpovh.sh ..
[/usr/mes_Scripts/backupftpovh.sh] -->Debut de backup de /home a 02:22:01
tar: Removing leading `/' from member names
tar: /usr/local/apache/conf: Cannot stat: No such file or directory
tar: /var/named/run-root/var/run/dbus/system_bus_socket: socket ignored
tar: /var/named/run-root/proc/sys/net/ipv4/route/flush: Cannot open: Permission denied
tar: /var/named/run-root/proc/sys/net/ipv6/route/flush: Cannot open: Permission denied
tar: /var/named/run-root/proc/2/task/2/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/2/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/3/task/3/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/3/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/6/task/6/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/6/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/7/task/7/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/7/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/8/task/8/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/8/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/9/task/9/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/9/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/10/task/10/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/10/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/11/task/11/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/11/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/12/task/12/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/12/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/13/task/13/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/13/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/33/task/33/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/33/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/376/task/376/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/376/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/378/task/378/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/378/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/379/task/379/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/379/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/381/task/381/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/381/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/382/task/382/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/382/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/383/task/383/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/383/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/384/task/384/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/384/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/470/task/470/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/470/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/480/task/480/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/480/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/487/task/487/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/487/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/494/task/494/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/494/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/592/task/592/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/592/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/593/task/593/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/593/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/632/task/632/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/632/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/633/task/633/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/633/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/634/task/634/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/634/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/635/task/635/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/635/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/639/task/639/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/639/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/644/task/644/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/644/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/645/task/645/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/645/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/646/task/646/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/646/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/647/task/647/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/647/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/648/task/648/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/648/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/649/task/649/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/649/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/651/task/651/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/651/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/654/task/654/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/654/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/655/task/655/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/655/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/656/task/656/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/656/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/657/task/657/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/657/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1345/task/1345/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1345/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1354/task/1354/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1354/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1355/task/1355/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1355/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1356/task/1356/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1356/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1357/task/1357/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1357/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1382/task/1382/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1382/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1385/task/1385/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1385/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1388/task/1388/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1388/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1474/task/1474/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1474/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1476/task/1476/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1476/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1494/task/1494/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1494/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1495/task/1495/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1495/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1496/task/1496/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1496/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1499/task/1499/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1499/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1516/task/1516/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1516/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1517/task/1517/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1517/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1569/task/1569/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1569/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/3504/task/3504/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/3504/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/3742/task/3742/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/3742/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/7800/task/7800/fd/3: Cannot stat: No such file or directory
tar: /var/named/run-root/proc/7800/task/7800/fdinfo/3: Cannot stat: No such file or directory
tar: /var/named/run-root/proc/7800/fd/3: Cannot stat: No such file or directory
tar: /var/named/run-root/proc/7800/fdinfo/3: Cannot stat: No such file or directory
tar: Error exit delayed from previous errors
[/usr/mes_Scripts/backupftpovh.sh] -->ERREUR TAR à 02:22:02 Backup NON effectué.
Whaow, ça c'est de la réponse, et, je ne comprends pas tout, n'ayant pas le niveau ..
Je me demandais si un backup tar de la partition root de mon disque était suffisante en terme de backup ( s'il n'y a pas certains fichiers qui passeraient à côté avec les droits et les verrous etc ... )
j'arrive bien à ouvrir mes tables sql archivées, mais quelle est la vrai différence qu'avec le dump ???
starouille
02/06/2012, 15h51

Envoyé par
nyx
Bonjour j'ai repris ce script, l'ai adapté à ma sauce pour faire backup incrémental avec
-mtime -1 & qques filtres d'exclusions de fichiers non vitaux ..
Je me pose deux simples questions ..
1) Faut-il mieux sauvegarder les fichiers .MYI de mysql ou faire un dump des bases
2) Si j'applique ceci au niveau de la partition système , pourrais-je restaurer cette dernière à l'identique en cas de plantage ?
( si je manipule mal certains fichiers ou sabote ce dernier .. )
Salut,
1)
Un dump de base . Même si en thoérie tu peux récuprer les MYI, si tu arrête/lock ta base entière (ce que mysqldump fait tout seul). Pour gagner du temps, voit du côté de mydumper par exemple, qui est un mysqldump multithread. Il lockera moins longtemps tes tables du coup.
2) Pour ma part, je pense qu'il vaut mieux faire des full pour un backup système. Le système n'étant pas amené à bouger tous les jours, il faut en réaliser en automatique tous les 15jours/1mois. Et aussi manuellement, lorsque tu fais une grosse manipulation (gros upgrade de ta distrib etc..).
Pour ma part, toutes mes partitions système sont dans un VG rootvg (ouep, je suis très Aix, donc j'applique ce principe sous linux aussi...), qui est en xfs. Ce rootvg est cloné en rootvg_alt (rootvg alterné) tous les 15jours, et une ligne est associé à grub.
Si mon OS est cassé, je boot sur le rootvg_alt dans grub, et j'ai mon système tel qu'il l'était à la dernière sauvegarde, sans pertes de données applicatives. Ce qui permet de relancer la production très très rapidement. Ensuite, je reclone mon rootvg_alt sur le rootvg, pour revenir à la normal etc..
De plus, je fais un xfs_dump de mon rootvg, qui me fait une image de ce dernier, et l'image est exportée vers un serveur de backup qui stocke les images de tous les serveurs dédiés. Au cas ou.
Enfin, un rdiffbackup passe toutes les nuits, et me backup tout mon serveur en incrémental. Il y a un backup local, qui est rsync sur un serveur de backup également (il vaut mieux avoir 2-3 endroits de sauvegardes).
Après, il y a les backups applicatifs (dump mysql toutes les heures sur 3 serveurs distants etc..)..
Et bientôt j'attaque le PRA de mon infra, afin de pouvoir relancer la prod si gros problème.
Bref, ceinture, bretelles, et parachute
Dans ton cas, avec le ftp ovh, tu pourra avec le mode rescue retrouver des fichiers, ou restaurer ton système si le backup est propre.
Pour tester ça, tu peux te créer une VM avec virtualbox chez toi, et tenter de restaurer ton serveur. Tu auras surement quelques spécificité (grub à réinstaller/configurer, le réseau aussi, les drivers spécifiques si tu en as) mais globalement, c'est comme ça que je valide mes premiers backups. J'arrive à cloner mes serveurs chez moi.
Bonjour j'ai repris ce script, l'ai adapté à ma sauce pour faire backup incrémental avec
-mtime -1 & qques filtres d'exclusions de fichiers non vitaux ..
Je me pose deux simples questions ..
1) Faut-il mieux sauvegarder les fichiers .MYI de mysql ou faire un dump des bases
2) Si j'applique ceci au niveau de la partition système , pourrais-je restaurer cette dernière à l'identique en cas de plantage ?
( si je manipule mal certains fichiers ou sabote ce dernier .. )
bonsoir, j'ai compris jusqu’à la
get 11_backupsite.tar.gz ...
mais je n'arrive toujours pas a le trouve dans mon serveur
quand vous dite il sera téléchargé dans le serveur actuel du serveur dédié
merci
###########
Je me corrige, une fois get 11_backupsite.tar.gz, je me suis connécté a mon kimsufi via ftp, et dans le dossier root je trouvre bien
root/11_backupsite.tar.gz
c'est bien ça ?
merci
Bonsoir, j'ai lu le guide ...
j'ouvre putty, je fait ça
ncftp
open -u ksxxxxx.kimsufi.com -p password123 ftpback-rbx2-45.ovh.net
puis je comprends pas en faite, je dois crée un dossier backup et déplacé le backup tar dedans ?
on sais pas récupérer par ftp alors ses données ?
merci et bonne soirée
bonjour, j'ai modifié comme vous avez cité ...
j'ai plus de message d'erreur, je recois sur mon mail cela ...
Backup effectué ą 17:09:25 Status: OK
Durée du backup: 0 minutes
Fichier: 11_backupsite.tar.gz transféré avec une taille de 186 Mb
mais j'arrive pas a localise le fichier 11_backupsite.tar.gz sur le serveur
je fait dans putty locate 11_backupsite.tar.gz
mais ça ne trouve pas
Ludo BOP
09/04/2012, 18h54
Bonjour,
Ce script est toujours d'actualité, cependant il est possible qu'il faille modifier certains paramètres pour ma part les dossiers que je sauvegarde sont les suivants (je suis en OVH release 2) :
SAVEDIR="/home" #Backup de /home SANS slash a la fin
SAVEDIR1="/usr/local/apache/conf" #Backup optionnel SANS slash a la fin
SAVEDIR2="/var/bind" #Backup optionnel SANS slash a la fin
SAVEDIR3="/var/spool/cron"
D'après le message, sur ton serveur il ne doit pas y avoir de dossier /var/named, par contre c'est probablement /var/bind
Concernant le FTP où se fait la sauvegarde, si c'est celui fourni par OVH lié au serveur dédié celui-ci n'est pas accessible depuis l'extérieur. Seul ton serveur dédié peut communiquer avec ce serveur FTP.
novadmin
14/12/2011, 16h00
Bonjour ,
Ma question est la suivante, j'ai sauvegardé des données sur le backup ovh (500 M a peu pres ) pour faire le test du backup, mais quand je vois sur le manager je trouve que y a 0 % d'espace occupé alors que quand je me connecte au backupftp j'arrive a voir les fichier et dossiers que j'ai envoyé est ce normal?
help!!
Connection aux serveurs ftpback a partir des VPS
Les serveurs ftpback acceptent que des connections à partir de l'IP principale du serveur dédié, des connections à partir des IPs failovers sera refusé. Si vous souhaitez faire des backups à partir d'un VPS avec une telle IP, ceci est possible en utilisant iptables sur le hôte pour changer l'expéditeur dans les paquets IP:
iptables -t nat -A POSTROUTING --source $IP_FAILOVER --match iprange --dst-range $IP_DU_FTP -j SNAT --to $IP_PRINCIPALE_DU_SERVEUR
Une fois testé, vous pouvez ajouter cette commande à /etc/network/interfaces pour faire une règle post-up pour eth0.
Bonjour
J'ai un serveur avec du Xen et des IP failovers sur les domU, et j'ai activé le Backup FTP.
Il semblerait que les IP failover des sous systêmes domU ne soient pas autorisées à se connecter au backup FTP.
Ca marche avec l'IP principale, configurée sur le dom0 (mais le dom0 n'a pas accès aux données des domU...).
Quelqu'un confirme ?
Y a t'il moyen d'effectuer des backups à partir des IP failovers ?
Bonjour à tous,
Je ne sais pas si cela vous aide, mais moi sur ftpback3, ca n'a pas fonctionné cette nuit. Et ce matin en manuel, cela n'a pas l'air mieux...
Ce script est vraiment pratique, mais quand il plante, on ne sait pas trop pourquoi (je n'ai jamais trouvé de corrélation entre un plantage du backup et un incident déclaré dans les travaux OVH)
Cdt,
MCPC
Pour moi aussi, ce n'est pas un problème de place, ayant à peine utilisé 1 % du FTP. Par contre, c'est clairement à la connexion que ça bloque, soit les identifiants (mais j'ai vérifié manuellement, pas de souci), soit en tentant de copier les fichiers de sauvegarde.
Étonnamment, un "ls -al" sur "/" ne m'affiche pas clairement le répertoire ovh-V2. Y'aurait-il un lien de cause à effet ?
Bonjour à tous !
J'utilise depuis un mois à peu près le script de Dansteph pour faire le backup de mes serveurs. Mais depuis cette nuit, j'ai un soucis cela ne fonctionne plus du tout sur aucun des serveurs.
Aujourd'hui, pour savoir ce qu'il se passait, j'ai lancé manuellement le script et voila l'erreur que ça m'affiche :
Code:
ncftpput /home/backupsite/28_backupsite.tar.gz: server said: Rename/move failure: Read-only file system
Ca ne peut pas être un manque de place, car je suis loin de pouvoir remplir le backup en un mois (après vérification sur un des backups j'ai même pas rempli 10% de la capacité totale du disque).
Avez-vous une idée ou une solution ?
Merci d'avance.
Bonjour à l'auteur de ce topic.
Le script fonctionnait sans aucun problème depuis au moins deux mois, mais là, apparemment, ça pédale un peu dans la choucroute, alors que je n'ai rien touché aux paramètres.... Non, pas taper sur tête, ce n'est pas l'interface chaise clavier qui est en cause !!!
Voici le message d'erreur :
ETAT DE VOTRE SAUVEGARDE pour le 28-04-09
---------------------------------
xxxxxxxx Sauvegarde sql ok.
xxxxxxxx Sauvegarde ok.
ERREUR lors l'envoie de xxxxxxxxx sur votre FTP /n
---------------------------------
vpopmail Sauvegarde ok.
ERREUR lors l'envoie de vpopmail sur votre FTP /n
Une idée, car en éditant les scripts, je ne comprends pas le "/n" sur la ligne "ERREUR" ?
Accessoirement, il est vrai que pour la sauvegarde de ce matin, soit le 28/04/2009, je ne trouve rien sur le serveur FTP.
Le problème est apparu depuis lundi matin ... OVH aurait-il changé quelque chose pour les backup FTP ?
Bonjour,
Je rencontre un problème avec le script au niveau de l'authentification sur le ftp.
Si je fais:
Code:
ftp -in
open ${FTP_HOTE}
---> la commande open n'est pas "executée"
SI je modifie en:
---> ca fonctionne
EN revanche je ne parvient pas à me logger avec le script suivant:
Code:
ftp -in $FTP_HOTE
user ${FTP_LOGIN} ${FTP_PASS}
---> la commande user n'est pas executée
Code:
Connected to ftpxxx.ovh.net.
220-Welcome to Pure-FTPd.
220-You are user number 7 of 5000 allowed.
220-<<
220-#########################################
220-# #
220-# Welcome on ftpxxx.ovh.net #
220-# #
220-# - OVH dedicated servers - #
220-# #
220-# http://www.ovh.com #
220-# #
220-#########################################
220->>
220-This is a private system - No anonymous login
220-IPv6 connections are also welcome on this server.
220 You will be disconnected after 15 minutes of inactivity.
Remote system type is UNIX.
Using binary mode to transfer files.
ftp> bye
/usr/local/bin/testjohn: line 17: user: command not found
Vous avez une idée?
ps: j'ai controlé plusieurs fois mes variables, elles sont correctes.
Merci d'avance
[EDIT] j'ai trouvé, je ne mettais pas les <
TBC_Ly0n
22/04/2009, 15h14
tu ne peux pas. il faut utiliser le serveur... en rescue s'il le faut.
Bonjour,
J'utilise ce script de backup que je trouve très pratique. Cependant j'aurais deux questions :
1-Je reçois régulièrement des mails me spécifiant que le back up a bien été effectué, cependant lorsque je vais sur mon manager v3 sur ovh, je remarque que l'espace est vide :
0% - Utilisés : 0 Go - Capacité : 750 Go
Or le script m'indique que l'opération a été déroulée avec succès et quand je me log sur l'espace en utilisant le script ftp, je vois une liste de fichiers ainsi que leur taille, et la date du backup.
Comment être sûr alors que je sauvegarde bien mes fichiers ?
2-Le serveur de sauvegarde n'est accessible que depuis la machine. Mais la machine plante et que je veux me connecter depuis chez moi avec un client pour récupérer le tout, comment faire ?
Merci par avance pour vos conseils
Cordialement
Yazid
Bonjour à tous!
Après une série de commandes:
"
sh backupftpovf.sh" j'ai une erreur:
nsXXXXXXX mes_scripts # sh backupftpovh.sh
[backupftpovh.sh] -->Debut de backup de /home a 14:12:12
tar: Removing leading `/' from member names
tar: /home/backupsite/22_backupsite.tar.gz: file changed as we read it
tar: /var/named: Cannot stat: No such file or directory
tar: Error exit delayed from previous errors
[backupftpovh.sh] -->ERREUR TAR
Quel pourrait être le problème?
Heu pardon mais pas compris...
Theotime
21/04/2009, 18h19
Et pour Backup SQL, c'est pas où ? ^^'
Bonjour,
J'ai trouvé un autre script, l'application peut elle se faire comme pour votre tuto mais en utilisant le script de ce post
http://forum.ovh.com/showthread.php?t=44128
Merci
gunichou
02/09/2008, 22h50

Envoyé par
pipo2525
Ta /home doit être énorme. Il y a assez de place libre sue le disque pour le backup?
65 Go
gunichou
02/09/2008, 22h48
J'ai trouvé mon soucis en même temps que je postais ... Je suis un boulet lol
En fait le soucis venait du fichier .sh ou j'avais laisseé un mauvais paramètre
Geoffroy
01/09/2008, 23h11
Pour ma part sur une Release2 ovh j'ai ça:
[...]
tar: /home: le fichier a été modifié durant sa lecture[/code]
What a nice idea.
pipo2525
01/09/2008, 22h55
début à 20H55, erreur à 22H29, bigre!
ça prend max 10 min chez moi.
Ta /home doit être énorme. Il y a assez de place libre sue le disque pour le backup?
Sinon, ftpbackup3 est down depuis plusieurs jours, si tu uploade la-dessus, il es normal d'avoir une erreur.
gunichou
01/09/2008, 22h45
Pour ma part sur une Release2 ovh j'ai ça:
sh /usr/mes_scripts/backupftpovh.sh
[/usr/mes_scripts/backupftpovh.sh] -->Debut de backup de /home a 20:55:47
tar: Retrait de « / » de tête des noms des membres
tar: /home: le fichier a été modifié durant sa lecture
[/usr/mes_scripts/backupftpovh.sh] -->ERREUR TAR à 22:29:47 Backup NON effectué.
pipo2525
03/08/2008, 13h02
eh bien, je viens d'installer le script de dansteph et hormis la modification de
SAVEDIR2="/var/named par
SAVEDIR2="/var/bind/pri, tout fonctionne parfaitement sur une gentoo-ovh_64.
Merci!
Edit: pour voir et gérer plus facilement les backups sur le ftp d'ovh, j''utilise ce script php
http://www.net2ftp.com/
Il faut bien sûr l'installer sur votre machine puisque le backup ftp d'ovh n'est accessible que depuis cette dernière. La démo sur net2ft.com ne fonctionnera donc pas.
++
Gyakatsuki
01/10/2007, 11h23
Le tuto de Dan est simple d'utilisation mais il ne fonctionne pas chez moi. voila le message d'erreur avec lequel je me retrouve. J'ai enlevé le SAVEDIR2 qui n'est pas sur ma release 2 ovh gentoo
Code:
mes_scripts # sh backupftpovh.sh
: command not foundne 2:
: command not foundne 12:
: command not foundne 24:
: command not foundne 30:
: command not foundne 32:
': not a valid identifier declare: `CDERR
: command not foundne 47:
[backupftpovh.sh] -->Debut de backup de /home a 11:07:39
: command not foundne 52:
tar: Retrait de « / » de tête des noms des membres
tar: \r: ne peut stat: Aucun fichier ou répertoire de ce type
tar: Statut d'erreur reporté d'erreurs précédentes.
backupftpovh.sh: line 85: syntax error: unexpected end of file
salut,
ils sont en train de migrer les machines,donc tout est debranché.
Voilà pkoi j ai acheté un disque externe mais là aussi ils en ont plus,donc pas moyen de sauvegarder,bravo ovh...
J'ai reçu un message d'ovh m'informant de la migration du service de backup FTP. En effet, depuis deux trois mois, nous sauvegardons nos données sur ce serveur FTP mais à présent, il ne fonctionne plus avec les mêmes codes ces jours-ci, est-ce normal ???
Car sur l'e-mail qu'ovh nous a envoyé, ils disent que normalement, cela se fera le 26 septembre, or nous ne sommes que le 20/09 encore, donc quel est le problème svp ??? avez-vous une idée ? cela vient-il de là ??
Aie aie aie,
Depuis quelques jours, je reçois des e-mails avec : BACKUP NON EFFECTUE !!!
Et quand je regarde mon fichier de sauvegarde, il m'écrit :
Code:
Warning: ftp_login() expects parameter 1 to be resource, boolean given in /home/xxxxx/www/xxxxxxxxx/sauvegarde.php on line 34
La connexion FTP a échoué !Tentative de connexion au serveur
Si quelqu'un pouvait m'aider svp ?? c'est à cause de quoi ? pourtant il a marché pendant deux mois !
Comment récupérer mon fichier de sauvegarde alors ? j'ai peur de faire une bêtise lol ; tout est en anglais et je ne suis pas sûr de tout comprendre... voici ce que j'ai fait :
Code:
Logged in to 91.xxx.xx.x
ncftp / > ls
01_backupsite.tar.gz 07_backupsite.tar.gz 13_backupsite.tar.gz 19_backupsite.tar.gz 25_backupsite.tar.gz 31_backupsite.tar.gz
02_backupsite.tar.gz 08_backupsite.tar.gz 14_backupsite.tar.gz 20_backupsite.tar.gz 26_backupsite.tar.gz -R/
03_backupsite.tar.gz 09_backupsite.tar.gz 15_backupsite.tar.gz 21_backupsite.tar.gz 27_backupsite.tar.gz
04_backupsite.tar.gz 10_backupsite.tar.gz 16_backupsite.tar.gz 22_backupsite.tar.gz 28_backupsite.tar.gz
05_backupsite.tar.gz 11_backupsite.tar.gz 17_backupsite.tar.gz 23_backupsite.tar.gz 29_backupsite.tar.gz
06_backupsite.tar.gz 12_backupsite.tar.gz 18_backupsite.tar.gz 24_backupsite.tar.gz 30_backupsite.tar.gz
ncftp / > help
Commands may be abbreviated. 'help showall' shows hidden and unsupported
commands. 'help ' gives a brief description of .
ascii cat get lookup mkdir pwd set
bgget cd help lpage open quit show
bgput chmod jobs lpwd page quote site
bgstart close lcd lrename passive rename type
binary debug lchmod lrm pdir rhelp umask
bookmark dir lls lrmdir pls rm version
bookmarks edit lmkdir ls put rmdir
For details, please see the manual ("man ncftp" at your regular shell prompt
or online at http://www.NcFTP.com/ncftp/doc/ncftp.html).
ncftp / > help get
get: fetches files from the remote host.
Usage: get [-flags] file1 [file2...]
Flags:
-R : Recursive. Useful for fetching whole directories.
-z : Get the remote file X, and name it to Y.
-a : Get files using ASCII mode.
-A : Append entire remote file to the local file.
-f : Force overwrite (do not try to auto-resume transfers).
Examples:
get README
get README.*
get "**Name with stars and spaces in it**"
get -R new-files-directory
get -z WIN.INI ~/junk/windows-init-file
For details, please see the manual ("man ncftp" at your regular shell prompt
or online at http://www.NcFTP.com/ncftp/doc/ncftp.html).
ncftp / >
Comment puis-je récupérer 16_backupsite.tar.gz sur le dédié svp ???
get -a 16_backupsite.tar.gz ?????
esperanza
04/09/2007, 09h55

Envoyé par
secrire
Maintenant, comment faire pour le récupérer sur mon disque dur ??? wget ??? Merci pour vos réponses
Tu parles du disque dur de ton pc ou du serveur dédié ?
Si c'est celui de ton pc, tu ne peux pas directement à partir du disque de sauvegarde vu que c'est ton dédié qui est connecté dessus... Il te faut donc rapatrier du disque de sauvegarde vers ton serveur, puis éventuellement du serveur vers ton pc.
Une fois connecté sur le disque de sauvegarde avec putty tu peux taper help, cela va te donner toutes les commandes disponibles. Ensuite si tu tapes par exemple "help get" tu aura les infos sur ce que fais la commande get, et idem pour toutes les autres commandes...
Merci esperanza,
j'ai réussi à me connecter via Putty sur le serveur de sauvegarde et en faisant un petit ls, je vois bien mes fichiers de sauvegarde.
Maintenant, comment faire pour le récupérer sur mon disque dur ??? wget ??? Merci pour vos réponses
esperanza
03/09/2007, 14h16

Envoyé par
secrire
Car j'ai bien mis l'accès sur le FTP d'ovh... avec l'adresse ip + nsxxxxx.ovh.net et le mdtp, ils m'ont envoyé des identifiants + mdp mais impossible de me connecter sur le serveur FTP avec ces identifiants et pourtant, la sauvegarde marche bien apparemment... mais où ??
Il te faut te connecter sur le serveur de sauvegarde mais cela ne fonctionne qu'a partir de ton serveur dédié, tu n'arrivera jamais à faire un FTP direct de ton pc chez toi sur le serveur de sauvegarde...
Donc tu te connecte en SSH sur ton dédié et à partir de ce dernier tu te connectes sur le serveur de sauvegarde...
Moi, je trouve le script de DanSteph génial sauf que je ne sais pas où l'on peut récupérer les données... alors si un jour, je veux restaurer mes sites à cause d'un problème, je serais mal... Pourtant, je sais qu'il marche vu que mon fichier sauvegarde.php affiche :
Code:
01_backupsite.tar.gz 463623789 octets Sep 1 - 21:00
02_backupsite.tar.gz 464805966 octets Sep 2 - 21:00
03_backupsite.tar.gz 466177609 octets Sep 3 - 11:00
04_backupsite.tar.gz 350968018 octets Aug 4 - 21:00
05_backupsite.tar.gz 351137971 octets Aug 5 - 21:00
06_backupsite.tar.gz 371441491 octets Aug 6 - 21:01
07_backupsite.tar.gz 371869745 octets Aug 7 - 21:00
08_backupsite.tar.gz 396896606 octets Aug 8 - 21:01
09_backupsite.tar.gz 400553391 octets Aug 9 - 21:01
10_backupsite.tar.gz 401166056 octets Aug 10 - 21:01
11_backupsite.tar.gz 401535698 octets Aug 11 - 21:01
12_backupsite.tar.gz 401825754 octets Aug 12 - 21:01
13_backupsite.tar.gz 403617017 octets Aug 13 - 21:01
14_backupsite.tar.gz 402102738 octets Aug 14 - 21:00
15_backupsite.tar.gz 402419780 octets Aug 15 - 21:00
16_backupsite.tar.gz 402766975 octets Aug 16 - 21:00
17_backupsite.tar.gz 403089110 octets Aug 17 - 21:00
18_backupsite.tar.gz 403276471 octets Aug 18 - 21:00
19_backupsite.tar.gz 403550507 octets Aug 19 - 21:00
20_backupsite.tar.gz 406711058 octets Aug 20 - 21:00
21_backupsite.tar.gz 407772207 octets Aug 21 - 21:00
22_backupsite.tar.gz 408839670 octets Aug 22 - 21:00
23_backupsite.tar.gz 413935462 octets Aug 23 - 21:00
24_backupsite.tar.gz 416251625 octets Aug 24 - 21:00
25_backupsite.tar.gz 416560173 octets Aug 25 - 21:00
26_backupsite.tar.gz 416865652 octets Aug 26 - 21:00
27_backupsite.tar.gz 418517677 octets Aug 27 - 21:00
28_backupsite.tar.gz 421518306 octets Aug 28 - 21:00
29_backupsite.tar.gz 427050409 octets Aug 29 - 21:00
30_backupsite.tar.gz 461543300 octets Aug 30 - 21:00
31_backupsite.tar.gz 463248137 octets Aug 31 - 21:00
Donc si vous savez comment faire pour récupérer le .tar, n'hésitez pas à me dire merci
Car j'ai bien mis l'accès sur le FTP d'ovh... avec l'adresse ip + nsxxxxx.ovh.net et le mdtp, ils m'ont envoyé des identifiants + mdp mais impossible de me connecter sur le serveur FTP avec ces identifiants et pourtant, la sauvegarde marche bien apparemment... mais où ??
Quelqu'un arrive t'il a bien exploiter le script de Dan pour des tars multivolume...
Si oui, je récupérerais bien le script... Mon but étant de pouvoir zipper tout le /home sans dépasser la limite des 2Go...
Bon j ai toujours rien, j arrete le processus,retour case depart :'(
oki,
je me pince le nez et je me lance en apnée.
merci beaucoup,je vais check d ici une heure voir ce que ca donne
esperanza
28/08/2007, 15h57
Je viens de faire le test en utilisant la même commande mais en sauvegardant un dossier plus petit au lieu de /home...
En fait ca met bien en cache puis ça envoie au fur et à mesure...
Le dossier backup viens juste d'apparaitre alors que j'avais lancé il y a 5mn...
Je suppose qu'il faut donc attendre, faire un ls de temps en temps et éviter de lancer plusieurs fois la commande d'affilée sous peine de faire écrouler la machine...
nop j ai rien du tout,c est ca le hic,
tu utilises quoi toi pour tes backup sur le ftp ?
salutations
esperanza
28/08/2007, 15h43
Aucune idée je ne connais pas cette commande...
A priori il met en Spool puis il envoie.
Sur le serveur de sauvegarde en faisant un cd backup puis un ls il n'y a rien ?
salut esperanza,
je viens d essayer ca:
ncftpput -b -u nsxxxxx.ovh.net -p xxxxxxxx 91.121.70.2 -R -m /backup /home/*
voilà ce que ca me mettais:
+ Spooled; sending remotely as -R/-m.
+ Spooled; sending remotely as -R/backup.
+ Spooled; sending remotely as -R/aero.
+ Spooled; sending remotely as -R/ant.
+ Spooled; sending remotely as -R/aquota.user.
+ Spooled; sending remotely as -R/backupsite.
+ Spooled; sending remotely as -R/beck.
+ Spooled; sending remotely as -R/cedric.
+ Spooled; sending remotely as -R/ftp.
+ Spooled; sending remotely as -R/glissema.
+ Spooled; sending remotely as -R/gmportal.
+ Spooled; sending remotely as -R/log.
+ Spooled; sending remotely as -R/lost+found.
+ Spooled; sending remotely as -R/mysql.
+ Spooled; sending remotely as -R/noc.
+ Spooled; sending remotely as -R/ovh.
+ Spooled; sending remotely as -R/ovhm.
+ Spooled; sending remotely as -R/progrv.
+ Spooled; sending remotely as -R/radio.
+ Spooled; sending remotely as -R/roots.
+ Spooled; sending remotely as -R/salomon.
+ Spooled; sending remotely as -R/tontons.
+ Spooled; sending remotely as -R/upload.
+ Spooled; sending remotely as -R/vpopmail.
+ Spooled; sending remotely as -R/wooloo.
et sur le ftp un ls dans /backup me donne ca:
257 "/backup" is current directory.
ftp> ls
200 PORT command successful
150 Opening ASCII mode data connection for file list
226 Transfer complete.
ftp>
rien du tout sur le serveur distant :'( aurais je loupé qqchose?
merci bien pour ton temps
salutations
esperanza
28/08/2007, 15h28
ncftp -u login -p pass ip
ou
ncftpput -b -E -u login -p pass ip -R -m /home /home
Et toi tu fais un
ncftp -b -E -u login -p pass ip -R -m /home /home
Cherche l'erreur...
salut,
je pensais que cette ligne etait supposé faire du push de mon /home sur mon ftp de backup non?
je pige pas pkoi la syntaxe est refusée,
c est quoi la diff avec ncftpput?
remerciments
esperanza
28/08/2007, 15h05

Envoyé par
nocomp
ncftp -b -E -u ns35xxxx.ovh.net -p xxxxxxxx 91.121.70.2 -R -m /home /home
C'est pour te connecter au FTP de sauvegarde tout ça ?
Pourquoi tu ne garde pas ce que tu avait pour lancer le transfert vu que ça marchait ?
hummm pas été plus chanceu...
ncftp -b -E -u ns35xxxx.ovh.net -p xxxxxxxx 91.121.70.2 -R -m /home /home
Usage: ncftp [flags] [
| ]
Flags:
-u XX Use username XX instead of anonymous.
-p XX Use password XX with the username.
-P XX Use port number XX instead of the default FTP service port (21).
-j XX Use account XX with the username (rarely needed).
-F Dump a sample $HOME/.ncftp/firewall prefs file to stdout and exit.
Program version: NcFTP 3.1.9/190 Mar 24 2005, 07:18 PM
Library version: LibNcFTP 3.1.9 (March 19, 2005)
System: Linux localhost 2.6.15-gentoo-r7 #5 SMP Tue May 9 15:33:1...
This is a freeware program by Mike Gleason (http://www.NcFTP.com).
A directory URL ends in a slash, i.e. ftp://ftp.freebsd.org/pub/FreeBSD/
Use ncftpget and ncftpput for command-line FTP and file URLs.
raaaaaaaaaaaaaaaaaaaaaaaaaaaaa
par exmaple sur un forum j ai trouvé ca:
ncftpput -b -E -u $LOGIN -p $PASS $IP -R -m /home /home
mais là dessus je vois pas comment on peu faire de l incrementiel en temps reel.
/mode desesperé ON
salut, seul hic c est que à chaques fois que j heberge un nouveau site je dois modifer le script non ? y a une requete qui existe pour tar un ensemble de dir en excluant certains dirs?
remerciments
esperanza
28/08/2007, 14h31
Suffit de faire un tar sur les dossiers essentiels, pas besoin de sauvegarder tout le home à mon avis mais bon, la aussi question de choix...
Apres pour l'automatisation, une fois le script fait ça marche tout seul...
salut esperanza,
c est exactement ce que j essaye de faire,mais en fait vu le partitionnage,je peux pas copier mon /home ailleur:
ns351461 / # df -h
Sys. de fich. Tail. Occ. Disp. %Occ. Monté sur
/dev/md/1 2,9G 1,7G 1,1G 61% /
udev 498M 0 498M 0% /dev
/dev/md/2 226G 5,1G 210G 3% /home
shm 498M 0 498M 0% /dev/shm
il fait 16gb ,donc il faut soit que je upload le home à la vollé sans le tar, ou que je tar les dir en les nomant,mais c est la misere pour faire du "tout auto matique"
pas d autres choix non ?
remerciments
esperanza
28/08/2007, 14h18
Tu peux adapter le script selon tes besoins, il ne faut pas toujours recopier tel que. Si tu suis mon raisonnement, je me vois mal zipper un dossier dans lequel je dois placer mon zip autrement je vais zipper le zip que je suis en train de faire ou alors je vais bloquer le zip...
Essaye de créer un dossier en dehors du /home (vu que tu veux sauvegarder tout le /home) dans lequel tu place ton script et tu change l'endroit de la sauvegarde (tu met le dossier que tu viens de créer). Tu vire la partie transfert ftp pour faire tes tests et tu vois déjà ce que ça donne, si ça fonctionne alors tu remet le transfert et tu vérifie si c'est ok... Pas à pas pour voir ou ça coince...
Pour le tar, moi je fais un tar czf et je ne gzip pas, mais c'est à chacun de voir...
Enfin pour le tranfert perso je fais un :
ncftp -u login -p pass ip<< EOF
cd "dossier distant de sauvegarde"
-------
(Je fais une sauvegarde par domaine / bdd et par jour dans un dossier différent qui est automatiquement écrasé au bout de 30 jours par la nouvelle sauvegarde, cela me permet d'avoir 30 jours de backup des sites au cas ou un webmaster fasse une connerie et ne s'en rende compte que plusieurs jours plus tard).
-------
lcd "Dossier local ou se trouve le tar.gz"
put "le fichier"
bye
EOF
La aussi c'est à personaliser suivant ce que l'on souhaite faire.
salut esperanza,
j ai simplement suivit un script qui a été publié sur ce forum,j essaye de trouver des solutions,mais pour l instant c est la ramade complete.
totu ce que je veux c est avoir une copy exacte et automatique de mon /home sur le serveur de backup,la maniere de le faire m indiffere.
là je suis en train de regarder rdiff-backup mais j ai pas l impression qu on peu sortir en ftp,juste sftp donc pas possible de mettre (à moin que je me trompes) les fichiers sur le serveur.
si tu as une solution je suis tetra preneur
remerciments && salutations
esperanza
28/08/2007, 13h59
Tu enregistre ton tar dans le dossier que tu veux zipper ? Bizare ça.
Ca risque pas de faire une boucle sur le fichier tar ça ? Il tar le fichier qu'il est en train de tar etc etc... A mon avis le fichier qui est 4 fois plus gros que prévu c'est normal...
En plus je ne vois pas trop l'interet de faire un gzip sur un tar mais bon...
hello tout le monde,
bon, j ai essayé un script,ce que je pige pas c est qu au lieu d avoir un bckup de 5gb ca faisait 19gb et le serveur a pas supporté le reboot.
voilà le script au cas où ca interesse qqun,j arrete d esperer quoi que ce soit
#!/bin/bash
# Compression d'un dou de plusieurs repertoires (exemple : /home)
tar cf /home/backupsite/bckpsite.tar /home
gzip -f /home/backupsite/bckpsite.tar
# Transfert avec ftp
ftp -in <
open 91.121.70.xx
user nsxxxxxxx.ovh.net xxxxxxxx
bin
hash
prompt
lcd /home/backupsite
put bckpsite.tar.gz
bye
rebonsoir,
apres avoir relu le site de l auteur des scripts, j ai fait un essais en virant tous les rep à ne pas backup sauf le rep de sauvegarde, et toujours le meme resultat :'(
y a vraiment personne qui pourrais me donner une piste? je veux juste pouvoir fair un tar de dir dans /home et le ftp
remerciments
voilà l arborescence de ce qu il y a dans la mini archive de sauvegarde:
temp # tar -xvf 27_new-backupsite.tar.gz
usr/local/apache/conf/
usr/local/apache/conf/ssl.crt/
usr/local/apache/conf/ssl.crt/server.crt
usr/local/apache/conf/ssl.key/
usr/local/apache/conf/ssl.key/server.key
usr/local/apache/conf/mime.types
usr/local/apache/conf/magic
usr/local/apache/conf/highperformance-std.conf
usr/local/apache/conf/highperformance.conf
usr/local/apache/conf/httpd-std.conf
usr/local/apache/conf/httpd.conf
usr/local/apache/conf/httpd.conf.old
usr/local/apache/conf/ssl-std.conf
usr/local/apache/conf/ssl.conf
var/run/named/
var/run/named/named.pid
rien concernant /home et pourtant mon fichier de conf des rep à excure est normal avec des repertoires existants:
backupsite # more backup_exclude.txt
/home/backupsite
/home/ovh
/home/log
là je sais vraiment plus quoi faire, j ai vraiment besoin de votre aide.
remerciments
Bonsoir tout le monde,
j ai re suivit le tutoriel, re wget les fichiers au cas où je les aurais corrompu et j ai toujours des sauvegardes de 52 kb.....
suis je le seul à avoir ce probleme pour que personne ne me reponde?
Voilà les backups:
http://no-comp.net/backup.php
salutations
bouuuuuuuu :'( personne pour m aiguiller chu en train de peter un cable là
helppppppppppppppppp plzzzzzzzzzzzzzzzzzzzzzzz
salutations
je viens de voir la liste des fichiers sur el serveur ftp de backup ,et là j ai une sauvegarde de 50kb!!!
Liste des fichiers sur le FTP:
27_backupsite.tar.gz 52404 octets Aug 27 - 10:36
de quoi ca peu venir?
Le truc bizarre c est que la premiere fois que j ai lancé le script j avais 5gb de backup,zarb
salutations && remerciments

Envoyé par
nocomp
Bon apparament ca à l air de marcher:
backup-manager-0.6.2 # ls -ltrh /home/backupsite/
total 3,2G
-rw-r--r-- 1 root root 37 jui 23 2006 backup_exclude.txt
-rw-r--r-- 1 root root 3,2G aoû 27 12:08 27_backupsite.tar.gz
ns3xxxx1 backup-manager-0.6.2 #
Bonjour tout le monde,
pti soucis,
j ai bien recu le mail de confirmation de fin de creation de l archive de backup
Backup effectué à 12:15:27 Status: OK
Durée du backup: 15 minutes
Fichier: 27_backupsite.tar.gz transféré avec une taille de 3666 Mb
seul hic, l archive à disparue!!!
backupsite # ls -ltrh
total 4,0K
-rw-r--r-- 1 root root 37 jui 23 2006 backup_exclude.txt
si qqun a une explication, je suis preneur!
1000 mercis

Envoyé par
nocomp
hello tout le monde,
je viens de faire mon backup avec les infos et scripts sur ce lien:
http://www.dansteph.com/backupftp.php
J ai bien recu le mail de confirmation:
Backup effectué à 11:00:05 Status: OK
Durée du backup: 13 minutes
Fichier: 27_backupsite.tar.gz transféré avec une taille de 0 Mb
et là le 0MB interpelle, alors un pti coup de shell:
ns3xxxx1 mes_scripts # ls -ltrh /home/backupsite/27_backupsite.tar.gz
ls: /home/backupsite/27_backupsite.tar.gz: Aucun fichier ou répertoire de ce type
ns3xxxx1 mes_scripts #
qqun aurait eu le meme probleme que moi?
comment regler ca?
remerciments
Bon apparament ca à l air de marcher:
backup-manager-0.6.2 # ls -ltrh /home/backupsite/
total 3,2G
-rw-r--r-- 1 root root 37 jui 23 2006 backup_exclude.txt
-rw-r--r-- 1 root root 3,2G aoû 27 12:08 27_backupsite.tar.gz
ns3xxxx1 backup-manager-0.6.2 #

Envoyé par
pmadfm
Bonjour,
Joli tuto, merci bien.
En fait le test est concluant, mais je vais rester avec backup_manager (gratuit) et qui prends en charge l'incrémental et les bases mysql. Depuis la dernière version on même utiliser _all_ pour sauvegarder toutes les tables.
En tout cas merci pour ce travail qui fonctionne parfaitement.
CDT
Désolé je savais pas que ca s apellait bacula, j avais cherché
http://www.google.fr/search?q=backup_manager&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:frfficial&client=firefox-a
pkoi tu as effacé ton post?
hello tout le monde,
je viens de faire mon backup avec les infos et scripts sur ce lien:
http://www.dansteph.com/backupftp.php
J ai bien recu le mail de confirmation:
Backup effectué à 11:00:05 Status: OK
Durée du backup: 13 minutes
Fichier: 27_backupsite.tar.gz transféré avec une taille de 0 Mb
et là le 0MB interpelle, alors un pti coup de shell:
ns351461 mes_scripts # ls -ltrh /home/backupsite/27_backupsite.tar.gz
ls: /home/backupsite/27_backupsite.tar.gz: Aucun fichier ou répertoire de ce type
ns351461 mes_scripts #
qqun aurait eu le meme probleme que moi?
comment regler ca?
remerciments
Ludwig-M
27/08/2007, 11h00
désolé , à supprimer

Envoyé par
pmadfm
Bonjour,
Joli tuto, merci bien.
En fait le test est concluant, mais je vais rester avec backup_manager (gratuit) et qui prends en charge l'incrémental et les bases mysql. Depuis la dernière version on même utiliser _all_ pour sauvegarder toutes les tables.
En tout cas merci pour ce travail qui fonctionne parfaitement.
CDT
salut pmadfm,
tu aurais un lien je trouve rien sur le net.
remerciments
Les utilisateurs Linux qui veulent faires des backup serieuses devraient tous regarder bacula. Cet outil est dispo en standard sur toutes les distribs, et repond reellement au problemes de gestion des sauvegardes.
- sauvegardes totales/inscrementales automatiques
- rotation des fichiers avec gestion de la retention des modifs
- restaure automatique avec recomposition de l'etat a un jours donné
etc ...
Conclusion: surement plus complique qu'un simple tar+rsync mais ca vaut reellement la peine de perdre un peu de temps pour comprendre la logique.
PS: j'utilise Bacula sur 3 sites depuis plus d'un an, et j'ai deja du faire des restaurations partielles et totales. Je peux donc certifier que non seulement les sauvegardes fonctionnent mais aussi les restores
Bonjour,
Joli tuto, merci bien.
En fait le test est concluant, mais je vais rester avec backup_manager (gratuit) et qui prends en charge l'incrémental et les bases mysql. Depuis la dernière version on même utiliser _all_ pour sauvegarder toutes les tables.
En tout cas merci pour ce travail qui fonctionne parfaitement.
CDT
VarioFlux
16/08/2007, 14h58
Bonjour,
Je tente d'installer le script de DanSteph
Je suis en Redhat 7.2
J'ai fais la modif pour virer le SAVEDIR2 comme dit plus haut, à tout hasard...
AU bout de 10mn environ :
Code:
[backupftpovh.sh] -->Debut de backup de /home a 14:40:21
tar: Removing leading `/' from member names
tar: /home/mysql/mysql.sock: socket ignored
tar: /home/mysql/tracking/tracking.MYD: file changed as we read it
[backupftpovh.sh] -->ERREUR TAR à 14:50:25 Backup NON effectué.
Pourtant j'ai de la place :
Code:
[root@ns32xxx backupsite]# ls -l
total 1636996
-rw-r--r-- 1 root root 1674637014 aoû 16 14:50 16_backupsite.tar.gz
-rw-r--r-- 1 root root 37 jui 23 2006 backup_exclude.txt
[root@ns32xxx backupsite]# df
Filesystem 1k-blocks Used Available Use% Mounted on
/dev/hda1 2016016 951736 961868 50% /
/dev/hda2 35925864 5139832 28961048 16% /home
none 252840 0 252840 0% /dev/shm
/dev/hdc1 38456308 4403256 32099552 13% /backup
Je ne vois pas le problème ?
help ?
Je ne comprends pas, car j'ai bien les backup qui marchent mais lorsqu'on se connecte sur le Backup FTP d'ovh dans le manager, il reste à zéro Ko !!
De plus, je ne sais pas combien j'ai de place et j'aimerais savoir s'il peut être possible de supprimer les vieilles backup... toutes les deux semaines par exemple...
De plus, je reçois sur mes emails toutes les heures un email BACKUP FTP OVH OK avec pour message :
Code:
Backup effectué à telle heure Status OK
Durée du backup : 1 minutes
Fichier : 10_backupsite.tar.gz transféré avec une taille de 400 Mb
Comment arrêter cet envoi massif vers mes emails du dédié svp ???
Re-bonjour,
Et ça continue alors j'espère que ça ne craint pas ????
02_backupsite.tar.gz 357683896 octets Aug 2 - 21:01
03_backupsite.tar.gz 350730462 octets Aug 3 - 21:00
04_backupsite.tar.gz 350968018 octets Aug 4 - 21:00
05_backupsite.tar.gz 351137971 octets Aug 5 - 21:00
06_backupsite.tar.gz 371441491 octets Aug 6 - 21:01
07_backupsite.tar.gz 371869745 octets Aug 7 - 21:00
08_backupsite.tar.gz 396896606 octets Aug 8 - 21:01
09_backupsite.tar.gz 397370746 octets Aug 9 - 09:00
Comment savoir si le FTP sera plein ou non ???
Et vu que je fais tous les jours la sauvegarde, aurai-je toujours de la place ?? ou faut-il supprimer de temps en temps les sauvegardes ???
Je ne vois pas où se sauvegardent les données... j'avais mis un FTP qu'ovh m'avait envoyé, mais je ne suis pas sûr que ça y vient bien dessus et je ne peux pas y accéder avec un FTP, bizarre... et pourtant, cela me dit que c'est bien sauvegardé !
Pour l'instant, j'ai :
Liste des fichiers sur le FTP:
02_backupsite.tar.gz 357683896 octets Aug 2 - 21:01
03_backupsite.tar.gz 350730462 octets Aug 3 - 21:00
04_backupsite.tar.gz 350968018 octets Aug 4 - 21:00
05_backupsite.tar.gz 351137971 octets Aug 5 - 21:00
06_backupsite.tar.gz 371200811 octets Aug 6 - 12:00
J'ai utilisé le backup de Dan moi aussi, le fichier s'est bien téléchargé dans /home/backupsite/02_backupsite.tar.gz
Maintenant, comment faire pour le récupérer ???
Bon...
J'ai laissé vide le fichier backup_exclude.txt et lancé le script et apparemment ça marche.
Le seul souci, c'est que j'ai lancé une tâche cron sur ce srcipt pour les 1,8,15,23,30 de chaque mois. On est le 2 et la sauvegarde du 1 ne s'est pas faite... quelqu'un aurait-il une explication possible de cette défaillance ?
Merci d'avance pour vos réponses.
Bonjour,
Je veux utiliser le script proposé ici
http://www.dansteph.com/backupftp.php par dansteph.
Le problème étant que je veux enlever les restrictions de sauvegarde (enlever les dossiers à ne pas sauvegarder) et juste mettre les dossiers que je veux sauvegarder.
Les lignes de script sont celles là :
Code:
SAVEDIR="/home" #Backup de /home SANS slash a la fin
SAVEDIR1="/usr/local/apache/conf" #Backup optionnel SANS slash a la fin
SAVEDIR2="/var/named" #Backup optionnel SANS slash a la fin
#...
EXCLUDEFILE="/home/backupsite/backup_exclude.txt" #ce fichier doit contenir ...
#...
tar cfzX $TEMPDIR$FILENAME.gz $EXCLUDEFILE $SAVEDIR $SAVEDIR1 $SAVEDIR2
J'ai donc mis les dossiers à sauvegarder dans les variables SAVEDIR, SAVEDIR1...
Mais que dois-je mettre dans le fichier backup_exclude.txt ? Puis-je le laisser vide ?
Ou dois-je modifier la dernière ligne de code citée au dessus à savoir celle-ci :
Code:
tar cfzX $TEMPDIR$FILENAME.gz $EXCLUDEFILE $SAVEDIR $SAVEDIR1 $SAVEDIR2
Merci d'avance!

Envoyé par
MTC
Bonjour,
Ouaip, moi aussi je viens de tester le script de Danstef et j'ai la même erreur :
Je vais essayer de piger où ça coince.
C'est ptet un problème de place sur le disque.
bien pour ce problème, il est fort probable que le FTP soit configuré pour limiter la taille des fichiers transférés... pour palier à ce problème il faut découper l'archive avant de l'envoyer (pour ceux qui compressent en local avant de transférer vers le serveur)
dans le script de TheJedi, il faut modifier la commande de compression comme suit :
remplacer
Code:
tar czf ${CHEMIN_BACKUP}/${1}-${DATE_JOUR}.tar.gz ${BKP_DIRS}
par
Code:
tar -c -L 1800000 -f $CHEMIN_BACKUP/$1-$DATE_JOUR-1.tar -f $CHEMIN_BACKUP/$1-$DATE_JOUR-2.tar -f $CHEMIN_BACKUP/$1-$DATE_JOUR-3.tar $BKP_DIRS
gzip $CHEMIN_BACKUP/$1-DATE_JOUR-*.tar
l'option "-L 1800000" permet de découper les archives .tar (ici en tronçons de 1800 Mo)
les options -f spécifient les noms des archives après découpe, attention, il faut prévoir autant de noms que le nombre de tronçons nécessaires pour contenir l'ensemble de la sauvegarde.
(ça doit être faisable en automatique après un "du" des répertoires à sauvegarder mais je n'ai pas trop le temps de me pencher sur cette question)
ensuite, il faut penser à ajuster la commande de transfert pour qu'elle prenne en compte les différents fichiers de l'archive.
autrement, la solution de Yggdrasil pour compresser directement les fichiers sur le serveur distant doit résoudre le Pb de la même manière, à moins d'avoir des fichiers à sauvegarder des + de 2Go ?!
j'ai besoin de realiser une interface graphique pour le backup et merci
j'ai un projet de backup de disque à distance via ftp;est ce que ce programme marchera ??sachant que je n'ai aucune idée sur l'ovh si vous pouvez m'aidez je vous serai reconnaissante
merci
Bonjour,
Ouaip, moi aussi je viens de tester le script de Danstef et j'ai la même erreur :
ERREUR TAR à 15:24:46 Backup NON effectué.
Je vais essayer de piger où ça coince.
C'est ptet un problème de place sur le disque.
Je viens de tester le programme de Danstef et il a l'air de fonctionner car pendant environ 1h il moule et me crée bien le fichier de sauvegarde mais au bout d'une heure il me retourne l'erreur
avr 17 12:29:47 nsxxxxx root: [./backupftpovh.sh] -->ERREUR TAR à 12:29:47 Backup NON effectué.
et quand je regarde les logs il m'en dit pas plus quelqu'un aurait une idée du probleme ? est ce que l'archive serait limitée à une certaine taille ?
Merci d'avance
The Destroyeur
15/02/2007, 21h05
Puis-je prendre la fonction pour le mettre dans Easy Manager ?
sur un SP large avec gentoo 2
j'ai utilisé le script de DanStpeh, testé avec ncptfput et avec proftpput
mais j'ai les memes erreurs et ne reçoit aucun mail
mes_scripts # sh backupftpovh.sh
': not a valid identifier declare: `CDERR
[backupftpovh.sh] -->Debut de backup de /home a 17:13:44
tar: Retrait de « / » de tête des noms des membres
tar: /var/bind\r: ne peut stat: Aucun fichier ou répertoire de ce type
tar: Statut d'erreur reporté d'erreurs précédentes.
backupftpovh.sh: line 88: syntax error: unexpected end of file
il ne trouve pas var/bind qui existe et la ligne 88... il n'y a rien
le tar.gz est bien créé dans mon repertoire backupsite, mais pas envoyé
pourquoi ?
alors je me suis dit : tiens je vais essayer le script de Yggdrasil
et là rien ne se lance car:
'ackupftp.sh: line 19: syntax error near unexpected token `
'ackupftp.sh: line 19: `function BACKUP_FTP()
et là je seche aussi
Bonjour à tous,
Je cherche toujours un moyen pour adapter ce script et faire de l'ncrémentiel journalier afin que ne soit envoyé que les fichiers modifiés ou nouveaus sur le serveur BACKUP d'OVH.
Quelqu'un aurait une idée ? (sachant que j'ai juste un espace FTP et non pas d'accés en SSH sur la machine distante de sauvegarde et donc je ne peux utiliser une commande SSH, mais un script qui enverrait les fichiers)
Merci d'avance

Envoyé par
DanSteph
Merci à toi Dan pour cette prise en main pour les débutants
j'ai suivi à la lettre tes conseils, et ça marche !!!!
j'ai configuré le Cron pour lancer la sauvegarde toute les semaines, et donc j'attends maintenant mon mail qui m'annoncera la première dans une semaine.
Merci encore
Bon je ne sais pas vraiment si c'est normal mais j'ai trouvé une solution
En fait j'ai crée un dossier sur le ftp de backup et c'est dans ce dossier que je lance l'archive !
Voilà si jamais quelqu'un a le meme pb peut etre que ca pourra dépanner
@ bientot
www.orangoo.net
J'utilise le script de DanSteph qui me semble très bien mais depuis une certaine taille d'archive j'ai l'impression que ca ne fonctionne plus
[backupftpovh.sh] -->Debut de backup de /home a 10:19:47
tar: Retrait de « / » de tête des noms des membres
...kupsite/22_backupsite.tar.gz: ETA: 0:01 0.03/139.12 MB 145.35 MB/s Lost data connection to remote host: Broken pipe.
/home/backupsite/22_backupsite.tar.gz: 139.12 MB 99.42 MB/s
ncftpput /home/backupsite/22_backupsite.tar.gz: socket write error.
[backupftpovh.sh] -->ERREUR: Transfer failed. à 10:20:01 Backup NON effectué.
Je cherche ce qui peut provoquer cette erreur mais j'avoue que je ne comprend pas
Quelqu'un aurait-il une idée ?
Merci
Yggdrasil
22/01/2007, 05h03
My 2 cents là :
Backup ftp
J'ai modifié le script de The Jedi pour :
- générer directement le tar sur le ftp (on n'a pas toujours la place sur le serveur pour générer un tar en local ... pour finir quand même par le transférer sur le ftp).
- pouvoir prendre également le système en backup (tout le monde n'ayant pas opté pour le confort d'une "release").
P.S.: C'est de mémoire le premier script que j'écrit sous linux ... il n'est donc pas impossible qu'il soit (largement) perfectible ...
Bonjour,
Je rajoute juste une note pour ceux qui comme moi sont sous Release 2 (gentoo)
Il faut éditer le fichier backupftpovh.sh de DanSteph et enlever le SAVEDIR2 à cet endroit (le dossier /var/named n'existe pas sur cette release) :
#compression dun ou plusieurs repertoires choisi en parametre
tar cfzX $TEMPDIR$FILENAME.gz $EXCLUDEFILE $SAVEDIR $SAVEDIR1
Je cherche juste à rapatrier l'archive maintenant mais ca ne devrait pas etre très compliqué
Par contre la question que je me pose...
En cas de crash, vu que la sauvegarde ne contient que des données et pas de fichiers propres au systeme (et c'est tant mieux !)
Suffit-il "juste" de replacer le contenu de home au bon endroit et sous la meme release ou la manip est elle plus compliquée ?
En fait pour etre plus precis, j'ai des dossiers crées par PHP sur le serveur et c'est ces dossiers que je vais sauvegarder. Mais ceux-ci disposent de droits particuliers lorsque c'est PHP qui les crée. Alors va t il y avoir un souci lorsque je vais replacer les dossiers sur le serveur.
Je demande ca parce que j'ai vu que fopen() posait des problemes si le fichier n'était pas crée par le serveur... suis-je clair lol
Merci à vous
Merci DanSteph pour ta réponse.
Via rsync en creusant un peu j'ai trouvé quelque chose de pas mal je pense :
rsync -e ssh --force --ignore-errors --delete --delete-excluded --backup --backup-dir=backup/`date +%Y-%m-%d` -avR login@nsxxx.ovh.net:/rep_a_sauvegarder/ /rep_des_sauvegardes
(Source
http://forum.sivit.fr/viewtopic.php?pid=45831#p45831)
Le serveur va se connecter en Ssh va créer le dossier backup, jour et va récupérer les fichiers.
Au prochain lancement il recrée un répertoire d'une date différente et ne sauvegarde que les fichiers modifiés par rapport à la base de fichier qu'il a le jour d'avant.
Le seul soucis c'est que pas possible pour moi de me connecter en SSH sur le serveur de sauvegarde donc si je le lance de mon serv à moi en upload ca prendra beaucoup plus de temps ... enfin à vérifier ...
Qu'en pensez vous ?
DanSteph
10/01/2007, 16h30

Envoyé par
Michal
Bonjour,
Y a t'il la possibilité avec l'un des deux scripts ci-dessus de faire pour la partie FTP un backup incrémental les fois suivantes ?
Je possède pour ma part 7 Go de données, et je n'ai pas envie de refaire chaque soir mouliner le serveur en compression pour 7 Go.
Franchement je n'en sait rien, je n'ai pas été plus loin vu que la solution répondait à mes besoins. (m'etonnerait fort à la reflexion, tar aurait besoin d'un index des fichiers sauvegardés avant)
Avec le mien en tout cas tu peut faire plusieurs sauvegardes à des fréquences différentes qui ne sauvent que certains repertoires. J'ai ainsi un sauvegarde journaliere de home/mysql pour les forums et une tout les 4 jours du serveur complet. On peut en faire plus avec des repertoires different
si on veut c'est expliqué sur la page.
Il faudrais un script plus complexe avec un index date&heure des fichiers sauvegardé mais ca c'est en dehors du scope de mon script. Désolé.
A++
Dan
Bonjour,
Y a t'il la possibilité avec l'un des deux scripts ci-dessus de faire pour la partie FTP un backup incrémental les fois suivantes ?
Je possède pour ma part 7 Go de données, et je n'ai pas envie de refaire chaque soir mouliner le serveur en compression pour 7 Go.
Merci d'avance
DanSteph
09/01/2007, 11h06

Envoyé par
The Jedi
L'avantage de mon script c'est qu'il effectue des backups individuels et tournants. Ca évite d'avoir à restaurer un /home énorme juste pour un fichier effacé par erreur.
On peu n'extraire qu'un fichier d'un tar.gzip mais de toute façon mon post n'était la que pour completer ton information,comme ca ce thread peu satisfaire un panel large de gens ce qui est le but de ces forums.
A++
Dan
The Jedi
09/01/2007, 08h05

Envoyé par
DanSteph
C'est sûr que c'est mieux expliqué, je suis parti du principe qu'il faut au minimum savoir créer une tâche cron avec Webmin. Ca ne me dérange pas d'expliciter pas à pas pour les débutants.
L'avantage de mon script c'est qu'il effectue des backups individuels et tournants. Ca évite d'avoir à restaurer un /home énorme juste pour un fichier effacé par erreur.
DanSteph
09/01/2007, 05h05
si jamais j'ai fait cette page qui est plus explicite:
http://www.dansteph.com/backupftp.php
A++
Dan
Bon il est vrai qu'il semble pas évident de configurer le Backup FTP sans guides
Merci pour ta contribution The Jedi mais j'avoue que je ne sais meme pas comment appliquer ton script ...
Merci pour ton aide
The Jedi
23/08/2006, 11h07
Comme j'ai développé mon propre script de backup, je me permets d'en faire profiter les utilisateurs d'OVH qui apprécieront cette "sécurité" en cas de crash de disque dur.
En effet, avec un backup par FTP, si vous vous hacker la machine, le pirate pourra trouver le mot de passe et se connecter au FTP de backup ^^
Maintenant que c'est dit :
PS : ça fonctionne avec n'importe quel serveur FTP au passage.
Code:
#!/bin/bash
#############################################
# Definition des variables
#############################################
DATE_JOUR=`date +%Y%m%d`
DATE_JOURM7=`date --date '7 days ago' +%Y%m%d`
CHEMIN_BASE='/home'
CHEMIN_BACKUP='/home/divers/backup'
FTP_HOTE='IP du serveur de backup'
FTP_LOGIN='login FTP
FTP_PASS='pass FTP'
#############################################
# Fonction de backup
# $1 : nom du backup
# $2 : répertoire du backup /home/$2
# $3-n : sous-répertoires /home/$2/$3-n
#############################################
function BACKUP_HDD()
{
#Y'a pas au moins 3 parametres, pas bon
if (( $# < 3 )); then
return 1
fi
echo ""
echo ""
#On teste l'existence du repertoire
if [ ! -d /home/$2 ]; then
echo "$2 n'existe pas"
return 2
fi
#On se positionne dans le repertoire
#`cd /home/${2}`
#On cree la variable de backup
local BKP_DIRS=''
local i=2
while (( i < $# )); do
i=$(( $i + 1 ))
eval "BKP_DIRS=\"\$BKP_DIRS \$$i\""
done
echo "~~~~ ${1}"
echo "Backup /home/${2} ${DATE_JOUR}"
cd /home/${2}
tar czf ${CHEMIN_BACKUP}/${1}-${DATE_JOUR}.tar.gz ${BKP_DIRS}
unset BKP_DIRS
#Backup FTP
echo "Backup FTP /home/${2}"
BACKUP_FTP ${1}
}
function BACKUP_FTP()
{
ftp -in < ... n>
#Exemple pour le site bobylapointe.fr
BACKUP_HDD bobylapointe bobyfr sd www cgi-bin/repertoire_test