OVH Community, votre nouvel espace communautaire.

Backup FTP OVH


kariman
28/06/2012, 16h48
je voulais juste savoir si je sauvegarde mon serveur a partir de plesk est la meme chose que si je fasse ca via le script ci dessus ??
merci

je vais être plus explicite , je veux sauvegarder trois éléments :
- mon serveur : configuration , paramètres , logiciels , ,,, ect.
- mon site : le dossier de mes fichiers site .
- ma base de donnée

est ce que a partir de webmin ou plesk je peux créer un backup cron ?
je vous remercie en avance

kariman
23/06/2012, 14h49
merci pour ta reponse , mais chui pas trop caller ds le ssh , c'est a dire ???
sinon si tu parle du fichier backup_exlude.txt , je l'ai editer et j'ai rajouter la ligne a la fin , il ma donné ca :
Sortie de la commande /usr/mes_Scripts/backupftpovh.sh ..

[/usr/mes_Scripts/backupftpovh.sh] -->Debut de backup de /home a 15:48:25
tar: Removing leading `/' from member names
tar: /usr/local/apache/conf: Cannot stat: No such file or directory
tar: Error exit delayed from previous errors
[/usr/mes_Scripts/backupftpovh.sh] -->ERREUR TAR à 15:48:25 Backup NON effectué.


!!!


je suis sur un kimsufi sous centos

nyx
23/06/2012, 07h38
Bonjour, à l'aide du fichier d'exclusion, dans la commande des tar, ajoutes la ligne
/var/named/run-root/*
Cela fonctionne à merveille chez moi, je ne sais par contre si cela est vraiment valable pour faire une image du système ( backup root incrémental )

kariman
23/06/2012, 01h23
bonsoir ts le monde
j'ai suivi ce tuto a la lettre , mais a la fin de compte je me trouve avec cette erreur :
(désolé c un peu long , mais j'ai pas de le choix )


Sortie de la commande /usr/mes_Scripts/backupftpovh.sh ..

[/usr/mes_Scripts/backupftpovh.sh] -->Debut de backup de /home a 02:22:01
tar: Removing leading `/' from member names
tar: /usr/local/apache/conf: Cannot stat: No such file or directory
tar: /var/named/run-root/var/run/dbus/system_bus_socket: socket ignored
tar: /var/named/run-root/proc/sys/net/ipv4/route/flush: Cannot open: Permission denied
tar: /var/named/run-root/proc/sys/net/ipv6/route/flush: Cannot open: Permission denied
tar: /var/named/run-root/proc/2/task/2/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/2/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/3/task/3/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/3/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/6/task/6/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/6/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/7/task/7/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/7/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/8/task/8/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/8/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/9/task/9/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/9/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/10/task/10/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/10/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/11/task/11/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/11/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/12/task/12/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/12/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/13/task/13/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/13/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/33/task/33/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/33/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/376/task/376/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/376/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/378/task/378/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/378/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/379/task/379/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/379/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/381/task/381/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/381/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/382/task/382/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/382/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/383/task/383/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/383/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/384/task/384/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/384/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/470/task/470/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/470/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/480/task/480/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/480/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/487/task/487/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/487/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/494/task/494/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/494/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/592/task/592/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/592/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/593/task/593/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/593/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/632/task/632/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/632/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/633/task/633/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/633/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/634/task/634/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/634/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/635/task/635/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/635/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/639/task/639/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/639/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/644/task/644/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/644/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/645/task/645/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/645/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/646/task/646/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/646/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/647/task/647/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/647/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/648/task/648/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/648/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/649/task/649/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/649/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/651/task/651/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/651/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/654/task/654/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/654/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/655/task/655/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/655/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/656/task/656/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/656/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/657/task/657/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/657/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1345/task/1345/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1345/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1354/task/1354/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1354/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1355/task/1355/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1355/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1356/task/1356/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1356/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1357/task/1357/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1357/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1382/task/1382/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1382/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1385/task/1385/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1385/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1388/task/1388/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1388/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1474/task/1474/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1474/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1476/task/1476/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1476/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1494/task/1494/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1494/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1495/task/1495/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1495/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1496/task/1496/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1496/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1499/task/1499/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1499/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1516/task/1516/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1516/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1517/task/1517/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1517/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1569/task/1569/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/1569/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/3504/task/3504/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/3504/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/3742/task/3742/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/3742/exe: Cannot readlink: No such file or directory
tar: /var/named/run-root/proc/7800/task/7800/fd/3: Cannot stat: No such file or directory
tar: /var/named/run-root/proc/7800/task/7800/fdinfo/3: Cannot stat: No such file or directory
tar: /var/named/run-root/proc/7800/fd/3: Cannot stat: No such file or directory
tar: /var/named/run-root/proc/7800/fdinfo/3: Cannot stat: No such file or directory
tar: Error exit delayed from previous errors
[/usr/mes_Scripts/backupftpovh.sh] -->ERREUR TAR à 02:22:02 Backup NON effectué.

nyx
02/06/2012, 18h07
Whaow, ça c'est de la réponse, et, je ne comprends pas tout, n'ayant pas le niveau ..
Je me demandais si un backup tar de la partition root de mon disque était suffisante en terme de backup ( s'il n'y a pas certains fichiers qui passeraient à côté avec les droits et les verrous etc ... )
j'arrive bien à ouvrir mes tables sql archivées, mais quelle est la vrai différence qu'avec le dump ???

starouille
02/06/2012, 14h51
Citation Envoyé par nyx
Bonjour j'ai repris ce script, l'ai adapté à ma sauce pour faire backup incrémental avec
-mtime -1 & qques filtres d'exclusions de fichiers non vitaux ..
Je me pose deux simples questions ..
1) Faut-il mieux sauvegarder les fichiers .MYI de mysql ou faire un dump des bases
2) Si j'applique ceci au niveau de la partition système , pourrais-je restaurer cette dernière à l'identique en cas de plantage ?
( si je manipule mal certains fichiers ou sabote ce dernier .. )
Salut,

1)
Un dump de base . Même si en thoérie tu peux récuprer les MYI, si tu arrête/lock ta base entière (ce que mysqldump fait tout seul). Pour gagner du temps, voit du côté de mydumper par exemple, qui est un mysqldump multithread. Il lockera moins longtemps tes tables du coup.

2) Pour ma part, je pense qu'il vaut mieux faire des full pour un backup système. Le système n'étant pas amené à bouger tous les jours, il faut en réaliser en automatique tous les 15jours/1mois. Et aussi manuellement, lorsque tu fais une grosse manipulation (gros upgrade de ta distrib etc..).

Pour ma part, toutes mes partitions système sont dans un VG rootvg (ouep, je suis très Aix, donc j'applique ce principe sous linux aussi...), qui est en xfs. Ce rootvg est cloné en rootvg_alt (rootvg alterné) tous les 15jours, et une ligne est associé à grub.

Si mon OS est cassé, je boot sur le rootvg_alt dans grub, et j'ai mon système tel qu'il l'était à la dernière sauvegarde, sans pertes de données applicatives. Ce qui permet de relancer la production très très rapidement. Ensuite, je reclone mon rootvg_alt sur le rootvg, pour revenir à la normal etc..

De plus, je fais un xfs_dump de mon rootvg, qui me fait une image de ce dernier, et l'image est exportée vers un serveur de backup qui stocke les images de tous les serveurs dédiés. Au cas ou.

Enfin, un rdiffbackup passe toutes les nuits, et me backup tout mon serveur en incrémental. Il y a un backup local, qui est rsync sur un serveur de backup également (il vaut mieux avoir 2-3 endroits de sauvegardes).

Après, il y a les backups applicatifs (dump mysql toutes les heures sur 3 serveurs distants etc..)..


Et bientôt j'attaque le PRA de mon infra, afin de pouvoir relancer la prod si gros problème.
Bref, ceinture, bretelles, et parachute


Dans ton cas, avec le ftp ovh, tu pourra avec le mode rescue retrouver des fichiers, ou restaurer ton système si le backup est propre.

Pour tester ça, tu peux te créer une VM avec virtualbox chez toi, et tenter de restaurer ton serveur. Tu auras surement quelques spécificité (grub à réinstaller/configurer, le réseau aussi, les drivers spécifiques si tu en as) mais globalement, c'est comme ça que je valide mes premiers backups. J'arrive à cloner mes serveurs chez moi.

nyx
21/05/2012, 15h56
Bonjour j'ai repris ce script, l'ai adapté à ma sauce pour faire backup incrémental avec
-mtime -1 & qques filtres d'exclusions de fichiers non vitaux ..
Je me pose deux simples questions ..
1) Faut-il mieux sauvegarder les fichiers .MYI de mysql ou faire un dump des bases
2) Si j'applique ceci au niveau de la partition système , pourrais-je restaurer cette dernière à l'identique en cas de plantage ?
( si je manipule mal certains fichiers ou sabote ce dernier .. )

IVIedia
12/04/2012, 09h54
Super, j'ai compris la méthode
c'est gentil de votre part pour m'avoir expliqué en détail
bonne journée

Ludo BOP
12/04/2012, 08h35
Oui c'est exactement ça. Quand on se connecte en SSH en root on se trouve par défaut dans le dossier "root", donc le fait de faire un get avec ncftp télécharge le fichier dans ce dossier.

IVIedia
11/04/2012, 22h42
bonsoir, j'ai compris jusqu’à la

get 11_backupsite.tar.gz ...

mais je n'arrive toujours pas a le trouve dans mon serveur
quand vous dite il sera téléchargé dans le serveur actuel du serveur dédié
merci


###########

Je me corrige, une fois get 11_backupsite.tar.gz, je me suis connécté a mon kimsufi via ftp, et dans le dossier root je trouvre bien

root/11_backupsite.tar.gz

c'est bien ça ?

merci

Ludo BOP
11/04/2012, 22h08
Il s'agit d'un FTP classique la seule chose est qu'il ne communique qu'avec le serveur dédié.
Il faut donc faire "ls" pour lister les fichiers et dossiers. Tu devrais y trouver ton fichier de backup "11_backupsite.tar.gz". Et ensuite pour le télécharger il faut faire un "get" suivi du nom du fichier.
Le fichier sera téléchargé dans le dossier actuel du serveur dédié, après on peut en faire ce qu'on veut.

IVIedia
11/04/2012, 21h53
Bonsoir, j'ai lu le guide ...

j'ouvre putty, je fait ça

ncftp
open -u ksxxxxx.kimsufi.com -p password123 ftpback-rbx2-45.ovh.net

puis je comprends pas en faite, je dois crée un dossier backup et déplacé le backup tar dedans ?

on sais pas récupérer par ftp alors ses données ?

merci et bonne soirée

Ludo BOP
11/04/2012, 16h27
Bonjour,

Le Backup se fait sur le serveur FTP paramétré dans le fichier backupftpovh.sh

Il faut donc se connecter en SSH sur le serveur dédié puis utiliser la commande ncftp pour se connecter au serveur FTP où se trouve la sauvegarde pour par exemple la récupérer en local sur le serveur dédié.

Plus d'explications à cette adresse : http://guide.ovh.com/backupftp

IVIedia
11/04/2012, 16h16
bonjour, j'ai modifié comme vous avez cité ...

j'ai plus de message d'erreur, je recois sur mon mail cela ...

Backup effectué ą 17:09:25 Status: OK
Durée du backup: 0 minutes
Fichier: 11_backupsite.tar.gz transféré avec une taille de 186 Mb

mais j'arrive pas a localise le fichier 11_backupsite.tar.gz sur le serveur
je fait dans putty locate 11_backupsite.tar.gz

mais ça ne trouve pas

Ludo BOP
09/04/2012, 17h54
Bonjour,

Ce script est toujours d'actualité, cependant il est possible qu'il faille modifier certains paramètres pour ma part les dossiers que je sauvegarde sont les suivants (je suis en OVH release 2) :

SAVEDIR="/home" #Backup de /home SANS slash a la fin
SAVEDIR1="/usr/local/apache/conf" #Backup optionnel SANS slash a la fin
SAVEDIR2="/var/bind" #Backup optionnel SANS slash a la fin
SAVEDIR3="/var/spool/cron"

D'après le message, sur ton serveur il ne doit pas y avoir de dossier /var/named, par contre c'est probablement /var/bind

Concernant le FTP où se fait la sauvegarde, si c'est celui fourni par OVH lié au serveur dédié celui-ci n'est pas accessible depuis l'extérieur. Seul ton serveur dédié peut communiquer avec ce serveur FTP.

IVIedia
04/04/2012, 09h47
bonjour pouvez vous me dire si ça fonctionne toujours ce script ?

DanSteph
http://www.dansteph.com/backupftp.php

j'ai configuré le tout, mais quand je tente un backup sh backupftpovh.sh

j'ai ce message d'erreur

[backupftpovh.sh] -->Debut de backup de /home a 10:39:50
tar: Retrait de « / » de tête des noms des membres
tar: /var/named: ne peut stat: Aucun fichier ou répertoire de ce type
tar: Statut d'erreur reporté d'erreurs précédentes.
[backupftpovh.sh] -->ERREUR TAR à 10:40:07 Backup NON effectué.
pouvez vous me dire autrement ce script, comment je peux avoir acces par ftp a mon backup ?

j'ai mis les infos sur filzeilla mais il ne se connecte pas ...

Réponse : 530 Login authentication failed
Erreur : Erreur critique
Erreur : Impossible d'établir une connexion au serveur
pourtant je met mot à mot les infos que j'ai eu par mail d'ovh ...

merci

Ludo BOP
14/12/2011, 17h38
La jauge affichée dans le manager ne s'actualise pas instantanément, c'est donc normal, il faut attendre un peu elle finira par refléter réellement l'espace occupé.

novadmin
14/12/2011, 15h00
Bonjour ,

Ma question est la suivante, j'ai sauvegardé des données sur le backup ovh (500 M a peu pres ) pour faire le test du backup, mais quand je vois sur le manager je trouve que y a 0 % d'espace occupé alors que quand je me connecte au backupftp j'arrive a voir les fichier et dossiers que j'ai envoyé est ce normal?

help!!

Ludo BOP
22/08/2009, 08h30
Bonjour,

J'ai restauré mon serveur à partir de la sauvegarde, mais la sauvegarde ne contenait pas le dossier /var/named/chroot alors que ce dossier est présent sur mon nouveau serveur. J'ai donc modifié manuellement le fichier /var/named/chroot/etc/named.conf mais en redémarrant bind j'obtiens des erreurs :

zone exemple.com/IN: loading from master file /var/named/exemple.com.hosts failed: file not found _default/exemple.com/IN: file not found

Le fichier /var/named/exemple.com.hosts est bien présent, il a été récupéré à partir de la sauvegarde. Quel peut-être le soucis ?

Merci

Je ne suis peut-être pas au bon endroit j'ai créé un autre post pour cela : http://forum.ovh.com/showthread.php?t=50414

sebjsp
15/08/2009, 13h09
Connection aux serveurs ftpback a partir des VPS
Les serveurs ftpback acceptent que des connections à partir de l'IP principale du serveur dédié, des connections à partir des IPs failovers sera refusé. Si vous souhaitez faire des backups à partir d'un VPS avec une telle IP, ceci est possible en utilisant iptables sur le hôte pour changer l'expéditeur dans les paquets IP:
iptables -t nat -A POSTROUTING --source $IP_FAILOVER --match iprange --dst-range $IP_DU_FTP -j SNAT --to $IP_PRINCIPALE_DU_SERVEUR


Une fois testé, vous pouvez ajouter cette commande à /etc/network/interfaces pour faire une règle post-up pour eth0.

grievah
15/08/2009, 13h03
Erf merci, pas top pour ceux qui font de la virtualisation..

arowan
15/08/2009, 13h02
Lors de l'activation d'un backup FTP, des paramètres vous sont communiqués pour vous connecter à votre espace. Vous devez utiliser le "login", "mot de passe" et "ip du serveur". Ces accès sont utilisables uniquement depuis votre serveur dédié et seul l'ip principal de votre serveur pourra se connecter a votre serveur de backup.
http://guides.ovh.com/backupftp

grievah
15/08/2009, 12h30
Bonjour

J'ai un serveur avec du Xen et des IP failovers sur les domU, et j'ai activé le Backup FTP.

Il semblerait que les IP failover des sous systêmes domU ne soient pas autorisées à se connecter au backup FTP.

Ca marche avec l'IP principale, configurée sur le dom0 (mais le dom0 n'a pas accès aux données des domU...).

Quelqu'un confirme ?
Y a t'il moyen d'effectuer des backups à partir des IP failovers ?

yatoula
05/08/2009, 00h19
existe il une solution pour recupérer les archives sur le backup FTP sans passer par les commande sous putty par exemple (ncftp)
Merci

ehud69
18/07/2009, 20h36
Oui pour le TAR non effectué hier ct à cause de la place sur la partition de 3GO peline. Je l'ai vidée je suis à 67% occupé. Mais ce matin et ce soir pas d'accès à ftpback4, nada manuel aussi

Je crois que je vais ma lancer dans un réinstall complète du système. Quelqu'un a-t-il un tuto pour réinstallation d'une release ovh 2

D'avance merci

MCPC
18/07/2009, 10h15
Bonjour à tous,

Je ne sais pas si cela vous aide, mais moi sur ftpback3, ca n'a pas fonctionné cette nuit. Et ce matin en manuel, cela n'a pas l'air mieux...

Ce script est vraiment pratique, mais quand il plante, on ne sait pas trop pourquoi (je n'ai jamais trouvé de corrélation entre un plantage du backup et un incident déclaré dans les travaux OVH)

Cdt,

MCPC

pipo2525
18/07/2009, 09h58
Aucun problème pour moi sur ftpback3
Erreur tar, ça ne serait pas un problème de place sur ton disque?

ehud69
17/07/2009, 10h30
Bonjour à tous
J'utilise aussi le scripts ce scripts depuis des mois et là depuis 3 semaines plus rien: Erreur Tar, backup non effectué

Je n'ai fait aucune manipulation sur le serveur. Je suis sur le serveur ftpback4

si quelqu'un pouvait me donner une piste

D'avance merci

Coflak
06/05/2009, 11h07
Depuis deux jours, SANS avoir modifié quoi que ce soit, ça fonctionne à nouveau. Mystère et boule de gomme
a priori disk impactés par travaux en cours :
http://travaux.ovh.net/?do=details&id=3047

pour moi ca refonctionne egalement

adilis
02/05/2009, 15h45
Je dois prendre la version client ? comment savoir quel version prendre et comment l'installer ? :/ ( chui un peu lourd ;p )

Loup Artic
02/05/2009, 14h38
Bha go le dl et le compiler.

http://www.ncftp.com/download/

adilis
02/05/2009, 09h08
Comment je fait pour installer le package complet xD ?
En réponse à yum search nfctp, j'obtient :

Loading "installonlyn" plugin
Setting up repositories
extras 100% |=========================| 1.1 kB 00:00
base 100% |=========================| 1.1 kB 00:00
atomic 100% |=========================| 951 B 00:00
addons 100% |=========================| 951 B 00:00
updates 100% |=========================| 951 B 00:00
Reading repository metadata in from local files
Excluding Packages in global exclude list
Finished
No Matches found

Patrik
02/05/2009, 08h00
Depuis deux jours, SANS avoir modifié quoi que ce soit, ça fonctionne à nouveau. Mystère et boule de gomme

Loup Artic
02/05/2009, 01h12
Install ncftp .

Si debian, apt-get search nfctp
Ou CentOS/Fedora yum search nfctp

Puis un install avec le nom du package complet.

adilis
02/05/2009, 00h15
Bonjour,
J'ai suivi le tuto de DanSteph et je me retrouve bloqué devant cette erreur, auriez vous une idée ?
ncftpput: command not found

Coflak
29/04/2009, 10h00
bon ben j'ai le meme probleme ...

Le script marche super bien ... mais lorsque on fini le mois il renumerote et doit normalement ecraser les fichiers du mois precedent ...
d'apres le message si je ne me trompe pas ... je ne suis pas un specialiste ...

Hors les chmod sont rw-r--r--
J'ai essayé de modifie les permission par net2ftp et la reponse est la suivante
"Impossible d'exécuter la commande chmod 0777 /xxxxxxxxxxxx.tar.gz. Remarque : les commandes CHMOD sont uniquement possibles sur les serveurs FTP Unix, non sur les serveurs FTP Windows"

c'est donc au point mort si quelqu'un a la reponse ?

boarder
29/04/2009, 09h10
J'ai le même souci depuis une semaine et sans rien avoir changé, j'ai l'erreur suivante sur l'intégralité :
rm: Access failed: 550 Could not delete biggrin.gif: Read-only file system
ou bien encore :
mirror: Access failed: 553 Rename/move failure: Read-only file system (readme.txt)

J'utilise une tâche cron executé en tant que root
lftp ftp://xxxxxxx.kimsufi.com:xxxxxxxxx@ftpback9.ovh.net -e "mirror -e -R /home/www/ /mercredi ; quit"
Quelqu'un sait il les modifications qu'a pu effectuer OVH ? Que dois je faire ?

Patrik
28/04/2009, 17h40
Pour moi aussi, ce n'est pas un problème de place, ayant à peine utilisé 1 % du FTP. Par contre, c'est clairement à la connexion que ça bloque, soit les identifiants (mais j'ai vérifié manuellement, pas de souci), soit en tentant de copier les fichiers de sauvegarde.

Étonnamment, un "ls -al" sur "/" ne m'affiche pas clairement le répertoire ovh-V2. Y'aurait-il un lien de cause à effet ?

Léonin
28/04/2009, 09h26
Bonjour à tous !

J'utilise depuis un mois à peu près le script de Dansteph pour faire le backup de mes serveurs. Mais depuis cette nuit, j'ai un soucis cela ne fonctionne plus du tout sur aucun des serveurs.

Aujourd'hui, pour savoir ce qu'il se passait, j'ai lancé manuellement le script et voila l'erreur que ça m'affiche :

Code:
ncftpput /home/backupsite/28_backupsite.tar.gz: server said: Rename/move failure: Read-only file system
Ca ne peut pas être un manque de place, car je suis loin de pouvoir remplir le backup en un mois (après vérification sur un des backups j'ai même pas rempli 10% de la capacité totale du disque).

Avez-vous une idée ou une solution ?

Merci d'avance.

The Jedi
28/04/2009, 08h02
Chez moi le script d'origine fonctionne toujours. Ceci dit OVH a modifié le DNS d'accès au FTP il y a quelques temps donc c'est peut-être lié.

Sinon personnellement j'ai basculé sur le logiciel backup-manager depuis que je suis sous Debian.

Patrik
28/04/2009, 05h59
Bonjour à l'auteur de ce topic.

Le script fonctionnait sans aucun problème depuis au moins deux mois, mais là, apparemment, ça pédale un peu dans la choucroute, alors que je n'ai rien touché aux paramètres.... Non, pas taper sur tête, ce n'est pas l'interface chaise clavier qui est en cause !!!

Voici le message d'erreur :

ETAT DE VOTRE SAUVEGARDE pour le 28-04-09
---------------------------------
xxxxxxxx Sauvegarde sql ok.
xxxxxxxx Sauvegarde ok.
ERREUR lors l'envoie de xxxxxxxxx sur votre FTP /n
---------------------------------

vpopmail Sauvegarde ok.
ERREUR lors l'envoie de vpopmail sur votre FTP /n
Une idée, car en éditant les scripts, je ne comprends pas le "/n" sur la ligne "ERREUR" ?
Accessoirement, il est vrai que pour la sauvegarde de ce matin, soit le 28/04/2009, je ne trouve rien sur le serveur FTP.
Le problème est apparu depuis lundi matin ... OVH aurait-il changé quelque chose pour les backup FTP ?

Kyrax
22/04/2009, 15h37
Bonjour,

Je rencontre un problème avec le script au niveau de l'authentification sur le ftp.

Si je fais:

Code:
ftp -in
  open ${FTP_HOTE}
---> la commande open n'est pas "executée"

SI je modifie en:
Code:
ftp -in $FTP_HOTE
---> ca fonctionne

EN revanche je ne parvient pas à me logger avec le script suivant:

Code:
ftp -in $FTP_HOTE
user ${FTP_LOGIN} ${FTP_PASS}
---> la commande user n'est pas executée

Code:
Connected to ftpxxx.ovh.net.
220-Welcome to Pure-FTPd.
220-You are user number 7 of 5000 allowed.
220-<<
220-#########################################
220-#                                       #
220-#      Welcome on ftpxxx.ovh.net      #
220-#                                       #
220-#       - OVH dedicated servers -       #
220-#                                       #
220-#           http://www.ovh.com          #
220-#                                       #
220-#########################################
220->>
220-This is a private system - No anonymous login
220-IPv6 connections are also welcome on this server.
220 You will be disconnected after 15 minutes of inactivity.
Remote system type is UNIX.
Using binary mode to transfer files.
ftp> bye
/usr/local/bin/testjohn: line 17: user: command not found

Vous avez une idée?

ps: j'ai controlé plusieurs fois mes variables, elles sont correctes.

Merci d'avance

[EDIT] j'ai trouvé, je ne mettais pas les <

TBC_Ly0n
22/04/2009, 14h14
tu ne peux pas. il faut utiliser le serveur... en rescue s'il le faut.

yaze123
22/04/2009, 14h12
Bonjour,
J'utilise ce script de backup que je trouve très pratique. Cependant j'aurais deux questions :
1-Je reçois régulièrement des mails me spécifiant que le back up a bien été effectué, cependant lorsque je vais sur mon manager v3 sur ovh, je remarque que l'espace est vide :

0% - Utilisés : 0 Go - Capacité : 750 Go

Or le script m'indique que l'opération a été déroulée avec succès et quand je me log sur l'espace en utilisant le script ftp, je vois une liste de fichiers ainsi que leur taille, et la date du backup.
Comment être sûr alors que je sauvegarde bien mes fichiers ?

2-Le serveur de sauvegarde n'est accessible que depuis la machine. Mais la machine plante et que je veux me connecter depuis chez moi avec un client pour récupérer le tout, comment faire ?

Merci par avance pour vos conseils
Cordialement
Yazid

mmmwww
22/04/2009, 13h16
Bonjour à tous!

Après une série de commandes:

"sh backupftpovf.sh" j'ai une erreur:

nsXXXXXXX mes_scripts # sh backupftpovh.sh
[backupftpovh.sh] -->Debut de backup de /home a 14:12:12
tar: Removing leading `/' from member names
tar: /home/backupsite/22_backupsite.tar.gz: file changed as we read it
tar: /var/named: Cannot stat: No such file or directory
tar: Error exit delayed from previous errors
[backupftpovh.sh] -->ERREUR TAR
Quel pourrait être le problème?

yatoula
21/04/2009, 17h45
c'est pas où ?
Heu pardon mais pas compris...

Theotime
21/04/2009, 17h19
Et pour Backup SQL, c'est pas où ? ^^'

yatoula
08/04/2009, 21h42
Bonjour,
J'ai trouvé un autre script, l'application peut elle se faire comme pour votre tuto mais en utilisant le script de ce post http://forum.ovh.com/showthread.php?t=44128

Merci

gunichou
02/09/2008, 21h50
Citation Envoyé par pipo2525
Ta /home doit être énorme. Il y a assez de place libre sue le disque pour le backup?
65 Go

gunichou
02/09/2008, 21h48
J'ai trouvé mon soucis en même temps que je postais ... Je suis un boulet lol
En fait le soucis venait du fichier .sh ou j'avais laisseé un mauvais paramètre

Geoffroy
01/09/2008, 22h11
Pour ma part sur une Release2 ovh j'ai ça:
[...]
tar: /home: le fichier a été modifié durant sa lecture[/code]
What a nice idea.

pipo2525
01/09/2008, 21h55
début à 20H55, erreur à 22H29, bigre!
ça prend max 10 min chez moi.

Ta /home doit être énorme. Il y a assez de place libre sue le disque pour le backup?
Sinon, ftpbackup3 est down depuis plusieurs jours, si tu uploade la-dessus, il es normal d'avoir une erreur.

gunichou
01/09/2008, 21h45
Pour ma part sur une Release2 ovh j'ai ça:

sh /usr/mes_scripts/backupftpovh.sh
[/usr/mes_scripts/backupftpovh.sh] -->Debut de backup de /home a 20:55:47
tar: Retrait de « / » de tête des noms des membres
tar: /home: le fichier a été modifié durant sa lecture
[/usr/mes_scripts/backupftpovh.sh] -->ERREUR TAR à 22:29:47 Backup NON effectué.

pipo2525
03/08/2008, 12h02
eh bien, je viens d'installer le script de dansteph et hormis la modification de SAVEDIR2="/var/named par SAVEDIR2="/var/bind/pri, tout fonctionne parfaitement sur une gentoo-ovh_64.

Merci!

Edit: pour voir et gérer plus facilement les backups sur le ftp d'ovh, j''utilise ce script php http://www.net2ftp.com/
Il faut bien sûr l'installer sur votre machine puisque le backup ftp d'ovh n'est accessible que depuis cette dernière. La démo sur net2ft.com ne fonctionnera donc pas.

++

Gyakatsuki
01/10/2007, 10h23
Le tuto de Dan est simple d'utilisation mais il ne fonctionne pas chez moi. voila le message d'erreur avec lequel je me retrouve. J'ai enlevé le SAVEDIR2 qui n'est pas sur ma release 2 ovh gentoo

Code:
mes_scripts # sh backupftpovh.sh
: command not foundne 2:
: command not foundne 12:
: command not foundne 24:
: command not foundne 30:
: command not foundne 32:
': not a valid identifier declare: `CDERR
: command not foundne 47:
[backupftpovh.sh] -->Debut de backup de /home a 11:07:39
: command not foundne 52:
tar: Retrait de « / » de tête des noms des membres
tar: \r: ne peut stat: Aucun fichier ou répertoire de ce type
tar: Statut d'erreur reporté d'erreurs précédentes.
backupftpovh.sh: line 85: syntax error: unexpected end of file

nocomp
21/09/2007, 12h31
salut,
ils sont en train de migrer les machines,donc tout est debranché.
Voilà pkoi j ai acheté un disque externe mais là aussi ils en ont plus,donc pas moyen de sauvegarder,bravo ovh...

secrire
21/09/2007, 12h26
J'ai reçu un message d'ovh m'informant de la migration du service de backup FTP. En effet, depuis deux trois mois, nous sauvegardons nos données sur ce serveur FTP mais à présent, il ne fonctionne plus avec les mêmes codes ces jours-ci, est-ce normal ???
Car sur l'e-mail qu'ovh nous a envoyé, ils disent que normalement, cela se fera le 26 septembre, or nous ne sommes que le 20/09 encore, donc quel est le problème svp ??? avez-vous une idée ? cela vient-il de là ??

secrire
20/09/2007, 15h58
Aie aie aie,
Depuis quelques jours, je reçois des e-mails avec : BACKUP NON EFFECTUE !!!
Et quand je regarde mon fichier de sauvegarde, il m'écrit :

Code:
Warning: ftp_login() expects parameter 1 to be resource, boolean given in /home/xxxxx/www/xxxxxxxxx/sauvegarde.php on line 34
La connexion FTP a échoué !Tentative de connexion au serveur
Si quelqu'un pouvait m'aider svp ?? c'est à cause de quoi ? pourtant il a marché pendant deux mois !

secrire
19/09/2007, 07h40
une idée svp ?

secrire
17/09/2007, 21h30
Comment récupérer mon fichier de sauvegarde alors ? j'ai peur de faire une bêtise lol ; tout est en anglais et je ne suis pas sûr de tout comprendre... voici ce que j'ai fait :

Code:
Logged in to 91.xxx.xx.x
ncftp / > ls
01_backupsite.tar.gz      07_backupsite.tar.gz      13_backupsite.tar.gz      19_backupsite.tar.gz      25_backupsite.tar.gz      31_backupsite.tar.gz
02_backupsite.tar.gz      08_backupsite.tar.gz      14_backupsite.tar.gz      20_backupsite.tar.gz      26_backupsite.tar.gz      -R/
03_backupsite.tar.gz      09_backupsite.tar.gz      15_backupsite.tar.gz      21_backupsite.tar.gz      27_backupsite.tar.gz
04_backupsite.tar.gz      10_backupsite.tar.gz      16_backupsite.tar.gz      22_backupsite.tar.gz      28_backupsite.tar.gz
05_backupsite.tar.gz      11_backupsite.tar.gz      17_backupsite.tar.gz      23_backupsite.tar.gz      29_backupsite.tar.gz
06_backupsite.tar.gz      12_backupsite.tar.gz      18_backupsite.tar.gz      24_backupsite.tar.gz      30_backupsite.tar.gz
ncftp / > help
Commands may be abbreviated.  'help showall' shows hidden and unsupported
commands.  'help ' gives a brief description of .

ascii      cat        get        lookup     mkdir      pwd        set
bgget      cd         help       lpage      open       quit       show
bgput      chmod      jobs       lpwd       page       quote      site
bgstart    close      lcd        lrename    passive    rename     type
binary     debug      lchmod     lrm        pdir       rhelp      umask
bookmark   dir        lls        lrmdir     pls        rm         version
bookmarks  edit       lmkdir     ls         put        rmdir

For details, please see the manual ("man ncftp" at your regular shell prompt
or online at http://www.NcFTP.com/ncftp/doc/ncftp.html).
ncftp / > help get
get: fetches files from the remote host.
Usage: get [-flags] file1 [file2...]
Flags:
  -R   : Recursive.  Useful for fetching whole directories.
  -z   : Get the remote file X, and name it to Y.
  -a   : Get files using ASCII mode.
  -A   : Append entire remote file to the local file.
  -f   : Force overwrite (do not try to auto-resume transfers).
Examples:
  get README
  get README.*
  get "**Name with stars and spaces in it**"
  get -R new-files-directory
  get -z WIN.INI ~/junk/windows-init-file

For details, please see the manual ("man ncftp" at your regular shell prompt
or online at http://www.NcFTP.com/ncftp/doc/ncftp.html).
ncftp / >
Comment puis-je récupérer 16_backupsite.tar.gz sur le dédié svp ???
get -a 16_backupsite.tar.gz ?????

esperanza
04/09/2007, 08h55
Citation Envoyé par secrire
Maintenant, comment faire pour le récupérer sur mon disque dur ??? wget ??? Merci pour vos réponses
Tu parles du disque dur de ton pc ou du serveur dédié ?

Si c'est celui de ton pc, tu ne peux pas directement à partir du disque de sauvegarde vu que c'est ton dédié qui est connecté dessus... Il te faut donc rapatrier du disque de sauvegarde vers ton serveur, puis éventuellement du serveur vers ton pc.

Une fois connecté sur le disque de sauvegarde avec putty tu peux taper help, cela va te donner toutes les commandes disponibles. Ensuite si tu tapes par exemple "help get" tu aura les infos sur ce que fais la commande get, et idem pour toutes les autres commandes...

secrire
04/09/2007, 08h30
Merci esperanza,
j'ai réussi à me connecter via Putty sur le serveur de sauvegarde et en faisant un petit ls, je vois bien mes fichiers de sauvegarde.
Maintenant, comment faire pour le récupérer sur mon disque dur ??? wget ??? Merci pour vos réponses

esperanza
03/09/2007, 13h16
Citation Envoyé par secrire
Car j'ai bien mis l'accès sur le FTP d'ovh... avec l'adresse ip + nsxxxxx.ovh.net et le mdtp, ils m'ont envoyé des identifiants + mdp mais impossible de me connecter sur le serveur FTP avec ces identifiants et pourtant, la sauvegarde marche bien apparemment... mais où ??
Il te faut te connecter sur le serveur de sauvegarde mais cela ne fonctionne qu'a partir de ton serveur dédié, tu n'arrivera jamais à faire un FTP direct de ton pc chez toi sur le serveur de sauvegarde...

Donc tu te connecte en SSH sur ton dédié et à partir de ce dernier tu te connectes sur le serveur de sauvegarde...

secrire
03/09/2007, 12h30
Moi, je trouve le script de DanSteph génial sauf que je ne sais pas où l'on peut récupérer les données... alors si un jour, je veux restaurer mes sites à cause d'un problème, je serais mal... Pourtant, je sais qu'il marche vu que mon fichier sauvegarde.php affiche :

Code:
01_backupsite.tar.gz 463623789 octets Sep 1 - 21:00 
02_backupsite.tar.gz 464805966 octets Sep 2 - 21:00 
03_backupsite.tar.gz 466177609 octets Sep 3 - 11:00 
04_backupsite.tar.gz 350968018 octets Aug 4 - 21:00 
05_backupsite.tar.gz 351137971 octets Aug 5 - 21:00 
06_backupsite.tar.gz 371441491 octets Aug 6 - 21:01 
07_backupsite.tar.gz 371869745 octets Aug 7 - 21:00 
08_backupsite.tar.gz 396896606 octets Aug 8 - 21:01 
09_backupsite.tar.gz 400553391 octets Aug 9 - 21:01 
10_backupsite.tar.gz 401166056 octets Aug 10 - 21:01 
11_backupsite.tar.gz 401535698 octets Aug 11 - 21:01 
12_backupsite.tar.gz 401825754 octets Aug 12 - 21:01 
13_backupsite.tar.gz 403617017 octets Aug 13 - 21:01 
14_backupsite.tar.gz 402102738 octets Aug 14 - 21:00 
15_backupsite.tar.gz 402419780 octets Aug 15 - 21:00 
16_backupsite.tar.gz 402766975 octets Aug 16 - 21:00 
17_backupsite.tar.gz 403089110 octets Aug 17 - 21:00 
18_backupsite.tar.gz 403276471 octets Aug 18 - 21:00 
19_backupsite.tar.gz 403550507 octets Aug 19 - 21:00 
20_backupsite.tar.gz 406711058 octets Aug 20 - 21:00 
21_backupsite.tar.gz 407772207 octets Aug 21 - 21:00 
22_backupsite.tar.gz 408839670 octets Aug 22 - 21:00 
23_backupsite.tar.gz 413935462 octets Aug 23 - 21:00 
24_backupsite.tar.gz 416251625 octets Aug 24 - 21:00 
25_backupsite.tar.gz 416560173 octets Aug 25 - 21:00 
26_backupsite.tar.gz 416865652 octets Aug 26 - 21:00 
27_backupsite.tar.gz 418517677 octets Aug 27 - 21:00 
28_backupsite.tar.gz 421518306 octets Aug 28 - 21:00 
29_backupsite.tar.gz 427050409 octets Aug 29 - 21:00 
30_backupsite.tar.gz 461543300 octets Aug 30 - 21:00 
31_backupsite.tar.gz 463248137 octets Aug 31 - 21:00
Donc si vous savez comment faire pour récupérer le .tar, n'hésitez pas à me dire merci

Car j'ai bien mis l'accès sur le FTP d'ovh... avec l'adresse ip + nsxxxxx.ovh.net et le mdtp, ils m'ont envoyé des identifiants + mdp mais impossible de me connecter sur le serveur FTP avec ces identifiants et pourtant, la sauvegarde marche bien apparemment... mais où ??

Julia41
31/08/2007, 16h59
Quelqu'un arrive t'il a bien exploiter le script de Dan pour des tars multivolume...
Si oui, je récupérerais bien le script... Mon but étant de pouvoir zipper tout le /home sans dépasser la limite des 2Go...

nocomp
28/08/2007, 15h54
Bon j ai toujours rien, j arrete le processus,retour case depart :'(

nocomp
28/08/2007, 15h02
oki,
je me pince le nez et je me lance en apnée.
merci beaucoup,je vais check d ici une heure voir ce que ca donne

esperanza
28/08/2007, 14h57
Je viens de faire le test en utilisant la même commande mais en sauvegardant un dossier plus petit au lieu de /home...

En fait ca met bien en cache puis ça envoie au fur et à mesure...
Le dossier backup viens juste d'apparaitre alors que j'avais lancé il y a 5mn...

Je suppose qu'il faut donc attendre, faire un ls de temps en temps et éviter de lancer plusieurs fois la commande d'affilée sous peine de faire écrouler la machine...

nocomp
28/08/2007, 14h45
nop j ai rien du tout,c est ca le hic,
tu utilises quoi toi pour tes backup sur le ftp ?
salutations

esperanza
28/08/2007, 14h43
Aucune idée je ne connais pas cette commande...
A priori il met en Spool puis il envoie.
Sur le serveur de sauvegarde en faisant un cd backup puis un ls il n'y a rien ?

nocomp
28/08/2007, 14h31
salut esperanza,
je viens d essayer ca:
ncftpput -b -u nsxxxxx.ovh.net -p xxxxxxxx 91.121.70.2 -R -m /backup /home/*

voilà ce que ca me mettais:
+ Spooled; sending remotely as -R/-m.
+ Spooled; sending remotely as -R/backup.
+ Spooled; sending remotely as -R/aero.
+ Spooled; sending remotely as -R/ant.
+ Spooled; sending remotely as -R/aquota.user.
+ Spooled; sending remotely as -R/backupsite.
+ Spooled; sending remotely as -R/beck.
+ Spooled; sending remotely as -R/cedric.
+ Spooled; sending remotely as -R/ftp.
+ Spooled; sending remotely as -R/glissema.
+ Spooled; sending remotely as -R/gmportal.
+ Spooled; sending remotely as -R/log.
+ Spooled; sending remotely as -R/lost+found.
+ Spooled; sending remotely as -R/mysql.
+ Spooled; sending remotely as -R/noc.
+ Spooled; sending remotely as -R/ovh.
+ Spooled; sending remotely as -R/ovhm.
+ Spooled; sending remotely as -R/progrv.
+ Spooled; sending remotely as -R/radio.
+ Spooled; sending remotely as -R/roots.
+ Spooled; sending remotely as -R/salomon.
+ Spooled; sending remotely as -R/tontons.
+ Spooled; sending remotely as -R/upload.
+ Spooled; sending remotely as -R/vpopmail.
+ Spooled; sending remotely as -R/wooloo.

et sur le ftp un ls dans /backup me donne ca:
257 "/backup" is current directory.
ftp> ls
200 PORT command successful
150 Opening ASCII mode data connection for file list
226 Transfer complete.
ftp>

rien du tout sur le serveur distant :'( aurais je loupé qqchose?
merci bien pour ton temps
salutations

esperanza
28/08/2007, 14h28
ncftp -u login -p pass ip

ou

ncftpput -b -E -u login -p pass ip -R -m /home /home

Et toi tu fais un

ncftp -b -E -u login -p pass ip -R -m /home /home

Cherche l'erreur...

nocomp
28/08/2007, 14h18
salut,
je pensais que cette ligne etait supposé faire du push de mon /home sur mon ftp de backup non?
je pige pas pkoi la syntaxe est refusée,
c est quoi la diff avec ncftpput?
remerciments

esperanza
28/08/2007, 14h05
Citation Envoyé par nocomp
ncftp -b -E -u ns35xxxx.ovh.net -p xxxxxxxx 91.121.70.2 -R -m /home /home
C'est pour te connecter au FTP de sauvegarde tout ça ?
Pourquoi tu ne garde pas ce que tu avait pour lancer le transfert vu que ça marchait ?

nocomp
28/08/2007, 13h57
hummm pas été plus chanceu...
ncftp -b -E -u ns35xxxx.ovh.net -p xxxxxxxx 91.121.70.2 -R -m /home /home

Usage: ncftp [flags] [ | ]

Flags:
-u XX Use username XX instead of anonymous.
-p XX Use password XX with the username.
-P XX Use port number XX instead of the default FTP service port (21).
-j XX Use account XX with the username (rarely needed).
-F Dump a sample $HOME/.ncftp/firewall prefs file to stdout and exit.

Program version: NcFTP 3.1.9/190 Mar 24 2005, 07:18 PM
Library version: LibNcFTP 3.1.9 (March 19, 2005)
System: Linux localhost 2.6.15-gentoo-r7 #5 SMP Tue May 9 15:33:1...

This is a freeware program by Mike Gleason (http://www.NcFTP.com).
A directory URL ends in a slash, i.e. ftp://ftp.freebsd.org/pub/FreeBSD/
Use ncftpget and ncftpput for command-line FTP and file URLs.

raaaaaaaaaaaaaaaaaaaaaaaaaaaaa

nocomp
28/08/2007, 13h49
par exmaple sur un forum j ai trouvé ca:
ncftpput -b -E -u $LOGIN -p $PASS $IP -R -m /home /home
mais là dessus je vois pas comment on peu faire de l incrementiel en temps reel.
/mode desesperé ON

nocomp
28/08/2007, 13h34
salut, seul hic c est que à chaques fois que j heberge un nouveau site je dois modifer le script non ? y a une requete qui existe pour tar un ensemble de dir en excluant certains dirs?
remerciments

esperanza
28/08/2007, 13h31
Suffit de faire un tar sur les dossiers essentiels, pas besoin de sauvegarder tout le home à mon avis mais bon, la aussi question de choix...

Apres pour l'automatisation, une fois le script fait ça marche tout seul...

nocomp
28/08/2007, 13h22
salut esperanza,
c est exactement ce que j essaye de faire,mais en fait vu le partitionnage,je peux pas copier mon /home ailleur:

ns351461 / # df -h
Sys. de fich. Tail. Occ. Disp. %Occ. Monté sur
/dev/md/1 2,9G 1,7G 1,1G 61% /
udev 498M 0 498M 0% /dev
/dev/md/2 226G 5,1G 210G 3% /home
shm 498M 0 498M 0% /dev/shm

il fait 16gb ,donc il faut soit que je upload le home à la vollé sans le tar, ou que je tar les dir en les nomant,mais c est la misere pour faire du "tout auto matique"
pas d autres choix non ?

remerciments

esperanza
28/08/2007, 13h18
Tu peux adapter le script selon tes besoins, il ne faut pas toujours recopier tel que. Si tu suis mon raisonnement, je me vois mal zipper un dossier dans lequel je dois placer mon zip autrement je vais zipper le zip que je suis en train de faire ou alors je vais bloquer le zip...

Essaye de créer un dossier en dehors du /home (vu que tu veux sauvegarder tout le /home) dans lequel tu place ton script et tu change l'endroit de la sauvegarde (tu met le dossier que tu viens de créer). Tu vire la partie transfert ftp pour faire tes tests et tu vois déjà ce que ça donne, si ça fonctionne alors tu remet le transfert et tu vérifie si c'est ok... Pas à pas pour voir ou ça coince...

Pour le tar, moi je fais un tar czf et je ne gzip pas, mais c'est à chacun de voir...

Enfin pour le tranfert perso je fais un :
ncftp -u login -p pass ip<< EOF
cd "dossier distant de sauvegarde"
-------
(Je fais une sauvegarde par domaine / bdd et par jour dans un dossier différent qui est automatiquement écrasé au bout de 30 jours par la nouvelle sauvegarde, cela me permet d'avoir 30 jours de backup des sites au cas ou un webmaster fasse une connerie et ne s'en rende compte que plusieurs jours plus tard).
-------
lcd "Dossier local ou se trouve le tar.gz"
put "le fichier"
bye
EOF

La aussi c'est à personaliser suivant ce que l'on souhaite faire.

nocomp
28/08/2007, 13h04
salut esperanza,
j ai simplement suivit un script qui a été publié sur ce forum,j essaye de trouver des solutions,mais pour l instant c est la ramade complete.
totu ce que je veux c est avoir une copy exacte et automatique de mon /home sur le serveur de backup,la maniere de le faire m indiffere.
là je suis en train de regarder rdiff-backup mais j ai pas l impression qu on peu sortir en ftp,juste sftp donc pas possible de mettre (à moin que je me trompes) les fichiers sur le serveur.
si tu as une solution je suis tetra preneur
remerciments && salutations

esperanza
28/08/2007, 12h59
Tu enregistre ton tar dans le dossier que tu veux zipper ? Bizare ça.

Ca risque pas de faire une boucle sur le fichier tar ça ? Il tar le fichier qu'il est en train de tar etc etc... A mon avis le fichier qui est 4 fois plus gros que prévu c'est normal...

En plus je ne vois pas trop l'interet de faire un gzip sur un tar mais bon...

nocomp
28/08/2007, 09h00
hello tout le monde,
bon, j ai essayé un script,ce que je pige pas c est qu au lieu d avoir un bckup de 5gb ca faisait 19gb et le serveur a pas supporté le reboot.
voilà le script au cas où ca interesse qqun,j arrete d esperer quoi que ce soit

#!/bin/bash
# Compression d'un dou de plusieurs repertoires (exemple : /home)

tar cf /home/backupsite/bckpsite.tar /home


gzip -f /home/backupsite/bckpsite.tar

# Transfert avec ftp

ftp -in < open 91.121.70.xx
user nsxxxxxxx.ovh.net xxxxxxxx
bin
hash
prompt
lcd /home/backupsite
put bckpsite.tar.gz
bye

nocomp
27/08/2007, 22h48
rebonsoir,
apres avoir relu le site de l auteur des scripts, j ai fait un essais en virant tous les rep à ne pas backup sauf le rep de sauvegarde, et toujours le meme resultat :'(
y a vraiment personne qui pourrais me donner une piste? je veux juste pouvoir fair un tar de dir dans /home et le ftp
remerciments

nocomp
27/08/2007, 18h29
voilà l arborescence de ce qu il y a dans la mini archive de sauvegarde:
temp # tar -xvf 27_new-backupsite.tar.gz
usr/local/apache/conf/
usr/local/apache/conf/ssl.crt/
usr/local/apache/conf/ssl.crt/server.crt
usr/local/apache/conf/ssl.key/
usr/local/apache/conf/ssl.key/server.key
usr/local/apache/conf/mime.types
usr/local/apache/conf/magic
usr/local/apache/conf/highperformance-std.conf
usr/local/apache/conf/highperformance.conf
usr/local/apache/conf/httpd-std.conf
usr/local/apache/conf/httpd.conf
usr/local/apache/conf/httpd.conf.old
usr/local/apache/conf/ssl-std.conf
usr/local/apache/conf/ssl.conf
var/run/named/
var/run/named/named.pid

rien concernant /home et pourtant mon fichier de conf des rep à excure est normal avec des repertoires existants:
backupsite # more backup_exclude.txt
/home/backupsite
/home/ovh
/home/log

là je sais vraiment plus quoi faire, j ai vraiment besoin de votre aide.

remerciments

nocomp
27/08/2007, 18h11
Bonsoir tout le monde,
j ai re suivit le tutoriel, re wget les fichiers au cas où je les aurais corrompu et j ai toujours des sauvegardes de 52 kb.....
suis je le seul à avoir ce probleme pour que personne ne me reponde?
Voilà les backups:
http://no-comp.net/backup.php
salutations

nocomp
27/08/2007, 15h09
bouuuuuuuu :'( personne pour m aiguiller chu en train de peter un cable là
helppppppppppppppppp plzzzzzzzzzzzzzzzzzzzzzzz
salutations

nocomp
27/08/2007, 11h51
je viens de voir la liste des fichiers sur el serveur ftp de backup ,et là j ai une sauvegarde de 50kb!!!
Liste des fichiers sur le FTP:

27_backupsite.tar.gz 52404 octets Aug 27 - 10:36
de quoi ca peu venir?
Le truc bizarre c est que la premiere fois que j ai lancé le script j avais 5gb de backup,zarb
salutations && remerciments

nocomp
27/08/2007, 11h18
Citation Envoyé par nocomp
Bon apparament ca à l air de marcher:
backup-manager-0.6.2 # ls -ltrh /home/backupsite/
total 3,2G
-rw-r--r-- 1 root root 37 jui 23 2006 backup_exclude.txt
-rw-r--r-- 1 root root 3,2G aoû 27 12:08 27_backupsite.tar.gz
ns3xxxx1 backup-manager-0.6.2 #
Bonjour tout le monde,
pti soucis,
j ai bien recu le mail de confirmation de fin de creation de l archive de backup
Backup effectué à 12:15:27 Status: OK
Durée du backup: 15 minutes
Fichier: 27_backupsite.tar.gz transféré avec une taille de 3666 Mb
seul hic, l archive à disparue!!!
backupsite # ls -ltrh
total 4,0K
-rw-r--r-- 1 root root 37 jui 23 2006 backup_exclude.txt

si qqun a une explication, je suis preneur!
1000 mercis

nocomp
27/08/2007, 11h06
Citation Envoyé par nocomp
hello tout le monde,
je viens de faire mon backup avec les infos et scripts sur ce lien:
http://www.dansteph.com/backupftp.php

J ai bien recu le mail de confirmation:
Backup effectué à 11:00:05 Status: OK
Durée du backup: 13 minutes
Fichier: 27_backupsite.tar.gz transféré avec une taille de 0 Mb
et là le 0MB interpelle, alors un pti coup de shell:
ns3xxxx1 mes_scripts # ls -ltrh /home/backupsite/27_backupsite.tar.gz
ls: /home/backupsite/27_backupsite.tar.gz: Aucun fichier ou répertoire de ce type
ns3xxxx1 mes_scripts #


qqun aurait eu le meme probleme que moi?
comment regler ca?
remerciments
Bon apparament ca à l air de marcher:
backup-manager-0.6.2 # ls -ltrh /home/backupsite/
total 3,2G
-rw-r--r-- 1 root root 37 jui 23 2006 backup_exclude.txt
-rw-r--r-- 1 root root 3,2G aoû 27 12:08 27_backupsite.tar.gz
ns3xxxx1 backup-manager-0.6.2 #

nocomp
27/08/2007, 10h09
Citation Envoyé par pmadfm
Bonjour,

Joli tuto, merci bien.

En fait le test est concluant, mais je vais rester avec backup_manager (gratuit) et qui prends en charge l'incrémental et les bases mysql. Depuis la dernière version on même utiliser _all_ pour sauvegarder toutes les tables.

En tout cas merci pour ce travail qui fonctionne parfaitement.

CDT
Désolé je savais pas que ca s apellait bacula, j avais cherché
http://www.google.fr/search?q=backup_manager&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:frfficial&client=firefox-a
pkoi tu as effacé ton post?

nocomp
27/08/2007, 10h03
hello tout le monde,
je viens de faire mon backup avec les infos et scripts sur ce lien:
http://www.dansteph.com/backupftp.php

J ai bien recu le mail de confirmation:
Backup effectué à 11:00:05 Status: OK
Durée du backup: 13 minutes
Fichier: 27_backupsite.tar.gz transféré avec une taille de 0 Mb
et là le 0MB interpelle, alors un pti coup de shell:
ns351461 mes_scripts # ls -ltrh /home/backupsite/27_backupsite.tar.gz
ls: /home/backupsite/27_backupsite.tar.gz: Aucun fichier ou répertoire de ce type
ns351461 mes_scripts #


qqun aurait eu le meme probleme que moi?
comment regler ca?
remerciments

Ludwig-M
27/08/2007, 10h00
désolé , à supprimer

nocomp
27/08/2007, 09h46
Citation Envoyé par pmadfm
Bonjour,

Joli tuto, merci bien.

En fait le test est concluant, mais je vais rester avec backup_manager (gratuit) et qui prends en charge l'incrémental et les bases mysql. Depuis la dernière version on même utiliser _all_ pour sauvegarder toutes les tables.

En tout cas merci pour ce travail qui fonctionne parfaitement.

CDT
salut pmadfm,
tu aurais un lien je trouve rien sur le net.
remerciments

fulup
25/08/2007, 19h50
Les utilisateurs Linux qui veulent faires des backup serieuses devraient tous regarder bacula. Cet outil est dispo en standard sur toutes les distribs, et repond reellement au problemes de gestion des sauvegardes.
- sauvegardes totales/inscrementales automatiques
- rotation des fichiers avec gestion de la retention des modifs
- restaure automatique avec recomposition de l'etat a un jours donné
etc ...

Conclusion: surement plus complique qu'un simple tar+rsync mais ca vaut reellement la peine de perdre un peu de temps pour comprendre la logique.

PS: j'utilise Bacula sur 3 sites depuis plus d'un an, et j'ai deja du faire des restaurations partielles et totales. Je peux donc certifier que non seulement les sauvegardes fonctionnent mais aussi les restores

pmadfm
23/08/2007, 15h56
Bonjour,

Joli tuto, merci bien.

En fait le test est concluant, mais je vais rester avec backup_manager (gratuit) et qui prends en charge l'incrémental et les bases mysql. Depuis la dernière version on même utiliser _all_ pour sauvegarder toutes les tables.

En tout cas merci pour ce travail qui fonctionne parfaitement.

CDT

VarioFlux
16/08/2007, 13h58
Bonjour,

Je tente d'installer le script de DanSteph
Je suis en Redhat 7.2
J'ai fais la modif pour virer le SAVEDIR2 comme dit plus haut, à tout hasard...
AU bout de 10mn environ :

Code:
[backupftpovh.sh] -->Debut de backup de /home a 14:40:21
tar: Removing leading `/' from member names
tar: /home/mysql/mysql.sock: socket ignored
tar: /home/mysql/tracking/tracking.MYD: file changed as we read it
[backupftpovh.sh] -->ERREUR TAR à 14:50:25 Backup NON effectué.
Pourtant j'ai de la place :

Code:
[root@ns32xxx backupsite]# ls -l
total 1636996
-rw-r--r--    1 root     root     1674637014 aoû 16 14:50 16_backupsite.tar.gz
-rw-r--r--    1 root     root           37 jui 23  2006 backup_exclude.txt

[root@ns32xxx backupsite]# df
Filesystem           1k-blocks      Used Available Use% Mounted on
/dev/hda1              2016016    951736    961868  50% /
/dev/hda2             35925864   5139832  28961048  16% /home
none                    252840         0    252840   0% /dev/shm
/dev/hdc1             38456308   4403256  32099552  13% /backup
Je ne vois pas le problème ?
help ?

secrire
13/08/2007, 08h55
Je ne comprends pas, car j'ai bien les backup qui marchent mais lorsqu'on se connecte sur le Backup FTP d'ovh dans le manager, il reste à zéro Ko !!

De plus, je ne sais pas combien j'ai de place et j'aimerais savoir s'il peut être possible de supprimer les vieilles backup... toutes les deux semaines par exemple...

secrire
10/08/2007, 11h34
De plus, je reçois sur mes emails toutes les heures un email BACKUP FTP OVH OK avec pour message :
Code:
Backup effectué à telle heure Status OK
Durée du backup : 1 minutes
Fichier : 10_backupsite.tar.gz transféré avec une taille de 400 Mb
Comment arrêter cet envoi massif vers mes emails du dédié svp ???

secrire
09/08/2007, 10h15
Re-bonjour,

Et ça continue alors j'espère que ça ne craint pas ????

02_backupsite.tar.gz 357683896 octets Aug 2 - 21:01
03_backupsite.tar.gz 350730462 octets Aug 3 - 21:00
04_backupsite.tar.gz 350968018 octets Aug 4 - 21:00
05_backupsite.tar.gz 351137971 octets Aug 5 - 21:00
06_backupsite.tar.gz 371441491 octets Aug 6 - 21:01
07_backupsite.tar.gz 371869745 octets Aug 7 - 21:00
08_backupsite.tar.gz 396896606 octets Aug 8 - 21:01
09_backupsite.tar.gz 397370746 octets Aug 9 - 09:00

Comment savoir si le FTP sera plein ou non ???

secrire
06/08/2007, 13h38
Et vu que je fais tous les jours la sauvegarde, aurai-je toujours de la place ?? ou faut-il supprimer de temps en temps les sauvegardes ???

Je ne vois pas où se sauvegardent les données... j'avais mis un FTP qu'ovh m'avait envoyé, mais je ne suis pas sûr que ça y vient bien dessus et je ne peux pas y accéder avec un FTP, bizarre... et pourtant, cela me dit que c'est bien sauvegardé !

Pour l'instant, j'ai :


Liste des fichiers sur le FTP:

02_backupsite.tar.gz 357683896 octets Aug 2 - 21:01
03_backupsite.tar.gz 350730462 octets Aug 3 - 21:00
04_backupsite.tar.gz 350968018 octets Aug 4 - 21:00
05_backupsite.tar.gz 351137971 octets Aug 5 - 21:00
06_backupsite.tar.gz 371200811 octets Aug 6 - 12:00

secrire
02/08/2007, 15h15
J'ai utilisé le backup de Dan moi aussi, le fichier s'est bien téléchargé dans /home/backupsite/02_backupsite.tar.gz
Maintenant, comment faire pour le récupérer ???

KdTcA
02/06/2007, 10h37
Bon...

J'ai laissé vide le fichier backup_exclude.txt et lancé le script et apparemment ça marche.

Le seul souci, c'est que j'ai lancé une tâche cron sur ce srcipt pour les 1,8,15,23,30 de chaque mois. On est le 2 et la sauvegarde du 1 ne s'est pas faite... quelqu'un aurait-il une explication possible de cette défaillance ?

Merci d'avance pour vos réponses.

KdTcA
28/05/2007, 12h36
Bonjour,

Je veux utiliser le script proposé ici http://www.dansteph.com/backupftp.php par dansteph.

Le problème étant que je veux enlever les restrictions de sauvegarde (enlever les dossiers à ne pas sauvegarder) et juste mettre les dossiers que je veux sauvegarder.

Les lignes de script sont celles là :
Code:
SAVEDIR="/home"                         #Backup de /home SANS slash a la fin
SAVEDIR1="/usr/local/apache/conf"       #Backup optionnel SANS slash a la fin
SAVEDIR2="/var/named"                   #Backup optionnel SANS slash a la fin
#...
EXCLUDEFILE="/home/backupsite/backup_exclude.txt"   #ce fichier doit contenir ...
#...
tar cfzX $TEMPDIR$FILENAME.gz $EXCLUDEFILE $SAVEDIR $SAVEDIR1 $SAVEDIR2
J'ai donc mis les dossiers à sauvegarder dans les variables SAVEDIR, SAVEDIR1...
Mais que dois-je mettre dans le fichier backup_exclude.txt ? Puis-je le laisser vide ?
Ou dois-je modifier la dernière ligne de code citée au dessus à savoir celle-ci :
Code:
tar cfzX $TEMPDIR$FILENAME.gz $EXCLUDEFILE $SAVEDIR $SAVEDIR1 $SAVEDIR2
Merci d'avance!


olcox
21/05/2007, 10h59
Citation Envoyé par MTC
Bonjour,

Ouaip, moi aussi je viens de tester le script de Danstef et j'ai la même erreur :


Je vais essayer de piger où ça coince.

C'est ptet un problème de place sur le disque.
bien pour ce problème, il est fort probable que le FTP soit configuré pour limiter la taille des fichiers transférés... pour palier à ce problème il faut découper l'archive avant de l'envoyer (pour ceux qui compressent en local avant de transférer vers le serveur)

dans le script de TheJedi, il faut modifier la commande de compression comme suit :

remplacer
Code:
tar czf ${CHEMIN_BACKUP}/${1}-${DATE_JOUR}.tar.gz ${BKP_DIRS}
par
Code:
tar -c -L 1800000 -f $CHEMIN_BACKUP/$1-$DATE_JOUR-1.tar -f $CHEMIN_BACKUP/$1-$DATE_JOUR-2.tar -f $CHEMIN_BACKUP/$1-$DATE_JOUR-3.tar $BKP_DIRS
gzip $CHEMIN_BACKUP/$1-DATE_JOUR-*.tar
l'option "-L 1800000" permet de découper les archives .tar (ici en tronçons de 1800 Mo)
les options -f spécifient les noms des archives après découpe, attention, il faut prévoir autant de noms que le nombre de tronçons nécessaires pour contenir l'ensemble de la sauvegarde.
(ça doit être faisable en automatique après un "du" des répertoires à sauvegarder mais je n'ai pas trop le temps de me pencher sur cette question)

ensuite, il faut penser à ajuster la commande de transfert pour qu'elle prenne en compte les différents fichiers de l'archive.

autrement, la solution de Yggdrasil pour compresser directement les fichiers sur le serveur distant doit résoudre le Pb de la même manière, à moins d'avoir des fichiers à sauvegarder des + de 2Go ?!

sarrah2
16/05/2007, 23h21
j'ai besoin de realiser une interface graphique pour le backup et merci

sarrah2
16/05/2007, 23h17
j'ai un projet de backup de disque à distance via ftp;est ce que ce programme marchera ??sachant que je n'ai aucune idée sur l'ovh si vous pouvez m'aidez je vous serai reconnaissante
merci

MTC
07/05/2007, 14h34
Bonjour,

Ouaip, moi aussi je viens de tester le script de Danstef et j'ai la même erreur :
ERREUR TAR à 15:24:46 Backup NON effectué.
Je vais essayer de piger où ça coince.

C'est ptet un problème de place sur le disque.

arvha
17/04/2007, 11h48
Je viens de tester le programme de Danstef et il a l'air de fonctionner car pendant environ 1h il moule et me crée bien le fichier de sauvegarde mais au bout d'une heure il me retourne l'erreur

avr 17 12:29:47 nsxxxxx root: [./backupftpovh.sh] -->ERREUR TAR à 12:29:47 Backup NON effectué.

et quand je regarde les logs il m'en dit pas plus quelqu'un aurait une idée du probleme ? est ce que l'archive serait limitée à une certaine taille ?

Merci d'avance

The Destroyeur
15/02/2007, 20h05
Puis-je prendre la fonction pour le mettre dans Easy Manager ?

Tamax
15/02/2007, 16h27
sur un SP large avec gentoo 2
j'ai utilisé le script de DanStpeh, testé avec ncptfput et avec proftpput
mais j'ai les memes erreurs et ne reçoit aucun mail

mes_scripts # sh backupftpovh.sh
': not a valid identifier declare: `CDERR
[backupftpovh.sh] -->Debut de backup de /home a 17:13:44
tar: Retrait de « / » de tête des noms des membres
tar: /var/bind\r: ne peut stat: Aucun fichier ou répertoire de ce type
tar: Statut d'erreur reporté d'erreurs précédentes.
backupftpovh.sh: line 88: syntax error: unexpected end of file


il ne trouve pas var/bind qui existe et la ligne 88... il n'y a rien

le tar.gz est bien créé dans mon repertoire backupsite, mais pas envoyé
pourquoi ?

alors je me suis dit : tiens je vais essayer le script de Yggdrasil
et là rien ne se lance car:
'ackupftp.sh: line 19: syntax error near unexpected token `
'ackupftp.sh: line 19: `function BACKUP_FTP()

et là je seche aussi

Michal
03/02/2007, 19h16
Bonjour à tous,

Je cherche toujours un moyen pour adapter ce script et faire de l'ncrémentiel journalier afin que ne soit envoyé que les fichiers modifiés ou nouveaus sur le serveur BACKUP d'OVH.

Quelqu'un aurait une idée ? (sachant que j'ai juste un espace FTP et non pas d'accés en SSH sur la machine distante de sauvegarde et donc je ne peux utiliser une commande SSH, mais un script qui enverrait les fichiers)

Merci d'avance

grandoc
03/02/2007, 16h44
Citation Envoyé par DanSteph
si jamais j'ai fait cette page qui est plus explicite:
http://www.dansteph.com/backupftp.php

A++

Dan
Merci à toi Dan pour cette prise en main pour les débutants
j'ai suivi à la lettre tes conseils, et ça marche !!!!
j'ai configuré le Cron pour lancer la sauvegarde toute les semaines, et donc j'attends maintenant mon mail qui m'annoncera la première dans une semaine.
Merci encore

orangoo
24/01/2007, 17h08
Bon je ne sais pas vraiment si c'est normal mais j'ai trouvé une solution

En fait j'ai crée un dossier sur le ftp de backup et c'est dans ce dossier que je lance l'archive !

Voilà si jamais quelqu'un a le meme pb peut etre que ca pourra dépanner

@ bientot

www.orangoo.net

orangoo
22/01/2007, 09h22
J'utilise le script de DanSteph qui me semble très bien mais depuis une certaine taille d'archive j'ai l'impression que ca ne fonctionne plus

[backupftpovh.sh] -->Debut de backup de /home a 10:19:47
tar: Retrait de « / » de tête des noms des membres
...kupsite/22_backupsite.tar.gz: ETA: 0:01 0.03/139.12 MB 145.35 MB/s Lost data connection to remote host: Broken pipe.
/home/backupsite/22_backupsite.tar.gz: 139.12 MB 99.42 MB/s
ncftpput /home/backupsite/22_backupsite.tar.gz: socket write error.
[backupftpovh.sh] -->ERREUR: Transfer failed. à 10:20:01 Backup NON effectué.
Je cherche ce qui peut provoquer cette erreur mais j'avoue que je ne comprend pas

Quelqu'un aurait-il une idée ?

Merci

Yggdrasil
22/01/2007, 04h03
My 2 cents là : Backup ftp

J'ai modifié le script de The Jedi pour :
- générer directement le tar sur le ftp (on n'a pas toujours la place sur le serveur pour générer un tar en local ... pour finir quand même par le transférer sur le ftp).
- pouvoir prendre également le système en backup (tout le monde n'ayant pas opté pour le confort d'une "release").

P.S.: C'est de mémoire le premier script que j'écrit sous linux ... il n'est donc pas impossible qu'il soit (largement) perfectible ...

orangoo
11/01/2007, 10h06
Bonjour,

Je rajoute juste une note pour ceux qui comme moi sont sous Release 2 (gentoo)

Il faut éditer le fichier backupftpovh.sh de DanSteph et enlever le SAVEDIR2 à cet endroit (le dossier /var/named n'existe pas sur cette release) :

#compression dun ou plusieurs repertoires choisi en parametre
tar cfzX $TEMPDIR$FILENAME.gz $EXCLUDEFILE $SAVEDIR $SAVEDIR1

Je cherche juste à rapatrier l'archive maintenant mais ca ne devrait pas etre très compliqué

Par contre la question que je me pose...

En cas de crash, vu que la sauvegarde ne contient que des données et pas de fichiers propres au systeme (et c'est tant mieux !)

Suffit-il "juste" de replacer le contenu de home au bon endroit et sous la meme release ou la manip est elle plus compliquée ?

En fait pour etre plus precis, j'ai des dossiers crées par PHP sur le serveur et c'est ces dossiers que je vais sauvegarder. Mais ceux-ci disposent de droits particuliers lorsque c'est PHP qui les crée. Alors va t il y avoir un souci lorsque je vais replacer les dossiers sur le serveur.

Je demande ca parce que j'ai vu que fopen() posait des problemes si le fichier n'était pas crée par le serveur... suis-je clair lol

Merci à vous

Michal
10/01/2007, 15h36
Merci DanSteph pour ta réponse.

Via rsync en creusant un peu j'ai trouvé quelque chose de pas mal je pense :

rsync -e ssh --force --ignore-errors --delete --delete-excluded --backup --backup-dir=backup/`date +%Y-%m-%d` -avR login@nsxxx.ovh.net:/rep_a_sauvegarder/ /rep_des_sauvegardes


(Source http://forum.sivit.fr/viewtopic.php?pid=45831#p45831)

Le serveur va se connecter en Ssh va créer le dossier backup, jour et va récupérer les fichiers.
Au prochain lancement il recrée un répertoire d'une date différente et ne sauvegarde que les fichiers modifiés par rapport à la base de fichier qu'il a le jour d'avant.

Le seul soucis c'est que pas possible pour moi de me connecter en SSH sur le serveur de sauvegarde donc si je le lance de mon serv à moi en upload ca prendra beaucoup plus de temps ... enfin à vérifier ...

Qu'en pensez vous ?

DanSteph
10/01/2007, 15h30
Citation Envoyé par Michal
Bonjour,
Y a t'il la possibilité avec l'un des deux scripts ci-dessus de faire pour la partie FTP un backup incrémental les fois suivantes ?
Je possède pour ma part 7 Go de données, et je n'ai pas envie de refaire chaque soir mouliner le serveur en compression pour 7 Go.
Franchement je n'en sait rien, je n'ai pas été plus loin vu que la solution répondait à mes besoins. (m'etonnerait fort à la reflexion, tar aurait besoin d'un index des fichiers sauvegardés avant)

Avec le mien en tout cas tu peut faire plusieurs sauvegardes à des fréquences différentes qui ne sauvent que certains repertoires. J'ai ainsi un sauvegarde journaliere de home/mysql pour les forums et une tout les 4 jours du serveur complet. On peut en faire plus avec des repertoires different
si on veut c'est expliqué sur la page.

Il faudrais un script plus complexe avec un index date&heure des fichiers sauvegardé mais ca c'est en dehors du scope de mon script. Désolé.

A++

Dan

Michal
10/01/2007, 15h08
Bonjour,

Y a t'il la possibilité avec l'un des deux scripts ci-dessus de faire pour la partie FTP un backup incrémental les fois suivantes ?
Je possède pour ma part 7 Go de données, et je n'ai pas envie de refaire chaque soir mouliner le serveur en compression pour 7 Go.

Merci d'avance

DanSteph
09/01/2007, 10h06
Citation Envoyé par The Jedi
L'avantage de mon script c'est qu'il effectue des backups individuels et tournants. Ca évite d'avoir à restaurer un /home énorme juste pour un fichier effacé par erreur.
On peu n'extraire qu'un fichier d'un tar.gzip mais de toute façon mon post n'était la que pour completer ton information,comme ca ce thread peu satisfaire un panel large de gens ce qui est le but de ces forums.

A++

Dan

The Jedi
09/01/2007, 07h05
Citation Envoyé par DanSteph
si jamais j'ai fait cette page qui est plus explicite:
http://www.dansteph.com/backupftp.php

A++

Dan
C'est sûr que c'est mieux expliqué, je suis parti du principe qu'il faut au minimum savoir créer une tâche cron avec Webmin. Ca ne me dérange pas d'expliciter pas à pas pour les débutants.
L'avantage de mon script c'est qu'il effectue des backups individuels et tournants. Ca évite d'avoir à restaurer un /home énorme juste pour un fichier effacé par erreur.

DanSteph
09/01/2007, 04h05
si jamais j'ai fait cette page qui est plus explicite:
http://www.dansteph.com/backupftp.php

A++

Dan

orangoo
13/12/2006, 18h07
Bon il est vrai qu'il semble pas évident de configurer le Backup FTP sans guides

Merci pour ta contribution The Jedi mais j'avoue que je ne sais meme pas comment appliquer ton script ...

Merci pour ton aide

The Jedi
23/08/2006, 10h07
Comme j'ai développé mon propre script de backup, je me permets d'en faire profiter les utilisateurs d'OVH qui apprécieront cette "sécurité" en cas de crash de disque dur.
En effet, avec un backup par FTP, si vous vous hacker la machine, le pirate pourra trouver le mot de passe et se connecter au FTP de backup ^^
Maintenant que c'est dit :

PS : ça fonctionne avec n'importe quel serveur FTP au passage.

Code:
#!/bin/bash

#############################################
# Definition des variables
#############################################
DATE_JOUR=`date +%Y%m%d`
DATE_JOURM7=`date --date '7 days ago' +%Y%m%d`
CHEMIN_BASE='/home'
CHEMIN_BACKUP='/home/divers/backup'
FTP_HOTE='IP du serveur de backup'
FTP_LOGIN='login FTP
FTP_PASS='pass FTP'


#############################################
# Fonction de backup
# $1 : nom du backup
# $2 : répertoire du backup /home/$2
# $3-n : sous-répertoires /home/$2/$3-n
#############################################
function BACKUP_HDD()
{
  #Y'a pas au moins 3 parametres, pas bon
  if (( $# < 3 )); then
        return 1
  fi

  echo ""

  echo ""

  #On teste l'existence du repertoire
  if [ ! -d /home/$2 ]; then
        echo "$2 n'existe pas"
        return 2
  fi

  #On se positionne dans le repertoire
  #`cd /home/${2}`

  #On cree la variable de backup
  local BKP_DIRS=''
  local i=2
  while (( i < $# )); do
        i=$(( $i + 1 ))
        eval "BKP_DIRS=\"\$BKP_DIRS \$$i\""
  done
  echo "~~~~ ${1}"
  echo "Backup /home/${2} ${DATE_JOUR}"
  cd /home/${2}
  tar czf ${CHEMIN_BACKUP}/${1}-${DATE_JOUR}.tar.gz ${BKP_DIRS}
  unset BKP_DIRS

  #Backup FTP
  echo "Backup FTP /home/${2}"
  BACKUP_FTP ${1}
}

function BACKUP_FTP()
{
  ftp -in <    ... n>
#Exemple pour le site bobylapointe.fr
BACKUP_HDD bobylapointe bobyfr sd www cgi-bin/repertoire_test