OVH Community, votre nouvel espace communautaire.

Backup /home


cassiopee
10/10/2014, 17h21
Ne pas oublier de tester sa sauvegarde lorsque tout va bien ...

Histoire de ne pas s'apercevoir un jour de gros pépin que le précieux fichier tar n'est pas complet
(fichiers cachés Unix manquants par exemple) ou autres joyeusetés du même tonneau.

bbr18
10/10/2014, 16h55
perso je te déconseille la R3, il y a vraiment trop de bugs qui ne sont toujours pas corrigés malgré les remontées.
Tu as quoi comme serveur ? Si c'est gamme SYS ou OVH,(donc avec IP FO) installe Proxmox, c'est vraiment bien.
Je n'ai jamais utilisé de ftp distant, le SSH (rsync ou scp) c'est bien mieux

alexstrike
10/10/2014, 16h49
Oui comme tu dis chacun sa sauvegarde et ses backup...

Par contre je test actuellement la OVH Release 3 sous Centos 6.5 (avec ses petits bugs par ci par la à corriger)...

et je n'arrive pas à me connecter à une serveur ftp distant pour externaliser mes backup

Code:
ftp -i -n IP_du_serveur_ftp
et ? et rien !

Commande introuvable

Mon FTP est est bien joignable via FileZilla pourtant.

Peut être une idée ?

bbr18
10/10/2014, 16h40
je n'en pense rien, chacun sauvegarde ce qu'il veut comme il veut, l'essentiel est d'avoir des sauvegardes, sauvegardes externalisées car sur le serveur elles ne servent à rien.
de mon côté c'est un peu différent car il s'agit de containers proxmox, donc pas besoin de sous répertoires puisqu'il y a un dump par CT complet (données, config, distribution)
Edit : mais avant de virtualiser, je faisais des répertoires non pas par jours de la semaine mais par domaine, plus facile de trouver la bonne sauvegarde en cas de besoin

alexstrike
10/10/2014, 14h49
Citation Envoyé par bbr18
il te reste à intégrer un coup de ménage sur les fichiers plus vieux de x jours

Code:
cd /home/backup/
# liste des fichiers de plus de 7 jours
find * -type f -mtime +7
# suppression des fichiers de plus de 7 jours
find * -type f -mtime +7 -exec rm -v {} \;
Intéressent, mais j'ai procédé autrement...

Pour ma part il y a des sous dossiers dans /home/backup

01_lundi
02_Mardi
03_Mercredi
04_....

Je vais garder une semaine aussi comme dans ton exemple mais je trouve ca plus pratique (enfin pour moi)...

PS : il y a des sous dossiers dans /home/backup/01_lundi :

mysql (dump sql de toute les bases de données)
sites (en fait la /home sans le dossier enfant "backup" bien sur)
system (/root , /var , /bin , /etc)

Qu'en penses tu ?

bbr18
10/10/2014, 13h35
il te reste à intégrer un coup de ménage sur les fichiers plus vieux de x jours

Code:
cd /home/backup/
# liste des fichiers de plus de 7 jours
find * -type f -mtime +7
# suppression des fichiers de plus de 7 jours
find * -type f -mtime +7 -exec rm -v {} \;

alexstrike
10/10/2014, 13h33
Merci les amiches !

Voici la commande pour les intimes lol :

Code:
cd /home; for i in `ls --ignore=backup ./`; do tar czvf /home/backup/`date +%Y-%m-%d`_"$i".tar.gz "$i" ; done

cassiopee
10/10/2014, 12h19
Citation Envoyé par alexstrike
Je souhaiterais maintenant exclure un dossier enfant de /home lors du "ls" (en fait mon dossier "backup" est un dossier enfant de /home).
Intéresse toi à la documentation de la commande "ls", en particulier l'option "-I" (lettre i majuscule)

Et forcement le must ça serais de copier les fichier *.tar.gz présent dans /home vers /home/backup
Il suffit de préfixer la partie :

Code:
"$i".tar.gz
puisque c'est là que le nom du fichier tar est indiqué, on peut également lui dire dans quel répertoire placer tout de suite ce fichier.

bbr18
10/10/2014, 12h14
ls --ignore devrait faire l'affaire ?

alexstrike
10/10/2014, 12h03
Merci cassiopee

Voici la commande utilisée :

cd /home; for i in `ls ./`; do tar czvf "$i".tar.gz "$i" ; done

Pour information : les répertoires de la /home sont bien compressés et ils sont dispo à la racine de /home.

Je souhaiterais maintenant exclure un dossier enfant de /home lors du "ls" (en fait mon dossier "backup" est un dossier enfant de /home).

Et forcement le must ça serais de copier les fichier *.tar.gz présent dans /home vers /home/backup


Merci bbr18 c'est très intéressent, mais je souhaite automatiser le plus possible...


En fait c'est un mix des deux post précédent les amiches

bbr18
10/10/2014, 11h50
créer le répertoire de sauvegarde
Code:
mkdir /home/backup
créer un fichier sauvegardes.sh
Code:
nano /home/sauvegardes.sh
avec un contenu pouvant ressembler à ça :
Code:
#!/bin/bash
# sauvegarde web site1
tar -cf /home/backup/`date +%Y-%m-%d`_site1.tar /home/site1/
# sauvegarde BDD site1
mysqldump -uroot -pPASS_ROOT_BDD BASE_site1| gzip >/home/backup/`date +%Y-%m-%d`_site1-sql.gz
mettre droits d'exécution
Code:
chmod +x /home/sauvegardes.sh
le lancer
Code:
./sauvegardes.sh
si c'est bon, mettre en tache cron
prévoir le ménage aussi ou le faire manuellement
l'avantage de mettre la date en premier sera de pouvoir faire facilement le ménage (

cassiopee
10/10/2014, 10h53
Quelque chose comme ça : http://www.commandlinefu.com/command...-per-directory

alexstrike
10/10/2014, 10h43
Bonjour,

Est-il possible de backuper et compresser (tar.gz) chaque dossier enfant de ma /home ?

J'aimerais avoir un fichier compressé portant le nom du site (ou utilisateur si vous préférez) dans mon dossier de backup.

Exemple :

Dans mon dossier : mon_chemin/backup

j'aurais : site1.taz.gz , site2.taz.gz , site3.taz.gz .......

Si quelqu'un à un script en passant

Merci d'avance les amiches