Aller au contenu

unPixel

Membres
  • Compteur de contenus

    6442
  • Inscription

  • Dernière visite

  • Jours gagnés

    146

Tout ce qui a été posté par unPixel

  1. Ta modif fonctionne parfaitement lordtaki 😉 Je vais analyser les modifs que tu as fait et surtout essayer de les comprendre. Mais si tu as deux minutes pour me donner une petite explication, ça serait avec joie. Merci encore à vous deux pour l'aide apportée.
  2. Si j'ai copié et remit en forme. Pourquoi ? J'ai essayé ça en attendant et ça fonctionne mais pas complètement dans le log ! Je précise que c'est sur mon script de base et pas ta modif. # Écrire dans le fichier log for db in $databases; do echo $db echo "Sauvegarde réussie de 'bdd_complete.sql.gz' dans le dossier '$BACKUP_DIR/$DATE'" >> $LOGFILE echo "Sauvegarde réussie de '$db.sql.gz' dans le dossier '$BACKUP_DIR/$DATE'" >> $LOGFILE done Le résultat : Sauvegarde réussie de 'bdd_complete.sql.gz' dans le dossier '/xxxxxxx/xxxx/sql/09.10.2018_1105' Sauvegarde réussie de '1111111.sql.gz' dans le dossier '/xxxxxxx/xxxx/sql/09.10.2018_1105' Sauvegarde réussie de 'bdd_complete.sql.gz' dans le dossier '/xxxxxxxx/xxxxx/sql/09.10.2018_1105' Sauvegarde réussie de '22222222.sql.gz' dans le dossier '/xxxxxxxx/xxxxx/sql/09.10.2018_1105' Sauvegarde réussie de 'bdd_complete.sql.gz' dans le dossier '/xxxxxxxx/xxxxx/sql/09.10.2018_1105' Sauvegarde réussie de '333333.sql.gz' dans le dossier '/xxxxxx/xxxxx/sql/09.10.2018_1105' Sauvegarde réussie de 'bdd_complete.sql.gz' dans le dossier '/xxxxxxxx/xxxxx/sql/09.10.2018_1105' Sauvegarde réussie de '444444444.sql.gz' dans le dossier '/xxxxxxxx/xxxxx/sql/09.10.2018_1105' Sauvegarde réussie de 'bdd_complete.sql.gz' dans le dossier '/xxxxxxxx/xxxxx/sql/09.10.2018_1105' Sauvegarde réussie de '555555.sql.gz' dans le dossier '/xxxxxxx/xxxxx/sql/09.10.2018_1105' Sauvegarde réussie de 'bdd_complete.sql.gz' dans le dossier '/xxxxxxx/xxxxx/sql/09.10.2018_1105' Sauvegarde réussie de '66666666.sql.gz' dans le dossier '/xxxxxx/xxxxx/sql/09.10.2018_1105'
  3. J'ai testé vite fait ta modification et voilà ce qui va et ce qui ne va pas. Le fichier LOG se créer bien avec le contenu des bdd manquantes sauf qu'il n'est plus lisible sur FileStation via l'éditeur de texte. Quand on télécharge ce fichier log, on constate qu'il contient le signe _ à la fin de l'extension sauf que ce signe n'apparait pas sur FileStation. La bdd complète ne se sauvegarde plus et un second fichier log vide se créer juste avec la date et l'heure.
  4. Et ton proxy Server n'a pas un fichier log que tu peux consulter ?
  5. Quelle idée aussi d'être sur un iPhone pour coder 😂 Merci beaucoup Einsteinium 😉 Je regarde ça demain.
  6. Ok merci du conseil, je regarderai ça demain 😉
  7. Ah. Et tu saurais comment je dois faire stp parce que là, je vois pas de quoi ça parle... Je vais quand même faire une recherche sur la toile au sujet de cette fameuse boucle. Merci 😉
  8. Bonjour à tous, Je suis en train d'élaborer un script "mysqldump". J'ai un soucis au niveau du fichier log. En faite, je demande à mon script de sauvegarder dans un dossier daté un fichier .gzip de toutes les bdd mais aussi une archive pour chaque bdd existantes. Au niveau du log, j'arrive à obtenir un résultat pour la grosse archive mais quand il s'agit de faire le log pour les autres bdd à l'unité, ça se complique. Le log m'indique la réussite de sauvegarde de la dernière bdd du dossier mais pas des autres 🙄 Merci par avance pour votre aide. Le script qui concerne la partie log : # Récupération de la liste des bases de données existantes. databases=`$MYSQL -h$MYSQL_HOST -u$MYSQL_USER -p$MYSQL_PASSWORD -e "SHOW DATABASES;" | grep -Ev "($SKIPDATABASES)"` # Sauvegarde des bases de données existantes en .sql dans des archives .gzip dans le dossier créé for db in $databases; do echo $db $MYSQLDUMP --force --opt -h$MYSQL_HOST --user=$MYSQL_USER -p$MYSQL_PASSWORD --skip-lock-tables --events --databases $db | $GZIP --stdout --best > "$BACKUP_DIR/$DATE/$db.sql.gz" done # Sauvegarde des bases de données existantes dans un fichier .sql et dans une seule archive .gzip dans le dossier créé for db in $databases; do echo $db $MYSQLDUMP --force --opt -h$MYSQL_HOST --user=$MYSQL_USER -p$MYSQL_PASSWORD --all-databases | $GZIP --stdout --best > "$BACKUP_DIR/$DATE/bdd_complete.sql.gz" done # Écrire dans le fichier log echo "Opération terminée" >> $LOGFILE echo "Sauvegarde réussie de 'bdd_complete.sql.gz' dans le dossier '$BACKUP_DIR/$DATE'" >> $LOGFILE echo "Sauvegarde réussie de '$db.sql.gz' dans le dossier '$BACKUP_DIR/$DATE'" >> $LOGFILE Et le résultat dans le fichier log : ---------------------- 08/10/2018 à 22:35:25 ---------------------- Opération terminée Sauvegarde réussie de 'bdd_complete.sql.gz' dans le dossier '/xxxxxx/xxxxx/sql/08.10.2018_2235' Sauvegarde réussie de 'phpmyadmin.sql.gz' dans le dossier '/xxxxxx/xxxxx/sql/08.10.2018_2235' Sauf qu'entre les deux, il manque quelques lignes 😤
  9. J'irai regarder ça. Tu es sûr que de base, les containers n'ont un accès via le daemon root ?
  10. Ah oui, j'avais pas bien lu non plus. Je pensais qu'on parlait de tout un système et dans ce cas, je prend même pas la peine de parler avec le client lol.
  11. Sauf que certains containers utilisent leurs propres base de données avec un mysql lite par exemple. Et certains containers comme Searx par exemple fonctionnent sans ID car pas d'utilisateurs pour l'application.
  12. EDIT : Finalement, j'ai réécrit un script au propre (pour mes yeux en tout cas) en m'adaptant de ce que je trouvais ici ou là. Tout fonctionne à merveille sauf maintenant la partie LOG. Je reviendrais dire ce qu'il en est après quelques nouvelles modifications.
  13. Une société qui veut une vidéosurveillance avec 43 caméras mais ne veut pas mettre 5-6k dans tout le système, je me marre... 😂 Rien que la maintenance annuelle (nettoyage des caméras, changement des caméras HS etc...) doit couter bien plus cher que ça pour une si grosse installation !
  14. Je m'en doutais venant de toi 🙂 D'ailleurs, j'essaie de passer par mysqldump moi même pour automatiser tout ça mais j'ai encore quelques soucis avec mon script 😞 Merci en tout cas pour ta réponse. Voici mon script reprit ici et là : #!/bin/bash SERVEUR='localhost' BKPUSER='xxxxx' BKPPASS='xxxxxxxxxxxxxxxxxxxxxxxxxxx' BKPDIR='/volume1/xxxxxx/sql' BKPDATE=`date +%Y.%m.%d_%H%M` BKPGZ=$BKPDIR/$SERVEUR-$BKPDATE.sql.gz PWD=`pwd` GZIP='/usr/bin/gzip' MYSQLDUMP='/volume1/@appstore/MariaDB10/usr/local/mariadb10/bin/mysqldump' cd $BKPDIR $MYSQLDUMP -h $SERVEUR -u $BKPUSER -p$BKPPASS --all-databases | $GZIP --stdout --best > $BKPGZ #$GZIP --rsyncable RESULT=$? cd $PWD # Notifications par mail #EMAIL="xxxxx@xxxxx.fr" # Combien de jours après les anciens fichiers doivent être supprimés DAYS=1 # Rétention / rotation des sauvegardes RETENTION=3 # Envoi de la notification mail et nettoyage dans le dossier #echo "MySQL backup is completed! Backup name is $NOW.tar.gz" | mail -s "MySQL backup" $EMAIL #rm -rf $NOW # Suppression anciens fichiers find $BKPDIR -name *.sql.gz -mtime +$DAYS -delete #echo "Suppression des vieux backup : " #find $BKPDATE -name *.sql.gz -mtime +$RETENTION -print -exec rm -f {} \; # find /volume1/xxxxxxxxxx/sql -type f -name *.sql.gz -mtime +4 -delete find $BKPDIR -name *.sql.gz -mtime +$RETENTION -delete if [ $RESULT -ne 0 ]; then echo "$DATE - #ERROR# during backup process" exit 1 else echo "$DATE - backup completed successfully" exit 0 fi exit 1
  15. Pas compris. Tu veux dire qu'on doit en permanence et limite tous les jours s'assurer nous même à la mano sur chaque containers qu'il y a une MAJ en visitant tous les liens Github ?! Si c'est ça, bah y'a quand même un soucis ! On est en 2018 quand même... Chaque container n'a pas son propre user. Tu vois ça ou sur ton NAS que chaque container utilise son propre compte utilisateur stp ?
  16. J'avais essayé mais ça ne fonctionnait pas. Il ne faisait pas le changement. Une version web classique ? de Docker ? Non. Tout est en ligne de commande normalement. Si tu veux ensuite l'interface web, tu dois l'installer toi même avec une application comme Portainer.
  17. Non, aucun de mes containers n'ont les privilèges élevés ! Sauf que tout n'est pas dans le dossier backup. Par exemple, pour Wallabag, je n'arrive pas à faire correspondre les données dans le dossier de mon choix et je n'arrive d'ailleurs pas à trouver le dossier ou sont les données en SSH.
  18. Pour wallabag, je cherche à le faire mais pas trop le temps ces derniers jours. Je vais m'y remettre ! Encore une fois, je ne suis pas un grand connaisseur de Docker bien que je me renseigne beaucoup et je constate plusieurs choses qui me dérangent dans Docker. Les backups sur Docker ne sont pas intuitifs et automatisés. Sur webstation, j'ai à la fois Hyper Backup mais aussi Syncback PRO qui font des sauvegardes périodiques. Question sécurité, je trouve que c'est pas clair sur Docker. Par exemple, on peut voir que le daemon est en root et donc peut tout faire. Il suffit par exemple d'installer Portainer et on voit que sans autoriser quoi que ce soit, l'application peut très bien foutre en l'air toutes les images, containers, configs etc... qui sont dans Docker. Alors que pour webstation, j'installe mon petit script, ma petite bdd limitée à un son utilisateur et c'est fini. Bref, j'ai pas fini d'utiliser Docker mais il faut que je me renseigne un peu plus sur le sujet pour être convaincu.
  19. Tout à fait. J'ai exporté mes données de Shaarli docker et j'ai réimporté dans une version php classique installée par mes soins. Et dans Docker, je garde plus que l'essentiel que je ne trouve pas en version script web comme Bitwarden par exemple.
  20. En même temps, cette application n'a pas pour fonction de surveiller les mises à jour des autres containers mais elle a pour fonction de simplifier la gestion des images, containers etc... en regroupant tout dans une interface web. A l'image de Docker intégré dans DSM mais en mieux (je trouve). Et non, je ne connais pas Watchtower. Après, en aparté, je te dirai que je commence à limiter mon utilisation sur Docker. Maintenant, tout ce que je peux faire tourner en html/php etc... sur webstation, je le fais. Disons que je suis pas encore assez connaisseur sur Docker pour me rassurer au niveau sécurité.
  21. Bonjour à tous, Par simple curiosité, comment faites-vous pour automatiser la sauvegarde de vos bdd svp ? Tâche avec un script, logiciel alternatif, script php qui fait le boulot etc... ? Merci pour vos recommandations.
  22. Bonjour, Il n'y a rien à faire de particulier pour installer Portainer. Il se charge tout seul normalement via le daemon (si je me trompe pas) de prendre en compte les autres containers installés. Au niveau de ma config, voilà ce que j'ai si ça peut t'aider : Paramètres généraux : Rien de particulier à part le redémarrage automatique. Volume : docker/portainer_data > /data var/run/docker.sock > /var/run/docker.sock Paramètres des ports : 9000 > 9000 Liens : VIDE Environnement : PATH > /usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin ************************ Ensuite, au niveau du proxy inversé, j'ai simplement comme toutes mes règles : https://xxxx.ndd.tld > http://localhost:9000 Résultat :
  23. unPixel

    [Tuto] Reverse Proxy

    Bonjour, Tu peux essayer de modifier toi même ce lien dans la barre d'adresse, ça devrait fonctionner.
  24. unPixel

    [TUTO] Serveur MailPlus DSM6

    Il suffit de suivre le tuto !
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.