Aller au contenu

MilesTEG1

Membres
  • Compteur de contenus

    2944
  • Inscription

  • Dernière visite

  • Jours gagnés

    76

Tout ce qui a été posté par MilesTEG1

  1. salut 👋🏻 Dites hier j’ai voulu restaurer ma sauvegarde dsm et il faut que je me connecte avec l’utilisa « admin » qui est désactivé. C’est normal ? je n’ai d’ailleurs pas vu d’option pour restaurer le .dss à l’installation de dsm.
  2. Nickel 🙂 Merci. Je vais quand même sortir les disques et passer un coup de formatage rapide depuis un ordinateur (sauf les NVMe, car je n'ai pas ce qu'il faut). Je vais aussi en profiter pour passer les 4 To en secteurs 4k au lieu de 512 (faut encore que je retrouve comment faire XD)
  3. @Mic13710 @.Shad. @Jeff777 Est-ce que c'est bon ça ? Je pense que oui 🙂 J'ai fait la réinitialisation depuis DSM, puis réinstallation de DSM depuis Synology Assistant.
  4. Ok je vérifierais avant de tout refaire niveau stockage. deja une fois les sauvegardes finies (elles sont encore en cours …), je supprime les volumes , j’efface les disques effaçables depuis dsm , je casse le shr principal en gardant un seul disque , l’autre est effacé et ensuite je verrai. est-ce qu’on peut depuis synolgy assistant formater le dernier disque et réinstaller dsm ?
  5. @.Shad.haaa oui j’avais fait ça pour intégrer Crowdsec 😊 c’est une bonne idée 😊👍🏻
  6. Ha cool ça alors, donc ça supprime toutes les partitions, et donc ça pourra récréer les partitions root à 8Go ? Ha ! Donc les .env ne seront pas envoyés sur GH ? Pour les docker secrets, je ne sais pas comment ça fonctionne, bien que j'en ai entendu parler.
  7. @.Shad.Tu vas abandonner le macvlan ? En ce qui me concerne j'ai placé SWAG sur un NUC, donc plus besoin du macvlan. Mais j'ai continué à utiliser ton travail sur SWAG ^^
  8. Top 🙂 J'espère pouvoir adapter ton futur tuto à mon installation (Portainer entre-autre) 😀
  9. MilesTEG1

    [TUTO] Docker : Introduction

    Le souci de Container Manager, c'est qu'il est dans DSM. Et donc faut charger DSM avant de pouvoir charger Container Manager. Donc c'est lent. Sinon, je suis d'accord, même si l'interface de CM est perfectible, on pourrait se passer de Portainer. Sauf si on passe par un dépôt GIT. Ou si on a plusieurs instances de Docker à manager. Auquel cas, Portainer, reste la référence.
  10. Hello, Bon le backup est encore en cours... moyenne de 40-50 MB/s malgré l'adaptateur 2,5GbE, le swtich 2,5GbE et la carte réseau aussi 2,5GbE de l'asustor... (backup sur des SSD dans l'asustor). @.Shad. J'ai pu restaurer le backup de mon instance portainer du Syno sur une nouvelle instance que j'appelle Superviseur sur un NUC dans une VM Debian. J'ai retrouvé l'accès aux stacks de toutes mes instances, sauf pour celles du Syno, car la machine ayant changé, j'ai du les supprimer. Et installer l'agent sur le Syno et le lier au Superviseur. Bref, comme le Syno va finir formaté, c'est pas bien grave. Me faut juste vérifier que toutes ses stacks sont sur Gitea ^^ Sinon, j'ai vu qu'on pouvait réinitialiser le NAS depuis DSM et donc réinstaller DSM : Est-ce que ça formatte vraiment tous les disques ? Si c'est le cas, je peux lancer la procédure à distance, et lancer Synology Assistant sur un Windows en VM pour finaliser. Mais sinon, ça va vouloir dire que je vais devoir sortir les disques et les formater en dehors du NAS... Enfin, sortir le dernier que je n'aurais pas effacer depuis DSM 🙂
  11. Je vais probablement ne plus utiliser le dépôt gitea pour faire mes stacks. Ça a des avantages mais plus d’inconvénients pour moi, vu que j’auto-heberge mon gitea. le copié/coller dans l’éditeur de portainer me semble finalement plus pratique. car rien que la stack de création de gitea lui même ne peut être fait via le dépôt ! meme chose pour swag. je ne veux pas mettre ça sur GitHub même en’ privé, j’ai des infos de connexion dans les .env et parfois dans les docker compose.
  12. C'est bien ça le problème. Je suis sûr qu'il y a des volumes volatiles non mis en bind-mount sur le chemin docker /volume4/docker/conteneur_i/ ... Tu peux me confirmer que ce genre de volume reste sur les machines où le conteneur est créé/lancé ? et qu'ils ne sont pas sur la machine qui centralise la gestion via portainer ?
  13. Merci @Jeff777 Je viens de me rendre compte d'un truc. Pour gérer mes instances de Portainer, je passe par portainer agent sur chaque machine. Et tout est centralisé sur mon Syno... Donc sur les portainer des autres machines, j'ai bien accès aux conteneurs créés : je peux les arrêter/démarrer/redémarrer/supprimer. Mais je n'ai pas accès aux stacks qui les as créés... vu que tout est sur le Syno... Jusqu'à maintenant je ne trouvais pas ça gênant de tout avoir sur la même machine... Mais là, ça va le devenir... Comment faites-vous pour gérer plusieurs machines docker ? Vous faites comme moi : plusieurs instances portainer + Agent -> accès via un portainer central ? Ou bien faites-vous autrement ? Comme par exemple accès à chaque machine séparément, sans lien entre-elles ?
  14. Petite MAJ 🙂 J'ai lancé les sauvegardes temporaires, ça prend du temps 😅 Cependant, je n'ai pas eu d'erreurs sur les sauvegardes à destination de l'Asustor, seules les sauvegardes à destination du cloud K-Drive me font une erreur de partition système : Je ne comprends pas trop pourquoi... Ça m'a l'air assez aléatoire en prime, car parfois je n'ai pas d'erreurs... Bref, j'ai coupeécertains services comme Synology Photos, et Surveillance Station, pour éviter les données de dernières minutes à sauvegarder. Faudra que je fasse pareil avec Container Manager, pour faire la sauvegarde des conteneurs. J'ai aussi remarqué que quand Vitual Machine Manager est installé, avec donc Open vSwitch activé, la sauvgegarde de la configuration du Syno ne contient pas tout : Dès lors que Open vSwitch est désactivé, tout est bien sauvegardé. Pour ne pas être embêté, la semaine dernière j'ai déplacé le reverse proxy SWAG sur un NUC, et aussi Vaultwarden. Il va me falloir faire de même pour ma deuxième instance de Adguard Home. Ainsi je n'aurais plus besoin de macvlan sur le NAS, et ça m'ôtera un problème potentiel après. J'ai aussi sorti le disque 3 du NAS, celui qui contient les sauvegardes des instances proxmox, et aussi celui qui potentiellement à une partition système de 8Go. Voilà voilà @+ quand j'aurais d'avantage de nouvelles
  15. @Mic13710 c’est ce que j’envisageais 😇 merci pour le confirmation 😊 il n’y a plus qu’à ! enfin avant je vais jouer de ncdu pour savoir combien j’ai dans les volumes et les partages. Je sens que ça va être long ça aussi 😅
  16. Hello 👋🏻 je viens de placer deux ssd (1 de 1To sata et un de 2To NVMe) dans mon asustor. Pour faire une sauvegarde des données du syno, vous préconisez quoi pour que ce soit rapide et fiable comme mode de sauvegarde ? Hyperbakup ou rsync ? Là je n’ai pas besoin de version ni de chiffrement.
  17. @Mic13710 C'est bien comme tu le décris 🙂 (pour le SHR et le RAID1). En ce qui concerne le disque SATA1, c'est effectivement le dernier ajouté, mais le plus vieux de tous, c'est du recyclage XD Vu son age, j'ai préféré ne pas l'intégrer à la grappe SHR. J'en ai fait un disque de backup et de reception de TimeMachine quand j'utilisais encore TM... Du coup, vu qu'il a été formaté, il n'a pas connu les diverses versions de DSM, il a été directement mis quand DSM 7.2 était sorti. C'est probablement pour celà que tu me dis ceci : Et donc ce disque, si je le sors sans le formater, et que je le replace dans le NAS tel quel après avoir formaté et réinstallé DSM sur les autres disques, va-t'il obtenir sa partition de 8G ?
  18. ╰ sudo cat /proc/mdstat  0.5s      09:08  14.03.24   74%  Password: Personalities : [raid1] md4 : active raid1 sata2p3[0] 1948692544 blocks super 1.2 [1/1] [U] md2 : active raid1 sata3p5[3] sata4p5[2] 3902187456 blocks super 1.2 [2/2] [UU] md5 : active raid1 nvme0n1p3[0] nvme1n1p3[1] 483664384 blocks super 1.2 [2/2] [UU] md3 : active raid1 sata1p3[0] 3896294208 blocks super 1.2 [1/1] [U] md1 : active raid1 sata1p2[0] sata3p2[3] sata4p2[2] sata2p2[1] 2097088 blocks [4/4] [UUUU] md0 : active raid1 sata1p1[0] sata4p1[3] sata3p1[2] sata2p1[1] 2490176 blocks [4/4] [UUUU] unused devices: <none> ╰ lsblk  4.7s      10:53  14.03.24   74%  NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS sata1 8:0 0 3,6T 0 disk ├─sata1p1 8:1 0 8G 0 part │ └─md0 9:0 0 2,4G 0 raid1 / ├─sata1p2 8:2 0 2G 0 part │ └─md1 9:1 0 2G 0 raid1 [SWAP] └─sata1p3 8:3 0 3,6T 0 part └─md3 9:3 0 3,6T 0 raid1 ├─vg2-syno_vg_reserved_area 248:0 0 12M 0 lvm └─vg2-volume_6 248:1 0 3,6T 0 lvm └─cachedev_2 248:6 0 3,6T 0 dm /volume6 sata2 8:16 0 1,8T 0 disk ├─sata2p1 8:17 0 2,4G 0 part │ └─md0 9:0 0 2,4G 0 raid1 / ├─sata2p2 8:18 0 2G 0 part │ └─md1 9:1 0 2G 0 raid1 [SWAP] └─sata2p3 8:19 0 1,8T 0 part └─md4 9:4 0 1,8T 0 raid1 └─cachedev_1 248:5 0 1,8T 0 dm /volume3 sata3 8:32 1 3,6T 0 disk ├─sata3p1 8:33 1 2,4G 0 part │ └─md0 9:0 0 2,4G 0 raid1 / ├─sata3p2 8:34 1 2G 0 part │ └─md1 9:1 0 2G 0 raid1 [SWAP] └─sata3p5 8:37 1 3,6T 0 part └─md2 9:2 0 3,6T 0 raid1 ├─vg1-syno_vg_reserved_area 248:2 0 12M 0 lvm └─vg1-volume_1 248:3 0 3,6T 0 lvm └─cachedev_3 248:7 0 3,6T 0 dm /volume1 sata4 8:48 1 3,6T 0 disk ├─sata4p1 8:49 1 2,4G 0 part │ └─md0 9:0 0 2,4G 0 raid1 / ├─sata4p2 8:50 1 2G 0 part │ └─md1 9:1 0 2G 0 raid1 [SWAP] └─sata4p5 8:53 1 3,6T 0 part └─md2 9:2 0 3,6T 0 raid1 ├─vg1-syno_vg_reserved_area 248:2 0 12M 0 lvm └─vg1-volume_1 248:3 0 3,6T 0 lvm └─cachedev_3 248:7 0 3,6T 0 dm /volume1 iscsi1 8:64 0 1G 0 disk /tmp/ccc/guestmeta/5f21d65d-f769-4f8f-ae89-8f219631f28c synoboot 135:240 0 120M 0 disk ├─synoboot1 135:241 0 32M 0 part └─synoboot2 135:242 0 84M 0 part zram0 249:0 0 1,7G 0 disk [SWAP] zram1 249:1 0 1,7G 0 disk [SWAP] zram2 249:2 0 1,7G 0 disk [SWAP] zram3 249:3 0 1,7G 0 disk [SWAP] nvme0n1 259:0 0 465,8G 0 disk ├─nvme0n1p1 259:1 0 2,4G 0 part ├─nvme0n1p2 259:2 0 2G 0 part └─nvme0n1p3 259:3 0 461,3G 0 part └─md5 9:5 0 461,3G 0 raid1 └─cachedev_0 248:4 0 461,3G 0 dm /volume4/@docker/btrfs /volume4/@docker /volume4 nvme1n1 259:4 0 465,8G 0 disk ├─nvme1n1p1 259:5 0 2,4G 0 part ├─nvme1n1p2 259:6 0 2G 0 part └─nvme1n1p3 259:7 0 461,3G 0 part └─md5 9:5 0 461,3G 0 raid1 └─cachedev_0 248:4 0 461,3G 0 dm /volume4/@docker/btrfs /volume4/@docker /volume4 Du coup, elles y sont ? Haaa, il y a un autre truc que j'aimerais sauvegarder ! Ce sont les différentes tâches hyperbackup ! Car punaise, que c'est chiant et long à paramétrer... C'est possible de pouvoir les récupérer ?
  19. Merci @Mic13710 🙂 Pour les NVMe, je suis quasi sur que la méthode que j'ai suivi ( voir mon tuto déprécié sur gist : https://gist.github.com/MilesTEG1/221d1f5dad14828638cf09ceaaebada1 ) les a créé... Bref, c'est du gros projets bien lourd et long qui va devoir être fait... 1/ Je pense que je vais casser les deux raid que j'ai : SHR sur deux HDD et raid 1 sur les nvme. Je récupère un des deux disques que je place dans mon Asustor le temps de sauvegarder tout dessus. 2/ Pour le disque de surveillance station, OSEF si je perd tout, ce qui va me faire chier c'est de perdre la configuration des caméras et les licences. Il y a moyen de la sauvegarder et de restaurer ça sans perte ? 3/ Pour le disque 3, qui sert de disque de stockage pour ma VM Proxmox Backup Server, ça va être coton de sauvegarder les données, je n'ai pas grand chose qui pourraient les accueillir... J'ai moyen envie de cramer ma sauvegarde des médias sur le Qnap pour faire de la place temporairement... c'est que c'est long à transférer... Bref... Vous avez une méthode fiable pour sauvegarder et restaurer les configurations des paquets et de DSM ?
  20. Sisi je me souviens bien, je suis retourné voir. Mais je n'ai pas vraiment vu de manière de résoudre le souci sans devoir tout formater/résinstaller/restaurer... Aucune idée... Voilà quelques captures faites avant que je ne fasse un peu de ménage dans le dossier .oh-my-zsh : faite via commande ncdu -x / Un petit df -h : Après le nettoyage : Le reste n'a pas vraiment bougé... Le dossier de log possède une bonne taille, surtout pour le disk latency. Mais je ne sais pas comment faire le ménage là dedans de manière propre ^^
  21. Ha crap ! Je n'ai pas le temps ni l'espace pour stocker ce qui n'est pas sauvegardé ailleurs et qui m'embêterait de perdre... Mais figure toi que j'y ai pensé... mais flute... Pour l'autre solution, je vois bien de quoi tu parles, mais pas sûr que je trouve 😅 En tout cas merci 🙂
  22. Hello, En attendant une réponse du support qu'il va falloir que je contacte, est-ce que quelqu'un a une solution pour désencombrer la partition système root ? Car j'ai des erreurs de tâches de sauvegardes : Et aussi des erreurs identiques quand j'installe un paquet spk. Merci d'avance
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.