Aller au contenu

oracle7

Membres
  • Compteur de contenus

    5559
  • Inscription

  • Dernière visite

  • Jours gagnés

    80

Tout ce qui a été posté par oracle7

  1. @FUOLAM Bonjour, Je crains que le problème soit du coté de ton portable et non du NAS puisque tu dis pouvoir y accéder sans problème depuis ta tour. Sinon, comment tu te connectes au NAS avec ce portable : via http(s)://@IPduNAS/TonDossierPartagé ou http(s)://NomNetBiosDuNAS/TonDossierPartagé ? Normalement avec l'@IP cela devrait marcher directement. Enfin, je t'invite à regarder et suivre ces deux TUTOs pour bien démarrer. TUTO : Débuter avec un NAS Synology TUTO : Sécuriser les accès à son NAS Cordialement oracle7😉
  2. @Pascalou59 Bonjour, Sous réserves, je serais tenté de te dire que cette erreur est dûe à la présence d'un enregistrement de type TXT _acme_challenge déjà présent dans ta Zone DNS chez OVH (donc il y a eut probablement un problème à un moment donné et il n'a pas été supprimé automatiquement). Normalement il ne doit pas en exister. Ce type d'enregistrement est créé juste le temps de la vérification de l'authentification du domaine par LE puis il est supprimé. Je t'invite donc à vérifier cela dans ta zone DNS chez OVH et relance le processus (attention 5 essais maxi par semaine au delà tu seras bloqué pour une semaine complète !). Cordialement oracle7😉
  3. @Dimebag Darrell Bonjour, Bah, voilà avec un peu de persévérance tu y es arrivé, bravo 🤗👍 Si cela peut te rassurer, si le conteneur fonctionne, c'est que ton fichier config.ini fonctionne lui aussi. Cordialement oracle7😉
  4. @Dimebag Darrell Bonjour, Oups, je viens de m'apercevoir que j'ai fait un double C/C de la commande en question. Je corrige et voici la bonne commande : docker build -f Dockerfile --rm --tag speedtest2 . Cordialement oracle7😉
  5. @Dimebag Darrell Bonjour, Avant de lancer la création du conteneur speedtest avec le docker-compose, as-tu bien créée la nouvelle image speedtest2 avec la commande : docker build -f Dockerfile --rm --tag speedtest2 . Puis vérifier qu'elle existait bien avec la commande : docker image ls Cordialement oracle7😉
  6. @Dimebag Darrell Bonjour, Tu dois rater un truc quelque part, aussi pour prolonger la précédente recommandation de @Jeff777 qui a tout à fait raison, je te propose si tu veux bien de bien nettoyer/supprimer tout ce qui concerne speedtest (images, conteneur, etc ...) et de reprendre la procédure dans l'ordre en utilisant uniquement un fichier docker-compose bien formaté. Par rapport à la procédure de @bruno78 dans son post du 07/01 (page 22) il faut juste commencer par créer la BD sous influxdb telle que : Cordialement oracle7😉
  7. @TuringFan Bonjour, Je ne te comprends plus, relis ton post du 25/04 ... Oui c'est évident, les snapshot sont considérés comme d'autres données (films, Photo, etc ...), non ? Là cela me paraît pour le coup moins évident, (en fait je ne sais pas trop pas assez connaisseur pour le coup). Cordialement oracle7😉
  8. @Dimebag Darrell Bonjour, Ne serait-ce pas la variable "TZ" valeur = "Europe/Paris" ? Mais pourquoi passes-tu par l'interface Docker de DSM, il est plus simple d'utiliser le fichier docker-compose.yml, non ? Maintenant c'est toi qui voit ... Pour mémoire : Le premier "speedtest.tar" par rapport à la version originelle, permettait de ne pas à avoir à spécifier l'administrateur admin et son Mdp dans le fichier config.ini mais un autre utilisateur "lambda". Il corrigeait l'image de base dans ce sens. Le second fichier "speedtest.tar", apporte lui un "fix" suite à une évolution de l'image de base. C'est pour cela, avec ce "fix" on doit reconstruire l'image une nouvelle fois. Cordialement oracle7😉
  9. @TuringFan Bonjour, Je peux me tromper mais je crois que l'on a affaire ici à deux visions bien différentes dont l'usage est aussi bien différent : Le snapshot qui porte bien son nom et qui n'est pour moi qu'une photo instantanée du système et que s'assimilerais ni plus ni moins à la création d'un point de restoration sous Windows. De plus, pour moi ce n'est pas une sauvegarde à part entière dans la mesure (et c'est son défaut quelque part) elle se fait en local sur le même support. Elle n'a donc qu'une finalité ponctuelle. La sauvegarde pure et dure réalisée par Hyperbackup sur un autre support (quelqu'il soit sur disque USB externe ou Disques distants). Là, la finalité est pour moi bien plus sécurisante et correspond exactement à ce que l'on entend quand on parle de sauvegarde : sécuriser une copie des données actuelles sur un support externe. Du coup, chacune répond à un besoin bien spécifique. Pour la solution 2 quant à l'exécuter toutes les heures, cela me paraît un peu (beaucoup) exagéré sauf si tes données (dont celles les plus récentes) sont capitales pour ton fonctionnement. Mais si ce sont des photos de familles, vidéos etc... une sauvegarde toutes les semaines me paraît amplement suffisante. Sans parler de "l'occupation" du réseau et des ressources CPU du NAS que cela engendre ainsi que de l'activité disque intense générée qui diminue aussi la durée de vie de tes disques par ex. Pour la solution 4 du backup en continu, cela relève plutôt de données dites "stratégiques" pour une entreprise, pour un particulier c'est plus que discutable, non ? En plus, si d'aventure tes données venaient à être corrompues alors ta sauvegarde le serait immédiatement aussi. Mais ce n'est que mon avis ... Les autres intervenants sus-cités auront sûrement d'autres arguments. C'est juste ma vision des choses. Cordialement oracle7😉
  10. @Jeff777 Bonjour, Effectivement tu as raison on peut très bien conserver le dossier speedtest. J'avais personnellement simplement séparer les choses pour conserver la version initiale au cas où et ne pas mélanger les fichiers vu que certains sont différents et ne sont pas renommés. Cordialement oracle7😉
  11. @Dimebag Darrell Bonjour, A tout hasard, lorsque tu installes speedtest la première fois, tu travailles avec un répertoire "/volume1/docker/speedtest". Mais quand tu appliques le "fix" de @bruno78 il te faut alors travailler avec un répertoire "/volume1/docker/speedtest2" et y mettre les nouveaux fichiers (config.ini et docker-compose.yml correspondant de l'image speedtest2). Sauf erreur de ma part, la nuance est importante. Enfin je crois... Cordialement oracle7😉
  12. @YanHulbert Bonjour, Vu que tu utilises le port 25 pour tes envois/réception d'eMAILs, saches qu'Orange ignore toutes les communications arrivant sur le port 25 si elles ne viennent pas d'un réseau Orange. En clair Orange bloque le port 25. Ceci pouvant expliquer cela et donc tes soucis d'envoi d'eMails via le routeur 4G. Mais je peut me tromper ... C'est pour cela aussi que je t'ai dis qu'il fallait passer par le relai SMTP d'Orange pour envoyer/recevoir des eMails via le réseau Orange. Cordialement oracle7😉
  13. @YanHulbert Bonjour, Quand tu faisais tes tests d'envoi, es-tu sûr que ta connexion ADSL Free n'était pas tombée au profit de la connexion 4G Orange ? Au quel cas pour envoyer des eMails via Orange il faut passer impérativement par le smtp.orange.fr et le port 587 et TLS/SSL activé seulement si ton compte eMail l'impose avec aussi un compte eMail Orange valide, cela va de soit. Du coup, si tes notifications sont définies dans DSM sur un compte Free correspondant à ta connexion ADSL Free principale, cela ne marchera pas (les notifications s'entend) lorsque tu basculeras sur la connexion 4G "de secours" qui elle attaque un compte Orange . Manifestement et sauf erreur de ma part, Synology DSM ne permet pas de configurer un second compte eMail pour les notifications DSM, du moins je n'ai pas cette connaissance. Tout cela même si on peux définir par ailleurs, plusieurs comptes eMail pour un même utilisateur (Menu Perso du bonhomme en haut à droite du bureau DSM). Cordialement oracle7😉
  14. @Dimebag Darrell Bonjour, IL n'y a pas de question "bête". Attention quand même, les fichiers Dockerfile et speedtest.py ne servent que lorsque tu crées la nouvelle image speedtest2. Après ils ne sont plus d'aucune utilité. Le fichier "config.ini" doit se trouver dans le MEME répertoire que le docker-compose.yml du conteneur speedtest2. Que je saches tu ne peux les séparer vu la configuration retenue. C'est le pourquoi du "./config.ini" dans la section volumes où le "./" signifie "le même répertoire" qui contient le docker-compose. C'est de la notation UNIX/LINUX de base ... Maintenant tu pourrais très bien aussi mettre le fichier "config.ini" ailleurs par ex dans : "/volume1/mondossier/monsousdossier/" mais cela n'aurait pas de sens en tout cas pas cohérent. Mais c'est toi qui voit ... Oui pas de soucis, c'est ce qu'il faut faire pour que chaque conteneur trouve bien ses "petits" à la réserve d'indiquer correctement les chemins respectifs aux sous-répertoires respectif dans la section volumes de chaque conteneur. A coté de cela, si tu utilises un docker-compose "commun" à ces trois applications, il vaut mieux sauf erreur de ma part, mettre ce fichier "docker-compose.yml" dans un répertoire spécifique nommé comme tu le veux (par ex "monitoring" comme dans le TUTO). Cordialement oracle7😉
  15. @Dimebag Darrell Bonjour, J'ai édité entre temps ma précédente réponse. Ton docker-compose me semble presque correct mais il te manque la variable d'environnement TZ sinon tu auras des décalages de valeurs : environment: - TZ=Europe/Paris et pour container_name c'est speedtest2 et pas speedtest. Vérifies aussi tes indentations : avec que des blancs pas de tabulations ! J'ai une architecture un peu différente (tous mes scripts d'installation sont dans un répertoire spécifique qui contient un dossier spécifique à chaque conteneur ou groupe de conteneurs (comme monitoring pour le triplet ITG): /volume1/docker/scripts_instal/speedtest2 config.ini docker-compose.yml /volume1/docker/speedtest Dockerfile speedtest.py Cordialement oracle7😉
  16. @Dimebag Darrell Bonjour, Le message d'erreur me semble clair, vérifies le chemin que tu as donné. Sinon je te propose de regarder en page 22 du présent post mon message du 30/03 où j'ai donné la procédure complète qui marche chez moi. Edit : Utilises-tu bien le nouveau fichier "Dockerfile" fournit dans le fichier "speedtest_fix.tar" de @bruno78 ? Cordialement oracle7😉
  17. @Dimebag Darrell Bonjour, Pour ta gouverne, dans tes réponses, il n'est pas nécessaire de re citer le post précédant dans sa totalité, ce serait bien que tu ne cites que la partie à la quelle tu réponds, cela surcharge moins les posts et ils sont plus faciles à lire. Merci. Si tu as fait un docker-compose spécifique pour speedtest2 alors soit tu laisses docker créer/associer un sous-réseau (ave une @IP "quelconque" au conteneur sinon tu définis toi même de façon externe le network à utiliser par ex "data_export" en fixant l'@IP de ton choix au conteneur. Dans ce derier cas, et veilles à ce que ce sous-réseau ne soit pas non plus déjà utilisé par un autre conteneur. Pour cela regarde le TUTO Introduction à Docker @.Shad. l'a très expliqué comment faire. Par contre si tu as adjoint le service spedtest2 au docker-compose du triplet InfluxTelegrafGrafana alors tu dois utiliser le network "monitoring" de celui-ci. Au final il te faut juste rester cohérent au niveau network ... Sinon pour les deux entrées network que tu évoques, elles permettent de dire pour la première que tu utilises le network "data_export" et que ton conteneur sera joignable avec l'@IP 172.18.0.5 dans le sous-réseau 172.18.0.0 celui-ci étant alors spécifique au conteneur speedtest2 car non attribué automatiquement par docker). La seconde entrée network quant à elle signifie que le réseau data-export est un réseau bridge qui a été créé de façon externe. Il sera alors "persistant" lorsque tu supprimeras le conteneur sinon le sous-réseau associé au conteneur est détruit et est recréé avec la création du conteneur mais cette fois avec une possible @IP diférente. Donc créer le network en externe te permet de le rendre persistant et ainsi de garder toujours la même @IP pour ton conteneur si besoin en est. Voilà en espérant ne pas avoir été trop confus ... 🤪 Cordialement oracle7😉
  18. @MilesTEG1 Bonjour, Pas grave, puisque d'après @.Shad. c'est configuré pour Prometheus que je n'utilise pas. @Dimebag Darrell As-tu bien configuré le fichier config.ini ? Je te garanti que cela marche sans problème avec la procédure de @bruno78. Cordialement oracle7😉
  19. @.Shad. Bonjour, Bah tampi, je voulais juste voir ce que cela donnait par pure curiosité 🙄 Cordialement oracle7😉
  20. @.Shad. Bonjour, OK pour l'API_TOKEN, je m'en doutais un peu mais j'ai préféré poser la question. Par contre, je ne te comprends pas, je n'utilise pas Prometheus, alors ????? Cordialement oracle7😉
  21. @MilesTEG1 Bonjour, Comment tu comprends cela : Il faut ajouter les variables d'environnement telles que : environnement: - WATCHTOWER_HTTP_API_METRICS=true - WATCHTOWER_HTTP_API_TOKEN="OnMetQuoiCommeString?" ports: - 8080:8080 Mais l'API_TOKEN on le récupère où ? Là je ne saisi pas bien ...🥴 En plus, je n'ai rien trouvé concernant les champs à ajouter dans le fichier telegraf.conf, je ne pige pas non plus, là ... Dans leur docker-compose.yml il y a aussi cette ligne : command: --interval 10 --http-api-metrics --http-api-token demotoken --debug prometheus grafana parent child Il faut la mettre aussi ? O/N ? Enfin après tout cela on recharge le dashbord.json pour grafana disponible sur Github et cà roule ??? Ton avis STP ? Cordialement oracle7😉
  22. @MilesTEG1 Bonjour, Merci du tuyau, je vais regarder cela ... Cordialement oracle7😉
  23. @Dimebag Darrell Bonjour, Pour commencer si j'étais toi je sauvegarderais le fichier telegraf.conf de base et ensuite je le dupliquerais. Dans la copie je supprimerais tout ce que je n'utilise pas, histoire d'y voir plus clair . Il y a près de 98% des entrées qui ne te servent à rien (pour l'instant du moins ...). Si jamais tu as besoin d'une fonctionnalité spécifique il sera toujours temps de C/C depuis la sauvegarde ce que tu as besoin pour le coller dans ton fichier telegraf.conf de production. Toujours est-il que dans ton fichier ta liste d'agents pour Unify est mal formatée. Elle devrait être ainsi : agents = [ "192.168.1.3", "192.168.1.8", "192.168.1.95", "192.168.1.9" ] Attention aux espaces et aux guillemets ! Regardes ce que tu avais mis, tu verras ton erreur. Par sécurité je remplacerais aussi la community SNMP "public" par "UnNomAtaConvenance" aussi bien pour la partie Syno que la partie Unify. A corriger aussi sur le NAS pour être cohérent ! (dans Terminal et SNMP / SNMP) Enfin pour tester ton fichier telegraf.conf : Connectes toi sur ton conneteur telegraf en SSH et tapes ceci : docker exec -it telegraf bash Une fois connecté, tu tapes ceci : telegraf --test --config /etc/telegraf/telegraf.conf Là cela doit te ramener toutes les données collectées par telegraf. Vérifies alors qu'il n'y pas d'erreurs. Cordialement oracle7😉
  24. @nikoj Bonjour, Ton routeur est bien installé dernière ta box ? si Oui, alors c'est sur la box qu'il te faut définir un bail DHCP statique pour ton routeur. Attention, vérifies bien avant que l'@IP que tu vas choisir est bien EN DEHORS de la plage d'@IP attribuées automatiquement par le DHCP de la box. Une fois que le bail statique est défini alors tu renseignes cette nouvelle @IP dans le champ qui va bien dans "Internet / Connexion" sur le routeur. Ensuite il te faut déconnecter le routeur de la box et le reconnecter càd le rebooter, pour qu'il récupère cette nouvelle @IP automatiquement. Cordialement oracle7😉
  25. @Lo_Musicaïr Bonjour, Eh toi tu peux dire que tu t'en "tires" bien ...😜 Bon tant mieux si cela marche, Fais attention maintenant car comme tu as utilisé tout ton quota de codes de secours, si à l'avenir tu as un problème avec ton téléphone portable, tu seras bon pour le reset mode 1 du NAS.🥴 PS : Astuce : Pour avertir un membre de ta réponse, tu tapes dans ton message "@" + les premiers caractères de son pseudo. Dans le popup qui apparaît tu cliques alors sur le pseudo recherché et il s'affiche sur fond bleu dans ton texte. Ainsi ton interlocuteur est informé/notifié de ta réponse sinon il ne voit rien sauf à rebalayer en arrière tous les messages (ce que peu de monde fait). Cordialement oracle7😉
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.