-
Compteur de contenus
706 -
Inscription
-
Dernière visite
-
Jours gagnés
14
Tout ce qui a été posté par bruno78
-
@Jérôme Damy oui donc c'est bien un seul domaine wildcard. Au niveau du script Python, c'est bien "ndd.tld" qu'il faut indiquer. L'indication du Wildcard a été donnée à la première création du certificat, avec les variables $ export CERT_DOMAIN="votre-domaine.tld" $ export CERT_WDOMAIN="*.votre-domaine.tld" puis lors de la création où on indique bien les 2 entrées -d CERT_DOMAIN et CERT_WDOMAIN: $ ./acme.sh --issue --keylength 4096 -d "$CERT_DOMAIN" -d "$CERT_WDOMAIN" --dns "$CERT_DNS" Bruno78
- 937 réponses
-
1
-
- letsencrypt
- certificat
-
(et 1 en plus)
Étiqueté avec :
-
@Jérôme Damy bonjour, peux-tu stp préciser ton dernier message: disposes-tu de plusieurs "vrais" domaines (ndd.tld différents), ou plusieurs sous-domaines d'un même domaine ? Pour info : le script Python a évolué depuis la dernière version mise en ligne, et en particulier pour traiter le cas où l'on dispose de plusieurs domaines (ndd.tld) différents (ça complique un peu le process ....). D'autre part , je suis en train de retravailler dessus pour un problème avec le paramètre "-f" (le certificat est renouvelé mais le script ne s'en rend pas compte). Je suis en cours de tests, mais avec 5 essais max par semaine il faut faire attention .... J'espère pouvoir mettre en ligne une nouvelle version d'ici fin de semaine prochaine .... si on m'en laisse le temps par ailleurs 🙂 Bruno78
- 937 réponses
-
- letsencrypt
- certificat
-
(et 1 en plus)
Étiqueté avec :
-
@Stixen92, peut-être une porte ouverte, mais pour ton point #2, avec le planificateur de tâche, quel est le "user" paramétré dans la tache ? Bruno78
- 937 réponses
-
- letsencrypt
- certificat
-
(et 1 en plus)
Étiqueté avec :
-
Donc malgré ces messages d'erreur suite à l'exécution du script Python , tout s'est bien passé (création du certificat + déploiement)? @oracle7, @Stixen92, tout d'abord désolé de ne pas être plus présent sur le forum, mais je n'ai que très peu de temps dispo ces denrières semaines (à cause du boulot , et d'autres projets autour du RPi4 ....). Donc oui et oui aux 2 questions ci-dessus : oui l'erreur est connue, mais je n'ai pas eu le temps de la régler oui cela indique qu'acme utilise le niveau d'erreur 2 pour ses logs. Pour être tout à fait franc, je n'utilise plus cette méthode depuis mon passage en DSM7. Je passe par le docker acme, et je tente de faire fonctionner le hook de déployement Synology. Néanmoins, je vais quand même essayer de regarder le premier point pour voir si je peux améliorer la chose dans le script python. Mais si correction il y a, je vous solliciterai pour valider car je n'ai plus l'environnement complet pour cela. Cdt Bruno78
- 937 réponses
-
- letsencrypt
- certificat
-
(et 1 en plus)
Étiqueté avec :
-
@Jeff777 oui désolé j'avais mal lu, j'étais persuadé que tu étais sur Pi3 et pas Pi1. ben ou mais après : So I forked the official Docker Compose repository and did a few minimalistic changes in order to get a built of docker-compose for Raspberry Pi. I have created a Pull Request in the hope that it might get accepted and that ARMv7 be officially built. But while waiting for the review process to be triggered, here is how to do it for yourself. Et ensuite tu construis ton docker-compose Chez moi ca m'a conduit à avoir un docker-compose operationnel par une autre methode que celle de Shad (peut-être plus officielle). Sur le nouveau pi4, j'essaierai d'abord de rester dans les version "officielles" et puis comme tu dis, ca fait pratiquer ....
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
@.Shad., @Jeff777, @oracle7, ce sera effectivement bien si le support de docker 32/64 bit et docker-compose était plein et entier. Je vais aller creuser de ce côté, ... d'autant que mon pi4 serait déjà en service si je n'avais pas oublier la carte micro SD :-(. Mais bon j'ai toujours mon pi3. Et donc comme je vous l'avais indiqué quelques postes plus haut, il y a la méthode suivante qui fonctionne parfaitement (sur le pi3 en Raspbian) pour faire tourner docker et docker-compose : https://www.berthon.eu/2017/getting-docker-compose-on-raspberry-pi-arm-the-easy-way/ Telegraf tourne parfaitement avec cette config.. Comme j'avais été fainéant et avait juste copié le fichier telegraf.conf depuis le NAS, j'ai quand même vérifié ce matin en repartant de 0 sur le pi3 : 1) on télécharge l'image telegraf:latest root@Pibrw:/home/pi/Scripts/Docker/tmp# docker pull telegraf:latest latest: Pulling from library/telegraf d8925d905dad: Pull complete abd9c5a6d774: Pull complete 22e1f8e87a65: Pull complete 02ec62dff305: Pull complete 1f7e36c129df: Pull complete 11adad9bc0d1: Pull complete 0246e9806698: Pull complete Digest: sha256:2c462d284d4aaaca99f88cd6d9c00ab39c73cdfd5882c94bb139761967a17d9a Status: Downloaded newer image for telegraf:latest docker.io/library/telegraf:latest root@Pibrw:/home/pi/Scripts/Docker/tmp# root@Pibrw:/home/pi/Scripts/Docker/tmp# root@Pibrw:/home/pi/Scripts/Docker/tmp# ls root@Pibrw:/home/pi/Scripts/Docker/tmp# docker image ls REPOSITORY TAG IMAGE ID CREATED SIZE telegraf latest 7136df9355ff 3 days ago 229MB ... 2) on génère le fichier de conf comme indiqué par .Shad : root@Pibrw:/home/pi/Scripts/Docker/tmp# docker run --rm telegraf telegraf config | sudo tee telegraf.conf # Telegraf Configuration # # Telegraf is entirely plugin driven. All metrics are gathered from the # declared inputs, and sent to the declared outputs. # # Plugins must be declared in here to be active. # To deactivate a plugin, comment out the name and any variables. [.....] # path = "/rollbar" # # [inputs.webhooks.papertrail] # path = "/papertrail" # # [inputs.webhooks.particle] # path = "/particle" # # This plugin implements the Zipkin http server to gather trace and timing data needed to troubleshoot latency problems in microservice architectures. # [[inputs.zipkin]] # # path = "/api/v1/spans" # URL path for span data # # port = 9411 # Port on which Telegraf listens On a une sortie écran du fichier. 3) on vérifie que le fichier telegraf.conf a bien été créé et qu'il n'est pas vide : root@Pibrw:/home/pi/Scripts/Docker/tmp# ls -lisa total 284 533600 4 drwxr-xr-x 2 root root 4096 janv. 16 07:18 . 397235 4 drwxr-xr-x 7 pi pi 4096 janv. 16 07:07 .. 533639 276 -rw-r--r-- 1 root root 278989 janv. 16 07:18 telegraf.conf Voilà. Dés que le PI4 sera en service, je vais regardé si il y a effectivement le support "officiel" de docker et docker-compose. Bruno78
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
@oracle7, si si, c'est la même structure, pas de miracle :-). Par contre je ne comprends pas le "> /dev/null" . Et oui, le coup des doubles quotes ou des blancs, je suis tombé dedans aussi ....
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
@oracle7 hello, j'utilise le même genre de script 🙂 Par exemple : curl -i -XPOST "$http_method://$influxdb_host:$influxdb_port/write?db=$influxdb_name&u=$influxdb_user&p=$influxdb_pass" --data-binary "$post_url" Avec $post_url qui vaut par exemple : post_url="rpi3B_temp,endpoint=rpi3B,tag1=temperature temp="$temp $temp étant la température du Rpi.
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
[TUTO] Certificat Let's Encrypt avec acme.sh & api Ovh en Docker (DSM6/7) (Update 07/09/22)
bruno78 a répondu à un(e) sujet de Einsteinium dans Tutoriels
@Einsteinium, Aie aie aie .... alors sur mes 3 domaines, la mise à jour et le deploy automatique du certificat ont bien fonctionné. Le 3eme domaine, c'est celui du NAs lui même .... et là patatra, comme la première fois, il m'a dégagé tous mes virtual hosts. Punition : re-installation complète du Webserver, reconfiguration un par un des virtuals hosts (comme c'est des Wordpress à chaque fois faut re customiser (permalink) ), j'ai aussi des personnalisations sur les logs .... bref j'y ai encore passé l'après midi. Sauf que cette fois ci je ne crois pas avoir fait de boulette ! Toujours est' il qu'à présent les certificats actifs sont bien ceux du tuto en version finale, donc à voir renouvellement dans 2 mois. J'ai mis la priorité à tout rétablir, je vais me pencher sur le déroulé exact de ce qui a pu se passer de travers !.... (en fait j'ai une vague idée : ce dernier certificat, je l'ai déployé direct via le hook et SYNO_Create=1, sans l'avoir au préalable importé manuellement une première fois .... ) -
@Jeff777 Heu là je ne sais pas ... Mais ce risque d'en rajouter une couche sur quelque chose qui ne marche déjà pas ! Petite question au passage : avec le docker-compose que tu as, arrives tu à déployer d'autres containers ? Ou est-ce spécifique à telegraf ?
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
Bonjour, je viens rapidement de mettre telegraf en docker sur un Pi3, et a priori pas eu de soucis. Pour info, j'ai installé docker-compose avec cette méthode : https://www.berthon.eu/2019/revisiting-getting-docker-compose-on-raspberry-pi-arm-the-easy-way/ pi@Pibrw:~ $ sudo -i root@Pibrw:~# docker-compose version docker-compose version 1.23.2, build 1110ad01 docker-py version: 3.6.0 CPython version: 3.6.12 OpenSSL version: OpenSSL 1.1.1d 10 Sep 2019 root@Pibrw:~# Et avec le log : 2021-01-14T07:54:03Z I! Starting Telegraf 1.17.0 2021-01-14T07:54:03Z I! Using config file: /etc/telegraf/telegraf.conf 2021-01-14T07:54:03Z I! Loaded inputs: cpu disk diskio kernel mem net processes swap system 2021-01-14T07:54:03Z I! Loaded aggregators: 2021-01-14T07:54:03Z I! Loaded processors: 2021-01-14T07:54:03Z I! Loaded outputs: influxdb 2021-01-14T07:54:03Z I! Tags enabled: host=pi_telegraf 2021-01-14T07:54:03Z I! [agent] Config: Interval:1m0s, Quiet:false, Hostname:"pi_telegraf", Flush Interval:1m0s 2021-01-14T07:54:03Z D! [agent] Initializing plugins 2021-01-14T07:54:03Z D! [agent] Connecting outputs 2021-01-14T07:54:03Z D! [agent] Attempting connection to [outputs.influxdb] 2021-01-14T07:54:03Z D! [agent] Successfully connected to outputs.influxdb 2021-01-14T07:54:03Z D! [agent] Starting service inputs 2021-01-14T07:55:04Z D! [outputs.influxdb] Wrote batch of 19 metrics in 1.117702023s 2021-01-14T07:55:04Z D! [outputs.influxdb] Buffer fullness: 0 / 10000 metrics 2021-01-14T07:56:03Z D! [outputs.influxdb] Wrote batch of 24 metrics in 179.200729ms 2021-01-14T07:56:03Z D! [outputs.influxdb] Buffer fullness: 0 / 10000 metrics 2021-01-14T07:57:03Z D! [outputs.influxdb] Wrote batch of 24 metrics in 176.103353ms 2021-01-14T07:57:03Z D! [outputs.influxdb] Buffer fullness: 0 / 10000 metrics 2021-01-14T07:58:03Z D! [outputs.influxdb] Wrote batch of 24 metrics in 176.48184ms 2021-01-14T07:58:03Z D! [outputs.influxdb] Buffer fullness: 0 / 10000 metrics
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
Je ne comprends pas pourquoi il veut être en swarm mode absolument ????!!!. Je fais le test sur mon Pi3 aujourd'hui.
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
[TUTO] Certificat Let's Encrypt avec acme.sh & api Ovh en Docker (DSM6/7) (Update 07/09/22)
bruno78 a répondu à un(e) sujet de Einsteinium dans Tutoriels
@Einsteinium, je viens de faire une serie de tests sur DSM7 avec cette dernière version acme.sh:latest. création du certificat : OK puis après export x509 : importation manuelle dans DSM : OK (puis suppression manuelle) déploiement automatique (--deploy-hook synology_dsm) avec création d'un nouveau certificat (SAVED_SYNO_Create=1) : OK, mais le certificat créé et déployé est positionné comme étant celui "par defaut" ! affectation de services WEB sur ce certificat: OK 2nd déploiement automatique, toujours avec SAVED_SYNO_Create=1, mais le certificat étant donc déjà existant : OK, mais le certificat déployé est de nouveau positionné comme étant celui "par defaut" ! Affectation des services WEB pré-existants OK. Voilà, donc fonctionnellement, à par cette histoire de positionnement par default, je n'ai pas vu de problème. Effectivement, dans mon cas où j'ai plusieurs certificats, il faudra peut-être que je fasse attention à l'ordonnancement des différents dockers et tâches de déploiements. Par contre, au niveau des taches planifiées (point 2C), est-ce vraiment nécessaire de le faire quotidiennement ? Même si cette tache est disons hebdomadaire, le cron interne du docker va quotidiennement lancer la tache de renouvellement du certificat, jusqu'à arriver aux 2 mois à partir desquels le renouvellement se fera . Je ne sais pas. Maintenant, je vais voir à mettre en musique les 2 autres dockers acme.sh, et observer quelques jours. Bruno78 -
@Jeff777 heu ..... je suis perdu. Comment adresses-tu (dans le fichoer telegraf.conf) influxdb (sur ton NAS, c'est ca ?) depuis le RPi ? @Lestat69, nos messages se sont croisés avec MilesTEG1. Donc c'est ok ca fonctionne. A priori en fait les solutions sont les mêmes. Le "monitoring" que tu as entre "networks" et "external" est un alias, ce n'est pas la même chose que le name: monitoring. Donc tu as mis comme alias "monitoring", là où moi j'ai comme alias "default". Au final c'est bon !
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
OK @MilesTEG1, donc pas besoin de "default" si chez toi c'est OK. @Lestat69, peux-tu alors faire en ssh pour avoir le nom exact du réseau : docker network ls puis sur le réseau monitoring : docker network inspect <nom_du_reseau> Merci à @MilesTEG1
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
@Lestat69, je n'ai pas essayé, mais dans les exemples trouvés, il est précisé en plus "default", càd Dans le service : networks: default: - monitoring Et la déclaration : networks: default: external: name: monitoring Je n'ai pas d'exemple perso sous la main.
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
@Jeff777 donc j'en déduis que tes credentials influx sont bons, ... mais comme la liste des measurements est vide, ça veut dire que telegraf n'arrive pas, pour une raison nous encore élucidée, à envoyer et écrire vers influxdb. Laisse moi le temps de remonter le fil pour voir les configs ....
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
[TUTO] Certificat Let's Encrypt avec acme.sh & api Ovh en Docker (DSM6/7) (Update 07/09/22)
bruno78 a répondu à un(e) sujet de Einsteinium dans Tutoriels
On est d'accord ! prudence .... -
[TUTO] Certificat Let's Encrypt avec acme.sh & api Ovh en Docker (DSM6/7) (Update 07/09/22)
bruno78 a répondu à un(e) sujet de Einsteinium dans Tutoriels
OK. J'ai paramétré 3 dockers, un pour chaque domaine que je gère, les certificats ont bien été générés. (3 domaines, 3 dockers indépendants, 3 répertoires distincts) Il me reste la phase de déploiement des certificats à faire, .... je vais y aller prudemment, la dernière fois j'avais fait un erreur mais ça m'a planté 48h ! donc là je vais y aller petit à petit .... J'ai vu dans la doc github du deploy hook qu'il y a la possibilité de positionner SYNO_Create=1 pour créer le (nouveau) certificat si il n'existe pas encore dans DSM au moment du déployement. Est-ce pertinent à positionner/utiliser ? -
[TUTO] Certificat Let's Encrypt avec acme.sh & api Ovh en Docker (DSM6/7) (Update 07/09/22)
bruno78 a répondu à un(e) sujet de Einsteinium dans Tutoriels
Petite question subsidiaire : j'ai peut-être mal cherché, mais je n'ai pas trouvé la description du delta entre la version dev et cette dernière latest ? -
[TUTO] Certificat Let's Encrypt avec acme.sh & api Ovh en Docker (DSM6/7) (Update 07/09/22)
bruno78 a répondu à un(e) sujet de Einsteinium dans Tutoriels
Merci pour l'info @Einsteinium. Je vais mettre en place dans la journée. -
@Jeff777 reviens nous avec un œil de lynx . Bon rétablissement. Bruno78
- 1449 réponses
-
1
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
Une fois qu'on sera certain que les données de telegraf sont bien receptionnées par influxdb, on aura fait un grand pas en avant
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
@Jeff777, a priori la ligne de log que tu montres correspond à l'interrogation depuis grafana (c'est un "query"). Essaie de te connecter sur influxdb avec le user/pwd que tu as défini (pour vérifier les droits), puis si OK alors avec un "show databases" tu dois voir la database que tu as configurée pour recevoir les données du RPi. Si ok, alors bascule sur cette database ("use raspi_telegraf" [d'après ton log]) et regarde si tu as des données ("show measurements"). Voilà rapidement ce que cela doit donner : avec influxdb en docker sur une VPS d'OVH, collectant les données de mon RPi sur le réseau mon local (telegraf installé sur le RPi3 en tant que service à part entière, et non pas en docker, mais ca ne doit pas changer grand chose). root@vps-xxxx:/home/xxxx# root@vps-xxxx:/home/xxxx# docker exec -it influxdb /bin/bash root@influxdb:/# influx -username pi_telegraf -password 'xxxxxx' Connected to http://localhost:8086 version 1.8.3 InfluxDB shell version: 1.8.3 > show databases name: databases name ---- pi_telegraf > use pi_telegraf Using database pi_telegraf > show measurements name: measurements name ---- cpu disk diskio kernel mem net processes rpi3B_temp swap system > exit root@influxdb:/# exit exit root@vps-xxxx:/home/xxxx#
- 1449 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
@MilesTEG1 oui c'est fastidieux, mais bon au bout de quelques jours, la liste se stabilise rapidement. Là j'en ai 7 "en stock" et ça semble stable. Donc ça se gère.
- 1449 réponses
-
1
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :