Jeff777 Posté(e) le 18 mars 2021 Posté(e) le 18 mars 2021 Le 17/03/2021 à 09:33, Jeff777 a dit : Il ne me reste plus qu'à trouver la bonne image pour telegraf. Si elle existe ! Après deux jours intensifs de recherche, je déclare forfait. Trop de problèmes avec des applis non compatibles armV6 et ma compétence est trop limitée.😒. Finalement pihole installé classiquement sur mon petit RPi fait parfaitement l'affaire. Mais je ne regrette pas ces deux jours...j'ai beaucoup appris 👍 0 Citer
.Shad. Posté(e) le 19 mars 2021 Auteur Posté(e) le 19 mars 2021 👌 Tu peux toujours installer Telegraf nativement aussi. 😉 0 Citer
Jeff777 Posté(e) le 19 mars 2021 Posté(e) le 19 mars 2021 il y a 2 minutes, .Shad. a dit : Tu peux toujours installer Telegraf nativement aussi. que ce soit par docker ou nativement s'il n'est pas compatible armv6 ça ne marchera pas. Je me trompe ? 0 Citer
.Shad. Posté(e) le 19 mars 2021 Auteur Posté(e) le 19 mars 2021 En effet, ça n'existe pas pour armv6. Donc oui tu peux oublier. 0 Citer
oracle7 Posté(e) le 19 mars 2021 Posté(e) le 19 mars 2021 Bonjour, Juste pour prévenir tout un chacun qu'il y a un problème avec la version 1.18 (latest) issue de la mise à jour de l'image de telegraf survenue il y a deux jours avec watchtower. Cette version générait chez moi une erreur d'interprétation du fichier "télégraf.conf" et du coup, plus aucune donnée ne remontait vers grafana. Est-ce que telegraf commence aussi à évoluer dans la suite logique de Influx 2.0, allez savoir ? Cela ne m'étonnerai qu'à moitié ....🤔 Je suis revenu à la version précédente 1.17.3 et tout est rentré dans l'ordre. Les données remontent bien maintenant. Pour les curieux, l'erreur apparaissait au niveau des "[[prosessors.strings]]" dans l'interprétation du champ "namepass" alors que je n'avais rien changé à ce niveau. Pour info, j'utilise ces processors pour convertir des données (de mes caméras) au format natif string en integer afin qu'elles s'affichent correctement en "%". Voilà si cela peut en aider certains ... Cordialement oracle7😉 1 Citer
Jeff777 Posté(e) le 19 mars 2021 Posté(e) le 19 mars 2021 Ah j'ai eu ma mise à jour sur la version 17.3 avant hier mais à 4h du mat. J'ai dû passer juste avant la 18 🤣 0 Citer
MilesTEG1 Posté(e) le 20 mars 2021 Posté(e) le 20 mars 2021 @oracle7 Je suis en train de regarder mes 3 instances de telegraf : La première (celle pour le NAS) ne me fait pas vraiment d'erreur, et grafana fonctionne correctement, j'ai juste ceci en log : 2021-03-18T05:01:40Z I! Starting Telegraf 1.18.0 2021-03-18T05:01:40Z I! Using config file: /etc/telegraf/telegraf.conf 2021-03-18T05:01:40Z I! Loaded inputs: cpu disk diskio docker kernel mem processes snmp swap system 2021-03-18T05:01:40Z I! Loaded aggregators: 2021-03-18T05:01:40Z I! Loaded processors: 2021-03-18T05:01:40Z I! Loaded outputs: influxdb 2021-03-18T05:01:40Z I! Tags enabled: host=monitoring_telegraf 2021-03-18T05:01:40Z I! [agent] Config: Interval:10s, Quiet:false, Hostname:"monitoring_telegraf", Flush Interval:10s 2021-03-18T05:01:40Z W! [inputs.docker] 'perdevice' setting is set to 'true' so 'blkio' and 'network' metrics willbe collected. Please set it to 'false' and use 'perdevice_include' instead to control this behaviour as 'perdevice' will be deprecated 2021-03-18T05:01:40Z W! [inputs.docker] 'total' setting is set to 'false' so 'blkio' and 'network' metrics will not be collected. Please set it to 'true' and use 'total_include' instead to control this behaviour as 'total' will be deprecated Il faudrait que j'aille voir le fichier de config pour voir où est ce setting perdevice et voir comment le transformer en perdevice_include. Pour mon telegraf de mon autre NAS éteint, j'ai ceci : (plus chiant à récupérer ce log, il est lourd, et j'ai du faire un copier coller d'un .csv exporté depuis l'interface de Docker DSM) 2021-03-18 05:02:10,stderr,2021-03-18T05:02:10Z E! [inputs.docker] Error in plugin: Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running? 2021-03-18 05:02:00,stderr,2021-03-18T05:02:00Z E! [inputs.docker] Error in plugin: Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running? 2021-03-18 05:02:00,stderr,2021-03-18T05:02:00Z E! [inputs.docker] Error in plugin: Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running? 2021-03-18 05:01:50,stderr,2021-03-18T05:01:50Z E! [inputs.docker] Error in plugin: Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running? 2021-03-18 05:01:50,stderr,2021-03-18T05:01:50Z E! [inputs.docker] Error in plugin: Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running? 2021-03-18 05:01:40,stderr,2021-03-18T05:01:40Z E! [inputs.docker] Error in plugin: Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running? 2021-03-18 05:01:40,stderr,2021-03-18T05:01:40Z E! [inputs.docker] Error in plugin: Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running? 2021-03-18 05:01:34,stderr,2021-03-18T05:01:34Z W! [inputs.docker] 'total' setting is set to 'false' so 'blkio' and 'network' metrics will not be collected. Please set it to 'true' and use 'total_include' instead to control this behaviour as 'total' will be deprecated 2021-03-18 05:01:34,stderr,2021-03-18T05:01:34Z W! [inputs.docker] 'perdevice' setting is set to 'true' so 'blkio' and 'network' metrics willbe collected. Please set it to 'false' and use 'perdevice_include' instead to control this behaviour as 'perdevice' will be deprecated 2021-03-18 05:01:34,stderr,"2021-03-18T05:01:34Z I! [agent] Config: Interval:10s, Quiet:false, Hostname:\"monitoring_telegraf_214play\", Flush Interval:10s Je viens de vérifier dans le fichier de config, et j'ai pas enlevé la partie docker pour le 214play... Je viens de le faire ^^ Faut que je relance les conteneurs. Pour le telegraf de la LB4 : je n'ai que ceci, avec des fois des ligne avec Wrote batch of 98 metrics in 590.559845ms 2021-03-20T06:51:30.254774528Z 2021-03-20T06:51:30Z D! [outputs.influxdb] Buffer fullness: 0 / 10000 metrics 2021-03-20T06:52:30.255858613Z 2021-03-20T06:52:30Z D! [outputs.influxdb] Buffer fullness: 0 / 10000 metrics 2021-03-20T06:53:30.256299966Z 2021-03-20T06:53:30Z D! [outputs.influxdb] Buffer fullness: 0 / 10000 metrics 2021-03-20T06:54:30.256410683Z 2021-03-20T06:54:30Z D! [outputs.influxdb] Buffer fullness: 0 / 10000 metrics 2021-03-20T06:55:30.257312947Z 2021-03-20T06:55:30Z D! [outputs.influxdb] Buffer fullness: 0 / 10000 metrics Mais du coup, pas d'erreurs particulière avec le 1.18 de telegraf. Je n'ai pas les erreurs que tu remontes... 0 Citer
MilesTEG1 Posté(e) le 20 mars 2021 Posté(e) le 20 mars 2021 Bon après quelques tentatives et recherches j'ai réussi à configurer le perdevice_include : perdevice = false ## Specifies for which classes a per-device metric should be issued ## Possible values are 'cpu' (cpu0, cpu1, ...), 'blkio' (8:0, 8:1, ...) and 'network' (eth0, eth1, ...) ## Please note that this setting has no effect if 'perdevice' is set to 'true' perdevice_include = ["cpu", "blkio", "network"] Ce qui me génère maintenant ce message d'alerte : 2021-03-20T08:04:26Z W! [inputs.docker] 'total' setting is set to 'false' so 'blkio' and 'network' metrics will not be collected. Please set it to 'true' and use 'total_include' instead to control this behaviour as 'total' will be deprecated Du coup je mets ça : total = true ## Specifies for which classes a total metric should be issued. Total is an aggregated of the 'perdevice' values. ## Possible values are 'cpu', 'blkio' and 'network' ## Total 'cpu' is reported directly by Docker daemon, and 'network' and 'blkio' totals are aggregated by this plugin. ## Please note that this setting has no effect if 'total' is set to 'false' total_include = ["cpu", "blkio", "network"] Et plus de messages d'avertissement. Je remet tout le bloc de docker : # Source : https://github.com/influxdata/telegraf/blob/master/plugins/inputs/docker/README.md # Read metrics about docker containers [[inputs.docker]] ## Docker Endpoint ## To use TCP, set endpoint = "tcp://[ip]:[port]" ## To use environment variables (ie, docker-machine), set endpoint = "ENV" endpoint = "unix:///var/run/docker.sock" ## Set to true to collect Swarm metrics(desired_replicas, running_replicas) ## Note: configure this in one of the manager nodes in a Swarm cluster. ## configuring in multiple Swarm managers results in duplication of metrics. gather_services = false ## Only collect metrics for these containers. Values will be appended to ## container_name_include. ## Deprecated (1.4.0), use container_name_include # container_names = [] ## Set the source tag for the metrics to the container ID hostname, eg first 12 chars # source_tag = false ## Containers to include and exclude. Collect all if empty. Globs accepted. # container_name_include = [] # container_name_exclude = [] ## Container states to include and exclude. Globs accepted. ## When empty only containers in the "running" state will be captured. ## example: container_state_include = ["created", "restarting", "running", "removing", "paused", "exited", "dead"] ## example: container_state_exclude = ["created", "restarting", "running", "removing", "paused", "exited", "dead"] # container_state_include = [] # container_state_exclude = [] ## Timeout for docker list, info, and stats commands timeout = "5s" ## Whether to report for each container per-device blkio (8:0, 8:1...), ## network (eth0, eth1, ...) and cpu (cpu0, cpu1, ...) stats or not. ## Usage of this setting is discouraged since it will be deprecated in favor of 'perdevice_include'. ## Default value is 'true' for backwards compatibility, please set it to 'false' so that 'perdevice_include' setting ## is honored. perdevice = false ## Specifies for which classes a per-device metric should be issued ## Possible values are 'cpu' (cpu0, cpu1, ...), 'blkio' (8:0, 8:1, ...) and 'network' (eth0, eth1, ...) ## Please note that this setting has no effect if 'perdevice' is set to 'true' perdevice_include = ["cpu", "blkio", "network"] ## Whether to report for each container total blkio and network stats or not. ## Usage of this setting is discouraged since it will be deprecated in favor of 'total_include'. ## Default value is 'false' for backwards compatibility, please set it to 'true' so that 'total_include' setting ## is honored. total = true ## Specifies for which classes a total metric should be issued. Total is an aggregated of the 'perdevice' values. ## Possible values are 'cpu', 'blkio' and 'network' ## Total 'cpu' is reported directly by Docker daemon, and 'network' and 'blkio' totals are aggregated by this plugin. ## Please note that this setting has no effect if 'total' is set to 'false' total_include = ["cpu", "blkio", "network"] ## docker labels to include and exclude as tags. Globs accepted. ## Note that an empty array for both will include all labels as tags # docker_label_include = [] # docker_label_exclude = [] ## Which environment variables should we use as a tag # tag_env = ["JAVA_HOME", "HEAP_SIZE"] ## Optional TLS Config # tls_ca = "/etc/telegraf/ca.pem" # tls_cert = "/etc/telegraf/cert.pem" # tls_key = "/etc/telegraf/key.pem" ## Use TLS but skip chain & host verification # insecure_skip_verify = false 1 Citer
oracle7 Posté(e) le 20 mars 2021 Posté(e) le 20 mars 2021 @MilesTEG1 Bonjour, Pour info, je n'ai aucun soucis avec la version 1.17.3 pour le champ "perdevice" (positionné à true. Il y a 10 heures, MilesTEG1 a dit : Pour le telegraf de la LB4 : je n'ai que ceci, avec des fois des ligne avec Wrote batch of 98 metrics in 590.559845ms Rassures-toi tout est normal, et aucun soucis avec la version 1.18 pour le monitoring de la LB4. Cordialement oracle7😉 0 Citer
Jeff777 Posté(e) le 24 mars 2021 Posté(e) le 24 mars 2021 Bonjour, J'ai laissé faire watchtower cette nuit et suis passé à la version 1.18 de telegraf. Tout fonctionne parfaitement bien sauf les notifications par email que je ne reçois plus ...mais ce n'est pas nouveau (Je regarde dans portainer s'il y a des MaJ). 0 Citer
MilesTEG1 Posté(e) le 27 mars 2021 Posté(e) le 27 mars 2021 @oracle7 Hello, Dit, est-ce que tu as garder le lien du tuto pour faire les tests de débits avec speedtest ? J'ai du mal à retrouver où c'est pour le mettre en place 😉 Merci d'avance. 0 Citer
oracle7 Posté(e) le 27 mars 2021 Posté(e) le 27 mars 2021 @MilesTEG1 Bonjour, Un peu de lecture en perspective 🤪, regardes à partir du milieu de la page 20 jusqu'à la page 22 et peut-être 23 du présent post. Tu devrais y trouver les éléments pour installer speedtest2. Cordialement oracle7😉 1 Citer
MilesTEG1 Posté(e) le 30 mars 2021 Posté(e) le 30 mars 2021 Le 02/01/2021 à 18:05, oracle7 a dit : @Jeff777 Bonjour et meilleurs voeux pour 2021, Comme je le laisse entendre dans une réponse précédente, tu peux oublier ce qui est dit dans la page Readme de Github à propos d'installer python_influxdb, etc ... Voilà ce qu'il faut faire (du moins ce que j'ai fait personnellement) : J'ai téléchargé et installé l'image atribe/speedtest-for-influxdb-and-grafana via le menu "Registre" dans l'interface de l'application Docker. J'ai donc créé un répertoire /volume1/docker/Scrips_instal/speedtest dans le quel j'ai placé les fichiers suivants : config.ini docker-compose.yml A toi d'adapter ces fichiers à ton environnement. En tous cas le réseau de Speedtest doit être le même que celui que tu utilises pour influxdb et grafana. Ensuite, tu ajoutes ces panels à ton dashbord (toujours en les adaptant à ton environnement) : Panel_bande_passante.json 3 Ko · 8 downloads Panel_Download.json 1 Ko · 7 downloads Panel_Evolution_du_ping.json 2 Ko · 8 downloads Panel_ping.json 1 Ko · 7 downloads Panel_serveur.json 4 Ko · 8 downloads Panel_Upload.json 1 Ko · 7 downloads Cela donne cela par exemple : Bon usage 😀 Cordialement oracle7😉 Hello @oracle7 Je viens de mettre en place ceci. j'ai cependant tenté les ID non admin pour la base de donnée. Mais ça ne fonctionne pas : Configuration Successfully Loaded 2021-03-30 18:35:27,812 - CRITICAL: Failed to connect to InfluxDB for unknown reason Loading Configuration File config.ini Configuration Successfully Loaded 2021-03-30 18:35:56,735 - CRITICAL: Failed to connect to InfluxDB for unknown reason Loading Configuration File config.ini Configuration Successfully Loaded 2021-03-30 18:36:51,353 - CRITICAL: Failed to connect to InfluxDB for unknown reason Il faut forcement un accès ADMIN à la BDD ? (j'avais essayé en premier lieu en laissant l'accès en admin, et j'ai vu une valeur (bon moisie, probablement due au serveur choisi...) 0 Citer
MilesTEG1 Posté(e) le 30 mars 2021 Posté(e) le 30 mars 2021 Et y a moyen de connaitre la correspondance entre Nom des serveur et le code à placer dans le .ini ? 0 Citer
bruno78 Posté(e) le 30 mars 2021 Posté(e) le 30 mars 2021 @MilesTEG1 bonjour, j'avais donné, en page 22 de ce fil dans un post du 7/janvier une méthode pour ne pas avoir à utiliser un user admin pour la db ... parce que oui, sinon, avec cette image par defaut pour tester la connexion à la bdd il utilise un compte admin. J'avais modifié le script Python pour éviter cela, mais cela demande une modification de l'image speedtest. Cdt, bruno78 0 Citer
oracle7 Posté(e) le 30 mars 2021 Posté(e) le 30 mars 2021 (modifié) @MilesTEG1 Bonjour, il y a 28 minutes, MilesTEG1 a dit : Il faut forcement un accès ADMIN à la BDD ? Non, justement avec les indications de @bruno78, voici un résumé de ma configuration qui n'utilise pas le user admin d'influxdb. Je te le livre "brut" : Citation Installation speedtest2 Prérequis : Une database dédiée configurée sous influxdb, avec son user/pwd dédié. root@Maeva56:/volume1/docker/speedtest# docker exec -it influxdb influx -username admin -password admin > CREATE DATABASE nas_speedtest > USE nas_speedtest > CREATE USER speedtest WITH PASSWORD 'speedtest' > GRANT ALL ON nas_speedtest TO speedtest > SHOW DATABASES > SHOW USERS > exit docker restart influxdb Télécharger le fichier speedtest2.tar (speedtest2.tar). Il contient : Dockerfile : fichier de commande pour générer la nouvelle image InfluxdbSpeedtest.py : fichier de lancement du test, très légèrement modifié (on fait un simple 'ping' de la base influxdb) SpeedTest_Net_Server_List.xml : en prime la liste des serveurs utilisés, avec leurs identifiants. Pour amélioration du dashboard grafana (source github) Etat avant modification : image root@Maeva56:/volume1/docker/speedtest# docker image ls REPOSITORY TAG IMAGE ID CREATED SIZE ... atribe/speedtest-for-influxdb-and-grafana latest 99c2c10d1e41 16 months ago 111MB ... container root@Maeva56:/volume1/docker/speedtest# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES ... bc4340b44afd atribe/speedtest-for-influxdb-and-grafana:latest "python -u /src/infl…" 3 days ago Up 43 hours speedtest ... On arrête le container speedtest en cours root@Maeva56:/volume1/docker/speedtest# docker stop speedtest On construit la nouvelle image /!\ ne pas oublier le "." (point) à la fin de la commande /!\ root@Maeva56:/volume1/docker/speedtest# docker build -f Dockerfile --rm --tag speedtest2 . Sending build context to Docker daemon 959kB Step 1/2 : FROM atribe/speedtest-for-influxdb-and-grafana:latest ---> 99c2c10d1e41 Step 2/2 : COPY ./InfluxdbSpeedtest.py /src/influxspeedtest/ ---> 08847e4b7b5e Successfully built 08847e4b7b5e Successfully tagged speedtest2:latest On vérifie que l'image speedtest2 a bien été créée (on a toujours l'ancienne) root@Maeva56:/volume1/docker/speedtest# docker image ls REPOSITORY TAG IMAGE ID CREATED SIZE speedtest2 latest 08847e4b7b5e 15 seconds ago 111MB ... atribe/speedtest-for-influxdb-and-grafana latest 99c2c10d1e41 16 months ago 111MB ... On met à jour le docker-compose.yml pour prendre en compte cette nouvelle image root@Maeva56:/volume1/docker/speedtest# cat docker-compose.yml version: "2.1" services: speedtest2: image: speedtest2:latest container_name: speedtest2 volumes: - ./config.ini:/src/config.ini restart: unless-stopped mem_limit: 256M network_mode: bridge On met à jour le fichier config.ini pour modifier le user/pwd à utiliser root@Maeva56:/volume1/docker/speedtest# cat config.ini [GENERAL] # Duree en secondes entre deux mesures # Delay = 3600 Delay = 10800 [INFLUXDB] Address = 172.20.0.2 Port = 8086 Database = nas_speedtest #Username = admin #Password = admin Username = speedtest Password = speedtest Verify_SSL = True [SPEEDTEST] # Leave blank to auto pick server Server = [LOGGING] # Valid Options: critical, error, warning, info, debug Level = debug On peut enfin lancer le nouveau container avec la nouvelle image : root@Maeva56:/volume1/docker/speedtest# docker-compose up -d Creating speedtest2 ... done On attend une petite minute et on vérifie que tout est en place : root@Maeva56:/volume1/docker/speedtest# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 498d69abfe03 speedtest2:latest "python -u /src/infl…" About a minute ago Up About a minute speedtest2 ... root@Maeva56:/volume1/docker/speedtest# docker logs speedtest2 Loading Configuration File config.ini Configuration Successfully Loaded 2021-01-07 13:22:38,148 - DEBUG: Testing connection to InfluxDb using provided credentials 2021-01-07 13:22:38,341 - DEBUG: Successful connection to InfluxDb 2021-01-07 13:22:38,341 - INFO: Starting Speed Test For Server None 2021-01-07 13:22:38,357 - DEBUG: Setting up SpeedTest.net client 2021-01-07 13:22:38,586 - DEBUG: Picking the closest server 2021-01-07 13:23:08,886 - INFO: Selected Server 16676 in Paris 2021-01-07 13:23:08,887 - INFO: Starting download test 2021-01-07 13:23:13,306 - INFO: Starting upload test 2021-01-07 13:23:16,028 - DEBUG: [{'measurement': 'speed_test_results', 'fields': {'download': 741713644.1996006, 'upload': 549366763.0788989, 'ping': 5.709, 'server': '16676', 'server_name': 'Paris'}, 'tags': {'server': '16676', 'server_name': 'Paris', 'server_country': 'France'}}] 2021-01-07 13:23:16,242 - DEBUG: Data written to InfluxDB 2021-01-07 13:23:16,242 - INFO: Download: 741.71Mbps - Upload: 549.37Mbps - Latency: 5.709ms 2021-01-07 13:23:16,242 - INFO: Waiting 10800 seconds until next test Et je retrouve ce test dans mon dashboard (je n'ai pas mis à jour le fuseaux horaire ...) : Ci-après mes fichiers : Docker-compose : version: "2.1" services: speedtest2: image: speedtest2:latest container_name: speedtest2 environment: - TZ=Europe/Paris volumes: - ./config.ini:/src/config.ini networks: monitoring: ipv4_address: 172.20.0.5 restart: unless-stopped mem_limit: 256M networks: monitoring: external: true config.ini : [GENERAL] # Duree en secondes entre deux mesures Delay = 3600 # Delay = 10800 [INFLUXDB] Address = 172.20.0.2 Port = 8086 Database = nas_speedtest # Username = admin # Password = admin Username = speedtest Password = speedtest Verify_SSL = True [SPEEDTEST] # Leave blank to auto pick server Server = [LOGGING] # Valid Options: critical, error, warning, info, debug Level = debug Le fichier python et le dockerfile : InfluxdbSpeedtest.py Dockerfile La liste des serveurs sponsor speedtest est aussi accessible ici mais une recherche google t'en donnera d'autres .... Voilà tu as tous les éléments Cordialement oracle7😉 Modifié le 30 mars 2021 par oracle7 0 Citer
MilesTEG1 Posté(e) le 30 mars 2021 Posté(e) le 30 mars 2021 @bruno78 Ha oui maintenant que tu en parles, ça me revient. @oracle7 Merci 😉 Tu as posté ça ailleurs ? Car la citation rend difficile la lecture... ça casse la mise en forme... Et du coup, je crois me rappeler maintenant pourquoi j'avais pas fait ça avant... 🤣 Y a trop de bricolage à faire... Je vais voir si ça vaut le coup que je me farcice la création complète d'un conteneur... ou pas... Merci à vous deux. 0 Citer
MilesTEG1 Posté(e) le 1 avril 2021 Posté(e) le 1 avril 2021 (modifié) @oracle7 @.Shad. Je ne sais plus lequel d'entre vous m'avait expliqué une fois comment faire pour trier les gauges mémoires de mes conteneurs docker : Si vous vous rappelez la page où vous en aviez parler, ou si vous voulez bien re-expliquer comment faire, je suis preneur 😉 Je veux trier par mémoire utilisée. Merci d'avance 😇 Modifié le 1 avril 2021 par MilesTEG1 0 Citer
bruno78 Posté(e) le 1 avril 2021 Posté(e) le 1 avril 2021 Hello, @MilesTEG1 ça ne serait pas par hasard mon post du 10/février en page 29 ?? Bruno78 PS : dsl je ne suis pas très assidu, mais outre le taff, je suis toujours en train de restaurer mon DS918 après son dernier crash et la perte complète du volume1. Je me rends compte que mes sauvegardes n'était pas si parfaites que cela, loin de là. Même si au final je ne perds pas de données (ça reste encore à prouver), la remise en route est longue et fastidieuse. Je ferai à l'occasion (après) une petite synthèse là dessus, ça peut être utile. 0 Citer
oracle7 Posté(e) le 1 avril 2021 Posté(e) le 1 avril 2021 (modifié) @MilesTEG1 Bonjour, Je ne voudrais pas faire le rabat-joie mais avec l'usage du panel type Gauge le 'GROUP By" de la requête s'effectue sur les noms de container donc a priori il n'est pas possible de mettre en plus un ORDER BY sur le champ USAGE de la table DOCKER_CONTAINER_MEM. Je n'ai pas essayé la solution donnée par @bruno78 avec un mode Table et affichage gauge, je te laisse tester. Mais je crains que le rendu (visuel) soit bien différent ... Mais je peux me tromper. PS : je me trompais 🥴 Voici un Panel à tester si tu veux bien --> Panel_Docker_Mémoire.json Cordialement oracle7😉 Modifié le 1 avril 2021 par oracle7 0 Citer
MilesTEG1 Posté(e) le 1 avril 2021 Posté(e) le 1 avril 2021 Le 10/02/2021 à 16:32, bruno78 a dit : @MilesTEG1 ok, dans ce cas je te propose de faire : une visualisation "TABLE" et dans les overrides tu définis un "cell display mode" de type "LCD Gauge" et là tu peux cliquer sur le haut de la colonne. C'était bien en page 29 ton message @bruno78 😄 Merci 😉 Alors, la technique de passer par un panel TABLE fonctionne, mais c'est bof en rendu : Pour la même hauteur occupée, je n'affiche plus que 3 lignes 😅 Mais je peux avoir la valeur max qui s'affiche à coté, la min et la max depuis la création. Bon, je vais faire le deuil du tri par mémoire occupée... Merci pour le coup de main en tout cas 😇 0 Citer
oracle7 Posté(e) le 1 avril 2021 Posté(e) le 1 avril 2021 (modifié) @MilesTEG1 Bonjour, Tu viens de me grillé 🤪 Regardes quand même le PS de ma dernière réponse. Cordialement oracle7😉 Modifié le 1 avril 2021 par oracle7 0 Citer
Messages recommandés
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.