Drickce Kangel Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 il y a 35 minutes, oracle7 a dit : @Drickce Kangel Bonjour, Avec la table hrStorageTable, si tu essaies de sélectionner par exemple le champ upsStatus, tu verras qu'il n'existe pas dans cette table ... Donc, et si tu utilisais la table syno.SNMP tout simplement ? C'est sûrement mieux ... Cordialement oracle7😉 Hello @oracle7, justement, j'ai essayé d'utiliser la table syno.SNMP, mais il n'y a pas d'entrée pour UPS... 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jeff777 Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 (modifié) @Drickce Kangel Si ça doit exister 😉 avec hrStorageTable Modifié le 30 décembre 2020 par Jeff777 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Drickce Kangel Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 il y a 7 minutes, Jeff777 a dit : @Drickce Kangel Si ça doit exister 😉 avec hrStorageTable Effectivement @Jeff777 mais je n'arrive pas à récupérer le Manufacturer. Soit dit en passant, vous savez pourquoi mon runtime est de "6s" ???? 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
oracle7 Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 @Drickce Kangel Bonjour, En tout cas je ne l'invente pas : Cordialement oracle7😉 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Drickce Kangel Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 il y a 4 minutes, oracle7 a dit : @Drickce Kangel Bonjour, En tout cas je ne l'invente pas : Cordialement oracle7😉 @oracle7 non je suis d'accord, mais je me posais la question, à savoir comment vous faites pour avoir tout ça dans votre table snmp.SYNO. Je remarque que tu n'utilises pas l'IP du NAS c'est peut être de là que vient mon problème...Je continue de creuser de toute façon. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
oracle7 Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 @Drickce Kangel Bonjour, Je comprends mieux maintenant ton problème. Vérifies ton fichier telegraph.conf. Il te faudra sûrement le compléter avec les champs qui vont bien (i.e. qui te manquent a priori). C'est pour cela que ta table "snmp.SYNO" est incomplète dans grafana. Pour cela, il te faut analyser les fichiers MIB situés dans "/usr/share/snmp/mibs/" et notamment le fichier "/usr/share/snmp/mibs/SYNOLOGY-UPS-MIB.txt" (du moins pour la partie UPS) et ajouter les champs manquants (attention, tous ne sont pas nécessaires et donc utiles !) en veillant à la syntaxe (sinon gare aux ennuis ...). Cordialement oracle7😉 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Drickce Kangel Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 @oracle7 J'ai ça dans mon fichier de conf: # UPS Status [[inputs.snmp.table.field]] name = "upsStatus" oid = "SYNOLOGY-UPS-MIB::upsInfoStatus" # UPS Load [[inputs.snmp.table.field]] name = "upsLoad" oid = "SYNOLOGY-UPS-MIB::upsInfoLoadValue" # UPS Battery Charge [[inputs.snmp.table.field]] name = "upsCharge" oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeValue" # UPS Battery Charge Warning [[inputs.snmp.table.field]] name = "upsWarning" oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeWarning" 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
oracle7 Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 @Drickce Kangel Bonjour, Effectivement, tu as le strict minimum. Voici par exemple, de quoi compléter ton fichier : #---------------------------------------------------------- ## UPS Details #---------------------------------------------------------- # UPS Model [[inputs.snmp.field]] name = "upsModel" oid = "SYNOLOGY-UPS-MIB::upsDeviceModel.0" # UPS SerialNumber [[inputs.snmp.field]] name = "upsInfoSerial" oid = "SYNOLOGY-UPS-MIB::upsInfoSerial.0" # UPS Status [[inputs.snmp.field]] name = "upsStatus" oid = "SYNOLOGY-UPS-MIB::upsInfoStatus.0" # UPS Load [[inputs.snmp.field]] name = "upsLoad" oid = "SYNOLOGY-UPS-MIB::upsInfoLoadValue.0" # UPS Battery Charge [[inputs.snmp.field]] name = "upsCharge" oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeValue.0" # UPS Battery Low [[inputs.snmp.field]] name = "upsBatteryChargeLow" oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeLow.0" # UPS Battery Charge Warning [[inputs.snmp.field]] name = "upsBatteryChargeWarning" oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeWarning.0" # UPS Battery Voltage [[inputs.snmp.field]] name = "upsBatteryVoltage" oid = "SYNOLOGY-UPS-MIB::upsBatteryVoltageValue.0" # UPS Battery RunTime [[inputs.snmp.field]] name = "upsBatteryRuntime" oid = "SYNOLOGY-UPS-MIB::upsBatteryRuntimeValue.0" # UPS Input Voltage [[inputs.snmp.field]] name = "upsInputVoltage" oid = "SYNOLOGY-UPS-MIB::upsInputVoltageValue.0" Cordialement oracle7😉 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
MilesTEG1 Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 @Drickce Kangel Je pense que ce que donne @oracle7 est bien ce qui te manque 😉 Car moi j'ai ça : ha bah je peux pas poster de capture... J'ai ce message : Citation Un problème est survenu pendant l’envoi du fichier. Vous pouvez seulement envoyer un maximum de 32 Ko Mo. (Error code: Vous pouvez seulement envoyer un maximum de 32 Ko Mo.) OK 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Drickce Kangel Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 @oracle7, @MilesTEG1 et @Jeff777 Merci pour votre aide. J'ai pu ajouter les éléments dans la table, tout s'affiche comme je le souhaite. Je vais jouer un peu dans grafana pour voir comment je veux afficher mes informations. Je vais m'attaquer au Tuto de la Freebox (battons le fer tant qu'il est chaud). 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
.Shad. Posté(e) le 30 décembre 2020 Auteur Partager Posté(e) le 30 décembre 2020 Il y a 4 heures, smosse a dit : @.Shad. Quid de influxDB v2 ? y a t il moyen de l'utiliser a la place de la 1.X ? Ou le mieux est de rester en 1.X pour le moment ? Je ne crois pas qu'il apporte des fonctionnalités qui nous intéressent spécialement. La 1.X est toujours développé, en l'état des choses il y a encore quelques mois, les cas d'utilisation étaient relativement différents. Rien ne t'empêche de le mettre en place et de voir par toi-même. 😉 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Drickce Kangel Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 Encore une petite question, J'ai créé un container que j'ai dû supprimer, malheureusement, il pourri toujours même stat (supprimer de DSM pourtant). Quelqu'un aurait la réponse? Il y a des caches à vider? 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
MilesTEG1 Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 Pour InfluxDB, la version 2 n'est pas considérée comme stable non ? @Drickce Kangel Pas possible à moins de vider toutes les données. En gros, Grafana t'affiche les données pour une plage de temps/durée définie, et si ton conteneur supprimé ne l'était pas pendant un temps durant cette plage de durée, bah il apparait. Réduit le temps d'affichage à 30 min, il disparaitra ^^ Sinon attend demain 😉 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Drickce Kangel Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 il y a 3 minutes, MilesTEG1 a dit : Pour InfluxDB, la version 2 n'est pas considérée comme stable non ? @Drickce Kangel Pas possible à moins de vider toutes les données. En gros, Grafana t'affiche les données pour une plage de temps/durée définie, et si ton conteneur supprimé ne l'était pas pendant un temps durant cette plage de durée, bah il apparait. Réduit le temps d'affichage à 30 min, il disparaitra ^^ Sinon attend demain 😉 Bon, ben je vais attendre 🙄😅 Merci pour l'info en tout cas 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
oracle7 Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 (modifié) Bonjour, Bon, je viens de me lancer dans l'installation de Speedtest-for-InfluxDB-and-Grafana. J'ai donc créé un répertoire /volume1/docker/speedtest dans le quel j'ai placé les fichiers suivants (configurés pour certains de façon ad hoc) : config.ini Dockerfile influxspeedtest.py requirements.txt speedtest-cli J'ai installé l'image correspondante avec docker. Jusque là, facile, mais maintenant je bute sur l'installation des librairies InfluxDb_Python qui sont un prérequis. Je l'avoue, je suis comme "une poule qui aurait trouvé une épingle à nourice" 🤪. J'ai lu et relu la doc influxdb-python mais je ne comprends pas comment installer ce package sur le NAS et n'ai ni même trouvé de lien pour le télécharger. De la même façon, je ne vois pas comment utiliser le fichier Dockerfile, et s'il le faut. @.Shad. et @bruno78 (pour ses connaissances Python) et aux autres, auriez-vous SVP une idée pour me débloquer. Merci de vos réponses. Cordialement oracle7😉 Modifié le 30 décembre 2020 par oracle7 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
oracle7 Posté(e) le 30 décembre 2020 Partager Posté(e) le 30 décembre 2020 Bonjour, Finalement je me répond à moi même. Après avoir pataugé quelques heures parceque je n'avais pas saisi que la configuration présentée dans le ReadMe sur Github considérait tout ce qu'il fallait mettre en place pour créer l'image de base pour le conteneur speedtest. Donc exit influxdn-python, Dockerfile, etc ... En fait, cette l'image qui va bien est déjà disponible, il suffit d'aller la charger normalement avec l'interface docker sur le NAS. Pour ensuite exécuter le fichier docker-compose.yml associé pour créer le conteneur speedtest. Attention, il faut que le conteneur speedtest utilise le même réseau qu'influxdb et grafana. A l'usage aussi, la période initiale fixée à 300sec entre deux mesures est à mon sens beaucoup trop courte, ce qui finalement charge un peu le réseau. A vous de voir ce qui vous convient le mieux. Au final voilà par exemple, ce que cela donne : Cordialement oracle7😉 3 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
smosse Posté(e) le 31 décembre 2020 Partager Posté(e) le 31 décembre 2020 Il y a 17 heures, .Shad. a dit : Je ne crois pas qu'il apporte des fonctionnalités qui nous intéressent spécialement. La 1.X est toujours développé, en l'état des choses il y a encore quelques mois, les cas d'utilisation étaient relativement différents. Rien ne t'empêche de le mettre en place et de voir par toi-même. 😉 Le concept est différent. On ne parle plus de base mais de conteneur et donc l'adressage est different. Il y a de quoi faire des tableau de bord intégré dans la version . C'est peut être pour ça que Grafana n'est pas compatible pour le moment. Je vais suis le mouvement et tester le combo telegram/influxV1 et gafana 🙂 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
oracle7 Posté(e) le 31 décembre 2020 Partager Posté(e) le 31 décembre 2020 Bonjour, Pour ceux que cela intéressent, voici un petit complément d'informations que l'on peut obtenir avec speedtest : Codialement oracle7😉 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
.Shad. Posté(e) le 1 janvier 2021 Auteur Partager Posté(e) le 1 janvier 2021 (modifié) Merci @oracle7 pour ton retour. Je ferai bientôt une mise à jour du tutoriel, avec quelques éléments liés aux fichierx docker-compose, et les différents retours de ceux qui l'ont mis en place (UPS, speedtest, etc...), je compte laisser les explications même si certaines sont redondantes avec ce qui est abordé dans le tutoriel introductif sur Docker. Je pense que ça permet de poser le contexte plus facilement. Pour ceux qui ont développé de belles dashboards, pourriez-vous m'envoyer en MP une impression d'écran (2 maximum) de votre dashboard la plus aboutie ? Cela permettra de remplacer l'aperçu en tête de tutoriel. Pour ceux qui souhaitent partager leur json (Synology seulement, je souhaite qu'on ne s'éparpille pas trop dans le cadre du tutoriel) pas de souci. Modifié le 1 janvier 2021 par .Shad. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jeff777 Posté(e) le 2 janvier 2021 Partager Posté(e) le 2 janvier 2021 Le 30/12/2020 à 23:41, oracle7 a dit : Après avoir pataugé quelques heures parceque je n'avais pas saisi que la configuration présentée dans le ReadMe sur Github considérait tout ce qu'il fallait mettre en place pour créer l'image de base pour le conteneur speedtest. Bonne année @oracle7 Moi aussi je galère j'ai bien un répertoire speedtest et deux fichiers docker-compose.yml et config.ini que j'ai complétés. Par contre que signifie : Before the first use run pip3 install -r requirements.txt Run influxspeedtest.py Je suis bloqué là. Pourrais-tu me donner un coup de pouce? 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
oracle7 Posté(e) le 2 janvier 2021 Partager Posté(e) le 2 janvier 2021 (modifié) @Jeff777 Bonjour et meilleurs voeux pour 2021, Comme je le laisse entendre dans une réponse précédente, tu peux oublier ce qui est dit dans la page Readme de Github à propos d'installer python_influxdb, etc ... Voilà ce qu'il faut faire (du moins ce que j'ai fait personnellement) : J'ai téléchargé et installé l'image atribe/speedtest-for-influxdb-and-grafana via le menu "Registre" dans l'interface de l'application Docker. J'ai donc créé un répertoire /volume1/docker/Scrips_instal/speedtest dans le quel j'ai placé les fichiers suivants : config.ini Citation [GENERAL] # Duree en secondes entre deux mesures Delay = 3600 [INFLUXDB] Address = 172.20.0.2 Port = 8086 Database = nas_telegraf Username = admin Password = admin Verify_SSL = False [SPEEDTEST] # Leave blank to auto pick server Server = [LOGGING] # Valid Options: critical, error, warning, info, debug Level = info docker-compose.yml Citation version: "2.1" services: speedtest: image: atribe/speedtest-for-influxdb-and-grafana:latest container_name: speedtest labels: - "com.centurylinklabs.watchtower.enable=true" volumes: - ./config.ini:/src/config.ini networks: monitoring: ipv4_address: 172.20.0.5 restart: unless-stopped networks: monitoring: external: true A toi d'adapter ces fichiers à ton environnement. En tous cas le réseau de Speedtest doit être le même que celui que tu utilises pour influxdb et grafana. Ensuite, tu ajoutes ces panels à ton dashbord (toujours en les adaptant à ton environnement) : Panel_bande_passante.json Panel_Download.json Panel_Evolution_du_ping.json Panel_ping.json Panel_serveur.json Panel_Upload.json Cela donne cela par exemple : Bon usage 😀 Cordialement oracle7😉 Modifié le 2 janvier 2021 par oracle7 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jeff777 Posté(e) le 2 janvier 2021 Partager Posté(e) le 2 janvier 2021 il y a une heure, oracle7 a dit : Comme je le laisse entendre dans une réponse précédente, tu peux oublier ce qui est dit dans la page Readme Ah oui j'avais bien tenu compte de cela au départ mais comme je n'arrivais pas à obtenir quoique ce soit je m'étais posé la question sue ce qui était dit dans Readme. Je semble avoir des fichiers tout à fait conformes à ta config. mais je ne trouve pas la raison du problème. Je reprendrai plus tard, merci de ton aide. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Drickce Kangel Posté(e) le 3 janvier 2021 Partager Posté(e) le 3 janvier 2021 (modifié) Bon @oracle7, je suis parti sur ça. Ca ressemble un peu 😄 (je n'ai pas pu utiliser tes ".json" malheureusement, donc j'ai essayé de recopier) Comment t'as fait pour ajouter le pays? je n'ai pas cette donnée 🙂 🤔 Modifié le 3 janvier 2021 par Drickce Kangel 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jeff777 Posté(e) le 3 janvier 2021 Partager Posté(e) le 3 janvier 2021 (modifié) @Drickce Kangel Bonjour, Ton monitoring semble s'être figé à 0h 40mn. @oracle7 Vraiment curieux comme je n'ai pas trouvé d'erreur j'ai laissé tombé hier soir et ce matin j'ai ceci : Donc j'aurais reçu une série de données à 3h40 cette nuit puis plus rien. Pourtant à cette heure là pas d'activité sur le NAS. Edit : Et ça c'est le log de speedtest: Une idée ? Modifié le 3 janvier 2021 par Jeff777 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Drickce Kangel Posté(e) le 3 janvier 2021 Partager Posté(e) le 3 janvier 2021 il y a 46 minutes, Jeff777 a dit : @Drickce Kangel Bonjour, Ton monitoring semble s'être figé à 0h 40mn. @oracle7 Vraiment curieux comme je n'ai pas trouvé d'erreur j'ai laissé tombé hier soir et ce matin j'ai ceci : Donc j'aurais reçu une série de données à 3h40 cette nuit puis plus rien. Pourtant à cette heure là pas d'activité sur le NAS. Edit : Et ça c'est le log de speedtest: Une idée ? @Jeff777 C'est parce que je venais tout juste de finir le paramétrage et que c'est sur 1h. Ce matin, c'est déjà différent. Juste pour être sûr, ton ping est vraiment à 235ms? Je trouve ça très haut, non? Après, voici my two cents pour ton problème, est-ce que tu as bien paramétré ton docker-compose? 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.