Aller au contenu

Messages recommandés

Posté(e)
il y a 35 minutes, oracle7 a dit :

@Drickce Kangel

Bonjour,

Avec la table hrStorageTable, si tu essaies de sélectionner par exemple le champ upsStatus, tu verras qu'il n'existe pas dans cette table ...

Donc, et si tu utilisais la table syno.SNMP tout simplement ? C'est sûrement mieux ...

Cordialement

oracle7😉

Hello @oracle7, justement, j'ai essayé d'utiliser la table syno.SNMP, mais il n'y a pas d'entrée pour UPS...1142319904_Capturedecran2020-12-30a12_09_07.png.2dd6dec765ad2f807078c03f32215d7a.png

Posté(e)
il y a 4 minutes, oracle7 a dit :

@Drickce Kangel

Bonjour,

En tout cas je ne l'invente pas :

image.png.1da237975b2e7b53e08bcc533d6621b0.png

Cordialement

oracle7😉

@oracle7 non je suis d'accord, mais je me posais la question, à savoir comment vous faites pour avoir tout ça dans votre table snmp.SYNO. Je remarque que tu n'utilises pas l'IP du NAS c'est peut être de là que vient mon problème...Je continue de creuser de toute façon.

Posté(e)

@Drickce Kangel

Bonjour,

Je comprends mieux maintenant ton problème.

Vérifies ton fichier telegraph.conf. Il te faudra sûrement le compléter avec les champs qui vont bien (i.e. qui te manquent a priori). C'est pour cela que ta table "snmp.SYNO" est incomplète dans grafana.

Pour cela, il te faut analyser les fichiers MIB situés dans "/usr/share/snmp/mibs/" et notamment le fichier "/usr/share/snmp/mibs/SYNOLOGY-UPS-MIB.txt" (du moins pour la partie UPS) et ajouter les champs manquants (attention, tous ne sont pas nécessaires et donc utiles !) en veillant à la syntaxe (sinon gare aux ennuis ...).

Cordialement

oracle7😉

Posté(e)

@oracle7

J'ai ça dans mon fichier de conf:

 

# UPS Status

  [[inputs.snmp.table.field]]

    name = "upsStatus"

    oid = "SYNOLOGY-UPS-MIB::upsInfoStatus"

# UPS Load

  [[inputs.snmp.table.field]]

    name = "upsLoad"

    oid = "SYNOLOGY-UPS-MIB::upsInfoLoadValue"

# UPS Battery Charge

  [[inputs.snmp.table.field]]

    name = "upsCharge"

    oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeValue"

# UPS Battery Charge Warning

  [[inputs.snmp.table.field]]

    name = "upsWarning"

    oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeWarning"

Posté(e)

@Drickce Kangel

Bonjour,

Effectivement, tu as le strict minimum.

Voici par exemple, de quoi compléter ton fichier :

  #----------------------------------------------------------
  ## UPS Details
  #----------------------------------------------------------
  # UPS Model
  [[inputs.snmp.field]]
    name = "upsModel"
    oid = "SYNOLOGY-UPS-MIB::upsDeviceModel.0"
  # UPS SerialNumber
  [[inputs.snmp.field]]
    name = "upsInfoSerial"
    oid = "SYNOLOGY-UPS-MIB::upsInfoSerial.0"
  # UPS Status
  [[inputs.snmp.field]]
    name = "upsStatus"
    oid = "SYNOLOGY-UPS-MIB::upsInfoStatus.0"
  # UPS Load
  [[inputs.snmp.field]]
    name = "upsLoad"
    oid = "SYNOLOGY-UPS-MIB::upsInfoLoadValue.0"
  # UPS Battery Charge
  [[inputs.snmp.field]]
    name = "upsCharge"
    oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeValue.0"
  # UPS Battery Low
  [[inputs.snmp.field]]
    name = "upsBatteryChargeLow"
    oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeLow.0"
  # UPS Battery Charge Warning
  [[inputs.snmp.field]]
    name = "upsBatteryChargeWarning"
    oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeWarning.0"
  # UPS Battery Voltage
  [[inputs.snmp.field]]
    name = "upsBatteryVoltage"
    oid = "SYNOLOGY-UPS-MIB::upsBatteryVoltageValue.0"
  # UPS Battery RunTime
  [[inputs.snmp.field]]
    name = "upsBatteryRuntime"
    oid = "SYNOLOGY-UPS-MIB::upsBatteryRuntimeValue.0"
  # UPS Input Voltage
  [[inputs.snmp.field]]
    name = "upsInputVoltage"
    oid = "SYNOLOGY-UPS-MIB::upsInputVoltageValue.0" 

Cordialement

oracle7😉

Posté(e)

@Drickce Kangel  
Je pense que ce que donne @oracle7 est bien ce qui te manque 😉

Car moi j'ai ça :
ha bah je peux pas poster de capture...
J'ai ce message :
 

Citation
Un problème est survenu pendant l’envoi du fichier. Vous pouvez seulement envoyer un maximum de 32 Ko Mo.
(Error code: Vous pouvez seulement envoyer un maximum de 32 Ko Mo.)

OK

 

Posté(e)
Il y a 4 heures, smosse a dit :

@.Shad. Quid de influxDB v2 ?  

y a t il moyen de l'utiliser a la place de la 1.X ?  Ou le mieux est de rester en 1.X pour le moment ?

 

Je ne crois pas qu'il apporte des fonctionnalités qui nous intéressent spécialement.
La 1.X est toujours développé, en l'état des choses il y a encore quelques mois, les cas d'utilisation étaient relativement différents.

Rien ne t'empêche de le mettre en place et de voir par toi-même. 😉 

Posté(e)

Pour InfluxDB, la version 2 n'est pas considérée comme stable non ?

@Drickce Kangel  Pas possible à moins de vider toutes les données.
En gros, Grafana t'affiche les données pour une plage de temps/durée définie, et si ton conteneur supprimé ne l'était pas pendant un temps durant cette plage de durée, bah il apparait.
Réduit le temps d'affichage à 30 min, il disparaitra ^^

Sinon attend demain 😉

Posté(e)
il y a 3 minutes, MilesTEG1 a dit :

Pour InfluxDB, la version 2 n'est pas considérée comme stable non ?

@Drickce Kangel  Pas possible à moins de vider toutes les données.
En gros, Grafana t'affiche les données pour une plage de temps/durée définie, et si ton conteneur supprimé ne l'était pas pendant un temps durant cette plage de durée, bah il apparait.
Réduit le temps d'affichage à 30 min, il disparaitra ^^

Sinon attend demain 😉

Bon, ben je vais attendre 🙄😅

Merci pour l'info en tout cas

Posté(e) (modifié)

Bonjour,

Bon, je viens de me lancer dans l'installation de Speedtest-for-InfluxDB-and-Grafana.

J'ai donc créé un répertoire /volume1/docker/speedtest dans le quel j'ai placé les fichiers suivants (configurés pour certains de façon ad hoc) :

  • config.ini
  • Dockerfile
  • influxspeedtest.py
  • requirements.txt
  • speedtest-cli

J'ai installé l'image correspondante avec docker.

Jusque là, facile, mais maintenant je bute sur l'installation des librairies InfluxDb_Python qui sont un prérequis.

Je l'avoue, je suis comme "une poule qui aurait trouvé une épingle à nourice" 🤪.

J'ai lu et relu la doc influxdb-python mais je ne comprends pas comment installer ce package sur le NAS et n'ai ni même trouvé de lien pour le télécharger.

De la même façon, je ne vois pas comment utiliser le fichier Dockerfile, et s'il le faut.

@.Shad. et @bruno78 (pour ses connaissances Python) et aux autres, auriez-vous SVP une idée pour me débloquer.

Merci de vos réponses.

Cordialement

oracle7😉

 

Modifié par oracle7
Posté(e)

Bonjour,

Finalement je me répond à moi même. Après avoir pataugé quelques heures parceque je n'avais pas saisi que la configuration présentée dans le ReadMe sur Github considérait tout ce qu'il fallait mettre en place pour créer l'image de base pour le conteneur speedtest. Donc exit influxdn-python, Dockerfile, etc ...

En fait, cette l'image qui va bien est déjà disponible, il suffit d'aller la charger normalement avec l'interface docker sur le NAS. Pour ensuite exécuter le fichier docker-compose.yml associé pour créer le conteneur speedtest.

Attention, il faut que le conteneur speedtest utilise le même réseau qu'influxdb et grafana.

A l'usage aussi, la période initiale fixée à 300sec entre deux mesures est à mon sens beaucoup trop courte, ce qui finalement charge un peu le réseau. A vous de voir ce qui vous convient le mieux.

Au final voilà par exemple, ce que cela donne :

image.thumb.png.e4643a044ff753fdaa22ba60ef7404fa.png

Cordialement

oracle7😉

Posté(e)
Il y a 17 heures, .Shad. a dit :

Je ne crois pas qu'il apporte des fonctionnalités qui nous intéressent spécialement.
La 1.X est toujours développé, en l'état des choses il y a encore quelques mois, les cas d'utilisation étaient relativement différents.

Rien ne t'empêche de le mettre en place et de voir par toi-même. 😉 

Le concept est différent. On ne parle plus de base mais de conteneur et donc l'adressage est different. Il y a de quoi faire des tableau de bord intégré dans la version . C'est peut être pour ça que Grafana n'est pas compatible pour le moment. 

Je vais suis le mouvement et tester le combo telegram/influxV1 et gafana 🙂

Posté(e) (modifié)

Merci @oracle7 pour ton retour.

Je ferai bientôt une mise à jour du tutoriel, avec quelques éléments liés aux fichierx docker-compose, et les différents retours de ceux qui l'ont mis en place (UPS, speedtest, etc...), je compte laisser les explications même si certaines sont redondantes avec ce qui est abordé dans le tutoriel introductif sur Docker. Je pense que ça permet de poser le contexte plus facilement.

Pour ceux qui ont développé de belles dashboards, pourriez-vous m'envoyer en MP une impression d'écran (2 maximum) de votre dashboard la plus aboutie ? Cela permettra de remplacer l'aperçu en tête de tutoriel. Pour ceux qui souhaitent partager leur json (Synology seulement, je souhaite qu'on ne s'éparpille pas trop dans le cadre du tutoriel) pas de souci.

Modifié par .Shad.
Posté(e)
Le 30/12/2020 à 23:41, oracle7 a dit :

Après avoir pataugé quelques heures parceque je n'avais pas saisi que la configuration présentée dans le ReadMe sur Github considérait tout ce qu'il fallait mettre en place pour créer l'image de base pour le conteneur speedtest.

Bonne année @oracle7

Moi aussi je galère j'ai bien un répertoire speedtest et deux fichiers docker-compose.yml  et config.ini que j'ai complétés.

Par contre que signifie :

Before the first use run pip3 install -r requirements.txt

Run influxspeedtest.py

Je suis bloqué là. Pourrais-tu me donner un coup de pouce?

Posté(e) (modifié)

@Jeff777

Bonjour et meilleurs voeux pour 2021,

Comme je le laisse entendre dans une réponse précédente, tu peux oublier ce qui est dit dans la page Readme de Github à propos d'installer python_influxdb, etc ... Voilà ce qu'il faut faire (du moins ce que j'ai fait personnellement) :

J'ai téléchargé et installé l'image atribe/speedtest-for-influxdb-and-grafana via le menu "Registre" dans l'interface de l'application Docker.

J'ai donc créé un répertoire /volume1/docker/Scrips_instal/speedtest dans le quel j'ai placé les fichiers suivants :

  • config.ini
    Citation

    [GENERAL]
    # Duree en secondes entre deux mesures
    Delay = 3600

    [INFLUXDB]
    Address = 172.20.0.2
    Port = 8086
    Database = nas_telegraf
    Username = admin
    Password = admin
    Verify_SSL = False

    [SPEEDTEST]
    # Leave blank to auto pick server
    Server =

    [LOGGING]
    # Valid Options: critical, error, warning, info, debug
    Level = info

     

  • docker-compose.yml
    Citation

    version: "2.1"
    services:

        speedtest:
            image: atribe/speedtest-for-influxdb-and-grafana:latest
            container_name: speedtest
            labels:
                - "com.centurylinklabs.watchtower.enable=true"
            volumes:
              - ./config.ini:/src/config.ini
            networks:
                monitoring:
                    ipv4_address: 172.20.0.5
            restart: unless-stopped
    networks:
        monitoring:
            external: true

     

A toi d'adapter ces fichiers à ton environnement. En tous cas le réseau de Speedtest doit être le même que celui que tu utilises pour influxdb et grafana.

Ensuite, tu ajoutes ces panels à ton dashbord (toujours en les adaptant à ton environnement) :

Panel_bande_passante.json

Panel_Download.json

Panel_Evolution_du_ping.json

Panel_ping.json

Panel_serveur.json

Panel_Upload.json

Cela donne cela par exemple :

firefox_20210102_18-02-10.thumb.jpg.4032fecd74eaba2d50e67cb10e253e5f.jpg

Bon usage 😀

Cordialement

oracle7😉

Modifié par oracle7
Posté(e)
il y a une heure, oracle7 a dit :

Comme je le laisse entendre dans une réponse précédente, tu peux oublier ce qui est dit dans la page Readme

Ah oui j'avais bien tenu compte de cela  au départ mais comme je n'arrivais pas à obtenir quoique ce soit je m'étais posé la question sue ce qui était dit dans Readme. Je semble avoir des fichiers tout à fait conformes à ta config. mais je ne trouve pas la raison du problème. Je reprendrai plus tard, merci de ton aide.

Posté(e) (modifié)

@Drickce Kangel

Bonjour,

Ton monitoring semble s'être figé à 0h 40mn. 

@oracle7

Vraiment curieux comme je n'ai pas trouvé d'erreur j'ai laissé tombé hier soir et ce matin j'ai ceci :

Capture.thumb.JPG.6fc9021b208c6c30bc577d3ac0c62b6c.JPG

Donc j'aurais reçu une série de données à 3h40 cette nuit puis plus rien. Pourtant à cette heure là pas d'activité sur le NAS.  

Edit Et ça c'est le log de speedtest:

Capture.JPG.dc5573d7d07a6334f906f2dcc98931c6.JPG

Une idée ?

 

Modifié par Jeff777
Posté(e)
il y a 46 minutes, Jeff777 a dit :

@Drickce Kangel

Bonjour,

Ton monitoring semble s'être figé à 0h 40mn. 

@oracle7

Vraiment curieux comme je n'ai pas trouvé d'erreur j'ai laissé tombé hier soir et ce matin j'ai ceci :

Capture.thumb.JPG.6fc9021b208c6c30bc577d3ac0c62b6c.JPG

Donc j'aurais reçu une série de données à 3h40 cette nuit puis plus rien. Pourtant à cette heure là pas d'activité sur le NAS.  

Edit Et ça c'est le log de speedtest:

Capture.JPG.dc5573d7d07a6334f906f2dcc98931c6.JPG

Une idée ?

 

@Jeff777

C'est parce que je venais tout juste de finir le paramétrage et que c'est sur 1h.

image.thumb.png.7f4780ccdc3cd10f1e2d91b1ddbf1ddc.png

Ce matin, c'est déjà différent.

Juste pour être sûr, ton ping est vraiment à 235ms? Je trouve ça très haut, non?

Après, voici my two cents pour ton problème, est-ce que tu as bien paramétré ton docker-compose?

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.