Aller au contenu

Dimebag Darrell

Membres
  • Compteur de contenus

    575
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

Tout ce qui a été posté par Dimebag Darrell

  1. En effet, oui je me suis dit au final, deux DBs à créer ce n'est pas la mort ! Pour info, pour UNIFI, ça fonction avec unifipoller ! Je posterai à ce sujet. Là, j'ai tout foutu à terre et je recommence depuis le début avec des vrais passwords et des noms qui correspondent à ma nomenclature !
  2. @.Shad. Une petite question dans mon docker compose pour influxdb, est-ce possible d'indiquer toutes les databases que je souhaiterais créer, comme ça, pas besoin de se connecter directement sur celle-ci et devoir le faire manuellement.
  3. @.Shad. Concernant les droits sur la DB, je ne sais pas pourquoi, lorsque j'ai voulu ajouter ma source dans grafana, il m'a indiqué que j'avais des problèmes de privilèges sur la DB, donc j'en ai conclu qu'il ne savait pas y accéder. la raison pour laquelle, j'ai mis WITH ALL PRIVILEGES Peut-être fallait-il dans le HTTP method indiqué : GET J'ai apporté les quelques corrections que tu as mentionnés
  4. Salut @.Shad. @Jeff777 Source : - https://alexsguardian.net/2019/02/21/monitoring-your-media-server-with-varken/ - https://github.com/Boerderij/Varken - https://wiki.cajun.pro/books/varken/page/breakdown#bkmrk-maxmind Excellente nouvelle, varken fonctionne ainsi que mon monitoring Plex. Pre requis : installation du docker tautulli Suvire ce tuto https://www.forum-nas.fr/viewtopic.php?t=13717 Dans mon exemple, uniquement tautulli a été installé, d'autres modules peuvent être aussi ajoutés Sonarr - Smart PVR for newsgroup and bittorrent users. SickChill - SickChill is an automatic Video Library Manager for TV Shows. Radarr - A fork of Sonarr to work with movies à la Couchpotato. Ombi - Want a Movie or TV Show on Plex or Emby? Use Ombi! Unifi - The Global Leader in Managed Wi-Fi Systems Etape 1 : Création d'une nouvelle database dans influxdb CREATE DATABASE varken USE varken Etape 2 : Création d'un user spécifique pour cette database CREATE USER varken WITH PASSWORD 'varken' Etape 3 : Donner les droits d'accès à la database GRANT ALL ON varken TO varken Pour terminer on redémarre le docker docker restart influxdb Etape 4 : Creation d'une key pour maxmind, pour ensuite la copier collé dans le docker compose / https://www.maxmind.com/en/geolite2/signup - VRKN_GLOBAL_MAXMIND_LICENSE_KEY="key maxmind" 1. S'inscrire sur Maxmind et vérifier le compte 2. Aller dans Account, ensuite Services > My License Key dans le menu sur le coté, clicker sur "Generate New License Key". 3. Entrer la License key description, et selectionner "No" for "Will this key be used for GeoIP Update?", ensuite clicker sur "Confirm". 4. Copier la License Key et remplir le champs - VRKN_GLOBAL_MAXMIND_LICENSE_KEY="key maxmind" Etape 5: Création du docker compose pour varken (dans le cas présent, je n'ai activé que l’environnement varken) ps : il est possible d'intégrer la supervision d'autres modules utiles pour votre plex version: '2.1' services: varken: hostname: varken container_name: varken image: boerderij/varken networks: - monitoring volumes: - /volume1/docker/varken/config:/config environment: - VRKN_GLOBAL_TAUTULLI_SERVER_IDS=1 - VRKN_GLOBAL_MAXMIND_LICENSE_KEY=xxxxxxxxxxxxxxxxx - VRKN_INFLUXDB_URL=influxdb - VRKN_INFLUXDB_PORT=8086 - VRKN_INFLUXDB_SSL=false - VRKN_INFLUXDB_VERIFY_SSL=false - VRKN_INFLUXDB_USERNAME=varken - VRKN_INFLUXDB_PASSWORD=varken - VRKN_TAUTULLI_1_URL=192.168.1.5:8181 - VRKN_TAUTULLI_1_FALLBACK_IP=1.1.1.1 - VRKN_TAUTULLI_1_APIKEY=729f02f1846a45dc87d98f2a2e335ba8 - VRKN_TAUTULLI_1_SSL=false - VRKN_TAUTULLI_1_VERIFY_SSL=false - VRKN_TAUTULLI_1_GET_ACTIVITY=true - VRKN_TAUTULLI_1_GET_ACTIVITY_RUN_SECONDS=30 - VRKN_TAUTULLI_1_GET_STATS=true - VRKN_TAUTULLI_1_GET_STATS_RUN_SECONDS=3600 restart: unless-stopped networks: monitoring: external: true Etape 6 : grafana : Ajouter une data source Name: InfluxDB [Varken] URL: http://influxdb:8086 Database: varken User: varken Password: varken Etape 7 Importer un dashboard, par exemple via l'ID 9585 Merci à @.Shad. & @Jeff777 car faut l'avouer, je suis une b**** et un vrai débutant dans ce domaine, par contre, je suis persévérant. Pour vous donner un exemple, j'ai du aller voir sur le net comment copier coller un fichier en commande linux... ! Prochaine étape dans mon monitoring, c'est UNIFI !
  5. @.Shad. @Jeff777 Merci les gars, je vais tester ça Ps : je risque de revenir... !
  6. @Jeff777 Voici les input de mon fichier telegraf.com (mon fichier conf en pièce jointe) telegraf.conf.back3 Cela fait deux jours exactement que je m'applique sur ce tuto
  7. @.Shad. non, c'est un mauvais copier coller Je viens d'essayer, mais depuis la mise à jour du fichier telegraf.conf, et le restart du docker telegraph, il redémarre sans arrêt 😕
  8. version: '2.1' services: varken: hostname: varken container_name: varken image: boerderij/varken networks: - monitoring volumes: - /volume1/docker/varken/config:/config environment: - VRKN_GLOBAL_TAUTULLI_SERVER_IDS=1 - VRKN_INFLUXDB_URL=172.18.0.5 - VRKN_INFLUXDB_PORT=9086 - VRKN_INFLUXDB_SSL=false - VRKN_INFLUXDB_VERIFY_SSL=false - VRKN_INFLUXDB_USERNAME=nas_varken - VRKN_INFLUXDB_PASSWORD=nas_varken - VRKN_TAUTULLI_1_URL=192.168.1.5:8181 - VRKN_TAUTULLI_1_FALLBACK_IP=1.1.1.1 - VRKN_TAUTULLI_1_APIKEY=729f02f1846a45dc87d98f2a2e335ba8 - VRKN_TAUTULLI_1_SSL=false - VRKN_TAUTULLI_1_VERIFY_SSL=false - VRKN_TAUTULLI_1_GET_ACTIVITY=true - VRKN_TAUTULLI_1_GET_ACTIVITY_RUN_SECONDS=30 - VRKN_TAUTULLI_1_GET_STATS=true - VRKN_TAUTULLI_1_GET_STATS_RUN_SECONDS=3600 restart: unless-stopped networks: monitoring: external: true @.Shad.Voici mon docker-compose (update)
  9. @Jeff777Merci beaucoup pour toutes les infos, Etant assez créatif et voyant toutes les possibilités qu'offrent ce tutorial, j'ai un peu exploré au delà ! Plex : J'ai trouvé un tutorial sur comment monitorer plex à partir de grafana https://alexsguardian.net/2019/02/21/monitoring-your-media-server-with-varken/ et : https://github.com/Boerderij/Varken Avec une seule influxdb : Je viens de me casser la tête dessus, impossible de faire communiquer varken avec influxdb Erreur : [ERROR] influxdb.Write(points): {"error":"authorization failed"} Avec deux influxdb séparées : Impossible de connecter Varken à l'adresse IP de la deuxième influxdb ! Malgré deux IP bien distinctes Pour Unifi : Je suis tombé sur ce tuto, https://unifipoller.com/ Je résume, je suis arrivé aux mêmes problèmes de faire communiquer unfi-poller avec influxdb La question, est-il possible de mettre plusieurs poolers différents qui alimente une seule DB (influxdb). Au final, avec grafana, Je souhaiterais avoir un monitoring complet c'est à dire. - Synology - docker - Plex - PiHole. - Unifi (complet y compris le DPI)
  10. @Jeff777, je viens d'essayer ce tuto, impossible que l'unifipoller n'accède à influxdb, source : https://unifipoller.com/docs/install/synology Create unifi-poller container# In Image select golift/unifi-poller:latest and click launch Leave general settings alone - container name should be golift-unifi-poller1, unless you created other unifi-pollers Click Advanced Settings On the network tab: Add your network - in this example: Grafana_Net Remove the default bridge (usually called Bridge) Ensure that use the same network as docker host is unchecked On the Environment tab, add the following vars: UP_INFLUXDB_URL | http://influxdb1:8086 UP_UNIFI_DEFAULT_URL | https://your.unifi.controller.ip:8443 UP_UNIFI_DEFAULT_USER | username for account created earlier. e.g. unifipoller UP_UNIFI_DEFAULT_PASS | password for above user (optional) UP_POLLER_DEBUG | true Finalize the container by: Click APPLY Click NEXT Click APPLY
  11. Tant qu'à faire, j'aimerais intégrer - Monitoring Docker - Monitoring Unifi, y compris client usage (DPI) - Monitoring piHole - Monitoring Plex - Monitoring bitwarden @.Shad.Je viens de mettre à jour mon fichier docker-compose et le telegraf.conf, par contre, y a-t-il un dashboard spécifique à uploader dans grafana ?
  12. Next step ! Unifi, je sens que ça va être sport ! Je viens de tomber sur ce portail, mais je ne sais pas par où commencer... !
  13. Je viens de refaire le test pour m'assurer que j'avais bien trouvé mon problème. j'avais oublié de mentionner dans le telegraf.com les paramètres pour mon syno (input) ## Synology ## [[inputs.snmp]] # List of agents to poll agents = [ "172.18.0.1" ] # Polling interval interval = "60s" # Timeout for each SNMP query. timeout = "10s" # Number of retries to attempt within timeout. retries = 3 # SNMP version, UAP only supports v1 version = 2 # SNMP community string. community = "public" # The GETBULK max-repetitions parameter max_repetitions = 30 # Measurement name name = "snmp.SYNO" ## ## System Details ## # System name (hostname) [[inputs.snmp.field]] is_tag = true name = "sysName" oid = "RFC1213-MIB::sysName.0" # System vendor OID [[inputs.snmp.field]] name = "sysObjectID" oid = "RFC1213-MIB::sysObjectID.0" # System description [[inputs.snmp.field]] name = "sysDescr" oid = "RFC1213-MIB::sysDescr.0" # System contact [[inputs.snmp.field]] name = "sysContact" oid = "RFC1213-MIB::sysContact.0" # System location [[inputs.snmp.field]] name = "sysLocation" oid = "RFC1213-MIB::sysLocation.0" # System uptime [[inputs.snmp.field]] name = "sysUpTime" oid = "RFC1213-MIB::sysUpTime.0" # Inet interface [[inputs.snmp.table]] oid = "IF-MIB::ifTable" [[inputs.snmp.table.field]] is_tag = true oid = "IF-MIB::ifDescr" #Syno disk [[inputs.snmp.table]] oid = "SYNOLOGY-DISK-MIB::diskTable" [[inputs.snmp.table.field]] is_tag = true oid = "SYNOLOGY-DISK-MIB::diskID" #Syno raid [[inputs.snmp.table]] oid = "SYNOLOGY-RAID-MIB::raidTable" [[inputs.snmp.table.field]] is_tag = true oid = "SYNOLOGY-RAID-MIB::raidName" #Syno load [[inputs.snmp.table]] oid = "UCD-SNMP-MIB::laTable" [[inputs.snmp.table.field]] is_tag = true oid = "UCD-SNMP-MIB::laNames" # System memTotalSwap [[inputs.snmp.field]] name = "memTotalSwap" oid = "UCD-SNMP-MIB::memTotalSwap.0" # System memAvailSwap [[inputs.snmp.field]] name = "memAvailSwap" oid = "UCD-SNMP-MIB::memAvailSwap.0" # System memTotalReal [[inputs.snmp.field]] name = "memTotalReal" oid = "UCD-SNMP-MIB::memTotalReal.0" # System memAvailReal [[inputs.snmp.field]] name = "memAvailReal" oid = "UCD-SNMP-MIB::memAvailReal.0" # System memTotalFree [[inputs.snmp.field]] name = "memTotalFree" oid = "UCD-SNMP-MIB::memTotalFree.0" # System Status [[inputs.snmp.field]] name = "systemStatus" oid = "SYNOLOGY-SYSTEM-MIB::systemStatus.0" # System temperature [[inputs.snmp.field]] name = "temperature" oid = "SYNOLOGY-SYSTEM-MIB::temperature.0" # System powerStatus [[inputs.snmp.field]] name = "powerStatus" oid = "SYNOLOGY-SYSTEM-MIB::powerStatus.0" # System systemFanStatus [[inputs.snmp.field]] name = "systemFanStatus" oid = "SYNOLOGY-SYSTEM-MIB::systemFanStatus.0" # System cpuFanStatus [[inputs.snmp.field]] name = "cpuFanStatus" oid = "SYNOLOGY-SYSTEM-MIB::cpuFanStatus.0" # System modelName [[inputs.snmp.field]] name = "modelName" oid = "SYNOLOGY-SYSTEM-MIB::modelName.0" # System serialNumber [[inputs.snmp.field]] name = "serialNumber" oid = "SYNOLOGY-SYSTEM-MIB::serialNumber.0" # System version [[inputs.snmp.field]] name = "version" oid = "SYNOLOGY-SYSTEM-MIB::version.0" # System upgradeAvailable [[inputs.snmp.field]] name = "upgradeAvailable" oid = "SYNOLOGY-SYSTEM-MIB::upgradeAvailable.0" # System volume [[inputs.snmp.table]] oid = "HOST-RESOURCES-MIB::hrStorageTable" [[inputs.snmp.table.field]] is_tag = true oid = "HOST-RESOURCES-MIB::hrStorageDescr" # System ssCpuUser [[inputs.snmp.field]] name = "ssCpuUser" oid = ".1.3.6.1.4.1.2021.11.9.0" # System ssCpuSystem [[inputs.snmp.field]] name = "ssCpuSystem" oid = ".1.3.6.1.4.1.2021.11.10.0" # System ssCpuIdle [[inputs.snmp.field]] name = "ssCpuIdle" oid = ".1.3.6.1.4.1.2021.11.11.0" # Service users CIFS [[inputs.snmp.table.field]] name = "usersCIFS" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "1" # Service users AFP [[inputs.snmp.table.field]] name = "usersAFP" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "2" # Service users NFS [[inputs.snmp.table.field]] name = "usersNFS" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "3" # Service users FTP [[inputs.snmp.table.field]] name = "usersFTP" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "4" # Service users SFTP [[inputs.snmp.table.field]] name = "usersSFTP" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "5" # Service users HTTP [[inputs.snmp.table.field]] name = "usersHTTP" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "6" # Service users TELNET [[inputs.snmp.table.field]] name = "usersTELNET" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "7" # Service users SSH [[inputs.snmp.table.field]] name = "usersSSH" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "8" # Service users OTHER [[inputs.snmp.table.field]] name = "usersOTHER" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "9" # UPS Status [[inputs.snmp.table.field]] name = "upsStatus" oid = "SYNOLOGY-UPS-MIB::upsInfoStatus" # UPS Load [[inputs.snmp.table.field]] name = "upsLoad" oid = "SYNOLOGY-UPS-MIB::upsInfoLoadValue" # UPS Battery Charge [[inputs.snmp.table.field]] name = "upsCharge" oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeValue" # UPS Battery Charge Warning [[inputs.snmp.table.field]] name = "upsWarning" oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeWarning" # Disks statistics [[inputs.snmp.table]] oid = "SYNOLOGY-STORAGEIO-MIB::storageIOTable" [[inputs.snmp.table.field]] is_tag = true oid = "SYNOLOGY-STORAGEIO-MIB::storageIODevice" # Read metrics about cpu usage [[inputs.cpu]] ## Whether to report per-cpu stats or not percpu = true ## Whether to report total system cpu stats or not totalcpu = true ## If true, collect raw CPU time metrics collect_cpu_time = false ## If true, compute and report the sum of all non-idle CPU states report_active = false
  14. j'ai trouvé, ça fonctionne 🙂
  15. @.Shad.Je confirme, aucune donnée !
  16. Pour tester, j'ai pris ce layout, mais aucune donnée... https://grafana.com/grafana/dashboards/9961/revisions
  17. Pour tester, j'ai utilisé exactement les mêmes noms de DB que dans le tuto Je viens de tout supprimer et refaire l'étape pour la base de données influxdb, Il a bien voulu identifier la source avec les login et password J'attends que les data snmp arrivent, pour le moment, rien ne s'affiche sur le dashboard
  18. @.Shad. à partir de cette étape
  19. Salut tout le monde, @.Shad., je viens de suivre le tutorial, par contre, à l'étape 6, voici le message que je reçois lorsque je veux définir ma datasource
  20. Oui, tu dois identifier le bon0 dans l'interface
  21. Oui, bonne idée, Tu complètes avec les blacklists/whitelists ?
  22. euh oui ! Je n'ai pas encore installé le moindre composant ! Je dois suivre le tutoriel depuis le départ, ça c'est un fait. Si le docker compose (unique) peut-être utilisé avec en y indiquant mes paramètres réseau, ça sera assez "simple"
  23. J'ai vu qu'il y avait un docker compose unique, je pense que c'est une bonne base de départ
  24. @oracle7merci beaucoup. Après avoir posté, j'ai fait mes recherches et en effet, je suis tombé sur cette mine d'information ! A voir si je vais être capable de mettre ça en place...
  25. Super intéressant comme tuto Est-ce possible de superviser un réseau avec du matériel Ubiquiti ? y compris les points d'accès ? ça serait vraiment cool d'avoir tout en un seul dashboard
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.