Aller au contenu

Dimebag Darrell

Membres
  • Compteur de contenus

    569
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

Tout ce qui a été posté par Dimebag Darrell

  1. @.Shad. non, c'est un mauvais copier coller Je viens d'essayer, mais depuis la mise à jour du fichier telegraf.conf, et le restart du docker telegraph, il redémarre sans arrêt 😕
  2. version: '2.1' services: varken: hostname: varken container_name: varken image: boerderij/varken networks: - monitoring volumes: - /volume1/docker/varken/config:/config environment: - VRKN_GLOBAL_TAUTULLI_SERVER_IDS=1 - VRKN_INFLUXDB_URL=172.18.0.5 - VRKN_INFLUXDB_PORT=9086 - VRKN_INFLUXDB_SSL=false - VRKN_INFLUXDB_VERIFY_SSL=false - VRKN_INFLUXDB_USERNAME=nas_varken - VRKN_INFLUXDB_PASSWORD=nas_varken - VRKN_TAUTULLI_1_URL=192.168.1.5:8181 - VRKN_TAUTULLI_1_FALLBACK_IP=1.1.1.1 - VRKN_TAUTULLI_1_APIKEY=729f02f1846a45dc87d98f2a2e335ba8 - VRKN_TAUTULLI_1_SSL=false - VRKN_TAUTULLI_1_VERIFY_SSL=false - VRKN_TAUTULLI_1_GET_ACTIVITY=true - VRKN_TAUTULLI_1_GET_ACTIVITY_RUN_SECONDS=30 - VRKN_TAUTULLI_1_GET_STATS=true - VRKN_TAUTULLI_1_GET_STATS_RUN_SECONDS=3600 restart: unless-stopped networks: monitoring: external: true @.Shad.Voici mon docker-compose (update)
  3. @Jeff777Merci beaucoup pour toutes les infos, Etant assez créatif et voyant toutes les possibilités qu'offrent ce tutorial, j'ai un peu exploré au delà ! Plex : J'ai trouvé un tutorial sur comment monitorer plex à partir de grafana https://alexsguardian.net/2019/02/21/monitoring-your-media-server-with-varken/ et : https://github.com/Boerderij/Varken Avec une seule influxdb : Je viens de me casser la tête dessus, impossible de faire communiquer varken avec influxdb Erreur : [ERROR] influxdb.Write(points): {"error":"authorization failed"} Avec deux influxdb séparées : Impossible de connecter Varken à l'adresse IP de la deuxième influxdb ! Malgré deux IP bien distinctes Pour Unifi : Je suis tombé sur ce tuto, https://unifipoller.com/ Je résume, je suis arrivé aux mêmes problèmes de faire communiquer unfi-poller avec influxdb La question, est-il possible de mettre plusieurs poolers différents qui alimente une seule DB (influxdb). Au final, avec grafana, Je souhaiterais avoir un monitoring complet c'est à dire. - Synology - docker - Plex - PiHole. - Unifi (complet y compris le DPI)
  4. @Jeff777, je viens d'essayer ce tuto, impossible que l'unifipoller n'accède à influxdb, source : https://unifipoller.com/docs/install/synology Create unifi-poller container# In Image select golift/unifi-poller:latest and click launch Leave general settings alone - container name should be golift-unifi-poller1, unless you created other unifi-pollers Click Advanced Settings On the network tab: Add your network - in this example: Grafana_Net Remove the default bridge (usually called Bridge) Ensure that use the same network as docker host is unchecked On the Environment tab, add the following vars: UP_INFLUXDB_URL | http://influxdb1:8086 UP_UNIFI_DEFAULT_URL | https://your.unifi.controller.ip:8443 UP_UNIFI_DEFAULT_USER | username for account created earlier. e.g. unifipoller UP_UNIFI_DEFAULT_PASS | password for above user (optional) UP_POLLER_DEBUG | true Finalize the container by: Click APPLY Click NEXT Click APPLY
  5. Tant qu'à faire, j'aimerais intégrer - Monitoring Docker - Monitoring Unifi, y compris client usage (DPI) - Monitoring piHole - Monitoring Plex - Monitoring bitwarden @.Shad.Je viens de mettre à jour mon fichier docker-compose et le telegraf.conf, par contre, y a-t-il un dashboard spécifique à uploader dans grafana ?
  6. Next step ! Unifi, je sens que ça va être sport ! Je viens de tomber sur ce portail, mais je ne sais pas par où commencer... !
  7. Je viens de refaire le test pour m'assurer que j'avais bien trouvé mon problème. j'avais oublié de mentionner dans le telegraf.com les paramètres pour mon syno (input) ## Synology ## [[inputs.snmp]] # List of agents to poll agents = [ "172.18.0.1" ] # Polling interval interval = "60s" # Timeout for each SNMP query. timeout = "10s" # Number of retries to attempt within timeout. retries = 3 # SNMP version, UAP only supports v1 version = 2 # SNMP community string. community = "public" # The GETBULK max-repetitions parameter max_repetitions = 30 # Measurement name name = "snmp.SYNO" ## ## System Details ## # System name (hostname) [[inputs.snmp.field]] is_tag = true name = "sysName" oid = "RFC1213-MIB::sysName.0" # System vendor OID [[inputs.snmp.field]] name = "sysObjectID" oid = "RFC1213-MIB::sysObjectID.0" # System description [[inputs.snmp.field]] name = "sysDescr" oid = "RFC1213-MIB::sysDescr.0" # System contact [[inputs.snmp.field]] name = "sysContact" oid = "RFC1213-MIB::sysContact.0" # System location [[inputs.snmp.field]] name = "sysLocation" oid = "RFC1213-MIB::sysLocation.0" # System uptime [[inputs.snmp.field]] name = "sysUpTime" oid = "RFC1213-MIB::sysUpTime.0" # Inet interface [[inputs.snmp.table]] oid = "IF-MIB::ifTable" [[inputs.snmp.table.field]] is_tag = true oid = "IF-MIB::ifDescr" #Syno disk [[inputs.snmp.table]] oid = "SYNOLOGY-DISK-MIB::diskTable" [[inputs.snmp.table.field]] is_tag = true oid = "SYNOLOGY-DISK-MIB::diskID" #Syno raid [[inputs.snmp.table]] oid = "SYNOLOGY-RAID-MIB::raidTable" [[inputs.snmp.table.field]] is_tag = true oid = "SYNOLOGY-RAID-MIB::raidName" #Syno load [[inputs.snmp.table]] oid = "UCD-SNMP-MIB::laTable" [[inputs.snmp.table.field]] is_tag = true oid = "UCD-SNMP-MIB::laNames" # System memTotalSwap [[inputs.snmp.field]] name = "memTotalSwap" oid = "UCD-SNMP-MIB::memTotalSwap.0" # System memAvailSwap [[inputs.snmp.field]] name = "memAvailSwap" oid = "UCD-SNMP-MIB::memAvailSwap.0" # System memTotalReal [[inputs.snmp.field]] name = "memTotalReal" oid = "UCD-SNMP-MIB::memTotalReal.0" # System memAvailReal [[inputs.snmp.field]] name = "memAvailReal" oid = "UCD-SNMP-MIB::memAvailReal.0" # System memTotalFree [[inputs.snmp.field]] name = "memTotalFree" oid = "UCD-SNMP-MIB::memTotalFree.0" # System Status [[inputs.snmp.field]] name = "systemStatus" oid = "SYNOLOGY-SYSTEM-MIB::systemStatus.0" # System temperature [[inputs.snmp.field]] name = "temperature" oid = "SYNOLOGY-SYSTEM-MIB::temperature.0" # System powerStatus [[inputs.snmp.field]] name = "powerStatus" oid = "SYNOLOGY-SYSTEM-MIB::powerStatus.0" # System systemFanStatus [[inputs.snmp.field]] name = "systemFanStatus" oid = "SYNOLOGY-SYSTEM-MIB::systemFanStatus.0" # System cpuFanStatus [[inputs.snmp.field]] name = "cpuFanStatus" oid = "SYNOLOGY-SYSTEM-MIB::cpuFanStatus.0" # System modelName [[inputs.snmp.field]] name = "modelName" oid = "SYNOLOGY-SYSTEM-MIB::modelName.0" # System serialNumber [[inputs.snmp.field]] name = "serialNumber" oid = "SYNOLOGY-SYSTEM-MIB::serialNumber.0" # System version [[inputs.snmp.field]] name = "version" oid = "SYNOLOGY-SYSTEM-MIB::version.0" # System upgradeAvailable [[inputs.snmp.field]] name = "upgradeAvailable" oid = "SYNOLOGY-SYSTEM-MIB::upgradeAvailable.0" # System volume [[inputs.snmp.table]] oid = "HOST-RESOURCES-MIB::hrStorageTable" [[inputs.snmp.table.field]] is_tag = true oid = "HOST-RESOURCES-MIB::hrStorageDescr" # System ssCpuUser [[inputs.snmp.field]] name = "ssCpuUser" oid = ".1.3.6.1.4.1.2021.11.9.0" # System ssCpuSystem [[inputs.snmp.field]] name = "ssCpuSystem" oid = ".1.3.6.1.4.1.2021.11.10.0" # System ssCpuIdle [[inputs.snmp.field]] name = "ssCpuIdle" oid = ".1.3.6.1.4.1.2021.11.11.0" # Service users CIFS [[inputs.snmp.table.field]] name = "usersCIFS" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "1" # Service users AFP [[inputs.snmp.table.field]] name = "usersAFP" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "2" # Service users NFS [[inputs.snmp.table.field]] name = "usersNFS" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "3" # Service users FTP [[inputs.snmp.table.field]] name = "usersFTP" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "4" # Service users SFTP [[inputs.snmp.table.field]] name = "usersSFTP" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "5" # Service users HTTP [[inputs.snmp.table.field]] name = "usersHTTP" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "6" # Service users TELNET [[inputs.snmp.table.field]] name = "usersTELNET" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "7" # Service users SSH [[inputs.snmp.table.field]] name = "usersSSH" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "8" # Service users OTHER [[inputs.snmp.table.field]] name = "usersOTHER" oid = "SYNOLOGY-SERVICES-MIB::serviceUsers" oid_index_suffix = "9" # UPS Status [[inputs.snmp.table.field]] name = "upsStatus" oid = "SYNOLOGY-UPS-MIB::upsInfoStatus" # UPS Load [[inputs.snmp.table.field]] name = "upsLoad" oid = "SYNOLOGY-UPS-MIB::upsInfoLoadValue" # UPS Battery Charge [[inputs.snmp.table.field]] name = "upsCharge" oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeValue" # UPS Battery Charge Warning [[inputs.snmp.table.field]] name = "upsWarning" oid = "SYNOLOGY-UPS-MIB::upsBatteryChargeWarning" # Disks statistics [[inputs.snmp.table]] oid = "SYNOLOGY-STORAGEIO-MIB::storageIOTable" [[inputs.snmp.table.field]] is_tag = true oid = "SYNOLOGY-STORAGEIO-MIB::storageIODevice" # Read metrics about cpu usage [[inputs.cpu]] ## Whether to report per-cpu stats or not percpu = true ## Whether to report total system cpu stats or not totalcpu = true ## If true, collect raw CPU time metrics collect_cpu_time = false ## If true, compute and report the sum of all non-idle CPU states report_active = false
  8. j'ai trouvé, ça fonctionne 🙂
  9. @.Shad.Je confirme, aucune donnée !
  10. Pour tester, j'ai pris ce layout, mais aucune donnée... https://grafana.com/grafana/dashboards/9961/revisions
  11. Pour tester, j'ai utilisé exactement les mêmes noms de DB que dans le tuto Je viens de tout supprimer et refaire l'étape pour la base de données influxdb, Il a bien voulu identifier la source avec les login et password J'attends que les data snmp arrivent, pour le moment, rien ne s'affiche sur le dashboard
  12. @.Shad. à partir de cette étape
  13. Salut tout le monde, @.Shad., je viens de suivre le tutorial, par contre, à l'étape 6, voici le message que je reçois lorsque je veux définir ma datasource
  14. Oui, tu dois identifier le bon0 dans l'interface
  15. Oui, bonne idée, Tu complètes avec les blacklists/whitelists ?
  16. euh oui ! Je n'ai pas encore installé le moindre composant ! Je dois suivre le tutoriel depuis le départ, ça c'est un fait. Si le docker compose (unique) peut-être utilisé avec en y indiquant mes paramètres réseau, ça sera assez "simple"
  17. J'ai vu qu'il y avait un docker compose unique, je pense que c'est une bonne base de départ
  18. @oracle7merci beaucoup. Après avoir posté, j'ai fait mes recherches et en effet, je suis tombé sur cette mine d'information ! A voir si je vais être capable de mettre ça en place...
  19. Super intéressant comme tuto Est-ce possible de superviser un réseau avec du matériel Ubiquiti ? y compris les points d'accès ? ça serait vraiment cool d'avoir tout en un seul dashboard
  20. ça fonctionne nickel ! ça filtre et j'ai les infos nécessaires pour gérer les différents clients. Je ne pense pas que ces settings influences la capacité de pi-hole à filtrer Il faudrait que j'essaie en les activants Une question, quelles listes utilises tu pour filtrer ? J'utilise ce portail https://firebog.net, j'ai pris toutes les listes mais j'arrive à plus de 1.400.000 de domaines !
  21. Oui, local network (range/24) et l'adresse de mon routeur
  22. dans les settings DNS uniquement le conditional forward est activé de mon coté
  23. @.Shad. merci pour l'info, Je posais tout simplement la question car chez moi, aucune de ces options ne sont cochées. J'ai simplement coché le conditional forwarding afin de voir l'identifiant des clients qui sont connectés. Honnêtement, je ne sais pas trop ce que ça apporte de plus (ça reste très nébuleux pour moi)
  24. @.Shad. merci beaucoup Pour ma part, dans les DNS settings, j'ai uniquement sélectionné Conditional forwarding Par contre, ni Never forward non-FQDNs ni Never forward reverse lookups for private IP ranges ni Use DNSSEC ne sont cochés dans ma config Est ce que tu les sélectionnes de ton coté ?
  25. @MilesTEG1 & @PiwiLAbruti En tout cas merci pour les remarques et les clarifications
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.