-
Compteur de contenus
2944 -
Inscription
-
Dernière visite
-
Jours gagnés
76
Tout ce qui a été posté par MilesTEG1
-
[TUTO] Plex via docker, avec ou sans transcodage matériel
MilesTEG1 a répondu à un(e) sujet de Einsteinium dans Tutoriels
@Tenko C'est étrange. As-tu bien mis ton nom de domaine dans URL personnalisées : -
J’avoue que c’est l’un des conteneurs qui le consomme le plus de ram. Après dans mon cas j’ai 12Go de ram donc ça va j’ai de la marge 😊 si jamais il y avait une nouvelle version du tuto j’ai peur que les données acquises avec la v1 ne soient pas récupérables... apres tant que ça marche avec la v1.8, c’est bon. mais il se peut qu’un jour telegraf ou grafana ne veuillent plus fonctionner avec.
- 1445 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
@bruno78 J'ai mis à jour de la version 6.2.3-25426 Update 3 à la version 6.2.4-25554. Mais je crois avoir compris d'où venait le problème... qui m'a révélé un autre problème... C'est en voyant les volumes de influxdb que j'ai eu la puce à l'oreille... pourquoi y a-t-il ces deux volumes supplémentaires faisant mention d'une version 2 de infludb... Je vais voir dockerhub pour voir ce qu'il en est de la configuration de infludb avec un docker-compose. Et je vois qu'ils parlent de choisir de mettre à jour en V2 ou de garder une v1.x... Heu WTF ! Une V2 ? Je tourne avec depuis longtemps ou pas ??? C'est là que je vais voir les logd de Watchtower qui tourne tous les matins pour mettre les conteneurs à jour. Ça fait depuis 2 jours que je n'ai pas eu de ses nouvelles, j'ai pensé bêtement qu'il n'y avait rien à mettre à jour (ça lui est déjà arrivé...), et donc dans les logs de ce dernier je vois qu'il y a des erreurs pour envoyer les notifications emails... Et là, ça fait tilt : j'ai changé le mot de passe de mon compte gmail associé et j'ai supprimé toutes les connexions existantes à mon compte ainsi ce qui a supprimé tous les mots de passe applications créés, dont celui pour Watchtower... Du coup je n'ai pas eu les notifications de mise à jour matinales que je consulte pour voir ce qui a été mis à jour... Et je n'ai donc pas vu passer la MAJ d'influxDB... J'ai donc passé le :latest de l'image d'influxdb en :1.8 et j'ai recréé les conteneurs. Et tadaamm, ça refonctionne : Conclusion : faites gaffe si vous mettez à jour vos conteneurs 😮 Ne passez pas sur la v2 d'influxdb ! @.Shad. À quand une modification du tuto pour utiliser la V2 de influxDB ? 😛
- 1445 réponses
-
1
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
En furetant dans ce à quoi j'ai accès avec Portainer, j'ai vu ceci pur influxdb : Est-ce normal d'avoir 3 volumes ? Pouvez-vous vérifier si vous avez la même chose chez vous ?
- 1445 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
@bruno78 BOn, j'ai coupé Adguard Home, désactivé le script au démarrage, redémarré le NAS, et j'ai toujours le soucis. Je pense que ce n'est pas lié à AdGuard, mais plutôt à la mise à jour de DSM... ou bien y a un soucis ailleurs...
- 1445 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
Hmmm, ai-je moyen de revenir en arrière, je pense oui, mais au prix de dysfonctionnement du reste des équipements... et surtout faudrait que je refasse ce que j'ai fait... Je tente de ne pas lancer le script de démarrage qui recrée les ip link... et je coupe adguard pour voir. Mais je promet pas que ça fonctionne...
- 1445 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
Hello par ici @oracle7 @.Shad. @bruno78 Je constate ce matin un soucis étrange que je n'explique pas... : J'ai plus rien du tout ! J'ai tenté un redémarrage des 3 conteneurs, et pareil. Coté log, après le reboot j'ai : pour de influxdb : ts=2021-02-25T11:48:14.669544Z lvl=info msg="Terminating precreation service" log_id=0SXtqaTG000 service=shard-precreation ts=2021-02-25T11:48:14.714661Z lvl=info msg=Stopping log_id=0SXtqaTG000 service=telemetry interval=8h ts=2021-02-25T11:48:14.715551Z lvl=info msg=Stopping log_id=0SXtqaTG000 service=scraper ts=2021-02-25T11:48:14.777876Z lvl=info msg=Stopping log_id=0SXtqaTG000 ts=2021-02-25T11:48:15.215214Z lvl=info msg=Stopping log_id=0SXtqaTG000 service=task ts=2021-02-25T11:48:15.360343Z lvl=info msg=Stopping log_id=0SXtqaTG000 service=nats ts=2021-02-25T11:48:15.427027Z lvl=info msg=Stopping log_id=0SXtqaTG000 service=bolt ts=2021-02-25T11:48:15.427338Z lvl=info msg=Stopping log_id=0SXtqaTG000 service=query ts=2021-02-25T11:48:15.427361Z lvl=info msg=Stopping log_id=0SXtqaTG000 service=storage-engine ts=2021-02-25T11:48:15.427387Z lvl=info msg="Closing retention policy enforcement service" log_id=0SXtqaTG000 service=retention 2021-02-25T11:48:28.497182763Z info found existing boltdb file, skipping setup wrapper {"system": "docker", "bolt_path": "/var/lib/influxdb2/influxd.bolt"} ts=2021-02-25T11:48:34.494663Z lvl=info msg="Welcome to InfluxDB" log_id=0SYG9GFW000 version=2.0.4 commit=4e7a59bb9a build_date=2021-02-08T17:47:02Z ts=2021-02-25T11:48:34.702428Z lvl=info msg="Resources opened" log_id=0SYG9GFW000 service=bolt path=/var/lib/influxdb2/influxd.bolt ts=2021-02-25T11:48:35.677975Z lvl=info msg="Using data dir" log_id=0SYG9GFW000 service=storage-engine service=store path=/var/lib/influxdb2/engine/data ts=2021-02-25T11:48:35.678059Z lvl=info msg="Compaction settings" log_id=0SYG9GFW000 service=storage-engine service=store max_concurrent_compactions=2 throughput_bytes_per_second=50331648 throughput_bytes_per_second_burst=50331648 ts=2021-02-25T11:48:35.678077Z lvl=info msg="Open store (start)" log_id=0SYG9GFW000 service=storage-engine service=store op_name=tsdb_open op_event=start ts=2021-02-25T11:48:35.678167Z lvl=info msg="Open store (end)" log_id=0SYG9GFW000 service=storage-engine service=store op_name=tsdb_open op_event=end op_elapsed=0.092ms ts=2021-02-25T11:48:35.678209Z lvl=info msg="Starting retention policy enforcement service" log_id=0SYG9GFW000 service=retention check_interval=30m ts=2021-02-25T11:48:35.678252Z lvl=info msg="Starting precreation service" log_id=0SYG9GFW000 service=shard-precreation check_interval=10m advance_period=30m ts=2021-02-25T11:48:35.678342Z lvl=info msg="Starting query controller" log_id=0SYG9GFW000 service=storage-reads concurrency_quota=10 initial_memory_bytes_quota_per_query=9223372036854775807 memory_bytes_quota_per_query=9223372036854775807 max_memory_bytes=0 queue_size=10 ts=2021-02-25T11:48:35.679134Z lvl=info msg="Configuring InfluxQL statement executor (zeros indicate unlimited)." log_id=0SYG9GFW000 max_select_point=0 max_select_series=0 max_select_buckets=0 ts=2021-02-25T11:48:36.375574Z lvl=info msg=Starting log_id=0SYG9GFW000 service=telemetry interval=8h ts=2021-02-25T11:48:36.375576Z lvl=info msg=Listening log_id=0SYG9GFW000 transport=http addr=:8086 port=8086 pour grafana : (je ne mets qu'une partie, car tout ce qui suit est une répétition des dernières lignes...) t=2021-02-25T11:48:14+0000 lvl=info msg="Shutdown started" logger=server reason="System signal: terminated" t=2021-02-25T11:48:24+0000 lvl=info msg="Starting Grafana" logger=server version=7.4.3 commit=010f20c1c8 branch=HEAD compiled=2021-02-24T10:29:10+0000 t=2021-02-25T11:48:24+0000 lvl=info msg="Config loaded from" logger=settings file=/usr/share/grafana/conf/defaults.ini t=2021-02-25T11:48:24+0000 lvl=info msg="Config loaded from" logger=settings file=/etc/grafana/grafana.ini t=2021-02-25T11:48:24+0000 lvl=info msg="Config overridden from command line" logger=settings arg="default.paths.data=/var/lib/grafana" t=2021-02-25T11:48:24+0000 lvl=info msg="Config overridden from command line" logger=settings arg="default.paths.logs=/var/log/grafana" t=2021-02-25T11:48:24+0000 lvl=info msg="Config overridden from command line" logger=settings arg="default.paths.plugins=/var/lib/grafana/plugins" t=2021-02-25T11:48:24+0000 lvl=info msg="Config overridden from command line" logger=settings arg="default.paths.provisioning=/etc/grafana/provisioning" t=2021-02-25T11:48:24+0000 lvl=info msg="Config overridden from command line" logger=settings arg="default.log.mode=console" t=2021-02-25T11:48:24+0000 lvl=info msg="Config overridden from Environment variable" logger=settings var="GF_PATHS_DATA=/var/lib/grafana" t=2021-02-25T11:48:24+0000 lvl=info msg="Config overridden from Environment variable" logger=settings var="GF_PATHS_LOGS=/var/log/grafana" t=2021-02-25T11:48:24+0000 lvl=info msg="Config overridden from Environment variable" logger=settings var="GF_PATHS_PLUGINS=/var/lib/grafana/plugins" t=2021-02-25T11:48:24+0000 lvl=info msg="Config overridden from Environment variable" logger=settings var="GF_PATHS_PROVISIONING=/etc/grafana/provisioning" t=2021-02-25T11:48:24+0000 lvl=info msg="Path Home" logger=settings path=/usr/share/grafana t=2021-02-25T11:48:24+0000 lvl=info msg="Path Data" logger=settings path=/var/lib/grafana t=2021-02-25T11:48:24+0000 lvl=info msg="Path Logs" logger=settings path=/var/log/grafana t=2021-02-25T11:48:24+0000 lvl=info msg="Path Plugins" logger=settings path=/var/lib/grafana/plugins t=2021-02-25T11:48:24+0000 lvl=info msg="Path Provisioning" logger=settings path=/etc/grafana/provisioning t=2021-02-25T11:48:24+0000 lvl=info msg="App mode production" logger=settings t=2021-02-25T11:48:24+0000 lvl=info msg="Connecting to DB" logger=sqlstore dbtype=sqlite3 t=2021-02-25T11:48:24+0000 lvl=warn msg="SQLite database file has broader permissions than it should" logger=sqlstore path=/var/lib/grafana/grafana.db mode=-rwxrwxrwx expected=-rw-r----- t=2021-02-25T11:48:24+0000 lvl=info msg="Starting DB migrations" logger=migrator t=2021-02-25T11:48:25+0000 lvl=info msg="Starting plugin search" logger=plugins t=2021-02-25T11:48:26+0000 lvl=info msg="Registering plugin" logger=plugins id=input t=2021-02-25T11:48:27+0000 lvl=info msg="Registering plugin" logger=plugins id=briangann-gauge-panel t=2021-02-25T11:48:27+0000 lvl=info msg="Registering plugin" logger=plugins id=grafana-piechart-panel t=2021-02-25T11:48:27+0000 lvl=info msg="Registering plugin" logger=plugins id=grafana-worldmap-panel t=2021-02-25T11:48:27+0000 lvl=info msg="Registering plugin" logger=plugins id=yesoreyeram-boomtable-panel t=2021-02-25T11:48:27+0000 lvl=info msg="HTTP Server Listen" logger=http.server address=[::]:3000 protocol=http subUrl= socket= t=2021-02-25T11:51:18+0000 lvl=info msg="Authentication to data source failed" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" body="{\"code\":\"unauthorized\",\"message\":\"Unauthorized\"}" statusCode=401 t=2021-02-25T11:51:18+0000 lvl=info msg="Authentication to data source failed" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" body="{\"code\":\"unauthorized\",\"message\":\"Unauthorized\"}" statusCode=401 t=2021-02-25T11:51:18+0000 lvl=info msg="Authentication to data source failed" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" body="{\"code\":\"unauthorized\",\"message\":\"Unauthorized\"}" statusCode=401 t=2021-02-25T11:51:19+0000 lvl=eror msg="Data proxy error" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" error="http: proxy error: context canceled" t=2021-02-25T11:51:19+0000 lvl=eror msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=502 remote_addr=172.20.0.1 time_ms=1812 size=0 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:19+0000 lvl=info msg="Authentication to data source failed" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" body="{\"code\":\"unauthorized\",\"message\":\"Unauthorized\"}" statusCode=401 t=2021-02-25T11:51:19+0000 lvl=info msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=400 remote_addr=172.20.0.1 time_ms=353 size=36 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:19+0000 lvl=info msg="Authentication to data source failed" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" body="{\"code\":\"unauthorized\",\"message\":\"Unauthorized\"}" statusCode=401 t=2021-02-25T11:51:19+0000 lvl=info msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=400 remote_addr=172.20.0.1 time_ms=330 size=36 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:19+0000 lvl=info msg="Authentication to data source failed" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" body="{\"code\":\"unauthorized\",\"message\":\"Unauthorized\"}" statusCode=401 t=2021-02-25T11:51:19+0000 lvl=info msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=400 remote_addr=172.20.0.1 time_ms=331 size=36 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:19+0000 lvl=info msg="Authentication to data source failed" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" body="{\"code\":\"unauthorized\",\"message\":\"Unauthorized\"}" statusCode=401 t=2021-02-25T11:51:19+0000 lvl=info msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=400 remote_addr=172.20.0.1 time_ms=338 size=36 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:19+0000 lvl=eror msg="Data proxy error" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" error="http: proxy error: context canceled" t=2021-02-25T11:51:19+0000 lvl=eror msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=502 remote_addr=172.20.0.1 time_ms=530 size=0 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:19+0000 lvl=eror msg="Data proxy error" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" error="http: proxy error: context canceled" t=2021-02-25T11:51:19+0000 lvl=eror msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=502 remote_addr=172.20.0.1 time_ms=531 size=0 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:19+0000 lvl=info msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=400 remote_addr=172.20.0.1 time_ms=2232 size=36 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:19+0000 lvl=info msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=400 remote_addr=172.20.0.1 time_ms=2232 size=36 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:20+0000 lvl=eror msg="Data proxy error" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" error="http: proxy error: context canceled" t=2021-02-25T11:51:20+0000 lvl=eror msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=502 remote_addr=172.20.0.1 time_ms=2550 size=0 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:20+0000 lvl=eror msg="Data proxy error" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" error="http: proxy error: context canceled" t=2021-02-25T11:51:20+0000 lvl=eror msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=502 remote_addr=172.20.0.1 time_ms=19 size=0 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:20+0000 lvl=info msg="Authentication to data source failed" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" body="{\"code\":\"unauthorized\",\"message\":\"Unauthorized\"}" statusCode=401 t=2021-02-25T11:51:20+0000 lvl=info msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=400 remote_addr=172.20.0.1 time_ms=1 size=36 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:20+0000 lvl=info msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=400 remote_addr=172.20.0.1 time_ms=2570 size=36 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:20+0000 lvl=info msg="Authentication to data source failed" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" body="{\"code\":\"unauthorized\",\"message\":\"Unauthorized\"}" statusCode=401 t=2021-02-25T11:51:20+0000 lvl=info msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=400 remote_addr=172.20.0.1 time_ms=1 size=36 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" t=2021-02-25T11:51:22+0000 lvl=info msg="Authentication to data source failed" logger=data-proxy-log userId=1 orgId=1 uname=admin path=/api/datasources/proxy/1/query remote_addr=172.20.0.1 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" body="{\"code\":\"unauthorized\",\"message\":\"Unauthorized\"}" statusCode=401 t=2021-02-25T11:51:22+0000 lvl=info msg="Request Completed" logger=context userId=1 orgId=1 uname=admin method=GET path=/api/datasources/proxy/1/query status=400 remote_addr=172.20.0.1 time_ms=1 size=36 referer="http://192.168.2.200:3030/d/7Jr9akvGk/ds920-and-rt2600ac?orgId=1&refresh=10s" pour telegraf : (même chose que pour grafana) 2021-02-25T11:48:04Z W! [outputs.influxdb] Metric buffer overflow; 295 metrics have been dropped 2021-02-25T11:48:04Z E! [outputs.influxdb] When writing to [http://monitoring_influxdb:8086]: 401 Unauthorized 2021-02-25T11:48:04Z E! [agent] Error writing to outputs.influxdb: could not write any address 2021-02-25T11:48:14Z W! [outputs.influxdb] Metric buffer overflow; 165 metrics have been dropped 2021-02-25T11:48:14Z E! [outputs.influxdb] When writing to [http://monitoring_influxdb:8086]: 401 Unauthorized 2021-02-25T11:48:14Z E! [agent] Error writing to outputs.influxdb: could not write any address 2021-02-25T11:48:14Z I! [agent] Hang on, flushing any cached metrics before shutdown 2021-02-25T11:48:15Z E! [outputs.influxdb] When writing to [http://monitoring_influxdb:8086]: failed doing req: Post "http://monitoring_influxdb:8086/write?consistency=any&db=nas_telegraf": dial tcp 172.20.0.3:8086: connect: connection refused 2021-02-25T11:48:15Z E! [agent] Error writing to outputs.influxdb: could not write any address 2021-02-25T11:48:27Z I! Starting Telegraf 1.17.3 2021-02-25T11:48:27Z I! Using config file: /etc/telegraf/telegraf.conf 2021-02-25T11:48:27Z I! Loaded inputs: cpu disk diskio docker kernel mem processes snmp swap system 2021-02-25T11:48:27Z I! Loaded aggregators: 2021-02-25T11:48:27Z I! Loaded processors: 2021-02-25T11:48:27Z I! Loaded outputs: influxdb 2021-02-25T11:48:27Z I! Tags enabled: host=monitoring_telegraf 2021-02-25T11:48:27Z I! [agent] Config: Interval:10s, Quiet:false, Hostname:"monitoring_telegraf", Flush Interval:10s 2021-02-25T11:48:37Z E! [outputs.influxdb] When writing to [http://monitoring_influxdb:8086]: 401 Unauthorized 2021-02-25T11:48:37Z E! [agent] Error writing to outputs.influxdb: could not write any address 2021-02-25T11:48:47Z E! [outputs.influxdb] When writing to [http://monitoring_influxdb:8086]: 401 Unauthorized 2021-02-25T11:48:47Z E! [agent] Error writing to outputs.influxdb: could not write any address 2021-02-25T11:48:57Z E! [outputs.influxdb] When writing to [http://monitoring_influxdb:8086]: 401 Unauthorized 2021-02-25T11:48:57Z E! [agent] Error writing to outputs.influxdb: could not write any address Il semble qu'il y ait un soucis pour telegraf à venir se loguer sur infludb... Il y a quelques erreurs aussi sur grafana. Je n'ai rien changé du coté de ces conteneurs... Il n'y a que deux choses qui ont changé depuis ma dernière utilisation fonctionnelle : le NAS a été mis à jour en 6.2.4, et j'ai changé le serveur DNS pour une version Adguard en macvlan (j'ai donc ajouté des routes IP voir en fin de ce message). Bref, du coup, et bien je ne sais pas quoi faire... et surtout où regarder de plus près. Avez-vous des pistes ? Merci d'avance. Route IP ajoutée : voir le sujet suivant : [TUTO] [Docker - macvlan] Pi-hole - Tutoriels - NAS-Forum (nas-forum.com), section Création de l'interface virtuelle. ip link add macv0 link ovs_eth0 type macvlan mode bridge ip addr add 192.168.2.230/32 dev macv0 # Adresse IP virtuelle 192.168.2.230/32 ip link set dev macv0 address 5E:11:11:11:11:11 # MAC adresse pour l'adaptateur ayant l'IP virtuelle ip link set macv0 up ip route add 192.168.2.210/32 dev macv0 # 192.168.2.210/32 : Adresse macvlan du conteneur
- 1445 réponses
-
- snmp
- monitoring
-
(et 1 en plus)
Étiqueté avec :
-
Oui effectivement, le monde du DNS c'est vraiment costaud... Et je suis très très loin de comprendre tout ça... Rien que pour ça j'ai beaucoup de mal à comprendre ce que ça va faire et comment utiliser ça : Bref, du coup mon projet de tuto complet AdguardHome risque de se transformer en tuto d'installation comme il en existe déjà plein 😅 car d'ici à ce que je maitrise suffisamment ce qui touche aux DNS, il se sera passé du temps... Adguard Home est plus jeune que pihole, du coup il n'y a pas autant de tuto explicatifs sur les notions complexes... Bon j'ai le temps d'y réfléchir et de me documenter, mais mon cerveau devient hermétique à ces notions complexes... Ha dernière question (j'espère pour la journée ^^), est-ce que les autres conteneurs comme Plex, ou d'autres qui se connectent à internet) profitent du serveur DNS qu'est Adguard Home ?
-
heu, j'ai pas tout compris là... J'ai ça comme serveurs upstream : Et ça dans les serveurs d'amorçage :
-
@.Shad. Merci pour les compléments d'informations. J'ai ça sur mon MAC : Je suppose que ça passe bien par le serveur Adguard Home 🙂 Mais le Non-authoritative aswser signifie quoi ? C'est bien ou pas ?
-
@.Shad. En fait non, ce que tu avais proposé ne fonctionnait pas, seul une IP unique sur la dernière commande fonctionne chez moi. En soit, c'est pas grave, ça fonctionne comme je le souhaite 🙂 J'ai passé quelques heures de plus hier, et j'ai fini pas arrêter mon conteneur et le recréé en ayant auparavant copié les données de la version HOST, car j'avais la flemme de refaire les associations IP type de machine... bien que les machines étaient bien détectées niveau nom, je peux définir le type de machine pour plus tard faire un filtrage par type. Bref, j'aurais une question : comment bien vérifier que mes machines utilisent bien mon Adguard comme serveur DNS et pas le DNS secondaire (en secours) ? J'ai modifié les paramètres dans le routeur pour que le serveur DHCP utilise bien l'IP macvlan de Adguard, et donc que mes périphériques aient bien ce DNS là en serveur 😉 Du coup question : dans le NAS, je choisi quelle IP pour le serveur DNS dans DSM ? Je lui mets l'IP macvlan ? ou l'IP virtuelle ? Pour le NAS DSM, je me rends compte que je peux changer le serveur de DNS à deux endroits dans la partie Réseau : Soit dans l'onglet Général : Configurer manuellement le serveur DNS Soit dans l'onglet Interface réseau/LAN1 : en modifiant l'interface réseau LAN1 (choix du DHCP, IP fixe...) Tu ferais le changement où ?
-
Je continue mes monologues Je teste la création de l'interface virtuelle avec la commande du tuto de @.Shad. , mais elle ne retourne rien... Pour voir l'IP virtuelle créée il faut que je fasse ifconfig. Et je viens de comprendre pourquoi... Le nom ne peux pas dépasser 9 caractères apparemment... Vu qu'il y avait une petite erreur dans le script (oui encore... c'est ça quand on est pas 100% dessus, et fatigué 😅), j'ai rebooté le NAS, et voilà : Et comme tu as dit ceci : Et que je vois bien une nouveau NAS dans Synology Assistant... je suis bon 😄 Purée, ce fut laborieux, entre moi qui ne comprends pas bien certaines notions, moi qui fait des erreurs d'inattention liée à ma fatigue ... Bon il est maintenant temps de créer mon conteneur avec Portainer car j'aime bien 😉 J'ai volontairement pas repris la configuration de mon Adguard actuel, pour repartir de 0 avec celui là. Il me reste donc à le configurer et à le tester pour voir si tout fonctionne bien comme avant celui en HOST. Ce message marquera donc le dernier HS (bien que ça m'ait grandement aider) à ce sujet. D'ici à ce que j'ai le temps de rédiger un tuto complet pour l'installation, la configuration de AdGuard... 😉 Je le rédigerais et le publierais sur GitHub, car je vais le partager sur plusieurs forums 😅 En tout cas, merci beaucoup encore une fois @.Shad. et @bruno78 pour votre aide bienveillante et votre patience 😇
-
Bon alors, avec les scripts ci-dessous, ça a fonctionné : Bon maintenant je vais voir pour faire la suite 😉 Le script de création du réseau macvlan : #!/bin/bash ##========================================================================================## ## Script macvlan-network.sh ## ## ## ## Script de création d'interface virtuelle pour le conteneur AdGuardHome_macvlan ## ## Voir tuto : https://www.nas-forum.com/forum/topic/69319-tuto-docker-macvlan-pi-hole/ ## ## ## ##========================================================================================## echo "$(date "+%R:%S - ") Script de création de réseau macvlan pour DOCKER" echo "$(date "+%R:%S - ") Un réseau macvlan-network sera créé avec une seule IP macvlan 192.168.2.210" echo "$(date "+%R:%S - ") avec la commande suivante :" echo "$(date "+%R:%S - ") docker network create -d macvlan \ " echo "$(date "+%R:%S - ") --subnet=192.168.2.0/24 \ " echo "$(date "+%R:%S - ") --ip-range=192.168.2.210/32 \ " echo "$(date "+%R:%S - ") --gateway=192.168.2.1 \ " echo "$(date "+%R:%S - ") -o parent=ovs_eth0 \ " echo -e "$(date "+%R:%S - ") macvlan-network\n" docker network create -d macvlan \ --subnet=192.168.2.0/24 \ --ip-range=192.168.2.210/32 \ --gateway=192.168.2.1 \ -o parent=ovs_eth0 \ macvlan-network echo -e "\n\n$(date "+%R:%S - ") Liste des réseaux docker : docker network ls\n" docker network ls echo -e "\n$(date "+%R:%S - ") Script terminé\n" exit Le script à lancer à chaque démarrage pour refaire le lien entre l'IP virtuelle et l'IP macvlan du conteneur : #!/bin/bash ##========================================================================================## ## Script bridgemacvlan-interface.sh ## ## ## ## Script de création d'interface virtuelle pour le conteneur AdGuardHome_macvlan ## ## Voir tuto : https://www.nas-forum.com/forum/topic/69319-tuto-docker-macvlan-pi-hole/ ## ## ## ##========================================================================================## # Set timeout to wait host network is up and running sleep 60 echo "$(date "+%R:%S - ") Script de création d'une interface virtuelle pour le NAS" echo "$(date "+%R:%S - ") Exécution des commandes..." ip link add macv0 link ovs_eth0 type macvlan mode bridge ip addr add 192.168.2.230/32 dev macv0 # Adresse IP virtuelle 192.168.2.230/32 ip link set dev macv0 address 5E:11:01:01:01:01 # MAC adresse pour l'adaptateur ayant l'IP virtuelle ip link set macv0 up ip route add 192.168.2.210/32 dev bridgemacvlan # 192.168.2.210/32 : Adresse macvlan du conteneur # AdguardHome_macvlan - 1 seule adresse unique avec le /32 echo "$(date "+%R:%S - ") Script terminé" exit Si j'y arrive, je vais améliorer les scripts pour récupérer dans des variables le résultats des commandes, afin de les afficher à la fin, pour vérifier que tout s'est bien passé. petit effet secondaire non prévu, j'ai un deuxième NAS 920+ dans mon réseau : mais, mais, il est où ??? 🤪 Je voudrais bien un vrai clone du NAS, un second 4 baies je cracherais pas dessus 🤪
-
@bruno78 Je te pique l'idée du nom bridgemacvlan 🙂 Mais je reste sur mon IP unique macvlan. Je verrais si ça fonctionne avec le conteneur. Là je vais faire du sport, et je vois ensuite 🙂 Merci pour votre aide.
-
@.Shad. Ok, je tente une dernière fois avec une plage d'IP macvlan. Mais les IP vont changer, car j'ai déjà changé dans mes fichiers 😅 Bon ben pareil : Je précise que 192.168.2.230/32 c'est l'IP virtuelle, et que 192.168.2.210/28 c'est la plage d'IP du réseau macvlan que j'ai créé avec la commande adéquat (pas d'erreur là-dessus). Avant que je reboot, si vous êtes plus rapide, y a moyen de défaire ce que viennent de faire ces commandes (les 3 dernières) sans que j'ai besoin de rebooter ?
-
@bruno78 En fait si on reprend le tuto de @.Shad. : Son adresse virtuelle (pas macvlan) pour son conteneur est 192.168.100.200/32, et moi ce sera 192.168.2.210/32. Sa plage d'adresses macvlan est 192.168.100.160/28 , et moi ce sera 192.168.2.130/28. Je n'ai pas mal compris ce qu'il a fait je pense. Mais ça ne fonctionne quand même pas sur la dernière commande. Sauf si au lieu de la plage d'IP macvlan, je mets une seule IP macvlan. Après, je ne connais pas ces commandes, je ne les maitrise pas du tout... Mais du coup, ça m'arrange de prendre comme IP virtuelle 192.168.2.221, et une IP macvlan 192.168.2.220. C'est comme ça que je fais faire mes réseau pour ce conteneur. Je n'ai pas vraiment besoin de plein d'IP macvlan en fait.
-
J'ai pas tout compris... Tu parles de quelle commande ? Car en suivant le tuto (sans me gourré comme j'avais commencé à faire), la dernière commande ne fonctionne pas, sauf si je spécifie une IP unique avec 192.168.2.130/32. Si je mets 192.168.2.130/28 comme ça a été utilisé pour créer le réseau macvlan, la dernière commande retourne une erreur.
-
Bon j'ai pu réussir en créant non pas une plage d'IP-macvlan, mais en créant une seule IP macvlan 192.168.2.130/32 (je n'ai pas tester avec un intermédiaire /31 /30 /29 ) : Du coup je vais rebooter le NAS pour virer ces personnalisations d'ip virtuelle et choisir une IP macvlan et une IP virtuelle autrement 😉
-
Bon bah il y a toujours cette dernière commande qui veut pas passer : Qu'est-ce qui ne va pas du coup ? Car là je sais pas... J'ai bien fait tout ce qu'il fallait...
-
@.Shad. Me revoilà, après reboot du NAS, et installation de la dernière version de DSM (il a fallu que je subisse la MAJ de plein de paquets, donc Docker !). Pour mon interface physique, c'est bien ovs_eth0 : Sans avoir lancé le script mac0-interface.sh, pour le mac0, lorsque je lance la commande suivante, j'ai rien : Avant de lancer les commandes du c-fichier macv0-interface.sh (j'ai renommé le mac0 en macv0 au cas où...), j'ai voulu vérifier un truc. La plage d'adresse réellement prise pour le réseau macvlan : avec 192.168.2.130/28 j'ai ceci d'après Calculateur de Masque IPv4 (cnrs.fr) : Ou avec Calculatrice de sous-réseau | Calculatrice de masque de sous-réseau IP pour IPv4 – Site24x7 : Ce qui voudrait dire qu'il y a un peu plus que 14 IP dans le lot 192.168.2.130/28 ?! Or ce matin, lorsque je testais avec 192.168.2.131/28 en voulant mettre l'IP virtuelle en 192.168.2.130, (j'ai les même résultat que les captures) ce n'était pas possible puisqu'elle était déjà dans le réseau macvlan. Du coup, je passe le réseau macvlan en 192.168.2.130/28, et je choisi une IP virtuelle en 192.168.2.210 (là je serais tranquille). Je vais voir ce que donne les commandes une à une. Je posterais les résultats après.
-
Tu confirmes ce que je pensais ^^ Pour le reste des précisions/explications, je savais certaines choses, mais tu m'as expliqué d'autres que je n'avais pas bien saisi. Je redémarre le NAS, et je regarde pour mac0... Et pour ovs_eth0 oui c'est normalement bien mon interface physique, je regarde à nouveau après le reboot, mon dernier badblocks s'est terminé. Ha bah oui, pourquoi je ne l'ai pas fait... Ok, merci, ça raccourci un peu mes scripts ^^
-
Hmmm, je viens de voir quelques erreurs dans le deuxième script... J'ai pas mis les bonnes IP. Version corrigée : #!/bin/bash # Script de création d'interface virtuelle pour le conteneur AdGuardHome_macvlan # Voir tuto : https://www.nas-forum.com/forum/topic/69319-tuto-docker-macvlan-pi-hole/ echo "$(date "+%D - %R:%S - LOG - ") Script de création d'une interface virtuelle pour le NAS" echo "$(date "+%D - %R:%S - LOG - ") Exécution des commandes :" echo "$(date "+%D - %R:%S - LOG - ") ip link add mac0 link ovs_eth0 type macvlan mode bridge" ip link add mac0 link ovs_eth0 type macvlan mode bridge # Création du lien entre l'interface virtuelle mac0 et la carte réseau du NAS ovs_eth0 (voir tuto) echo "$(date "+%D - %R:%S - LOG - ") ip addr add 192.168.2.130/32 dev mac0" ip addr add 192.168.2.130/32 dev mac0 # On spécifie ici une adresse IP non utilisée sur le LAN et non présente dans le DHCP du routeur # Cette adresse IP sera l'IP virtuelle pour l'interface vituelle mac0. echo "$(date "+%D - %R:%S - LOG - ") ip link set dev mac0 address 5E:11:87:C5:A1:D5" ip link set dev mac0 address 5E:11:87:C5:A1:D5 # On associe une adresse MAC à l'interface virtuelle mac0 (voir tuto car le 1er bloc doit être une valeur paire !) echo "$(date "+%D - %R:%S - LOG - ") ip link set mac0 up" ip link set mac0 up echo "$(date "+%D - %R:%S - LOG - ") ip route add 192.168.2.131/28 dev mac0" ip route add 192.168.2.131/28 dev mac0 # On spécifie ici la plage d'adresse du réseau macvlan créé précédemment (script macvlan-network.sh) echo echo "$(date "+%D - %R:%S - LOG - ") Script terminé" echo exit Bon ben la dernière commande retourne toujours la même erreur...
-
J'ai fait quelques petites améliorations cosmétiques des scripts 😉 avec quelques commentaires supplémentaire. Après, ça plaira peut-être pas à tout le monde... Mais j'aime bien que ça affiche ce qui est fait... Du coup j'ai ajouté des echo verbose 😛 Ça me permet surtout de bien comprendre ce que je fais, et ce que ces scripts font. @.Shad. En tout cas, merci bien de ta patience et de ta bienveillance 🥰 Script macvlan-netwoork.sh (bon OK sur celui là, c'est pas indispensable ^^) #!/bin/bash # Script de création d'un réseau macvlan pour docker # La ligne --ip-range=192.168.2.130/28 \ va permettre la création # d'une plage de 12 IP macvlan pour docker # Voir tuto : https://www.nas-forum.com/forum/topic/69319-tuto-docker-macvlan-pi-hole/ echo "$(date "+%D - %R:%S - LOG - ") Script de création de réseau macvlan pour DOCKER" echo "$(date "+%D - %R:%S - LOG - ") Un réseau macvlan-network sera créé avec une plage de 12 IP macvlan disponibles" echo "$(date "+%D - %R:%S - LOG - ") avec la commande suivante :" echo "$(date "+%D - %R:%S - LOG - ") docker network create -d macvlan \ " echo "$(date "+%D - %R:%S - LOG - ") --subnet=192.168.2.0/24 \ " echo "$(date "+%D - %R:%S - LOG - ") --ip-range=192.168.2.131/28 \ " echo "$(date "+%D - %R:%S - LOG - ") --gateway=192.168.2.1 \ " echo "$(date "+%D - %R:%S - LOG - ") -o parent=ovs_eth0 \ " echo "$(date "+%D - %R:%S - LOG - ") macvlan-network" echo docker network create -d macvlan \ --subnet=192.168.2.0/24 \ --ip-range=192.168.2.131/28 \ --gateway=192.168.2.1 \ -o parent=ovs_eth0 \ macvlan-network echo echo echo "$(date "+%D - %R:%S - LOG - ") Liste des réseaux docker : docker network ls" docker network ls echo echo "$(date "+%D - %R:%S - LOG - ") Script terminé" echo exit Script mac0-interface.sh : (Je récupère la sortie du script en email, comme c'est aussi le cas pour celui du media-player pour le décodage HW) #!/bin/bash # Script de création d'interface virtuelle pour le conteneur AdGuardHome_macvlan # La ligne --ip-range=192.168.2.130/28 \ va permettre la création # d'une plage de 12 IP macvlan pour docker # Voir tuto : https://www.nas-forum.com/forum/topic/69319-tuto-docker-macvlan-pi-hole/ echo "$(date "+%D - %R:%S - LOG - ") Script de création d'une interface virtuelle pour le NAS" echo "Les commandes exécutées sont :" echo "$(date "+%D - %R:%S - LOG - ") ip link add mac0 link ovs_eth0 type macvlan mode bridge" echo "$(date "+%D - %R:%S - LOG - ") ip addr add 192.168.2.200/32 dev mac0" echo "$(date "+%D - %R:%S - LOG - ") ip link set dev mac0 address 5E:11:01:23:45:67" echo "$(date "+%D - %R:%S - LOG - ") ip link set mac0 up" echo "$(date "+%D - %R:%S - LOG - ") ip route add 192.168.2.130/28 dev mac0" ip link add mac0 link ovs_eth0 type macvlan mode bridge # Création du lien entre l'interface virtuelle mac0 et la carte réseau du NAS ovs_eth0 (voir tuto) ip addr add 192.168.2.200/32 dev mac0 # On utilise ici l'adresse IP réelle de la carte réseau du NAS. ip link set dev mac0 address 5E:11:01:23:45:67 # On associe une adresse MAC à l'interface virtuelle mac0 (voir tuto car le 1er bloc doit être une valeur paire !) ip link set mac0 up ip route add 192.168.2.130/28 dev mac0 # On spécifie ici une adresse IP non utilisée sur le LAN et non présente dans le DHCP du routeur # Cette adresse IP sera une IP virtuelle pour l'interface vituelle mac0. echo echo "$(date "+%D - %R:%S - LOG - ") Script terminé" echo exit @.Shad. Bon j'ai un soucis sur le script mac0-interface : La dernière commande retourne une erreur : Pour les autres, pas de soucis. Même si en la relançant une à une pour savoir laquelle générait l'erreur, j'ai eu droit à ceci : Est ce que tu saurais pourquoi j'ai cette erreur et comment la contourner ? (sachant que je ne peux pas rebooter le NAS pour le moment... j'ai un test badblocks en cours).
-
OOOkkkk !! Je comprends mieux 🙂 J'avais beau relire tout ce que tu avais écrit, pour moi je pensais qu'on créer un réseau bridge pour le conteneur, et une adresse bridge, c'est pour moi dans le style 172.XX.0.1. Tu me confirmes qu'il n'y aura pas d'adresse de ce type pour le conteneur ? Et que c'est l'IP "virtuelle" qui fera office de bridge ? Mais est-ce un vrai réseau bridge ?
-
@.Shad. Hello 🙂 Je continue petit à petit à suivre ton tuto et d'essayer de l'adapater à mon besoin d'AdguardHome (j'y consacre pas assez de temps chaque jour 😅). Et je bute sur la compréhension d'un truc. J'ai cité ci-dessus les parties qui me posent soucis : ça concerne ce que tu appelles l'interface virtuelle du NAS avec l'ip 192.168.100.200. C'est quoi exactement ? Je la choisie au hasard parmis des IP libres de mon réseau ? Ou bien c'est une IP déjà définie par le NAS ou docker ? Merci d'avance 😉 edit : je croyais qu'une interface virtuelle serait via un réseau bridge...