Aller au contenu

Messages recommandés

Posté(e)

Je les trouve où (quel chemin) ?
Je pense à un truc :
J'ai ce qui me convient en ligne de commande en root, en spécifiant des arguments.
Ça ne serai pas un problème de droits qui pourrait se régler en spécifiant un PUID/PGID dans le stack ?
Même si me connecter en root dans un container m'ennuie ?

Posté(e)
Il y a 6 heures, Lelolo a dit :

Je les trouve où (quel chemin) ?
Je pense à un truc :
J'ai ce qui me convient en ligne de commande en root, en spécifiant des arguments.
Ça ne serai pas un problème de droits qui pourrait se régler en spécifiant un PUID/PGID dans le stack ?
Même si me connecter en root dans un container m'ennuie ?

Normalement non, pas besoin de spécifier un PGID/PUID.
Je ne crois pas que l'image en tienne compte si tu en mettais un.
De toute manière, les droits sont donnés par 

    cap_add:
      - SYS_RAWIO
      - SYS_ADMIN

Dernière précision : il n'est pas utile de publier le port de la base de données.
Je laisse commenté le port de InfluxDB.

  # ╔══════════════════════════════════════════════════════════════════════════╗
  # ║ Fichier docker-compose.yml pour Scrutiny                                 ║
  # ║ sur NAS Synology                                                         ║
  # ╚══════════════════════════════════════════════════════════════════════════╝

#
# https://github.com/AnalogJ/scrutiny
#
# Création des dossiers
# mkdir -p /volume4/docker/scrutiny/{config,influxdb}
#
version: '3.5'

services:
  scrutiny:
    container_name: scrutiny
    image: ghcr.io/analogj/scrutiny:master-omnibus
    cap_add:
      - SYS_RAWIO
      - SYS_ADMIN
    ports:
      - "8800:8080" # webapp
      # - "8801:8086" # influxDB admin
    volumes:
      - /run/udev:/run/udev:ro
      - /volume4/docker/scrutiny/config:/opt/scrutiny/config
      - /volume4/docker/scrutiny/influxdb:/opt/scrutiny/influxdb
    devices:
      # List devices with : ls  /dev/ | grep '/dev/[sh]d[a-z]\|sata[0-9]\|usb[0-9]\|nvme[0-9]'
      - /dev/sata1:/dev/sata1
      - /dev/sata2:/dev/sata2
      - /dev/sata3:/dev/sata3
      - /dev/sata4:/dev/sata4
      # - /dev/nvme0:/dev/nvme0
      # - /dev/nvme1:/dev/nvme1
      - /dev/nvme0n1:/dev/nvme0n1
      - /dev/nvme1n1:/dev/nvme1n1

    environment:
      - SCRUTINY_WEB_INFLUXDB_TOKEN=UnAutreGrosMotDePassEavecChiffres0124579684123210
      - SCRUTINY_WEB_INFLUXDB_INIT_USERNAME=BDD-Syno
      - SCRUTINY_WEB_INFLUXDB_INIT_PASSWORD=UnAutreGrosMotDePassEavecChiffres0124579684123210
      - TIMEZONE=Europe/Paris
      - COLLECTOR_CRON_SCHEDULE=0 * * * *           # https://crontab.guru/#0_6_*_*_*

    labels:
      # watchtower label
      - "com.centurylinklabs.watchtower.enable=true"

    networks:
      scrutiny_network:
        ipv4_address: 172.28.0.2        

    restart: unless-stopped

networks:
  scrutiny_network:
    ipam:
      driver: default
      config:
        - subnet: 172.28.0.0/16
          ip_range: 172.28.0.0/24
          gateway: 172.28.0.1
    name: scrutiny_network

 

Et le collector.yml :

version: 1
host:
  id: "Syno-DS920+"
devices:
  - device: /dev/nvme0n1
    type: 'nvme'
  - device: /dev/nvme1n1
    type: 'nvme'
  - device: /dev/sata1
    type: 'sat'
  - device: /dev/sata2
    type: 'sat'
  - device: /dev/sata3
    type: 'sat'
  - device: /dev/sata4
    type: 'sat'
  # - device: /dev/sata5
  #   type: 'sat'
  # - device: /dev/sata6
  #   type: 'sat'
  # - device: /dev/sata7
  #   type: 'sat'
  # - device: /dev/sata8
  #   type: 'sat'

 

Posté(e)

salut,

il te faut installer la même image mais cette fois-ci avec le tag master-collector au lieu de master-omnibus.

Dans la configuration indiquée dans la documentatuon il est indiqué comment rediriger les données vers l'api de l'autre serveur. Je l'ai fait pas plus tard qu'hier.

N'hésites pas si tu as besoi d'aide complémentaire. 

Posté(e)
Il y a 12 heures, Jeremy59 a dit :

salut,

il te faut installer la même image mais cette fois-ci avec le tag master-collector au lieu de master-omnibus.

Dans la configuration indiquée dans la documentatuon il est indiqué comment rediriger les données vers l'api de l'autre serveur. Je l'ai fait pas plus tard qu'hier.

N'hésites pas si tu as besoi d'aide complémentaire. 

Ok 👍🏻 merci pour l’indication.

Comment tu rediriges les données sur l’api du nas qui centralise les données ?

  • 3 semaines après...
Posté(e)

Bonjour,

services:
  scrutiny:
    container_name: scrutiny
    image: ghcr.io/analogj/scrutiny:master-collector
    restart: unless-stopped
    cap_add:
      - SYS_RAWIO
      - SYS_ADMIN
    ports:
      - "6070:8080"     # interface Web
#     - "8801:8086"     # influxDB admin
    volumes:
      - /run/udev:/run/udev:ro
      - /volume1/docker/scrutiny:/opt/scrutiny/config
      - /volume1/docker/scrutiny/influxdb:/opt/scrutiny/influxdb
    networks:
      - scrutiny_bridge
    devices:
      - /dev/sata1:/dev/sata1
      - /dev/sata2:/dev/sata2
#     - /dev/sata3:/dev/sata3        et ainsi de suite jusqu'au nombre de disques gérés par le NAS
#     - /dev/nvme0:/dev/nvme0        SSD NVMe
#     - /dev/nvme1:/dev/nvme1
#     - /dev/nvme0n1:/dev/nvme0n1
#     - /dev/nvme1n1:/dev/nvme1n1

    environment:
      - SCRUTINY_WEB_INFLUXDB_TOKEN=STRONG_PASSPHRASE
      - SCRUTINY_WEB_INFLUXDB_INIT_USERNAME=username
      - SCRUTINY_WEB_INFLUXDB_INIT_PASSWORD=STRONG_PASSWORD
      - TIMEZONE=Europe/Paris

networks:
    scrutiny_bridge:
      external: true

 

Lorsque j'essaie de me connecter à Scrutiny, j'obtiens le message suivant sur Firefox. J'ai pourtant attendu 5 bonnes minutes après le démarrage du container pour me connecter.

image.png.b7f34817005c6a8dd501f6b1cb1c9eec.png

 

Posté(e)

Tu l'as installé comment ?
Moi, j'ai créé un stack avec Portainer (sans le texte que je t'ai cité), et le réseau scrutiny_default c'est créé tout seul.
Tu as un réseau de ce nom ?

Posté(e) (modifié)

Je l'ai installé avec Container Manager. J'ai supprimé toutes les lignes Networks dans le docker-compose et un réseau scrutiny-default a été créé en effet.

PJ1.thumb.jpg.f088a760bcb838babb5326130a617944.jpg

PJ2.jpg.9ddf40a6bbb3415d0b99bbacd62d38c3.jpg

 

services:
  scrutiny:
    container_name: scrutiny
    image: ghcr.io/analogj/scrutiny:master-collector
    restart: unless-stopped
    cap_add:
      - SYS_RAWIO       # necessary to allow smartctl permission to query device SMART data
      - SYS_ADMIN       # necessary for NVMe drives
    ports:
      - "6070:8080"     # interface Web
#     - "8801:8086"     # influxDB admin
    volumes:
      - /run/udev:/run/udev:ro
      - ./config:/opt/scrutiny/config
      - ./influxdb:/opt/scrutiny/influxdb
    devices:
      - /dev/sata1:/dev/sata1
      - /dev/sata2:/dev/sata2
#     - /dev/sata3:/dev/sata3        et ainsi de suite jusqu'au nombre de disques gérés par le NAS
#     - /dev/nvme0:/dev/nvme0        SSD NVMe
#     - /dev/nvme1:/dev/nvme1
#     - /dev/nvme0n1:/dev/nvme0n1
#     - /dev/nvme1n1:/dev/nvme1n1

    environment:
      - SCRUTINY_WEB_INFLUXDB_TOKEN=STRONG_PASSPHRASE
      - SCRUTINY_WEB_INFLUXDB_INIT_USERNAME=lionel_a
      - SCRUTINY_WEB_INFLUXDB_INIT_PASSWORD=STRONG_PASSWORD
      - TIMEZONE=Europe/Paris

Mais Firefox m'annonce toujours que le connexion a été réinitialisée. Le log dit simplement "cron started".

Modifié par CyberFr
Posté(e)
il y a 1 minute, Lelolo a dit :

Et qu'est ce que tu as changé pour que cela fonctionne ?

Je suis encore en phase de test. Avec linux il faut mettre les mains dans le cambouis, surtout quand les sources d'information sont contradictoires. Il y aura un retour d'expérience lorsque les choses seront stabilisées.

Posté(e)

Il y a des surprises. Lorsque je tape la commande :

docker exec scrutiny scrutiny-collector-metrics run

Un message indique :

No configuration file found at /opt/scrutiny/config/collector.yaml. Using Defaults.

Pour le coup j'ai dupliqué le fichier collector.yaml qui se trouve à la racine du dossier scrutiny dans la sous/dossier config. Voilà à quoi ressemble File Station.

scrutiny folder
    config folder
        collector.yaml

    influxdb folder

    docker-compose.yml
    collector.yaml

Il ne faut pas hésiter à lancer la commande "docker exec scrutiny scrutiny-collector-metrics run" - après avoir démarré le container dans Container Manager - pour que le container démarre vraiment. Le docker compose :

# pouer lancer la 1ère analyse : sudo docker exec scrutiny scrutiny-collector-metrics run (merci EVOTk)

services:
  scrutiny:
    container_name: scrutiny
    image: ghcr.io/analogj/scrutiny:master-omnibus
    restart: unless-stopped
    cap_add:
      - SYS_RAWIO       # necessary to allow smartctl permission to query device SMART data
      - SYS_ADMIN       # necessary for NVMe drives
    ports:
      - "6070:8080"     # Web Interface
#     - "8801:8086"     # influxDB admin
    volumes:
      - /run/udev:/run/udev:ro
      - ./config:/opt/scrutiny/config
      - ./influxdb:/opt/scrutiny/influxdb
    devices:
      # List devices with : ls  /dev/ | grep '/dev/[sh]d[a-z]\|sata[0-9]\|usb[0-9]\|nvme[0-9]'
      # (merci MilesTEG1)
      - "/dev/sata1"
      - "/dev/sata2"
#     - "/dev/sata3"                et ainsi de suite jusqu'au nombre de disques gérés par le NAS
#     - /dev/nvme0:/dev/nvme0       SSD NVMe
#     - /dev/nvme1:/dev/nvme1
#     - /dev/nvme0n1:/dev/nvme0n1
#     - /dev/nvme1n1:/dev/nvme1n1

    environment:
      - SCRUTINY_WEB_INFLUXDB_TOKEN=STRONG_PASSPHRASE
      - SCRUTINY_WEB_INFLUXDB_INIT_USERNAME=lionel_a
      - SCRUTINY_WEB_INFLUXDB_INIT_PASSWORD=STRONG_PASSWORD
      - TIMEZONE=Europe/Paris

 

Le fichier collector.yaml :

version: 1
host:
  id: "DS220+"
devices:
# - device: /dev/nvme0n1
#   type: 'nvme'
# - device: /dev/nvme1n1
#   type: 'nvme'
  - device: /dev/sata1
    type: 'sat'
  - device: /dev/sata2
    type: 'sat'
# - device: /dev/sata3     et ainsi de suite jusqu'au nombre de disques gérés par le NAS
#   type: 'sat'

Ça marche ainsi et je n'y touche plus ! Consolation, avec les infos qui suivent, mon NAS a pris de la valeur 😀

PJ2.thumb.jpg.7df6b89b0b9df71e89cfa22594c405d4.jpg

Posté(e)

Je confirme les dire de @CyberFr Il s'agit bien du fichier collector.yml qui fait tout ^^

J'ai mis ça en device dans mon docker-compose.yml 

    devices:
      # List devices with : ls  /dev/ | grep '/dev/[sh]d[a-z]\|sata[0-9]\|usb[0-9]\|nvme[0-9]'
      - /dev/sata1:/dev/sata1
      - /dev/sata2:/dev/sata2
      - /dev/sata3:/dev/sata3
      - /dev/sata4:/dev/sata4
      # - /dev/nvme0:/dev/nvme0
      # - /dev/nvme1:/dev/nvme1
      - /dev/nvme0n1:/dev/nvme0n1
      - /dev/nvme1n1:/dev/nvme1n1

 

Et mon collector.yml est quasi identique au tien :

version: 1
host:
  id: "Syno-DS920+"
devices:
  - device: /dev/nvme0n1
    type: 'nvme'
  - device: /dev/nvme1n1
    type: 'nvme'
  - device: /dev/sata1
    type: 'sat'
  - device: /dev/sata2
    type: 'sat'
  - device: /dev/sata3
    type: 'sat'
  - device: /dev/sata4
    type: 'sat'
  # - device: /dev/sata5
  #   type: 'sat'
  # - device: /dev/sata6
  #   type: 'sat'
  # - device: /dev/sata7
  #   type: 'sat'
  # - device: /dev/sata8
  #   type: 'sat'

 

Posté(e)

J'ai ajouté la variable d'environnement COLLECTOR_CRON_SCHEDULE et je me suis fait peur car il a fallu arrêter le container et le recréer. J'ai dû lancer plusieurs fois la commande

sudo docker exec scrutiny scrutiny-collector-metrics run

parce que, au premier lancement j'ai eu droit à une belle erreur

ERROR: Post "http://localhost:8080/api/devices/register": dial tcp 127.0.0.1:8080: connect: connection refused

Il m'a fallu insister et relancer la commande mais finalement, le bourrin est reparti. Ouf !!!

J'ai l'impression que scrutiny est encore en construction mais Paris ne s'est pas fait en un jour.

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.