Aller au contenu

.Shad.

Membres
  • Compteur de contenus

    6650
  • Inscription

  • Dernière visite

  • Jours gagnés

    150

Tout ce qui a été posté par .Shad.

  1. @MuadDib J'ai un macvlan fonctionnel sur mon bond (mais c'est un balance-tcp), quel type de bond tu utilises ? et quelle erreur obtiens-tu ?
  2. C'était histoire d'être sûr 🙂
  3. Là : set $app bitwarden
  4. .Shad.

    Newbie du Nas

    Bienvenue parmi nous !
  5. Ce que tu as fait c'est uniquement une étape supplémentaire pour introduire une exception dans le mécanisme de défense de Bitwarden. Ca n'aura jamais aucun impact si tu n'ajoutes pas un subfilter. Et dans le script, vu que Vaultwarden n'est pas explicitement mentionné dans les apps supportées par Theme-park, laisse bitwarden pour voir.
  6. Tu as testé d'ajouter les blocs de subfiltering dans les deux blocs suivant du fichier vaultwarden.subdomain.conf ? location / { # enable the next two lines for http auth #auth_basic "Restricted"; #auth_basic_user_file /config/nginx/.htpasswd; # enable the next two lines for ldap auth #auth_request /auth; #error_page 401 =200 /ldaplogin; # enable for Authelia #include /config/nginx/authelia-location.conf; include /config/nginx/proxy.conf; include /config/nginx/resolver.conf; set $upstream_app vaultwarden; set $upstream_port 80; set $upstream_proto http; proxy_pass $upstream_proto://$upstream_app:$upstream_port; } location ~ (/vaultwarden)?/admin { # enable the next two lines for http auth #auth_basic "Restricted"; #auth_basic_user_file /config/nginx/.htpasswd; # enable the next two lines for ldap auth #auth_request /auth; #error_page 401 =200 /ldaplogin; # enable for Authelia #include /config/nginx/authelia-location.conf; include /config/nginx/proxy.conf; include /config/nginx/resolver.conf; set $upstream_app vaultwarden; set $upstream_port 80; set $upstream_proto http; proxy_pass $upstream_proto://$upstream_app:$upstream_port; }
  7. Oui c'est une bonne solution dans des cas comme le tien. Alors oui, on dépend d'un tiers, mais au moins c'est fonctionnel et très simple à mettre en place.
  8. Quand ce ne sont pas des images Linuxserver c'est de suite beaucoup plus de chipotage 😄 Merci pour la découverte en tout cas !
  9. Sans .sample à la fin ? Pour theme-park je n'ai pas encore testé en auto-hébergé pour l'instant, mais franchement c'est sympa sur Deluge :
  10. Sympa ça ! Je ne connaissais pas, je vais tester 😊
  11. Ah merci je n'avais pas vu ! Je corrige 🙂
  12. Depuis le NAS tu peux exécuter n'importe quelle commande du conteneur : docker exec -it pihole pihole updatechecker Le premier "pihole" étant le nom de ton conteneur pihole, le deuxième faisant partie intégrante de la commande à proprement parler (pihole updatechecker). Voir 8-B-3 de https://www.nas-forum.com/forum/topic/65309-tuto-docker-introduction/
  13. Et pas d'erreur dans les logs ?
  14. Synology est plutôt clean sur ce point, il est possible de l'avoir gratuitement pour 3 NAS ou moins, ce qui couvre déjà la quasi intégralité des utilisateurs comme nous. Et c'est un vrai plus pour ceux qui gèrent un parc professionnel de NAS.
  15. Il aurait fallu aussi recréer le dossier de tête (pihole). Perso, en suivant exactement la procédure au-dessus, voilà ce que j'ai :
  16. Heu chez Plex l'authentification passe par leur serveurs pour les instances perso ? Je pensais que c'était totalement auto-hébergé ?
  17. @anorec Bon j'ai investigué. Alors le système de mapping fonctionne bien, même s'ils ne mappent que 2 users et qu'eux en utilisent plus que ça dans le conteneur, d'où le fait qu'on se retrouve avec encore quelques utilisateurs non nommés, mais heureusement ça ne semble pas poser problème pour l'écriture des fichiers. Optionnel : si tu as configuré des listes, des exceptions, etc... que tu souhaites récupérer, tu peux le faire en 2022.07 via Settings -> Teleporter -> Backup. Le mieux est donc de partir d'une installation vierge, créer un dossier pihole dans le dossier partagé docker via Filestation, et des sous-dossiers etc et dnsmasq.d. Ensuite on crée un utilisateur dédié à pihole dont les droits se limitent au dossier partagé docker. On donne la propriété du dossier pihole et ses enfants à l'utilisateur dédié (via Filestation) : Ensuite, ne plus monter comme je le fais dans le tutoriel le volume contenant les logs, en fait c'est inutile car il y a tous les outils nécessaires dans pihole même : Et on va ajouter les variables d'environnement pour mapper les uid/gid entre conteneur et hôte (je rappelle, en SSH on fait id <utilisateur> pour connaître son UID (>1026) et son GID (100 pour users) - PIHOLE_UID=1041 - PIHOLE_GID=100 - WEB_UID=1041 - WEB_GID=100 On peut maintenant créer le conteneur, la première fois les logs affichaient une erreur persistante : Starting lighttpd Stopping lighttpd lighttpd: no process found J'ai arrêté et redémarré le conteneur, pour l'instant plus une erreur, puis j'ai importé tous mes paramétrages via Settings -> Teleporter -> Restore (browse) J'ai récupéré mes groupes, mes whitelist ainsi que mes réglages (mais tous viennent du fichier compose dans mon cas). Car oui, pour information, tout (ou quasi) peut être configuré à la création du conteneur via les variables d'environnement mises à disposition, seules les plus importantes sont listées sur Github, mais dans la doc... 😄 : https://docs.pi-hole.net/ftldns/configfile/ Voilà, dis-moi si ça fonctionne bien chez toi, si oui, mon setup est reproductible et je mettrai à jour le tutoriel, en attendant je vais placer un avertissement concernant les risques liés à la 2022.08
  18. Via les virtual host ? Je veux bien que tu m'expliques alors. Car pour moi les virtual host de Webstation, c'est l'équivalent Apache des blocs "server" de Nginx mais ma connaissance d'Apache est quasi nulle. S'il y a moyen d'avoir Nginx sur les ports 80 et 443 du NAS sans se passer de Webstation et commencer à désinstaller/stopper des paquets du NAS je suis preneur. Mais à ma connaissance 80 est pris par Apache (ou Nginx si on le configure ainsi) et par Nginx sur le 443.
  19. @anorecRécemment, Pihole est exécuté par l'utilisateur "pihole", et ils ont mis à disposition des variables pour mapper cet utilisateur interne au conteneur à un utilisateur de l'hôte : Tu peux ajouter dans le fichier compose la variable DNSMASQ_USER=root pour revenir sur le fonctionnement classique. Et quand tu as le temps, faire le mapping sur un utilisateur non privilégié de DSM (mieux qu'utiliser root quand on nous en donne la possibilité). Chez moi je me rends compte que j'ai fait à un moment donné un chmod 777 sur le dossier pihole : Donc ça explique pourquoi je n'ai pas eu de problème. Du coup je vais de la semaine repartir sur un nouveau conteneur et dossier, avec le mapping, et vérifier si ça marche bien, et je mettrai le tutoriel à jour. Dis-moi si ce que j'ai suggéré arrange les choses de ton côté (et pour moi tu peux enlever les autorisations SYS_NICE et CHOWN).
  20. @Einsteinium D'une part parce que les ports 80 et 443 du NAS sont déjà utilisés. Et que je préfère ne pas toucher à DSM. D'autre part on pourrait se dire on map les ports 80 et 443 du NAS sur 10080 et 10443 par exemple et sur le modem/routeur on fait un NAT 80 -> 10080 du NAS et 10443 du NAS. De l'extérieur c'est transparent, mais si on veut utiliser les mêmes noms de domaine en interne qu'en externe on est coincé. En macvlan on règle ces deux problèmes, même si je reconnais que c'est plus facile en bridge. Le plus simple étant de mettre SWAG en bridge sur une machine dont les ports 80 et 443 sont libres (ou passer par une VM, mais ça revient peu ou prou à faire un conteneur en macvlan, avec en plus des ressources dédiées qui seront toujours trop importantes pour du Nginx qui ne consomme quasi rien).
  21. OK et bien des impressions d'écran plutôt. Avec les variables, les volumes, etc... Un fichier compose est bien plus pratique pour debugger des situations. 😃
  22. Il semblerait que Synology se reprenne enfin en main. Après tout ce temps c'est une bonne nouvelle, comme la synchro à la demande pour Drive sur périphériques Apple.
  23. Tu peux afficher ton fichier compose ?
  24. Salut @Litsip Je rencontre le même problème, je ne sais pas si tu as trouvé une solution depuis.
  25. Hello @anorec, Je viens de mettre à jour Pihole en 2022.8 sur mon serveur Debian et mon NAS (pour la redondance) et je n'ai aucun problème. J'ai regardé le log FTL par acquis de conscience et je vois des erreurs datant du 19, par contre depuis la màj à l'instant pour l'instant pas d'erreur : 2022-07-19 22:32:10: server.c.1513) server started (lighttpd/1.4.59) 2022-07-19 22:32:10: gw_backend.c.475) unlink /run/lighttpd/php.socket-0 after connect failed: Connection refused 2022-08-10 18:55:36: server.c.1513) server started (lighttpd/1.4.59) 2022-08-10 18:55:36: gw_backend.c.475) unlink /run/lighttpd/php.socket-0 after connect failed: Connection refused 2022-08-10 18:57:55: server.c.1513) server started (lighttpd/1.4.59) 2022-08-10 18:57:55: gw_backend.c.475) unlink /run/lighttpd/php.socket-0 after connect failed: Connection refused 2022-08-13 13:48:42: server.c.1513) server started (lighttpd/1.4.59) 2022-08-13 13:48:42: gw_backend.c.475) unlink /run/lighttpd/php.socket-0 after connect failed: Connection refused 2022-08-15 21:00:55: server.c.1513) server started (lighttpd/1.4.59) 2022-08-15 21:00:55: gw_backend.c.475) unlink /run/lighttpd/php.socket-0 after connect failed: Connection refused 2022-08-16 20:03:24: server.c.1513) server started (lighttpd/1.4.59) 2022-08-16 20:03:24: gw_backend.c.475) unlink /run/lighttpd/php.socket-0 after connect failed: Connection refused 2022-08-19 21:04:07: server.c.1513) server started (lighttpd/1.4.59) 2022-08-19 21:04:07: gw_backend.c.475) unlink /run/lighttpd/php.socket-0 after connect failed: Connection refused 2022-08-23 05:03:41: server.c.1513) server started (lighttpd/1.4.59) 2022-08-23 05:55:22: server.c.1513) server started (lighttpd/1.4.59) 2022-08-23 06:00:16: server.c.1513) server started (lighttpd/1.4.59) Vu que l'erreur est liée à localhost au sein du conteneur, je ne pense pas que ce soit un problème de configuration.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.