Aller au contenu

Lud

Membres
  • Compteur de contenus

    77
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

Tout ce qui a été posté par Lud

  1. Lud

    [TUTO] Docker : Introduction

    Merci @.Shad.. Je te réponds rapidement, pas trop de temps là. Pour les ACL, tout est détaillé si tu tapes : synoacltool -h Et l'équivalent du getfacl est synoacltool -get. Exemple : synoacltool -get /volume1/music
  2. Lud

    [TUTO] Docker : Introduction

    Un exemple : Voici les droits de mon dossier partagé "music" : d---------+ root root music Clairement, ce ne sont pas les permissions qui me laissent passer. Pour les ACL : user:<nom_utilisateur>:allow:r-x---a-R-c--:fd-- (level:0) Les ACL me laissent passer en lecture seule. Je vois ce que tu veux dire, mais il y a quelque chose qui me chiffonne. C'est juste que je n'arrive pas à mettre précisément le doigt dessus. ^^ Du point de vue de la sécurité, je ne comprends pas comment on peut s'affranchir des restrictions d'accès uniquement en récupérant l'UID et le GID d'un utilisateur avec privilèges. Si je mets les UID et GID de mon administrateur, ça veut dire que j'ai accès aux mêmes choses, mêmes droits de lecture/ écriture, sans avoir à préciser de mot de passe ?
  3. Lud

    [TUTO] Docker : Introduction

    Bonjour, Désolé d'avance si j'ai raté la réponse à ma question. ^^ Je cherche à comprendre pourquoi, lorsque je spécifie un couple PUID/PGID à un conteneur, l'application contenue peut accéder aux fichiers pour lesquels l'utilisateur en question a la permission d'accéder, mais sans spécifier le mot de passe de l'utilisateur PUID. Encore à l'instant, je viens de me configurer un conteneur Logitech Media Server (d'ailleurs, merci à toi @.Shad., tu m'as débloqué grâce à cette explication), et il a suffit que je spécifie un PUID et PGID d'un utilisateur existant pour accéder aux dossiers qui m'intéressaient. Normalement, dans le monde Unix/Linux, ce n'est pas possible si l'on ne précise pas le mot de passe associé. Là je sèche, je ne comprends pas le fonctionnement. Ou alors, ça voudrait dire que l'application prend mes droits administrateur de la session sous laquelle j'ai installé le conteneur, puis applique les droits associés au compte utilisateur spécifié dans l'application... Mais ça me paraît bizarre. Merci d'avance.
  4. Avec plaisir, j'ai bien galéré pour en arriver là. ^^ C'est en vrac, et mal présenté, donc si vous souhaitez des précisions, n'hésitez pas. Concernant cette ligne : C'est parce que mon DynHost OVH est paramétré avec la racine de mon domaine ndd1. Sinon à adapter en xxx.ndd1 bien sûr.
  5. C'est bon, c'est résolu grâce à kyodev, sur les forums d'OVH. Donc : - garder son ancien DynHost OVH déjà configuré pour son ndd1, ne pas toucher non plus à sa config DDNS sur le NAS - activer l'hébergement gratuit Start10M proposé avec le nom de domaine loué chez OVH si ce n'est pas déjà fait - placer dans le dossier "www" de cet hébergement ce ".htaccess" (redirection "non-www" vers "https://www.etc") RewriteEngine On ## no-www -> www RewriteCond %{HTTP_HOST} !^www\. RewriteRule ^ https://www.%{HTTP_HOST}%{REQUEST_URI} [R=301,L,NE,QSA] - réinitialiser "Zone DNS" OVH si on a mis le bazar - virer entrées "A" et "TXT" de "www.ndd2." dans "Zone DNS" - créer entrée "CNAME" depuis "www.ndd2." vers "ndd1." - puis, dans Hébergements / ndd2 / Multisite : SSL uniquement sur racine "ndd2", désactiver SSL sur "www.ndd2" (on va le configurer sur le NAS pour "www"), si demandé ou nécessaire, régénérer et/ou commander un certificat SSL - ensuite, sur le NAS : Panneau de configuration / Sécurité / Certificat / Ajouter / Ajouter un nouveau certificat Procurez-vous un certificat auprès de Let's Encrypt - Nom de domaine : www.ndd2 - Courrier électronique : user@email.fr Sélectionner le certificat créé / Configurer / Associer "www.ndd2" au certificat "www.ndd2" Si vous n'avez pas créé votre (vos virtual hosts), c'est le moment de le faire. Ma configuration : Web Station / Virtual Host : créer un virtual host - Basé sur le nom - Nom d'hôte : www.ndd2 - Port : cocher "80 / 443" - Racine du document : web/ndd2_sans_l'extension - Paramètres HTTPS : cocher "HSTS" / cocher "HTTP/2" - Serveur principal HTTP : "Nginx" - PHP : "Default Profile ( PHP 7.3 )" Et ça fonctionne. Sans "www", le .htaccess fait le boulot de la redirection en "https://www.etc" et le certificat SSL de l'hébergement web Start10M d'OVH est utilisé au départ, et celui de Let's Encrypt créé sur le Synology à l'arrivée. Avec "www", on arrive directement sur l'adresse IP associée au ndd1 vers lequel on a fait pointer notre CNAME. Certificat SSL Let's Encrypt créé sur le Synology utilisé. Et on est redirigé depuis "http://www.etc" vers "https://.www.etc" grâce à l'option "HSTS" du virtual host.
  6. J'ai un peu plus d'infos. En dégageant tous mes enregistrements DNS et en recréant le CNAME "ndd2." vers "ndd1.", j'ai enfin un message d'erreur équivoque : A CNAME RR for a root record is not allowed Ok, mais je veux bien faire un CNAME du type "dyn.ndd2." vers "ndd1.", ça passe. Mais je reste comme un fruit avec la racine de mon domaine ".ndd2", qui lui n'est renvoyé vers rien du tout... Comment je peux faire, proprement, pour dire à mon domaine racine de pointer vers son sous-domaine "dyn.ndd2." ? ------------------------------------------------------------------------------------------ Je ne sais pas si c'est une bonne solution, mais cela devrait fonctionner. J'ai fait : CNAME depuis "www.ndd2." vers "ndd1.". Redirection visible permanente (301) depuis "ndd2" vers "www.ndd2". ------------------------------------------------------------------------------------------ Ça ne fonctionne pas. Dès que je créé la redirection, une entrée de type A qui pointe vers l'adresse IP de l'hébergement OVH est automatiquement créée. Argh, ça fait une journée que je suis là-dessus, ça me soûle ! ^^ Personne n'a pu mettre en place ce genre de solution ? Ça ne me semblait pas si exotique que ça ? Sinon je fais du DDNS sur tous mes sites hébergés en passant par la configuration personnalisée. Mais ça me semble dommage et bizarre de ne pas pouvoir faire ça simplement au niveau des enregistrements DNS d'OVH.
  7. Ce qui fonctionne : Entrée CNAME dans la zone DNS de cname.nddd2. vers ndd1. Mais j'ai toujours le même problème, impossible de créer l'entrée CNAME de : ndd2. vers cname.ndd2.
  8. Ah, il y a un tuto ? Je vais chercher ça, merci. Les virtual hosts sont déjà en place et configurés. Trouvé, je regarde. Pour l'instant, pas sûr de voir comment ça dépatouille mon problème. En plus, j'ai déjà configuré un serveur DNS unbound sur mon routeur Ubiquiti, et à terme, je compte me monter un firewall OPNSense qui fera routeur et serveur DNS. ---------------------------------------------------------------------------------------------- Je détaille à nouveau ma problématique principale (pour le reste, je verrai plus tard, c'est moins urgent) : - un routeur FAI avec IP publique dynamique - Un NAS Synology en IP fixe - plusieurs noms de domaine loués chez OVH - chaque nom de domaine pointe vers un site web différent, chacun dans un sous-dossier de web/ sur le NAS - deux virtual hosts configurés pour chaque site web (avec et sans "www") - chaque site web doit bien être distinct des autres au niveau du référencement, nom de domaine affiché sur Internet... Je maîtrise pas mal de choses niveau réseau, mais là mon problème est la configuration des enregistrements DNS des noms de domaine. Pour le ndd1, pas de souci grâce à DynHost d'OVH et DDNS sur le DSM Synology. Le problème est que je ne peux pas créer de deuxième DDNS OVH sur le NAS, c'est refusé. Je cherche donc une solution alternative via les enregistrements DNS chez OVH, mais je patine.
  9. Oui, je vais tester. En fait, c'était pour éviter d'avoir 36 DDNS sur mon NAS qui renvoient tous la même IP chez OVH. J'ai déjà 3 sites (3 noms de domaines), et il risque d'y en avoir d'autres, je cherchais un moyen d'avoir une seule entrée DynHost, mais ce n'est peut-être pas faisable. Et surtout, je crois que j'avais déjà essayé et qu'OVH m'avait refusé la création car l'adresse IP était déjà enregistrée chez lui pour un autre DynHost. Je viens de refaire l'essai. Chez OVH, ça passe, le problème est sur le Synology. Dès que j'essaie de créer le DDNS et que je choisis "OVH", il m'indique : Vous ne pouvez définir qu'un seul nom d'hôte pour chaque fournisseur DDNS.
  10. Oui Jeff, c'est bien comme ça que c'est configuré. Je ne comprends pas ce que tu veux dire, Mic. Voici ce que j'ai. NDD1 : - pas d'enregistrement A, je l'avais supprimé lors de la mise en place de DynHost ; - DynHost sur mon IP publique et configuration DDNS sur mon NAS. NDD2 : - pas d'enregistrement A, je l'ai supprimé pour réutiliser le DynHost de NDD1 ; - et j'essaie de faire une zone DNS depuis NDD2 vers NDD1, puisque c'est la même adresse IP, mais lorsque j'essaie de créer ma zone DNS, j'obtiens un message d'erreur. Test de création : Zone DNS de type CNAME depuis "nomdedomaine2.fr." vers "nomdedomaine1.fr.". Message d'erreur obtenu : Le sous-domaine utilise déjà un enregistrement DNS. Vous ne pouvez pas enregistrer de champ CNAME en raison d'une incompatibilité. Supprimez les enregistrements existants pour ce sous-domaine, afin de pouvoir en ajouter un, de type CNAME.
  11. En fait, sur OVH, pour mon NDD1, j'ai : - la configuration DynHost qui pointe vers mon adresse IP publique, et qui est réactualisée régulièrement par DDNS sur mon NAS ; - la zone DNS de type A de NDD1 supprimée. Ça fonctionne. Donc je suppose, dis-moi si je me trompe, que pour mes autres NDD, je dois : - supprimer la zone DNS de type A des autres NDD ; - ajouter en entrée DNS dans la zone DNS de type CNAME depuis chaque autre NDD vers le NDD1.
  12. Bonjour daffy, Merci pour ta réponse. Lorsque tu écris "si plusieurs sites sur un même NAS", dans l'absolu, ils pourraient être sur plusieurs NAS, puisque l'adresse IP renvoyée par DDNS est la publique, non ? C'est exactement le genre de solution que je souhaite utiliser, un DDNS et des redirections, top ! Est-ce que tu pourrais préciser un peu plus ta config côté OVH s'il te plaît ? Est-ce que sur le NDD2 tu configures une redirection ou une zone DNS ? Vers le NDD1 alors ? (Qui lui-même a le DynHost) Et du coup, de quel type ? Merci encore ! Bonjour Jeff, Merci ! C'est ce que j'avais fait. Plusieurs domaines en fait, chaque site a son propre nom de domaine, chacun avec une finalité différente. Aucun souci de ce côté, je viens de finir de mettre ça en place. C'est juste la connexion de WordPress à la base de données MariaDB 10 qui m'a posé quelques problèmes, mais après quelques heures de lecture de StackOverFlow, j'ai fini par tout résoudre. 😄
  13. D'accord. Mon problème est surtout lié à mon adresse IP dynamique et le fait d'avoir plusieurs sites web sur le même NAS pour l'instant.
  14. Bonjour, Je pense que j'aurais dû poster ici plutôt que de créer un nouveau sujet : J'ai parcouru les différentes réponses de ce sujet, mais j'ai peut-être raté l'info qui m'intéresse en lisant en diagonale... En bref, je souhaite utiliser DynHost d'OVH et DDNS du DSM Synology pour plusieurs noms de domaines chez OVH qui renvoient chacun vers un site web différent sur un NAS. Il y a d'autres détails que j'ai expliqués dans mon post dont le lien est ci-dessus, mais c'est mon problème principal. L'idéal serait de n'avoir le dynamic host configuré qu'une seule fois et d'utiliser un autre moyen pour le réutiliser pour les autres noms de domaine. Mais je ne sais pas si ça peut être fait avec du CNAME ou autre. Merci d'avance.
  15. Bonjour, Je ne trouve pas de réponse à ma question. Je suis en train de rapatrier plusieurs sites Internet sur mon NAS Synology, chacun ayant leur propre nom de domaine (pas de sous-domaine utilisé non plus). J'utilise sans souci le service DynHost d'OVH avec la configuration DDNS sur un autre de mes NAS sans aucun problème, mais je sèche pour l'utilisation avec plusieurs noms de domaines qui redirigent chacun vers un site web différent. C'est principalement la raison de ce post. Deuxième point, je pense que je vais être obligé de placer tous mes sites web sur le même NAS, sinon ça risque de poser problème au niveau des ports de la box, des virtuals hosts et DynHost, non ? Merci à vous ! [Edit] Ah oui, précision. Pour simplifier le tout, j'ai certains noms de domaine sur un compte OVH, et d'autres sur un autre compte OVH... ^^
  16. Hello, Désolé si ça a déjà été dit, je n'ai pas lu tout le fil. Concernant l'utilisation d'un fichier de logs, je déconseille d'utiliser l'argument "-s". Ça précise la progression de la tâche, ce qui est bien pratique en ligne de commande, mais ça gonfle aussi le fichier de logs qui va rapidement atteindre plusieurs Go, carrément moins exploitable. Pour moi, c'est soit l'un, soit l'autre, mais pas l'argument "-s" et le fichier de logs en même temps. Deuxième point, autant l'argument "-c" est controversé : https://unix.stackexchange.com/a/202579 https://askubuntu.com/questions/59425/how-do-i-choose-the-right-parameters-when-using-badblocks/400685#400685 Il peut être intéressant d'utiliser le script en lien pour faire des tests. Ce site un peu ancien peut aussi donner un ordre d'idée des valeurs à essayer : https://www.pantz.org/software/badblocks/badblocksusage.html -> Total_RAM_en_Ko * 3 / 32 = valeur maximale de "-c". A répartir si plusieurs badblocks lancés en même temps. Autant je pense que l'argument "-b" est important à correctement préciser. Repérer votre disque : fdisk -l | grep "/dev/[sh]d[a-z]" Déterminer la taille de chaque secteur physique : hdparm -I /dev/sdX | grep -i physical Utiliser cette valeur après "-b". Exemples : Non destructif (Attention ! Pas sans danger pour les données !) : badblocks -nv -b 512 /dev/sdX > /volume1/toto/badblocks_sdX.log 2>&1 & badblocks -nv -b 512 -c 98304 /dev/sdX > /volume1/toto/badblocks_sdX.log 2>&1 & Destructif (plus long et "use" plus le disque) : badblocks -wv -b 512 /dev/sdX > /volume1/toto/badblocks_sdX.log 2>&1 & badblocks -wv -b 512 -c 98304 /dev/sdX > /volume1/toto/badblocks_sdX.log 2>&1 &
  17. Est-ce que c'est du style "Plus je pédale moins vite, et moins j'avance plus vite." ? Je ne pensais pas qu'à l'écriture, puisque ça ne représente qu'une petite partie de l'utilisation peer-to-peer, mais aussi à la lecture, la tête va se balader en permanence un peu partout aussi, non ?
  18. Bonjour, La question paraîtra peut-être bête pour certains, mais je m'interroge. J'ai un DS1812+ avec actuellement 6 disques de 4 To en RAID 5 (tous passés par badblocks). Et bientôt 8 disques de 4 To en RAID 6. Jusqu'à maintenant, j'utilisais un ou deux disques (de récup) dans les emplacements restants pour tout ce qui est lecture-écriture intensive peer-to-peer. Craignant d'user prématurément les disques dans le RAID 5. Très bientôt, les 8 emplacements seront occupés (en RAID 6) et je me demandais si cette sollicitation très régulière des disques du RAID peut accélérer significativement leur usure ? Bref, peer-to-peer à part ou sur le RAID 6 ? Sachant que le but est de conserver mes disques le plus longtemps possible (comme tout le monde ^^). Merci.
  19. Ah ok. Merci. dd terminé donc je n'ai pas pu tester uptime dans ce contexte, mais je referai ça à l'occasion. Je n'avais pas vu que tu avais complété ton message. Oui, effectivement. Je vais quand même faire un badblocks sur les deux disques, puis je testerai les outils constructeur.
  20. Effectivement, cela changera seulement quelque chose si c'est le fait d'avoir assemblé ces disques en JBOD qui est la cause des erreurs sur ces disques. Je ne vois pas de quoi tu parles, pourrais-tu détailler à quoi correspond cette valeur et où la trouver ? Merci ;) Effectivement pour la commande dd, je croyais qu'elle était terminée parce que je ne la voyais plus avec un "ps" en ssh, mais je la vois toujours via le moniteur de ressources du DSM.
  21. En fait le JBOD était bien pratique pour recycler des vieux disques pour du partage de torrents. Je ne voulais surtout pas risquer de péter mon RAID5 en lui faisant écrire, modifier, déplacer supprimer des données à tour de bras. ^^ A l'avenir, j'utiliserais des volumes d'un seul disque pour éviter ce genre de mésaventure... Je voulais profiter de mes vacances pour balancer tous les badblocks nécessaires qui prennent trois plombes. ^^ Bien vu pour l'histoire du RAID1 de 7 disques pour le DSM. Pour une écriture de zéros telle que je l'ai faite, sur un disque dur de 2 To, je dois en avoir pour une heure, deux à tout casser, je n'ai pas vérifié, mais ce n'est pas si long. Rien à voir avec un badblocks par exemple. En plus, j'ai vérifié la consommation mémoire et CPU, qui est très faible. Et en mémoire, j'ai 3 Go, pas précisé plus haut, c'est vrai. Concernant le fait de retirer les disques en erreur, je suis partagé. Dans l'absolu, tu as raison, mais je reste perplexe quand je vois que des disques qui n'ont jamais eu d'erreurs commencent à en avoir dès que je les utilise en JBOD. Les erreurs sont-elles réellement présentes ? Comment se fait-il que ce genre de choses arrive ? J'aimerais bien faire mon badblocks rapidement et voir ce qu'il me renvoie. C'est pour ça que j'aimerais bien le faire même si je ne suis pas encore rentré chez moi. ^^
  22. Bonjour, Pour la première fois depuis que j'ai des NAS Synology, mon DS1812+ s'est planté complètement hier soir. :( Je précise que je ne suis pas chez moi pour un mois, avec une connexion Internet moisie (téléphone en hotspot wi-fi tout en haut de la maison à un endroit précis où ça capte à peu près la 3G ^^). Bref... :P Matériel NAS Synology DS1812+ avec 7 disques durs : - 5 de 4 To en RAID 5 (tous passés par badblocks sans erreur) - 2 de 2 To anciennement en JBOD, récupérés d'un ancien NAS, l'un des deux a commencé à me générer des erreurs depuis qu'ils sont en JBOD, alors que pendant des années en RAID 1, jamais de problème. Pareil pour un autre disque 1 To, a commencé à me générer des erreurs peu après l'avoir mis en JBOD (je l'ai sorti du Syno celui-ci), on ne m'y reprendra plus, plus jamais de JBOD chez moi. Constat Hier soir, plantage complet du NAS, impossible de se connecter en web, ssh, ftp ou autre, comme si tous les services s'étaient arrêtés d'un coup. J'ai constaté qu'il était encore allumé, puisqu'un telnet vers les ports que j'utilise habituellement (modifiés, mais qui correspondent au port d'admin, port ssh, etc) me renvoyait bien des ports ouverts. Mais pas de ping, de ssh, etc. Et la page web lorsque je tentait d'afficher ma page web d'admin me renvoyait une page Synology "Page non trouvée". Bref, tout indiquait que le NAS était encore allumé, mais tous services éteints. Circonstances En fait, pas grand chose, comme j'avais des erreurs sur l'un de mes deux disques en JBOD, j'ai copié l'ensemble des données ailleurs, sauf certaines qui plantaient systématiquement ce volume lorsque j'essayais d'y toucher. Pareil si j'essayais de virer le dossier partagé qui les contiennent, impossible de le supprimer. Mais j'ai pu supprimer le volume JBOD créé sur ces deux disques. Une fois fait, je me suis connecté en ssh, et en prévision de lancer un badblocks sur les deux disques en parallèle, j'ai commencé par virer les informations de partition avec un : dd if=/dev/zero of=/dev/sdX bs=512 count=1 sur chacun des deux disques, puis une écriture de zéros sur les deux en même temps avec : dd if=/dev/zero of=/dev/sdX bs=1M & et c'est la seule chose qui était en cours au moment ou le NAS a planté. J'ai demandé à un voisin qui a la clé de chez moi de redémarrer mon NAS, je ne doutais pas que tout repartirait sans souci au redémarrage. Effectivement tout paraît fonctionnel. Logs Peu après le redémarrage, j'ai récupéré le dossier /var/log/ sans trop savoir où chercher (je suis plus réseaux que système ^^). Pour l'instant, le seul qui paraît à peu près intéressant est synoservice.log (plutôt verbeux d'ailleurs ^^). On voit que c'est la fête des services, qui s'arrêtent, démarrent, se mettent en pause, redémarrent, etc. Tout commence par : Aug 1 23:01:52 Syno scemd: service_third_party.c:87 synoservice: stop all packages with [volume] action ... J'avoue que je ne sais même pas à quoi correspond le service_third_party.c:87. Mais si une âme charitable veut bien me filer un coup de main pour trouver l'origine du problème (je n'ai pas trop envie que ça se reproduise :P ), je suis plus qu'intéressé ! Merci d'avance, et n'hésitez pas à demander d'autres infos si nécessaire ! ;) [Edit] Je suis en train de me dire que je n'ai pas redémarré le NAS après avoir supprimé le volume et lancé les commandes pour rincer les disques. Est-ce que ça pourrait venir de là ? Ça me surprendrait quand même... Surtout que c'est un volume créé récemment, le principal a toujours été sur le volume 1. En tout cas pour l'instant c'est l'explication la plus plausible. Le volume en question n'aurait pas été supprimé "proprement" par le DSM, et des adhérences de services seraient restées. Adhérences qui se sont senties mal lors de lorsque je leur ai écrit des zéros dessus. J'espère que ce n'est que ça, ça voudrait dire que ça ne se reproduira pas, et qu'il aurait suffit d'un reboot bien placé pour éviter les dégâts.
  23. Ah, super nouvelle ! Ça m'a permis de découvrir qu'il existe une tripotée de noms chez Intel !!! https://en.wikipedia.org/wiki/List_of_Intel_codenames Et encore, ils n'y sont pas tous ! Moi c'est celui-ci ^^ : https://sourceforge.net/projects/dsgpl/files/DSM 6.0 Tool Chains/Intel x86 Linux 3.10.77 (Cedarview)/
  24. D'accord, merci pour ces informations. :)
  25. Bonjour, Synology DS1812+ à jour (DSM 6.0-7321 update 3). J'ai essayé d'installer la version stable de ZNC, puis la version beta (1.6.0-11), et à chaque fois, à la fin de l'installation du paquet, j'ai le message d'erreur suivant qui s'affiche : Échec lors du lancement de la réparation du paquet. Et le paquet parait installé mais est non fonctionnel. J'ai testé avec un identifiant et mot de passe créés par moi pour cette application uniquement, puis avec admin / admin, mais toujours la même erreur. Merci d'avance pour votre aide. :)
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.