Aller au contenu

Mic13710

Les Modos
  • Compteur de contenus

    11922
  • Inscription

  • Dernière visite

  • Jours gagnés

    177

Tout ce qui a été posté par Mic13710

  1. Mic13710

    Plein mais rien ???

    ???? Il nous faut des captures d'écran de votre gestionnaire de stockage si vous voulez qu'on comprenne.
  2. Je viens de faire le certificat pour mon ndd chez Gandi. L'obtention de la clé API est assez simple, encore faut-il trouver comment. Une fois connecté sur le compte, on clique en haut à droite pour aller dans les paramètres du compte. On clique sur "Gérer les Apps autorisées", Onglet "Sécurité". On génère une clé API qu'on sauvegarde pour l'utiliser dans : export GANDI_LIVEDNS_KEY="fdmlfsdklmfdkmqsdfk" C'est la seule clé dont on a besoin. Et pour créer le certificat : acme.sh --issue --keylength 4096 --dns dns_gandi_livedns -d mondomaine -d *.mondomaine Dans un premier temps, j'ai essayé d'utiliser le même conteneur que pour OVH, mais après la création du certificat, l'opération n'est pas allée jusqu'au bout. J'avais bien un dossier du nom de mon domaine dans le dossier Acme mais il était incomplet. Je l'ai supprimé pour ne pas être embêté pour la suite. J'ai créé un autre conteneur afin de séparer le traitement des deux ndd. J'ai toutefois utilisé le même json, pour ne pas avoir 2 instances acme qui tournent séparément. Ceci a eu pour but de recréer un autre dossier comme précédemment, mais cette fois, la génération du domaine s'est bien déroulée. Pour la suite, j'ai fait comme précédemment à savoir que je ne suis pas passé en ssh mais j'ai simplement utilisé le certificat pour en créer un nouveau directement dans DSM avec la clé et le certificat intermédiaire. La partie mise à jour automatique dans DSM a été faite de la même manière que pour le certificat précédent. Hormis l'obtention de la clé, la mise en oeuvre est encore plus courte que pour OVH car il n'y a qu'une valeur à indiquer pour l'API ai lieu de 3. J'ai du mettre moins de 10mn pour l'opération sur Docker. Reste plus qu'à surveiller le bon renouvellement et la mise à jour auto des deux certificats.
  3. Mic13710

    Erreur reconstruction SHR

    Il n'y a rien d'anormal dans votre groupe. Il y a bien la capacité totale, soit pour un SHR de 3x2 + 2x12 = 18To (1 disque de sécurisation), ce qui donne en réalité 16,4To
  4. Mic13710

    Suppression disques SHR ?

    firlin vous a expliqué qu'il n'était pas possible de supprimer des disques d'un raid ou shr. On peut toujours augmenter le nombre de disques, mais pas le diminuer. Vous avez 4 disques, votre SHR ne peut fonctionner qu'avec ces 4 disques.
  5. Mic13710

    Plein mais rien ???

    Si vous voulez qu'on comprenne, il faudrait commencer par nous donner les vues de votre gestionnaire de stockage.
  6. C'est bon pour le tuto jusqu'au bout avec un ndd chez OVH 😀 Au final, entre la création du certificat et le rajout de son renouvellement, il ne faut pas plus de 10 mn pour tout mettre en place. Je vais maintenant me lancer dans mon ndd chez Gandi. Je ne connais pas encore leur API.
  7. Je suis d'accord, mais ce n'est pas le nom du domaine qu'il faut mettre. C'est sa description qui est en fait le nom du certificat tel que le connait DSM.
  8. Bon, j'ai trouvé d'où vient l'erreur. Comme je ne veux renouveler qu'un seul certificat, je l'ai indiqué dans le script. Mais en fait, il ne faut pas indiquer le nom de domaine mais uniquement sa description dans DSM. A supposer que ma description soit "Mon certificat à moi", la ligne export SYNO_Certificate doit être égale = "Mon certificat à moi" J'ai fait cette modif et le certificat s'est renouvelé sans problème. A voir lors du prochain renouvellement si c'est OK. Voici le log : [Fri Oct 30 14:25:42 UTC 2020] Running cmd: deploy [Fri Oct 30 14:25:42 UTC 2020] Using config home:/acme.sh [Fri Oct 30 14:25:42 UTC 2020] default_acme_server [Fri Oct 30 14:25:42 UTC 2020] ACME_DIRECTORY='https://acme-v02.api.letsencrypt.org/directory' [Fri Oct 30 14:25:42 UTC 2020] DOMAIN_PATH='/acme.sh/mondomaine' [Fri Oct 30 14:25:42 UTC 2020] _deployApi='/root/.acme.sh/deploy/synology_dsm.sh' [Fri Oct 30 14:25:42 UTC 2020] _cdomain='mondomaine' [Fri Oct 30 14:25:42 UTC 2020] SYNO_Certificate='Mon certificat à moi' [Fri Oct 30 14:25:42 UTC 2020] _base_url='http://172.17.0.1:5000' [Fri Oct 30 14:25:42 UTC 2020] Logging into 172.17.0.1:5000 [Fri Oct 30 14:25:42 UTC 2020] GET [Fri Oct 30 14:25:42 UTC 2020] url='http://172.17.0.1:5000/webman/login.cgi?username=nomutilisateur&passwd=monmdp&enable_syno_token=yes&device_id=' [Fri Oct 30 14:25:42 UTC 2020] timeout= [Fri Oct 30 14:25:42 UTC 2020] _CURL='curl -L --silent --dump-header /acme.sh/http.header -g ' [Fri Oct 30 14:25:44 UTC 2020] ret='0' [Fri Oct 30 14:25:44 UTC 2020] token='xxxxxxxxxxxx' [Fri Oct 30 14:25:44 UTC 2020] Getting certificates in Synology DSM [Fri Oct 30 14:25:44 UTC 2020] POST [Fri Oct 30 14:25:44 UTC 2020] _post_url='http://172.17.0.1:5000/webapi/entry.cgi' [Fri Oct 30 14:25:44 UTC 2020] _CURL='curl -L --silent --dump-header /acme.sh/http.header -g ' [Fri Oct 30 14:25:44 UTC 2020] _ret='0' [Fri Oct 30 14:25:44 UTC 2020] Generate form POST request [Fri Oct 30 14:25:44 UTC 2020] Upload certificate to the Synology DSM [Fri Oct 30 14:25:44 UTC 2020] POST [Fri Oct 30 14:25:44 UTC 2020] _post_url='http://172.17.0.1:5000/webapi/entry.cgi?api=SYNO.Core.Certificate&method=import&version=1&SynoToken=xxxxxxxxxxxxx' [Fri Oct 30 14:25:44 UTC 2020] _CURL='curl -L --silent --dump-header /acme.sh/http.header -g ' [Fri Oct 30 14:26:50 UTC 2020] _ret='0' [Fri Oct 30 14:26:50 UTC 2020] http services were restarted [Fri Oct 30 14:26:50 UTC 2020] [1;32mSuccess[0m Edit : Je viens de vérifier mes certificats dans /usr/local/etc/certificate et je confirme que les maj se sont faites sans problème. Ca devrait donc être OK pour le renouvellement dans deux mois.
  9. Merci à tous les deux. Il y a un mieux. Le script se connecte bien avec le hostname mais il ne trouve pas le certificat. [Fri Oct 30 13:58:28 UTC 2020] Logging into 172.17.0.1:5000 [Fri Oct 30 13:58:29 UTC 2020] GET [Fri Oct 30 13:58:29 UTC 2020] url='http://172.17.0.1:5000/webman/login.cgi?username=monutilisateur&passwd=monmotdepasse&enable_syno_token=yes&device_id=' [Fri Oct 30 13:58:29 UTC 2020] timeout= [Fri Oct 30 13:58:29 UTC 2020] _CURL='curl -L --silent --dump-header /acme.sh/http.header -g ' [Fri Oct 30 13:58:30 UTC 2020] ret='0' [Fri Oct 30 13:58:30 UTC 2020] token='xxxxxxxxxxxxx' [Fri Oct 30 13:58:30 UTC 2020] Getting certificates in Synology DSM [Fri Oct 30 13:58:30 UTC 2020] POST [Fri Oct 30 13:58:30 UTC 2020] _post_url='http://172.17.0.1:5000/webapi/entry.cgi' [Fri Oct 30 13:58:30 UTC 2020] _CURL='curl -L --silent --dump-header /acme.sh/http.header -g ' [Fri Oct 30 13:58:31 UTC 2020] _ret='0' [Fri Oct 30 13:58:31 UTC 2020] Unable to find certificate: mondomaine and $SYNO_Create is not set [Fri Oct 30 13:58:31 UTC 2020] Error deploy for domain:mondomaine [Fri Oct 30 13:58:31 UTC 2020] Deploy error.
  10. C'est pas gagné. Tout d'abord il y a une erreur dans le tuto : il faut supprimer le "./" dans : ./acme.sh --deploy --home . -d "mydomain.com" --deploy-hook synology_dsm sinon il y a le message "access denied to acme.sh". acme.sh est dans la racine du dossier acme, on ne va pas le chercher plus loin. Ensuite, j'ai créé un compte admin en accès réduit et sans double authentification pour le renouvellement du certificat. Le process se lance mais ne peut aboutir car il n'arrive pas à se connecter au localhost:5000 [Fri Oct 30 10:40:20 UTC 2020] url='http://localhost:5000/webman/login.cgi?username=monusername&passwd=monmdp&enable_syno_token=yes&device_id=' [Fri Oct 30 10:40:20 UTC 2020] timeout= [Fri Oct 30 10:40:21 UTC 2020] _CURL='curl -L --silent --dump-header /acme.sh/http.header -g ' [Fri Oct 30 10:40:21 UTC 2020] Please refer to https://curl.haxx.se/libcurl/c/libcurl-errors.html for error code: 7 [Fri Oct 30 10:40:21 UTC 2020] ret='7' [Fri Oct 30 10:40:21 UTC 2020] token [Fri Oct 30 10:40:21 UTC 2020] Unable to authenticate to localhost:5000 using http. [Fri Oct 30 10:40:21 UTC 2020] Check your username and password. [Fri Oct 30 10:40:21 UTC 2020] Error deploy for domain:mondomaine [Fri Oct 30 10:40:21 UTC 2020] Deploy error. Je ne pense pas qu'il y ait un pb avec l'utilisateur qui a les droits admin.
  11. J'ai suivi le tuto et j'ai rencontré un problème pour accéder au terminal. La faute à la connexion à Docker via un ndd. En utilisant l'IP, pas de problème. Pour pouvoir utiliser un ndd, il faut paramétrer dans le reverse proxy le websocket du dit ndd. Merci @Einsteinium pour l'astuce. Une fois ce problème réglé, la création du certificat n'a pas pris plus de 5mn. Je n'ai pas fait l'installation via ssh comme indiqué mais j'ai simplement importé le certificat dans dsm. Reste à faire l'automatisation de l'installation.
  12. Bonjour, Tout d'abord, il est d'usage sur ce forum de passer par la section des présentations avant de poster. Certains y sont sensibles et ça permet de mieux vous connaître. Il n'est pas trop tard. Ensuite, la multiplication des messages n'est pas autorisée car elle sème la confusion. Je supprime votre message précédent et je déplace celui-ci dans la rubrique appropriée. Enfin, votre question relève d'un problème de réglage des droits. Je vous invite à consulter et à mettre en pratique les tutos mis à disposition sur le site, et surtout le plus important, celui qui concerne la sécurisation de nos NAS.
  13. Non, la clé est immuable. Le code change toutes les 30sec. Je reprends. Si la double authentification est active, on peut récupérer la clé en cliquant sur Perso dans le menu déroulant de l'utilisateur en haut à droite. Dans la page qui s'ouvre, on clique sur "Vérification en 2 étapes", puis 2 fois sur suivant pour afficher le QR code (dont on se fout) qui correspond à la clé OTP. En cliquant sur "Vous pouvez bla bla bla ...", on affiche cette fameuse clé secrète du compte utilisateur.
  14. J'ai édité mon message et j'explique comment faire.
  15. @oracle7 il est possible au moment de la création de la double étape de visualiser soit le QR code, soit la clé. A la création de la clé : En cliquant sur "Vous pouvez bla bla bla ...", la clé est affichée. Si la double authentification est déjà active, la clé qui s'affiche est celle du code actif, ce qui permet de la recopier dans un logiciel de mdp. L'inverse est aussi possible, c'est à dire qu'on peut très bien utiliser une ancienne clé qui fonctionnait par exemple avant le reset du NAS. On évite ainsi de remettre à jour la clé sur tous les supports OTP utilisés.
  16. La double authentification est basée sur le protocole OTP qui permet de créer des mdp à partir d'une clé et de la base temps universelle. La base temps est la même pour tous les serveurs de temps (NTP) qui sont synchronisés sur des horloges atomiques. C'est donc la clé qui est importante et c'est elle qu'il faut sauvegarder. Il est bien évident que les horloges PC, NAS, smartphone etc... doivent être synchronisées sur un serveur de temps pour que codes générés et attendus soient identiques. Ensuite, quel que soit le logiciel utilisé : Authy, KeeOTP, FreeOTP, Google Authenticator et bien d'autres, le code généré à partir de cette clé sera toujours le même si les horloges sont synchronisées. En conclusion, il faut toujours sauvegarder la clé qui est la seule qui permet de générer des codes identiques sur tous les logiciels OTP. Perso, j'utilise KeeOTP couplé à KeePASS sur mes PC, et FreeOTP sur mon smartphone et j'ai bien évidemment sauvegardé la clé sur mon logiciel de gestion de mdp (Keepass en l'occurence). Pas de Google Authenticator.
  17. @Nicolas31 Vous faites beaucoup de confusions entre connexions multi clients et mono client. Si votre NAS est capable de gérer 220Gb en E/S ne veut pas dire qu'il peut le faire sur un seul lien. Si l'agrégation permet d'obtenir ces débits c'est à la condition d'avoir plusieurs clients, mais chaque client ne pourra jamais dépasser le gigabit. Vous pouvez créer autant de connexions que vous voulez entre le NAS et votre PC, ça ne changerait rien : le PC n'utilisera qu'un seul lien vers votre NAS. Il n'y aura pas de répartition entre les liens. Par contre, le NAS en tant que serveur sera tout à fait capable de gérer plusieurs PC et obtenir de ce fait des débits E/S supérieurs au Gb du fait de l'agrégation qui permet de répartir les clients sur les liens existants. Mais il ne faut pas perdre de vue que chaque lien ne pourra jamais dépasser le débit propre au réseau, en l’occurrence le Gb.
  18. C'est ce que me tue à dire depuis le début, mais apparemment @Nicolas31 ne veut rien entendre et persiste à croire qu'il pourra dépasser le Gb sur son PC.
  19. Ca veut dire que votre disque 1 est HS ce qui a planté le groupe.
  20. Si vous le dites.... Extrait de https://fr.wikipedia.org/wiki/IEEE_802.3ad "Chaque flux réseau entre deux ordinateurs passera toujours par un seul port pour éviter les problèmes de réordonancement à l'arrivée. Par exemple une connexion iSCSI entre un serveur et une baie de disques via un groupe LACP utilisera toujours un seul port du début à la fin."
  21. Je suis désolé pour vous mais je vais être direct. RAID0 et un disque qui fonctionne mal, ne cherchez pas plus loin. Le diagnostic est on ne peut plus clair : votre groupe est HS et vos données sont perdues. Ce sont les joies du RAID0 (que nous ne recommandons pas ici sans de sérieuses sauvegardes).
  22. L'agrégation de lien ne double pas le débit mais la disponibilité. En clair, le transfert d'un client vers un autre client ne passe que par une et une seule branche. Ce n'est que lorsqu'une branche est occupé que le trafic emprunte l'autre branche. Autrement dit, votre montage n'est d'aucune utilité entre NAS et PC. L'agrégation n'a vraiment de sens que s'il y a de nombreux utilisateurs qui veulent accéder au NAS en même temps. Autant dire que ça n'arrive pratiquement jamais chez un particulier.
  23. C'était bien une erreur. Le prix est remonté à 530€.
  24. Mic13710

    dossiers fantomes ?

    Le fait qu'il ne soit pas utilisé ne veut pas dire qu'il ne l'a pas été. Même si les fichiers et dossiers sont supprimés, Drive conserve tous les fichiers et dossiers qui y ont été un jour ou l'autre. La meilleure manière de les supprimer si vous n'utilisez pas Drive (ou Cloudstation) c'est de le supprimer des paquets installés. Autres pistes : vous n'utiliseriez pas download station ? Je n'utilise pas mais je sais que ce paquet utilise beaucoup d'espace de stockage. Voir aussi les tailles des dossiers des enregistrements des caméras si vous utilisez Surveillance Station.
  25. Le code c'est temporaire. Mais tu as raison de dire qu'a ce prix ça vaut le coup. C'est surtout le prix sans promo qui me fait réagir. 56€ de moins que leur prix du neuf avec une perte de garantie de 18 mois, ça me laisse perplexe. Ce qui me laisse aussi perplexe, c'est le prix du neuf à 560€ alors qu'on le touche à 500€ sur Amazon. https://www.amazon.fr/Synology-Serveur-Baies-DS-420-Disque/dp/B088V71WGH?th=1 Ceci dit, vu les prix ailleurs, il s'agit peut-être d'une erreur chez Amazon
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.