Aller au contenu

TuringFan

Membres
  • Compteur de contenus

    388
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

Tout ce qui a été posté par TuringFan

  1. TuringFan

    [TUTO] DNS Server

    J'ai effectué la même manipulation sur plusieurs clients qui me donnent à chaque fois la même chose. En revanche mea culpa cette IP correspond bien à quelque chose : c'est la passerelle indiquée sur mon LAN et donc aussi son DNS. Dois-je changer cette config ? Je pensais que via cette passerrelle les clients de mon LAN passaient justement sur mon routeur qui les passaient ensuite sur ma livebox qui les passaient ensuite sur Internet. N'est ce pas cela ? Et je viens aussi de remarquer que j'avais bien configuré un DoH qui ne semble plus fonctionner ... J'imagine par ailleurs que quand le DoH est configuré alors les autres champs DNS sont ignorés et c'est le DoH qui prend le dessus non ? Je viens d'essayer avec un autre DoH et cela ne semble toujours pas fonctionner ... Une idée de ce qui pourrait clocher ?
  2. TuringFan

    [TUTO] DNS Server

    Premièrement merci pour votre aide. A noter que je ne suis volontairement pas intervenu sur mon réseau depuis mon post soit environ deux jours et que hier mon accès à internet via le wifi de mon routeur synology était d'abord non fonctionnel puis ensuite fonctionnel (sans action de ma part) et de nouveau non fonctionnel ce soir. Peut être une histoire de TTL ... @PiwiLAbruti voici la réponse à ta question (et un peu plus) Depuis le NAS en SSH (en tant que user admin mais non root) Instruction nslookup google.fr 94.140.14.14 Server: 94.140.14.14 Address: 94.140.14.14#53 Non-authoritative answer: Name: google.fr Address: 74.125.24.94 Name: google.fr Address: 2404:6800:4003:c03::5e Instruction nslookup google.fr (par curiosité) Server: 192.168.1.1 Address: 192.168.1.1#53 Non-authoritative answer: Name: google.fr Address: 216.58.214.163 Name: google.fr Address: 2a00:1450:4007:80e::2003 J'ai l'impression que c'est ma livebox qui prend le relai côté DNS puisque je ne précise aucun serveur à utiliser mais je n'obtiens alors pas la même IP publique de google.fr : est-ce normal ? Depuis un client PC Windows via le terminal (après un flushdns) Instruction nslookup google.fr 94.140.14.14 Serveur : dns.adguard-dns.com Address: 94.140.14.14 Réponse ne faisant pas autorité : Nom : google.fr Addresses: 2404:6800:4003:c03::5e 74.125.24.94 Instruction nslookup google.fr Serveur : UnKnown Address: 192.168.10.1 DNS request timed out. timeout was 2 seconds. DNS request timed out. timeout was 2 seconds. DNS request timed out. timeout was 2 seconds. DNS request timed out. timeout was 2 seconds. *** Le délai de la requête sur UnKnown est dépassé. J'ai visiblement un problème sur le serveur DNS assigné car au delà de s'appeler UnKnow je ne vois pas d'appareil avec cette adresse IP sur mon réseau ! C'est probablement lié à la remarque ci-dessous de @.Shad. pourtant sur mon interface SRM 192.168.1.1 apparait bien comme mon serveur DNS et cela semble fonctionner pour le NAS ... Je ne comprends pas pourquoi après avoir fait un flushdns mon client m'indique un IP locale de serveur DNS qui ne correspond pas à aux IP DNS renseignées dans l'interface SRM ? J'avais historiquement assigné les serveurs Résolveurs DNS ouverts | FDN - Fournisseur d'Accès à Internet associatif depuis 1992 soit : Puisque ma livebox semblait fonctionnelle quand j'ai détecté mon problème je pensais qu'en assignant son IP privée mon routeur utiliserait le même serveur DNS qu'elle et donc que cela fonctionnerait ce qui n'est visiblement pas le cas. Mon NAS passe par un DHCP sur mon routeur Synology mais j'ai assigné pour le client NAS spécifiquement une durée d'expiration illimité - in fine mon IP privée du NAS est donc fixe. D'ailleurs au passage : Quelle est la différence entre l'adresse du serveur DNS dans la section "interface principale" et les deux adresses dans la section "configurer manuellement DNS server" (cf. capture ci-dessous) ? Comment assigner un DoH ? Il me suffit de remplacer dans le champ l'adresse IP par "https://ns0.fdn.fr/dns-query" (toujours un serveur fdn) ?
  3. TuringFan

    [TUTO] DNS Server

    Bonjour, Je rencontre un problème inédit. Sans avoir été en mesure de le résoudre je requierts donc votre aide s'il vous plait. J'ai également créé un ticket chez Synology. Description de mon problème (en quelques mots) Ma connexions aux pages internet et pleinement fonctionnelle via ma livebox. En revanche me connectant à mon routeur Synology je n'arrive plus (c'était fonctionnel depuis plusieurs année) depuis hier matin environ à accéder aux pages internet et j'obtiens systématiquement le message d'erreur "ERR_NAME_NOT_RESOLVED" bien que tout semble au vert sur l'interface du Routeur et que le DNS indiqué soit celui de ma livebox. Je possède une configuration très similaire (configuration quasi identique et même routeur Synology) sur un autre site avec une box Red et rencontre le même problème ! Description de mon problème (en détails) A noter en préambule que ma configuration était pleinement fonctionnelle depuis plusieurs années et que je suis intervenu dessus uniquement à la suite de ce problème, un problème de configuration est donc probablement à exclure. J'ai un routeur Synology MR2200ac (adresse IP locale 192.168.1.2) qui est branché en DMZ derrière une livebox (adresse IP locale 192.168.1.1). J'avais configuré mon routeur Synology en personnalisant les serveurs DNS à utiliser pour passer par ceux de FDN (DNS préféré : 80.67.169.12 et DSN secondaire : 80.67.169.40) et depuis plusieurs années cela fonctionnait très bien. Mais depuis hier matin mon accès à des pages web ne semble plus fonctionner et j'obtiens systématiquement le message d'erreur "ERR_NAME_NOT_RESOLVED" dans mon navigateur. EN revanche mon DNS local semble fonctionnel car je peux par exemple atteindre mon NAS sur le LAN via son nom de domaine. J'ai dans un premier temps regardé si des erreurs de connexions apparaissaient dans l'interface SRM et tout semble au vert. Après avoir consulté le site de FDN le premier serveur DNS semble connaitre une panne majeure depuis plusieurs jours entrainant des opérations de maintenance d'une durée indéterminée. J'ai donc supprimé mes serveurs DNS personnalisés pour laisser le routeur assigner les valeurs par défaut (IP locale de la livebox). Même après avoir effectué cette réinitialisation aux valeurs par défaut des serveurs DNS et une vidange du cache DNS j'obtiens toujours le même message d'erreur sur les pages internet. L'adresse du serveur DNS semble correspondre à la passerelle de mon LAN (c'est à dire 192.168.10.1) comme on le voit par exemple sur DSM (l'interface de gestion du NAS Synology que j'ai en aval du Routeur Synology). Peut-être est-ce une erreur de ma part mais je pensais que l'adresse 192.168.10.1 faisait pointer vers mon Routeur Synology depuis mon LAN celui-ci faisant alors la passerelle vers la livebox qui est à la fois sa passerelle vers Internet et son serveur DNS. Ainsi par transitivité je pensais que cette configuration permettait d'exploiter le DNS de la livebox. Or en passant directement via ma livebox (en wifi) mon accès internet semble parfaitement fonctionnel avec une adresse DNS qui correspond à la livebox ce qui me fait penser que le problème est bien spécifique à mon routeur Synology ! Enfin, plus étonnant (ou alarmant) encore, je possède un autre routeur Synology sur un site distant avec une configuration très similaire voire quasi identique mais avec une box Red à la place de la livebox et je rencontre le même problème qui semble s'être déclenché à peu près en même temps ! A noter que j'ai concomitamment observé de nombreuses erreurs de connexions sur le DDNS (qui étaient j'imagine liée à mon problème de DNS) mais le DDNS semble finalement fonctionnel. Pouvez-vous svp m'aider à résoudre ce problème ? D'avance merci.
  4. Je comprends ton point mais de ce que je lis c'est Synology Photos qui demande des méta données spécifiques (différentes de Google Street View par exemple).
  5. Merci pour ta réponse @CyberFr, Vraisemblablement le drone n'applique pas les bonnes transformations sur le fichier car la photo n'est pas vue comme 360 dans la pellicule de mon iPhone. En revanche c'est nickel quand je lis la photo avec l'application Simpl360. Je voudrais juste faire la même chose que Simpl360 mais sur Synology Photos de sorte à ce que mes invités sur les albums partagés voient directement le 360° sans effeort ou manipulation spécifique. As tu une idée ?
  6. Bonjour à tous, Je fais parfois quelques photos 360° avec mon drone (DJI Fly mini 2) et je souhaiterais que lorsque je partage un album ces fichiers apparaissent directement en 360° pour les utilisateurs. Or ces photos ne sont pas directement reconnues et affichées en tant que 360° avec Synology Photos. Selon le support Synology un fichier sera uniquement marqué à 360 degrés si les métadonnées de la photo EXIF ou de la vidéo contiennent tous les formats à 360 degrés suivants : ProjectionType="equirectangular" FullPanoWidthPixels=CroppedAreaImageWidthPixels FullPanoHeightPixels=CroppedAreaImageHeightPixels Par ailleurs fichier ne sera pas marqué à 360 degrés si les métadonnées de la photo EXIF ou de la vidéo contiennent le format à 360 degrés suivant : UsePanoramaViewer="false" J'ai essayé plusieurs applications et logiciels pour modifier ces méta données mais je ne les vois jamais ! Connaitriez-vous une méthode (idéalement avec une application iOS ou un logiciel simple d'utilisation) pour appliquer ces métadonnées et ainsi afficher en 360° mes photos de drone dans Synology Photos ? Merci d'avance,
  7. TuringFan

    [TUTO] DNS Server

    Bonjour à tous, J'ai deux sites physiques distants avec des installations similaires dont le même nom de domaine et le même certificat et je ne parviens pas à joindre les services de mon premier site depuis le second bien qu'ils soient accessibles depuis d'autres réseaux LAN / WAN. Par exemple lorsque je souhaite accéder à Synology Drive (hébergé sur le NAS de mon site principal) : Aucun problème depuis le LAN de mon site principal Aucun problème depuis un accès VPN au LAN de mon site principal Aucun problème depuis le WAN -> En revanche impossible d'accéder à mon Drive depuis le LAN de mon site de backup. J'ai l'intuition que c'est le fait d'utiliser le même nom de domaine entraîne les clients à pointer au sein du même LAN (du site de backup) plutôt que de joindre un LAN distant(du site principal). Pouvez-vous svp m'aider ? Ci-dessous ma configuration : Registrar DDNS ndd.tld avec le routeur sur le site principal DDNS prenomnom.synology.me avec le routeur sur le site de backup drive.ndd.tld -> CNAME 0 ndd.tld vpn-backup-ipv6.ndd.tld -> AAAA 0 IPv6 routeur site backup Site principal NAS Synology qui héberge différents services dont Synology Drive NAS Synology qui héberge un reverse proxy qui pointe https://drive.ndd.tld:443 -> http://localhost:X Routeur Synology qui héberge un DNS local avec une zone ndd.tld dont les redirections sont: ndd.tld -> NS 86400 ns.ndd.tld rt.ndd.tld -> CNAME 86400 ns.tld.ndd drive.ndd.tld -> A 86400 @IP NAS site principal vpn-backup-ipv6.ndd.tld -> AAAA 86400 IPv6 routeur site backup Site backup NAS Synology qui héberge les backups du NAS principal Routeur Synology qui héberge un DNS local avec une zone ndd.tld dont les redirections sont : ndd.tld -> NS 86400 ns.ndd.tld rt-backup.ndd.tld -> A 86400 IP routeur site backup vpn-backup-ipv6.ndd.tld -> CNAME 86400 ns.ndd.tld
  8. Bonsoir @Einsteinium, Je ne retrouve pas ces éléments dans mon json (cf. ci-dessous pour le contenu de mon fichier). Peux tu stp m'aider ? Faut il utiliser ? "volume_bindings" : [ Merci d'avance, { "CapAdd" : [], "CapDrop" : [], "cmd" : "", "cpu_priority" : 50, "enable_publish_all_ports" : false, "enable_restart_policy" : true, "enable_service_portal" : null, "enabled" : true, "env_variables" : [ { "key" : "PATH", "value" : "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin" }, { "key" : "HOME", "value" : "/root" }, { "key" : "LANGUAGE", "value" : "en_US.UTF-8" }, { "key" : "LANG", "value" : "en_US.UTF-8" }, { "key" : "TERM", "value" : "xterm" }, { "key" : "S6_CMD_WAIT_FOR_SERVICES_MAXTIME", "value" : "0" }, { "key" : "S6_VERBOSITY", "value" : "1" }, { "key" : "S6_STAGE2_HOOK", "value" : "/docker-mods" }, { "key" : "NVIDIA_DRIVER_CAPABILITIES", "value" : "compute,video,utility" }, { "key" : "DEBIAN_FRONTEND", "value" : "noninteractive" }, { "key" : "PLEX_DOWNLOAD", "value" : "https://downloads.plex.tv/plex-media-server-new" }, { "key" : "PLEX_ARCH", "value" : "amd64" }, { "key" : "PLEX_MEDIA_SERVER_APPLICATION_SUPPORT_DIR", "value" : "/config/Library/Application Support" }, { "key" : "PLEX_MEDIA_SERVER_HOME", "value" : "/usr/lib/plexmediaserver" }, { "key" : "PLEX_MEDIA_SERVER_MAX_PLUGIN_PROCS", "value" : "6" }, { "key" : "PLEX_MEDIA_SERVER_USER", "value" : "abc" }, { "key" : "PLEX_MEDIA_SERVER_INFO_VENDOR", "value" : "Docker" }, { "key" : "PLEX_MEDIA_SERVER_INFO_DEVICE", "value" : "Docker Container (LinuxServer.io)" }, { "key" : "PGID", "value" : "100" }, { "key" : "PUID", "value" : "1046" }, { "key" : "VERSION", "value" : "latest" }, { "key" : "TZ", "value" : "Europe/Paris" } ], "exporting" : false, "id" : "***", "image" : "linuxserver/plex:latest", "is_ddsm" : false, "is_package" : false, "links" : [], "memory_limit" : 5368709120, "name" : "Plex", "network" : [ { "driver" : "host", "name" : "host" } ], "network_mode" : "host", "port_bindings" : [], "privileged" : false, "shortcut" : { "enable_shortcut" : false, "enable_status_page" : false, "enable_web_page" : false, "web_page_url" : "" }, "use_host_network" : true, "volume_bindings" : [ { "host_volume_file" : "/docker/Plex/config", "mount_point" : "/config", "type" : "rw" }, { "host_volume_file" : "/docker/Plex/data", "mount_point" : "/data", "type" : "rw" }, { "host_volume_file" : "/docker/Plex/transcode", "mount_point" : "/transcode", "type" : "rw" }, { "host_volume_file" : "/video/Films", "mount_point" : "/movies", "type" : "ro" }, { "host_volume_file" : "/video/Sagas", "mount_point" : "/sagas", "type" : "ro" }, { "host_volume_file" : "/video/Séries", "mount_point" : "/tv_shows", "type" : "ro" }, { "host_volume_file" : "/video/Documentaires", "mount_point" : "/documentaries", "type" : "ro" }, { "host_volume_file" : "/music", "mount_point" : "/music", "type" : "ro" } ] }
  9. Oui PS : je viens d'edit mon message car ça marche !
  10. Merci @MilesTEG1 il est bien en host ... Visiblement d'autres rencontrent le même problème plex token not written to preferences on first run · Issue #100 · linuxserver/docker-plex · GitHub Sans comprendre pourquoi j'ai suivi un des posts de cette page en utilisant http://<ip>/web/index.html et là ca a fonctionné !
  11. Bonjour @.Shad. et merci pour ton aide. J'ai essayé en me connectant via mon IPv4 et le port 32400 depuis le WAN et toujours le même écran qui m'indique d'obtenir Plex Media Server... D'ailleurs je ne comprends même pas le principe de cette erreur : en effet lors de ma connexion Plex m'indique bien qu'il s'agit d'une application hébergé sur mon serveur et pourtant il me propose après ma connexion d'obtenir PMS ... Un peu contre intuitif non ? Voici mes logs (j'ai remplacé le PUID / GUID avec des *). [migrations] started [migrations] no migrations found ------------------------------------- _ () | | ___ _ __ | | / __| | | / \ | | \__ \ | | | () | |_| |___/ |_| \__/ Brought to you by linuxserver.io ------------------------------------- To support LSIO projects visit: https://www.linuxserver.io/donate/ ------------------------------------- GID/UID ------------------------------------- User uid: **** User gid: *** ------------------------------------- **** Server is unclaimed, but no claim token has been set **** ##################################################### # Login via the webui at http://<ip>:32400/web # # and restart the docker, because there was no # # preference file found, possibly first startup. # ##################################################### [custom-init] No custom files found, skipping... Starting Plex Media Server. . . (you can ignore the libusb_init error) [ls.io-init] done. Error in command line:the argument for option '--serverUuid' should follow immediately after the equal sign Crash Uploader options (all are required): --directory arg Directory to scan for crash reports --serverUuid arg UUID of the server that crashed --userId arg User that owns this product --platform arg Platform string --platformVersion arg Platform version string --vendor arg Vendor string --device arg Device string --model arg Device model string --sentryUrl arg Sentry URL to upload to --sentryKey arg Sentry Key for the project --version arg Version of the product --allowRetries arg Whether we will allow retries Critical: libusb_init failed A quoi correspond la ligne **** Server is unclaimed, but no claim token has been set **** ? Le user NAS et les identifiants Plex pour log in n'ont bien aucun rapport ? Merci d'avance pour ton aide. PS : à noter que mon IPv6 est activée au cas où cela jouerait.
  12. C’est à dire ? Envoyé de mon iPhone en utilisant Tapatalk Je ne suis malheureusement pas assez compétent, à date, pour maîtriser cette méthode. As tu un bon titi à me conseiller ? Envoyé de mon iPhone en utilisant Tapatalk
  13. Bonsoir @_DR64_, Oui j'ai essayé et j'arrive sur un message d'erreur qui vient peut être du fait, qu'en dehors de mes accès via reverse proxy, les accès sur mon NAS sont limités à du HTTPS depuis des IP LAN / VPN uniquement ? C'est bien le cas. Pas besoin de ce dossier chez moi donc. En ligne avec toi C'est bien ce que j'ai fait : je fais tourner un conteneur sur un docker installé manuellement. Mais je reste bloqué : quand je souhaite visualiser mes media le client Plex web fait comme si le serveur n'était pas installé ... As tu une idée ?
  14. Bonjour @Einsteinium, Mon problème Je viens de suivre ton tuto qui semble super cool mais malheureusement mon client web Plex fait comme si mon serveur n'était pas installé. Sais tu ce qui pourrait bloquer ? Ma configuration NAS DS418play DSM 7.1.1-42962 Update 1 NAS avec IPv4 activée / IPv6 activée Accès via reverse proxy + DNS registrar + DNS local : https://plex.ndd.tld:443 -> https://localhost:32400 Après test sur ce site https://plex.ndd.tld pointe bien vers une IPv4 Conteneur en host Captures d'écran ci-dessous des paramètres docker et droits du user dédié "Plex" Captures docker Le nom des variables est il bien le bon (car ta capture indique "PGID et non "PUID") ? Captures DSM Autres questions A quoi sert ton dossier certificat ?
  15. @oracle7 Tu m’avais effectivement répondu. J’ai vu ton MP après et j’ai oublié d’éditer ce message. Pardon pour la redondance. Concernant l’arrêt du docker ok c’est noté. Merci Envoyé de mon iPhone en utilisant Tapatalk
  16. Hello @oracle7, As tu trouvé une méthode pour déployer automatiquement sur tous tes appareils (dont les routeurs) ? @oracle7 et @Riddox sauriez-vous comment résoudre ce problème ? Merci d'avance,
  17. @maxou56 Merci pour tes réponses et pardon pour le retour tardif (j'ai apparemment mal paramétré les notification du forum). Je n'ai pas accès à l'explorateur de version mais à tous les fichiers sous-jacents : j'imagine donc qu'on peut aller y lire les informations après décompression ? C'est justement contre ce risque que je veux me protéger : car si je comprends bien sans chiffrement d'un dossier celui-ci pourrait être lu en clair (i) après reset du NAS et reparamétrage du mot de passe admin ou (ii) sur un autre NAS dont on a les droits admin. Est-ce bien cela ? Autre question : sur mon NAS principal certain de mes dossiers sont chiffrés mais j'imagine que ce chiffrement n'est pas conservé sur le backup puisqu'au moment de la sauvegarde ils sont "montés" donc "déchiffrés". Est-ce bien cela ? Je ne suis pas certain de comprendre pourrais tu stp m'expliquer la différence entre le chiffrement du dossier directement sur le NAS de backup et le chiffrement côté client demandé depuis l'émetteur de la tache de sauvegarde (qui si je comprends bien doit également chiffrer la cible de la sauvegarde) ? Super interessant, je ne savais pas. Est-il possible de chiffrer les enregistrements directement sur mon NAS de sauvegarde (en passant par le WAN pour atteindre un autre LAN que les caméras) et non sur mon NAS principal (sur le même LAN que mes caméras) ? En effet en enregistrant sur le NAS principal si un voleur le dérobe, le NAS probablement pas encore sauvegardé les images qui montrent ce vol et je n'y aurais donc pas accès pour les utiliser ensuite auprès de mon assurance ...
  18. Bonjour @maxou56, Je me permets de revenir vers toi à ce sujet car j'ai implémenté ma stratégie de sauvegarde. Ma configuration Je possède un NAS principal sur lequel est installé Hyper Backup. J'ai configuré sur ce NAS principal un backup quotidien vers un NAS de backup distant (autre LAN). J'ai paramétré ma tâche de backup pour avoir une authentification via (i) un utilisateur dédié (nommé "User_backup"), avoir (ii) un chiffrement du transport et (iii) un chiffrement coté client. Sur mon NAS de backup le dossier partagé destination de la tache de backup (nommé "Backup_basic") est non chiffré. Mes observations Lorsque je me connecte sur mon NAS principal et accède à Hyper Backup je peux explorer ma sauvegarde à distance uniquement après avoir renseigné ma clé de chiffrement coté client. Lorsque je me connecte sur mon NAS de backup (client de ma tâche de backup) via le compte admin (accès au dossier partagé "Backup_basic" et à l'application Hyper Backup Vault) je peux explorer ma sauvegarde locale uniquement après avoir renseigné ma clé de chiffrement coté client. En revanche lorsque je me connecte sur mon NAS de backup (client de ma tâche de backup) via le compte User_backup (utilisateur utilisé pour l'authentification de ma tâche de backup) je peux explorer ma sauvegarde locale en clair via files station sans avoir renseigné ma clé de chiffrement coté client ! Mes questions Pourquoi n'ai-je pas besoin de renseigner ma clé de chiffrement pour explorer ma sauvegarde en me connectant avec mon User_backup ? Comment empêcher ce comportement et systématiquement demander une clé de chiffrement pour lire la sauvergarde (notamment en cas d'accès physique au volume et/ou en cas de mot de passe corrompu de l'utilisateur User_backup) ? Dois-je, en plus du chiffrement du transport et du chiffrement côté client, chiffrer le dossier partagé destination de la tache de sauvegarde ? PS Je crois par ailleurs comprendre que DSM 7.2 devrait prévoir une nouvelle fonctionnalité de chiffrement d'un volume entier ce qui devrait être top car de mémoire certain dossier partagés sont à date non chiffrables (Surveillance Station, MailPlus, etc.).
  19. Bonjour @d_mu, Je ne suis pas certain de bien comprendre ton problème mais le dynhost est une technologie, cela permet à ton appareil (NAS, Routeur, etc.) d'indiquer à ton Registrar (OVH, etc.) ton IP externe : la plupart des FAI ne fournissent en effet pas d'IP externe statiques (l'IP est généralement modifiée au redémarrage de ta box par exemple). Bref le domaine que tu dois indiquer est celui que tu as acheté auprès de ton registrar ou que tu as via Synology. Sauf si tu as explicitement indiqué "dynhost" dans ton nom de domaine a priori tu n'en as pas besoin. Concernant ta connexion non sécurisée, je ne suis pas assez sachant pour t'aider mais je te conseille d'essayer de te connecter depuis un autre ordinateur et/ou autre navigateur pour voir si le problème persiste ou non. C'est peut être simplement que ton certificat est expiré (dans ce cas ton NAS te l'indique explicitement dans le menu dédié au certificats). Bonne journée,
  20. Bonjour à tous, Je me permets de poster ici mon retour d'expérience sur ce tuto. Voici ce que je crois comprendre On utilise Docker pour faire tourner en continue une image : en gros cela sert à faire tourner un programme (l'image) en s'affranchissant de l'environnement (notamment des différentes versions de DSM). L'image que l'on va exécuter va utiliser le protocole ACME et une API avec notre registrar (ici OVH) pour gérer notre certificat. L'exécution quotidienne (ici à 5h00) d'une tache va permettre de d'éteindre le docker contenant l'image ACME, de télécharger la dernière version puis de redémarrer le conteneur. On va ensuite initialiser le processus en (i) créant un certificat puis (ii) en le déployant. Ces deux opérations sont faites via du code SSH ou de façon équivalente en lançant ponctuellement une tache qui contient ce code via l'utilisateur root. Le nombre de création de certificat est limité par période de 7 jours glissants et les certificats ont une durée de vie de 3 mois. Est-ce correct ? Voici mes questions Est-ce que c'est l'image ACME qui qui se charge de vérifier la date d'expiration du certificat ? Est-ce que c'est l'image ACME qui qui se charge, en plus de créer un nouveau certificat, de le déployer ? Bug #1 Comme @Riddox je reçois à chaque exécution de ma tache quotidienne un message qui m'indique que "le conteneur Docker Acme s'est arrêté de manière inattendue". Savez-vous comment résoudre ce problème ? Bug #2 Comme @oracle7 (i) mon fichier header reste vide et (ii) mon déploiement automatique via la tache ne semble pas fonctionner. Voici ce que j'ai dans mes logs : [Mon Dec 19 15:26:54 UTC 2022] Running cmd: deploy [Mon Dec 19 15:26:54 UTC 2022] Using config home:/acme.sh [Mon Dec 19 15:26:54 UTC 2022] default_acme_server='https://acme-v02.api.letsencrypt.org/directory' [Mon Dec 19 15:26:54 UTC 2022] ACME_DIRECTORY='https://acme-v02.api.letsencrypt.org/directory' [Mon Dec 19 15:26:54 UTC 2022] DOMAIN_PATH='/acme.sh/ndd.tld' [Mon Dec 19 15:26:54 UTC 2022] _deployApi='/root/.acme.sh/deploy/synology_dsm.sh' [Mon Dec 19 15:26:54 UTC 2022] _cdomain='ndd.tld' [Mon Dec 19 15:26:54 UTC 2022] SYNO_Certificate='ACMEWilcardndd.tld' [Mon Dec 19 15:26:54 UTC 2022] _base_url='http://---.---.--.--:5000' [Mon Dec 19 15:26:54 UTC 2022] Getting API version [Mon Dec 19 15:26:54 UTC 2022] GET [Mon Dec 19 15:26:54 UTC 2022] url='http://---.---.--.--:5000/webapi/query.cgi?api=SYNO.API.Info&version=1&method=query&query=SYNO.API.Auth' [Mon Dec 19 15:26:54 UTC 2022] timeout= [Mon Dec 19 15:26:54 UTC 2022] _CURL='curl --silent --dump-header /acme.sh/http.header -L ' [Mon Dec 19 15:29:02 UTC 2022] Please refer to https://curl.haxx.se/libcurl/c/libcurl-errors.html for error code: 28 [Mon Dec 19 15:29:02 UTC 2022] ret='28' [Mon Dec 19 15:29:02 UTC 2022] Logging into ---.---.--.--:5000 [Mon Dec 19 15:29:02 UTC 2022] POST [Mon Dec 19 15:29:02 UTC 2022] _post_url='http://---.---.--.--:5000/webapi/auth.cgi?enable_syno_token=yes' [Mon Dec 19 15:29:02 UTC 2022] _CURL='curl --silent --dump-header /acme.sh/http.header -L ' Selon cette page mon erreur (28) est une erreur de time out. Savez-vous comment résoudre ce problème ? Merci d'avance,
  21. @limannzerga, Pardon mais je ne serai pas d'une grande aide. J'ai désinstallé download sans jamais avoir réussi à le faire automatiquement fonctionner en client VPN.
  22. Bonjour à tous, Pour info j'ai monté mon réseau de backup ce WE et je suis tombé sur un os : ce réseau accès à internet via le FAI Red by SFR qui fourni une box qui ne premter pas une bonne gestion de l'IPv4, j'ai donc été obligé de passer par de l'IPv6. J'ai aujourd'hui accès à ce second réseau via un SSL VPN parfaitement fonctionnel (accès Box, SRM et DSM) mais je ne parviens toujours pas à connecter mon NAS principal à mon NAS de backup via Hyper Backup. J'ai expliqué mon problème ici. Je suis preneur de votre aide si vous avez des idées ... Merci d'avance,
  23. Bonjour, Je rencontre un problème similaire et je suis preneur de votre aide. Contexte Je souhaite utiliser Hyper Backup pour sauvegarder mon NAS "principal" sur un NAS "backup" (comme expliqué ici). Ce second NAS est sur un réseau distant dont le FAI est Red by SFR. La box NB6 fournie par Red by SFR ne propose pas une gestion complète de l'IPv4 (pas de DMZ, pas de DHCP, pas de pare-feu, etc.) et je suis donc obligé de passer par le l'IPv6. J'ai configuré un VPN sur le routeur du réseau distant et je parviens à m'y connecter depuis le LAN de mon NAS principal ou le WAN. Ce VPN me donne également accès à (i) l'interface de gestion de la box Red by SFR et (ii) le DSM de mon NAS backup. Questions Il semble impossible d’activer l'IPv6 sur le routeur du réseau backup : la valeur du préfixe reste vide et n'est pas pré-renseignée (comme c'est le cas sur mon réseau principal avec une Livebox 5) : comment faire pour activer IPv6 sur le réseau local backup ? Mon NAS backup (monté derrière ce routeur) affiche néanmoins une adresse IPv6 et le ping via ce site fonctionne : est-ce normal ? Mon NAS principal ne parvient pas à se connecter sur l'IPv6 du NAS backup via Hyper Backup : comment faire ? Ma configuration Merci d'avance pour votre aide.
  24. Merci @.Shad. et @PiwiLAbruti
  25. Bonjour @Einsteinium, Désolé de t'embêter avec ça mais j'ai cherché sans trouver de solution (y compris du support OVH qui ne s'occupe pas des sujets API) : comment supprimer des clés API chez OVH ? J'en ai créé deux par erreur. Cordialement,
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.