Aller au contenu

Amsonia

Membres
  • Compteur de contenus

    388
  • Inscription

  • Dernière visite

  • Jours gagnés

    2

Tout ce qui a été posté par Amsonia

  1. Bonjour à tous, Je me permets de déterrer ce fil car je suis malheureusement dans la même situation. Un de mes NAS est sur une ip fixe Free de l'ancienne mode : reconnue par tous comme une ip fixe, avec un rDNS fonctionnel. Mon autre serveur a récemment été basculé sur une nouvelle ip fixe par free, sur leur nouvelle infra : ip reconnue comme faisant partie d'un pool d'ip dynamiques et rDNS non fonctionnel (actif selon mon espace abonné free.fr mais non effectif dans la réalité). Je rencontre donc les mêmes problèmes que vous tous : emails refusés sur le réseau microsoft et ce, même si je fais passer tous mes mails par le serveur dont l'IP est "propre". Microsoft doit probablement voir que l'un de mes enregistrements MX pointe sur une IP "sale". Évidemment, mes enregistrements SPF, DKIM, DMARC sont a priori corrects (10/10 chez mail-tester.com) Bref, je recherche donc un relai SMTP performant, en Europe de l'ouest et peu cher. J'ai bien vu Mailjet mais 13,60€/mois pour envoyer environ 200 e-mails par mois, ça fait un peu cher.
  2. Bonjour @Thierry94, Sauf erreur de ma part, ce comportement est normal car les cookies de tes deux sessions ne sont pas séparés. Pour ouvrir x sessions en même temps, il te faut soit : - ouvrir chaque session dans un navigateur différent, - ouvrir une session en mode incognito et l'autre session en mode normal dans un seul un même navigateur - tirer avantage d'extensions d'isolation de cookies (pour firefox tu as https://addons.mozilla.org/fr/firefox/addon/temporary-containers/ par exemple) afin de créer autant de sessions que souhaité au sein d'un seul et unique navigateur
  3. @oracle7j'ai mal du m'exprimer ou tu as lu mon message en diagonale car je n'héberge rien chez ovh. Mes domaines sont gérés par OVH dans le sens où ils sont enregistrés chez OVH et c'est OVH qui gère ma zone DNS mais je n'utilise pas leurs services pour héberger quoi que ce soit : mon serveur mail principal est mon premier NAS, mon serveur de secours est mon second NAS. Je vais leur poser directement la question car je ne peux pas croire qu'une boîte d'ampleur mondiale comme OVH puisse violer le paramétrage MX de ses clients en toute impunité.
  4. Bonjour, Aujourd'hui, une question d'ordre général sur les emails : pourquoi certains email sont-ils routés sur le serveur désigné par un MX de priorité faible alors que le serveur principal (désigné par l'enregistrement MX à haute priorité) est actif ? En effet, 99% des emails arrivent sur le serveur principal mais j'ai quelques emails qui arrivent sur le serveur secondaire. Je précise que le serveur principal n'est pas surchargé, il est même largement plus puissant (DS920) que le secondaire (DS412+) et les deux serveurs disposent du même type de connectivité (ftth free en ip fixe complète). Le phénomène n'a lieu que sur un seul des cinq domaines susceptibles de recevoir des emails et ces emails mal routés proviennent toujours des mêmes expéditeurs. Je pense donc plus à un soucis de configuration chez les expéditeurs que chez moi mais je n'en suis pas certain et surtout cela reste embêtant pour mes utilisateurs. Les domaines sont tous hébergés chez OVH, je n'utilise pas de serveur DNS sur mes NAS. (peut-être devrais-je le faire ?) Les deux serveurs mails sont configurés de la même façon, leur configuration est correcte. La configuration du domaine chez OVH relative aux emails (enregistrements DKIM, SPF, DMARC) me semble également être correcte. En tout cas j'ai appliqué le même modèle pour tous mes domaines seul l'un d'entre eux supporte quelques emails mal routés. J'ai d'abord pensé à une question de cache DNS donc j'ai changé la valeur de TTL dans mes zones DNS. Je suis ainsi passé de la valeur par défaut chez OVH -qui était de 0 (??!)- à 3600s mais cela n'a rien changé. Peut-être devrais-je augmenter sensiblement la valeur de TTL ? (86400s soit 24 heures ?) Peut-être que les valeurs de priorités des enregistrements MX sont trop proches ? Actuellement, le serveur principal a une priorité de 10 tandis que le serveur secondaire a une priorité de 50. Ces valeurs sont communes à tous mes domaines. Des idées ?
  5. @PiwiLAbruti merci pour ta réponse, c'est bien ce que je pensais... En passant, je viens de voir que l'importation massive de mails de gmail/google workspace vers mailplus server via l'outil de migration, conserve les tags et leur hiérarchie 😉
  6. Bonjour, MailPlus permet l'utilisation de tags ou étiquette en bon français. C'est fort pratique mais, sauf erreur de ma part, ces tags ne sont visibles et utilisables que sur les applications web, iOS et Android de Synology MailPlus. Connaissez-vous un moyen de les faire apparaître et de les utiliser sur un client lourd fonctionnant en IMAP ?
  7. Je viens d'avoir un retour plus qu'encourageant de la part du support Synology, qui me dit reconnaître la fondamentale valeur ajouté que pourrait avoir l'implémentation de mon idée pour MailPlus server, et donc pour les produits Synology. On me dit avoir poussé mon idée à la fois à Paris et à Taiwan. Je dois maintenant me faire violence pour ne pas être trop optimiste.
  8. Alors apparemment cette question de la synchronisation de deux serveurs MailPlus par IMAP revient régulièrement...sans que Synology ne bouge 😞 C'est vraiment très dommage car tout est en place, il ne manque "que" la capacité de mettre une récurrence à la synchronisation. J'ai écrit au support mais, vu les messages restés sans réponse sur le forum officiel, j'ai bien peur que l'on me dise d'aller me faire cuire un œuf. Reste en effet la piste du cluster HA pour MailPlus Server, via implémentation de LDAP, qui est une procédure différente que le SHA qui, lui, vise tout le système.
  9. Merci @PiwiLAbrutije vais aller lire ça même si ça semble très lourd et relativement complexe. J'avais écarté la haute disponibilité selon synology car, si mes souvenirs sont corrects, cela nécessitait d'avoir deux serveurs strictement identiques, tant au niveau du contenu logiciel (même fichiers, mêmes paquets, mêmes configurations, mêmes versions de DSM) que matériel (même modèle de NAS, mêmes HDD, mêmes SSD). Autrement dit, ça rend impossible l'utilisation d'un vieux NAS comme appareil de secours Peut-êre que la haute dispo uniquement pour les mails est moins contraignante... Sinon, je t'assure que ma méthode est fonctionnelle, du moment que son exécution n'est pas unique, d'où le fait que je posais la question de son exécution récurrente et automatisée. Sur le fond, je lance une synchro IMAP de X vers Y et de Y vers X et les deux serveurs sont le miroir l'un de l'autre, avec les bons comptes, les bons mails, etc. Bref, mon truc fonctionne je te l'assure 🙂
  10. Bonjour @oracle7@Hamtary, je suis dans la même situation : je souhaite avoir un NAS en redondance du premier serveur MailPlus. Petite particularité, je souhaite que les utilisateurs puissent non seulement recevoir les mails quand le serveur principal est HS mais aussi y répondre, et y répondre correctement, ce qui sous-entend que les deux serveurs doivent disposer du même contenu. J'écrirai un tuto quand j'aurai tout fini, d'autant plus que je souhaite faire cela sur plusieurs domaines, mais pour l'instant je bute sur un truc : la migration des mails. Dans MailPlus Serveur (sous DSM7 ou DSM6), on peut créer des tâches de "Migration de messages", ce qui revient à faire une synchronisation IMAP à la demande. On peut programmer la tâche dans le futur mais on ne peut pas lui donner de récurrence. Ma question est toute simple : comment donner une récurrence à cette tâche ? La tâche en question n'apparaît pas dans le "planificateur de tâches" de DSM mais je ne doute pas que l'on puisse le faire à la main, via un enregistrement CRON par exemple. Il "suffit" de trouver les commandes exécutées par le système avec les bons arguments. Il "suffit"... Des idées pour y parvenir ?
  11. Bonjour, Je dispose de plusieurs domaines, chez OVH en l'occurrence, que je souhaitais faire pointer sur mon NAS. Pour le premier domaine, pas de soucis, je rentre la configuration DynOVH et le tour est joué mais quid pour les autres ? En effet, Synology interdit, pour je ne sais quelle obscure raison, d'utiliser plusieurs fois le même DynDNS. Je me retrouvais alors à faire un montage sale au niveau de la zone DNS de ce deuxième domaine pour qu'il pointe vers le serveur. Cela fonctionnait mais ce n'était pas propre et puis, illumination : le fournisseur DDNS personnalisé ! C'est extrêmement bête mais il suffit en effet de créer un "fournisseur personnalisé" de DDNS avec la bonne URL de requête vers OVH et le tour est joué. Le plus beau là-dedans, c'est que l'on peut créer plusieurs configurations personnalisées ! Donc si j'ai 6 domaines chez OVH, il me suffit d'utiliser le DynOVH de DSM pour le premier et puis de créer 5 "configurations personnalisées" sur la même URL et tout fonctionne proprement 🙂 Comme on le voit ci-dessus, l'adresse de requête est : https://www.ovh.com/nic/update?system=dyndns&hostname=__HOSTNAME__&myip=__MYIP__ On n'a pas à insérer les variables relatives à l'identifiant ni au mot de passe, en tout cas pas avec DynOVH. Ensuite, il suffit de sélectionner notre fournisseur "OVH-Custom" dans la liste pour ajouter un DDNS. La page de documentation OVH pour ce service : https://docs.ovh.com/fr/domains/utilisation-dynhost/
  12. @adelac tu veux mon retour d'expérience sur quoi en fait ? 🙂 Mon post https://www.nas-forum.com/forum/topic/59108-tuto-reverse-proxy/?do=findComment&comment=1319453680me semblait plutôt clair et complet sur le sujet..
  13. Merci @oracle7 pour ta réponse. Je suis allé faire un tour sur le tuto dont tu parlais et, effectivement, il me manquait l'étape de redirection par htaccess de http vers https...sauf que ça ne fonctionnait toujours pas. Réponse complète illustrée mà-bas :
  14. Amsonia

    [Tuto] Reverse Proxy

    Bonsoir, Je me permets d'apporter ma petite pierre à l'édifice, dont @Kawamashi pourra peut-être tirer avantage. Pardon d'avance si les informations ci-dessous sont déjà présentes dans les 60 pages de ce fil, j'avoue ne pas les avoir parcourues... Mon soucis portait sur la mise en place d'une redirection par htaccess de HTTP vers HTTPS, de sorte que lorsque l'on tape machin.domaine.fr (sans http://) on soit renvoyé vers https://machin.domaine.fr et non vers le DSM en HTTPS. Sous DSM7 donc, inutile apparemment de créer un "site web personnel", inutile également d'installer deux versions du serveur web Apache. Je me suis contenté d'installer la version la plus récente, soit la 2.4 à l'heure où j'écris ces lignes. J'ai utilisé ces lignes plutôt que celles proposées dans le tuto : RewriteEngine On RewriteCond %{HTTPS} off RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301] Mais surtout, j'ai réalisé que le serveur web utilisé par défaut était nginx et non Apache et, d'après ce que j'ai cru comprendre, Nginx ne sait pas lire les htaccess. Des redirections vers https sont bien possibles avec nginx mais il aurait apparemment fallu modifier des fichiers de configurations dans les entrailles du NAS. La seule manipulation que j'ai eu à faire fut donc de basculer de nginx à apache pour que la redirection soit effective. Enfin, et je pense que cela pourra intéresser du monde, mon reverse proxy et ma redirection fonctionne parfaitement avec le HSTS activé (que ce soit pour le domaine personnalisé de DSM ou pour les sous-domaines gérés par reverse proxy) ainsi qu'avec la redirection http vers https pour le DSM. Autrement dit, ça fonctionne avec cette configuration : J'espère avoir été relativement clair ! 🙂
  15. Bonjour à tous, J'utilise un domaine personnalisé (appelons-le domaine.fr) sur mon nas (sous DSM 7) ainsi que le proxy inversé pour gérer différents sous-domaines qui pointent sur différents services, des containers docker en l'occurrence. Globalement, tout fonctionne bien si ce n'est que je suis parfois renvoyé sur la page de connexion de DSM au lieu d'arriver sur le site demandé. Plus précisément : Cas1 : je demande "https://sub1.domaine.fr", ça fonctionne. Le NAS me sert le bon site. Cas 2 : je demande "http://sub1.domaine.fr", ça renvoie sur la page de connexion de DSM, et l'URL a été changée par "https://sub1.domaine.fr:2222 " où 2222 est mon port personnalisé de connexion DSM en https. Mon DSM est configuré pour être accédé à la racine du domaine, sans avoir à spécifier de port dans l'URL, soit https://domaine.fr Les ports 80 ; 443 ; 1111 et 2222 sont redirigés du routeur (freebox) vers le nas, c'est tout. Cas 3 : je demande "sub1.domaine.fr", le comportement est le même qu'au cas 2. Le comportement souhaité serait que j'arrive sur "https://sub1.domaine.fr" dans les trois cas. Voici des captures de la configuration
  16. Bonjour, Je me permets d'intervenir ici car je pense avoir le même besoin ou du moins la même volonté que @MilesTEG1. Pour moi, l'idée est de pouvoir déterminer très rapidement quel paquet ou quel container docker est responsable de tel ou tel trafic entrant ou sortant. Par exemple, si je note une hausse de l'upload dans le graphe du Moniteur d'activités, je souhaite savoir s'il s'agit de quelqu'un qui est en train de parcourir des photos/vidéo sur SynoPhotos, s'il s'agit d'un visionnage de film depuis le container Plex, si c'est mon container Transmission qui envoie des données, si quelqu'un est en train d'envoyer de gros mails (...) ou bien évidemment me mettre sur la piste d'une potentielle intrusion ; donc scénario où un étranger serait en train de sucer le serveur... Idem, dans l'autre sens, pour le trafic descendant évidemment. Dans mes souvenirs, Darkstat ne permet pas exactement de faire cela. Darkstat nous montre tout le trafic entrant et sortant, avec les IP responsables de ce trafic mais Darkstat ne nous indique rien concernant l'application qui serait la cible ou la source dudit trafic. D'un autre côté j'ai survolé le tuto https://www.nas-forum.com/forum/topic/63273-tuto-monitoring-nas-et-réseau/ mais, si ça semble très puissant (et très joli) je ne sais même pas si ce trio d'applications pourrait combler mes attentes. Idem concernant NetData
  17. Il y a probablement quelque chose que j'ai du faire à côté de la plaque car je ne vois pas le '(hw)' quand je force un transcodage. Je lis depuis http://app.plex.tv, sur le même LAN que celui où est le NAS. J'ai le plexpass si jamais cela a une importance quelconque. Voici le fichier que j'ai importé pour re-créer le container. On y voir bien les lignes nécessaires même si, comme dit, j'ai du les ajouter purement et simplement. plex.syno.json Comme dit précédemment, le json exporté ne contenait pas les lignes suivantes "ddsm_bind_share" : "", "devices" : [], Et comme on le voit ci-dessous, mon /dev/dri/renderD128 a bien été chmodé en 666. Par ailleurs, voici une capture d'écran de ma configuration de transcodage au sein de Plex : Enfin, voici une capture vidéo du moniteur de ressources CPU dans Plex : https://www.fromsmash.com/plex Le premier plateau correspond au lancement du transcodage du film puis on voit que ça se calme avec l'utilisation par Plex aux alentours de 30% de CPU (ligne verte). Le second plateau correspond au moment où j'ai fait un gros saut dans la lecture de la vidéo : le système a du se reconstituer un cache d'images transcodées, puis ça se calme à nouveau. Ce comportement correspond-il au transcodage matériel ?
  18. Bonjour, Je viens d'installer le container plex en suivant les instructions, ça fonctionne ; merci encore pour ce beau tutoriel. Néanmoins je bloque à l'étape d'activation du transcodage matériel. Je parviens sans problème à chmoder /dev/dri/renderD128 et le script est en place pour s'exécuter à chaque redémarrage par l'user root. En passant, j'ai aussi un /dev/dri/card0 ; à quoi ça correspond ? On doit lui appliquer un chmod 666 aussi ? En revanche, impossible de trouver trace de ces lignes dans mon fichier de conf .json. "ddsm_bind_share" : "", "devices" : [], J'ai donc pris le parti d'ajouter les lignes nécessaires juste après celle visant la priorité de cpu mais les lignes ne sont pas conservées par docker ! En effet, si j'importe le json, lance le container et re-exporte le json, mes éditions ont disparues et je me retrouve au point de départ 😞 A toutes fins utiles, j'attache le json tel qu'exporté et celui que j'importe. Je précise que je modifie le json soit via l'éditeur de texte de dsm soit via sublimetext donc, normalement, je n'importe pas de fichier foiré. plex.syno.json_edited plex.json_original
  19. Quand tu dis "distant", ça veut dire "via internet" (même au sein d'un VPN ?) ou même distant au sens d'un réseau physiquement local ? Sinon et pour revenir à mes questions, vous n'avez pas émis de contre-indication majeure à la capacité de fonctionnement de ce schéma d'infra. Mais est-ce fondamentalement la meilleure solution ? N'aurai-je pas intérêt à mettre les mails sur un R.Pi par exemple. La grande inconnue pour moi c'est vraiment la réactivité du système. Je n'ai pas envie de claquer ~1500€ pour des bouzins qui rament à lancer DS Vidéo et streamer sur la TV un film en 1080p ou bien à ouvrir plusieurs instances de MailPlus avec du torrent qui tourne h24 et des tâches hyperbackup qui crunchent toutes les nuits...
  20. Je pensais à un NAS double baie pour rester relativement peu cher par rapport à un (ou deux si réplication à distance) nouveaux NAS à 4 baies et surtout parce que, dans tous les cas, les CPU sont très faiblards donc je prends le parti de renouveler plus souvent par du petit matériel plutôt que de renouveler moins souvent par du matériel plus gros et cher. Quant à la piste des SSD, ce serait pour gagner en réactivité car, actuellement, l'affichage de DS Video met des plombes, l'utilisation de Mail Plus est quasiment impossible, etc. Les disques de mon 412+ grattent tout le temps pour pas grand chose, y compris quand je ne fais pas du torrent et qu'il n'y a que 1ou 2 personnes sur le serveur. Je vois ton point sur le fait de mettre une unité d'expansion en volume dédié ; c'est ce que je pensais faire d'ailleurs. Du coup, le fait que le 718+ puisse gérer un DX517 comme expansion du volume principal en plus de pouvoir le gérer comme nouveau volume, n'a effectivement que peu d'intérêt.
  21. Bonjour à tous, J'ai actuellement un DS410 et un DS412+ en des lieux distants. Le DS410 me sert aujourd'hui principalement à accueillir les sauvegardes et le DS412+ est mon matériel principal. Or ce dernier commence sérieusement à ramer pour mes usages et je songe à faire évoluer le tout, en partant sur du NAS et/ou du R.Pi ou équivalent et/ou du VPS OVH. Les besoins logiciels : serveur mail (MailPlus) pour au moins 4 personnes sur 2~3 domaines synoDrive ou équivalent vers et depuis une dizaines de devices (ordi, tablettes, smartphone...) suite bureautique serveur web (sites perso, agrégateur rss, etc.) serveur sftp/ssh moments photostation videostation ou équivalent audiostation torrent hyperbackup Besoins un peu moins importants : serveur vpn serveur dns Les contraintes de sécu : redondance (de données) locale redondance (de données et d'applications) distante J'ai symbolisé en vert les données et services qui seront sollicités le plus souvent, en rouge les données/services plus lourds et sollicités moins souvent, en orange le truc bâtard et en noir les outils admin. J'envisage de mettre le vert et le rouge chacun sur des machines dédiées. Par exemple machine principale : DS218+ ou DS718+ avec une paire de SSD 1To en RAID1 et boosté en RAM Cette machine gère le vert ainsi que l'applicatif du orange et le noir. machine de stockage : soit une extension type DX517 soit une reconversion de mes NAS actuels (DS410 et DS412+) qui stockeraient ainsi les films, les musiques, les photos archive : tout le rouge. Certaines de ces données seraient accédées pour du bittorrent (orange) mais l'application (transmission dans mon cas) serait installée sur le nas principal. Un truc comme cela (DS718+ lié à DS412+ d'un côté et DS718+ lié à DS410 de l'autre côté) me reviendrait apparemment à 1490€ ttc soit ~260€/an si l'on considère un renouvellement tous les cinq ans. Ce n'est pas insurmontable mais ce n'est quand même pas rien, surtout quand on voit que Syno délaisse le grand public pour aller vers le vrai pro et qu'en même temps on a toujours des cpu anémiques dans ces machines. D'où mes questions : Outre le prix, est-ce que la configuration décrite serait fonctionnelle selon vous ? Si oui au point précédent, et en prenant en compte le prix cette fois, pensez-vous mon idée soit la plus pertinente ou bien aurai-je intérêt, par exemple, à prendre deux R.Pi (pour failover distant) et à leur mettre YUNOHOST dessus pour tout ou partie de mes besoins rouge ? Autre idée de structuration ?
  22. Bonsoir à tous, J'ai du faire quelques malencontreuses modifications de permissions je ne sais où et résultat, j'ai mon photostation qui débloque partiellement. Par exemple, je ne télécharge qu'un fichier de 38 octets quand je souhaite télécharger une photo récemment sauvegardée automatiquement depuis mon smartphone. Autre exemple, la sauvegarde de mes photos sur un nas distant, via hyper backup ne fonctionne plus. Dernier symptôme dont j'ai pu me rendre compte : des vignettes grisées et des albums qui disparaissent alors que mon compte est admin. Je crois que j'ai du me mélanger les pinceaux sans le vouloir :-s Quelqu'un pourrait-il donc me dire quels sont les droits d'origine corrects au niveau des utilisateurs système et des utilisateurs humains pour : l'application photostation en elle-même le dossier partagé /volumeX/photo et ses sous-dossiers le dossier /volumeX/homes/user/photo/ et ses sous-dossiers Merci beaucoup !
  23. Les deux NAS n'ont pas d'IP fixes mais ce n'est pas le souci. Ça crashe bien avant le renouvellement des IP.
  24. La connexion du NAS source est stable. Celle du NAS destination également, c'est la connexion SSH qui timeout régulièrement, pas la connectivité internet en elle-même. Et je ne sais pas où trouver plus d'informations à ce sujet.
  25. J'ai donc résolu mon problème de vitesse mais reste toujours le souci des timeout. Voici ce que je trouve dans /var/log/messages du NAS_source quand ça plante : Nov 27 04:15:11 Goldorak rsync: [sender] io timeout after 600 seconds when processing (DOCUMENTAIRES/03 - AERO-SPATIAL/En.Quete.De.Vie.Extraterrestre.E01[ARTE]DOC.FRENCH.HDTV.XVID-JSTS.avi) -- exiting Nov 27 04:15:12 Goldorak synonetbkp: rsync_wrapper.cpp:704 Failed to execute rsync command. source=[/volume1/video/DOCUMENTAIRES], target=[admin@81.XXX.XXX.XXX::NetBackup/Goldorak_3/video/], ret=30 Nov 27 04:15:12 Goldorak synonetbkp: netbkp_upload_share_data.cpp:118 Failed to execute rsync command. Nov 27 04:15:12 Goldorak synonetbkp: netbkp_backup_data.cpp:52 SYNOBkpUploadCurrentShare() fail. Nov 27 04:15:12 Goldorak synonetbkp: backup.cpp:698 SYNOBkpBackupData() failed, err = 8 Nov 27 04:15:14 Goldorak synonetbkp: Backup task [Network Backup Set 3] completes with result [8]. Time spent: [4263 sec]. [A M P T] in Byte and Count Nov 27 04:15:14 Goldorak synonetbkp: size[804253608377, 721589334189, 0, 0] count[2643, 2131, 0, 0] dir[274, 238, 0, 0] reg[2643, 2131, 0, 0]
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.