Aller au contenu

MilesTEG1

Membres
  • Compteur de contenus

    2942
  • Inscription

  • Dernière visite

  • Jours gagnés

    76

Tout ce qui a été posté par MilesTEG1

  1. Ok, c'est bien ce que j'avais compris après coup 😆 Sinon pour phpMyAdmin, je pense que je peux m'en passer, j'ai vu dans un sujet anglais qu'on pouvait accéder à la base de donnée via DBeaver depuis un ordinateur. Je vais tenter ainsi. Par contre, pour mariaDB, je me demande si je vais pas utiliser une image/conteneur Docker plutôt... ( linuxserver/mariadb ) (j'ai vu dans cette discussion que c'était faisable Par contre je ne peux pas faire ça avec le conteneur de mariaDB... j'ai déjà un bridge, et je ne peux ni l'enlever ni changer quoique ce soit, si ce n'est passer en host.
  2. Bon j'ai commencé à installer NextCloud 🙂 J'ai suivi ton tuto (et donc aussi celui-là https://www.synoforum.com/resources/nextcloud-the-self-hosted-productivity-platform-that-keeps-you-in-control.32/ car les deux se rejoingnent) qui explique bien ce qui est à faire et pourquoi. J'ai juste créé un utilisateur dédié pour le conteneur en cours, qui a un UID différent (dont je sais récupérer le GUID ;)) J'ai ensuite paramétré le conteneur avec les ports de connexions HTTP et HTTPS souhaités (par exemple 8080 et 4443), le mode réseau bridge, les PUID et GUID et TZ, les chemins d'accès ( /docker/nextcloud/data et /docker/nextcloud/config ) [j'ai mis mon utilisateur docker en propriétaire du dossier NextCloud]. Le conteneur se lance bien sans soucis. Mais quand j'essaye d'accéder avec http://192.168.0.10:8080, je suis redirigé sur https://192.168.0.10 et j'obtiens ceci : Hmmm.... si j'essaye d'accéder avec https://192.168.0.10:4443 j'ai ceci : Là je me dis que ça ne va pas passer en local... enfin du moins pas avec Edge (je suis sous macOS là) car il n'y a pas moyen de passer outre en ajoutant une exception... J'essaye avec Safari, et moyennant la même alerte de sécurité, j'ai pu consulter la page et j'obtiens bien : Je tente aussi en passant par mon domaine : https://nextcloud.monnas.monndd.ovh pour lequel j'ai créé une entrée dans le reverse-proxy du NAS pour rediriger vers le port HTTPS 4443 de localhost. Et ça fonctionne nickel. Mais si je redirige sur le port HTTP 8080 de localhost ça ne fonctionne plus... Je me demande si NextCloud ne fonctionne pas uniquement avec un port HTTPS... Et en regardant la page de l'image docker : Il semble que le port HTTP ne soit pas une option... Bref... maintenant je vais pouvoir continuer l'installation de NextCloud 🙂 Je reviendrais si j'ai un soucis ^^ Faut installer phpMyAdmin aussi ?
  3. Je l'ai en effet lu ton tuto ^^ Bien rédigé. Il est transposable si facilement pour NextCloud ? (je ne sais vraiment pas encore utilisé Docker comme je sais faire d'autres choses avec mon nas ^^)
  4. Ok merci 🙂 C'est une raison parfaite pour le choisir en effet 🙂 Faut que je trouve un tuto d'installation 😉 Edit : je suis un noob avec docker au fait ^^ j'ai un nas compatible avec depuis juste une semaine et quelques ^^ On peut faire confiance à la source linuxserver/nextcloud ? MariadB, je l'installe séparément dans docker ? ou bien avec un paquet DSM ?
  5. Ok merci 🙂 Et sinon, pourquoi avoir choisi NextCloud plutôt que OwnCloud ?
  6. Vos arguments font mouche. Je pense que je vais essayer NextCloud. Ça s’installe facilement sur le Syno ?
  7. Ha oui je crois que tu l'avais dit avant 😅 Et c'est écrit aussi dans ta signature 😁
  8. Tu as bien tester ta ram quand tu as ajouté la barrette supplémentaire ? Bon badblocks ^^ Cependant, n'espère pas gagner des dizaines d'heures 😉
  9. Ha oui vu comme ça, 32To ! Purée 😆 Oui du coup ça devrait aller plus vite ^^
  10. Oh ! babble 😄 Je suppose que tu es le même que le taulier du sujet Syno de HFR 😉 Sinon, j'ai pas donné ici le temps pour 8To de badblocks : 114h 40min Je vais en avoir pour quasi la même durée pour la copie des données 😇
  11. Merci pour ces explications. Je vais essayer d'expliquer mon besoin initial 🙂 (et comment je fonctionne actuellement). J'ai trois ordinateurs qui doivent avoir certains dossiers synchroniser entre eux (une modification sur l'un entraine la répercussion des modifications sur l'autre, mais ces ordinateurs ne sont pas tout le temps tous les deux allumés. Actuellement je passe par le client Synology Drive Server (comme avant avec CloudStation) pour synchroniser tout ça. J'ai aussi besoin d'un accès partagé à un dossier particulier avec mes collègues, avec qui on s'échangent des documents. Là, j'utilise Drive aussi, mais en tant que client WEB pour les collègues (moi je passe par l'explorateur de fichier/Finder/DSM pour mettre et récupérer les fichiers. J'utilise très peu l'aspect suite bureautique apporté par Synology Office (je me rends compte que je l'ai même désinstallé du 214play). Autre utilisation : CloudSync pour récupérer plusieurs dossiers OneDrive afin d'en avoir une copie sur le NAS (je place tous mes cours dedans vu que j'utilise Office 365 / Word pour rédiger mes cours). Un dernier dossier OneDrive est synchroniser en sens montant : les vidéos de mes caméras de surveillance pour en avoir une trace dans le cloud. edit : j'utilise le calendrier de mes appareil apple, en passant par iCloud, et mes emails sont chez gmail, et outlook. Du coup, je pense que vu mon utilisation actuelle, je vais rester sur les outils de Synology, car je ne pense pas que SyncThings ou autre apporte davantage à mon utilisation. Qu'en penses-tu ? En tout cas merci pour le temps pris à me répondre 😇
  12. Hello, Je tombe sur une discussion parlant de SyncThing, et j'ai une question qui n'est pas tellement en rapport avec la disponibilité du paquet dans le centre de paquet (je le vois pour mon 920+), mais plus sur pourquoi SyncThing en place de ce que propose Synology (Synology Drive Server...) ? C'est une vraie interrogation hein 😉 pas une critique. Qu'apporte SyncThing que n'aurait pas le paquet de Synology ? J'ai un collègue qui utilise aussi OwnCloud (ou NextCloud, je ne sais plus) : même chose, qu'est-ce que ces deux solutions ont comme avantage ? (bon autant SyncThing est dipso pour le 920+, autant OwnCloud et NextCloud non...) Merci pour vos réponses 🙂
  13. Faudra que je l'essaye elle aussi du coup, pour voir si la différence entre les deux me fait préférer l'une ou l'autre...
  14. Ha ! Ce serait quand même étonnant... Quelqu'un pour confirmer cela ?
  15. Ok, du coup on n'a pas fait le même test, ce qui rend les durées non comparable je pense. Tu as choisi l'option -n : Et moi -w : Honnêtement je ne sais pas quelle différence il y a entre -n et -w, mais avec -n on ne cherche à priori pas les blocs défectueux. Or c'est pour moi le but de faire un badblocks, sinon le test que fait le NAS lorsque le volume est créé suffit.
  16. 12h pour 10To en USB, avec 4 passes complètes ?? Comment as-tu fait ?? Sinon la valeur que j'ai mis tient déjà compte du fait que je testais 2 disques. Ça fait quoi le -f ? Je n'ai fait que suivre le tuto, donc aucune erreur de ma part. edit : les disques ne sont pas initialisés par le NAS, j'ai mis un autre disque temporairement pour l'installation de DSM. edit 2 : j'ai trouvé pour l'option -f. Mieux vaut pas l'utiliser... donc mieux vaut ne pas la conseiller aussi...
  17. Hello 👋 Je viens faire un petit CR du test Badblocks encore en cours sur le 8To tout neuf installé dans mon nouveau 920+. J'ai lancé deux tests badblocks : un sur un WD Red 8To et un sur un WD Purple 2 To. Mon 920+ est équipé de 12 Go de RAM : les 4Go de bases + une barrette de 8 Go (la ram a été testé avec succès avec Synology Assistant). Le calcul de la valeur de -c donnait : 589824 (sachant qu'il y a deux disques). Les commandes lancées : sudo -i badblocks -b 4096 -c 589824 -s -w -v /dev/sata1 > /volume1/toto/badblocks_sata1.log 2>&1 & badblocks -b 4096 -c 589824 -s -w -v /dev/sata1 > /volume1/toto/badblocks_sata2.log 2>&1 & Mais j'ai eu une erreur : [1]+ Segmentation fault (core dumped) badblocks -b 4096 -c 589824 -s -w -v /dev/sata1 > /volume1/toto/badblocks_sata1.log 2>&1 Du coup j'ai diminué la valeur de -c en prenant 10Go comme référence pour que ça passe : sudo -i badblocks -b 4096 -c 491520 -s -w -v /dev/sata1 > /volume1/toto/badblocks_sata1.log 2>&1 & badblocks -b 4096 -c 491520 -s -w -v /dev/sata2 > /volume1/toto/badblocks_sata2.log 2>&1 & Ensuite pour suivre l'évolution : Le test sur le 2To s'est fait en approximativement 40h : Le test sur le 8To arrive sur sa fin, enfin d'ici une trentaine d'heure je pense (la première passe complète d'écriture+lecture a duré 28:40:17). Je dois vous avouer que je trouve le temps long 😆 pour pouvoir vraiment utiliser le 920+ et y transférer les données depuis le 214play dont je vais réutiliser les disques. Voilà voilà, je reviendrais vous dire combien aura duré le badblocks sur le 8To. ++
  18. Pour le TOTP/2FA, j'ai du mal à saisir la différence. Dans EnPass, j'ai ceci : Je peux entrer le code du TOTP, puis EnPass va générer un code 2FA que je rentre lors du login à un service qui a pu me donner un code de TOTP. Je verrais bien quand j'aurais mis en place Bitwarden 🙂 En tout cas merci 😉 PS : on peut aussi prendre le premium en plus du Family : ce qui ferait du 2$/mois
  19. Je vais utiliser le dossier /volume1/docker/bitwarden 😊 Sinon pour les adhésion Bitwarden, ça ne me semble pas utile... mais comme je n'ai pas tout saisi... Par contre, je n'ai pas compris si sans adhésion je pourrais utiliser des champs TOTP pour mes entrées de mots de passe...
  20. Je te remercie pour ces réponses 😊 Faut-il un abonnement pour avoir le partage des coffre ? Ça m'intéresse pour partager certains mots de passe avec ma femme 😉 Pour l'utilisateur du dossier, j'envisageais de laisser dans le dossier partagé "docker". Ce dernier est-il créé à l'installation du paquet Docker ? Aura-t-il les bons UID/GID ? Car si j'ai bien compris ce que tu as dit, à l'installation du NAS, le compte administrateur que j'aurais créé "Admin-BlaBla" aura un UID de 1026 ? (c'est d'ailleurs le cas, je viens de vérifier avec ceci dans une console SSH : id Admin-BlaBla Sinon, j'ai lu sur cette page ou la précédente que tu (ou un de tes amis) avais utilisé un script de backup. Il sauvegardait quoi ? J'envisage de faire une tâche HyperBackup pour sauvegarder tout le contenu du dossier Docker.
  21. Hello 🙂 Maintenant que j'ai un NAS qui peut faire tourner Docker, je vais pouvoir me faire une instance Bitwarden pour voir si ça me convient 🙂 (et remplacer à terme EnPass qui me convient pour le moment). Mon 920+ est encore en phase de badblocks sur un nouveau disque, mais dès que c'est terminé, je vais le configurer pour la production en restaurant/copiant mes données du 214play. Ensuite, ce sera au tour de Bitwarden et Docker. Je vais utiliser un nom de domaine sur mon NAS, et des "sous-domaine" de type service1.nas.ndd.ovh ; service2.nas.ndd.ovh etc... J'aurais aussi donc un certficat Let's Encrypt pour ces domaines, et un proxy inversé qui va faire pointer ces domaines vers le bon service du nas. Du coup, après avoir lu le tuto de ce fil de discussion (et aussi celui de cachem avec bitwardenrs), je pense opter pour le tuto d'installation avec la version officielle, et pas un container préfabriqué. Mais du coup j'ai quelques questions en prévision de son utilisation 🙂 Comme je vais avoir le proxy-inversé, un ndd dédié au service bitwarden et donc le certificat global sur le NAS, dans les questions ci-dessous (pour lesquelles j'ai ajouté une numérotation), devrais-je répondre NON à la question 2 et à la question 5 ? (j'ai aussi lu ce message de ta part en réponse à jfamiens d'où cette interrogation à propose des questions 2 & 5). Ce qui fait que, si j'ai bien tout compris, je pourrais me dispenser de copier/renommer les fichier du certificat : Autre interrogation, vu qu'on se place dans ce dossier : Tout ce qui suit dans le tuto est placé dans ce dossier, rien ne sera placer ailleurs, n'est-ce pas ? Je vais d'ailleurs voir pour créer un petit script de création des dossiers manquants, ça pourra aider ceux qui ont la flemme comme moi de tout créer à la main 😉 Autre interrogation : peut-on limiter les ressources prises par Bitwarden si jamais je constate que ça en prend trop ? (d'ailleurs, c'est plutôt de la RAM ou du CPU que ça va prendre ?) (j'ai 12 Go de ram sur mon 920+, mais je vais avoir au moins 3 carméras de surveillance à gérer 😉) Dernière interrogation, si jamais je dois migrer de NAS, ou que je change le disque, etc... si je sauvegarde le dossier docker (et donc forcément le sous-dossier bitwarden), à la restauration est-ce que j'aurais tout de fonctionnel directement ? Ou faudra-t-il repasser par la configuration depuis 0 du tuto ? Voilà voilà, Merci pour le tuto, et merci d'avance pour les réponses/conseils que vous m'apporterez 😊 Bonne journée
  22. Hello, Je venais dire la même chose que ce que vous venez de citer de reolink. Le flux est tout le temps présent. Si la détection de mouvement est activée sur la caméra, en plus du flux il y a les indications de mouvements (je ne sais pas comment elles se présentent, mais je suppose qu'il s'agit de timestamp de début de mouvement et de fin.) Donc que la détection de mouvement soit faite par SS ou par la caméra, SS recevra le flux complet avec les détections de le caméra, mais si SS est configuré pour faire ses propres détections, alors il n'utilisera pas les infos de détection issues de la caméra. Enfin c'est comme ça que j'ai compris le fonctionnement 😉 J'aimerais bien que ce soit SS qui me gère les détections des caméras, mais mon NAS n'est pas assez puissant pour gérer... Faut que je le change 🙂 PS : je suis aussi en ONVIF, mais il semble qu'il y ait moins d'options en ONVIF qu'avec un pilote du DevicePack...
  23. Mes caméras sont en ONVIF pour le moment. Peut-être que si j'essayais avec le driver des 420-5MP... edit : Bon bah je n'arrive même plus à ajouter la caméra avec le pilote de Surveillance Station... je ne comprends pas, probablement une question de firmware... Mais en ONVIF ça fonctionne.
  24. Hello, pour ceux qui ont les Reolink dont je parlais, et que vous avez mis le firmware v3, il est conseillé de revenir sur le dernier en v2 car la version 3 a des petits soucis... je suis revenu à la v2 car j’avais des soucis avec la détection de mouvement et aussi des soucis de flux vidéo qui se coupait...
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.