Rechercher dans la communauté
Affichage des résultats pour les étiquettes 'hyperbackup'.
8 résultats trouvés
-
Bonjour la communauté. Je teste actuellement la solution Kdrive Solo 2Tera (Infomaniak). La connexion se fait très bien en webdav avec Hyperbackup. Ma question est la suivante : Les CGU indiquent que le Max de data par jour est limité à 200Gb. Partant de cette limite, il devient impossible de lancer la première sauvegarde quand elle fait plus d'un Giga. Et seconde question qui suit automatiquement : du fait de cette même limitation, la restauration de tous les fichiers est donc impossible ? Qu'en pensez-vous, si un utilisateur a déjà utilisé ce service . Merci pour aide
-
Chers tous, Je vous fait partager mon expérience avec pCloud. J'ai souscrit un abonnement à vie de 2To, financièrement intéressant quand on a pas la possibilité d'héberger un NAS de sauvegarde chez quelqu'un d'autre. La sauvegarde du NAS peut se faire via HyperBackup, via WebDAV. Le paramétrage est assez aisé, le serveur distant répond... tous les voyants semblaient au vert. En revanche, de façon aléatoire mais systématique (j'ai 1 To à sauvegarder, la première sauvegarde est longue en 4G box en émission à 20 Mbps), la sauvegarde s’interrompt en erreur. Je n'ai jamais réussi a aller au bout de cette 1ère sauvegarde. Après moultes investigations, essais, réinstallations, reparamétrages... avec l'aide d'une personne très impliquée du support Synology, l'hypothèse restante est celle d'une disponibilité insuffisante des serveurs de pCloud. Au total, j'ai résilié l'offre au bout de la période d'essai. Avez-vous une expérience similaire ? Salut !
- 25 réponses
-
- hyperbackup
- cloud
-
(et 3 en plus)
Étiqueté avec :
-
Hello le forum ! Je souhaite sauvegarder des répertoires de mon DS918+ vers un DS218J avec Hyper Backup et Hyper Vault. Cependant j'obtiens une erreur : [Network][Synology NAS 1] Exception occurred while backing up data. (Destination quota at destination is insufficient. Please expand your target size.) [User: xxxx , Path: /volume1/Backups/abcd_NAS_2.hbk, Reason: xxxx has insufficient quota on /volume1/Backups/abcd_NAS_2.hbk] Voici mon setup! - La tache de sauvegarde sur le DS918+ est configurée avec le compte admin du DS218J (avec un compte dédié ça ne fonctionne pas mieux). - Le compte Admin sur le DS218J a tous les droits d'accès au répertoire partagé de sauvegarde, accès complet de l'app Hypervault aussi. - J'ai essayé plusieurs setups sur le DS218J en terme de stockage (RAID0, Basic, ...) => même problème. - La connexion entre les deux NAS fonctionne puisque lorsque je lance la tache, un sous répertroire est bien créé sur le DS218J. - Les deux NAS et paquets sont à jour. L'extrait de /var/log/messages semble indiquer que le système ne parvient pas à lancer la commande pour mesurer le quota affecté à l'utilisateur. 2023-05-28T18:39:06+02:00 xxxx_NAS_Bkp img_backupd[27623]: [27623]target.cpp:2598 Target test2.hbk:2 needs roll-back 2023-05-28T18:39:06+02:00 xxxx_NAS_Bkp synoimgbkptool[27624]: [27624]target_roll_back.cpp:1368 [INFO] start moving buckets 2023-05-28T18:39:06+02:00 xxxx_NAS_Bkp synoimgbkptool[27624]: [27624]target_roll_back.cpp:1386 [INFO] finish moving buckets 2023-05-28T18:39:07+02:00 xxxx_NAS_Bkp synoimgbkptool[27624]: [27624]file_pool.cpp:268 [INFO] start moving files in file_pool 2023-05-28T18:39:07+02:00 xxxx_NAS_Bkp synoimgbkptool[27624]: [27624]file_pool.cpp:319 [INFO] finish moving files in file_pool 2023-05-28T18:39:07+02:00 xxxx_NAS_Bkp synoimgbkptool[27624]: [27624]target_roll_back.cpp:852 /volume1/Backups:test2.hbk roll-back done!!(err: 0) 2023-05-28T18:39:10+02:00 xxxx_NAS_Bkp img_backupd[27623]: (27623) utils.cpp:1487 [backup begin] external ip: [ XX] 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27649]: [27649]detect_space.cpp:441 Error: failed to SYNOQuotaGetByUID with uid[1026] path[/dev/vg2/volume_1], [0x8100 quota_get.c:37] 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27649]: [27649]detect_space.cpp:328 Error: user quota will full [/volume1/Backups][test2.hbk] 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27649]: [27649]version.cpp:1282 Error: detect space will full 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27649]: [27649]version_list_db.cpp:1972 Error: db is not opened 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27649]: [27649]version.cpp:1458 Error: end transaction failed 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27649]: (27649) server_helper.cpp:406 Error: backup failed err:-1, verErr:[10] 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27649]: (27649) server_worker.cpp:158 Error: adding file/chunk failed 48:myadmin has insufficient quota on /volume1/Backups/test2.hbk 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27647]: [27647]detect_space.cpp:441 Error: failed to SYNOQuotaGetByUID with uid[1026] path[/dev/vg2/volume_1], [0x8100 quota_get.c:37] 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27649]: (27649) server_worker.cpp:208 failed to backup ==> ret: [ST_QUOTA_NOT_ENOUGH], resume status: [Resumable but lack space] 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27647]: [27647]detect_space.cpp:328 Error: user quota will full [/volume1/Backups][test2.hbk] 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27647]: [27647]version.cpp:1282 Error: detect space will full 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27647]: [27647]version_list_db.cpp:1972 Error: db is not opened 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27647]: [27647]version.cpp:1458 Error: end transaction failed 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27647]: (27647) server_helper.cpp:406 Error: backup failed err:-1, verErr:[10] 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27647]: (27647) server_worker.cpp:158 Error: adding file/chunk failed 48:myadmin has insufficient quota on /volume1/Backups/test2.hbk 2023-05-28T18:39:18+02:00 xxxx_NAS_Bkp img_backupd[27647]: (27647) server_worker.cpp:208 failed to backup ==> ret: [ST_QUOTA_NOT_ENOUGH], resume status: [Resumable but lack space] 2023-05-28T18:39:19+02:00 xxxx_NAS_Bkp img_backupd[27649]: (27649) server_worker.cpp:539 [SWorker] Failed to backup: ret=[ST_QUOTA_NOT_ENOUGH], resume_st:[Resumable but lack space] 2023-05-28T18:39:19+02:00 xxxx_NAS_Bkp img_backupd[27648]: (27648) server_worker.cpp:539 [SWorker] Failed to backup: ret=[ST_SUSPEND], resume_st:[None] 2023-05-28T18:39:19+02:00 xxxx_NAS_Bkp img_backupd[27650]: (27650) server_worker.cpp:539 [SWorker] Failed to backup: ret=[ST_SUSPEND], resume_st:[None] 2023-05-28T18:39:19+02:00 xxxx_NAS_Bkp img_backupd[27647]: (27647) server_worker.cpp:539 [SWorker] Failed to backup: ret=[ST_QUOTA_NOT_ENOUGH], resume_st:[Resumable but lack space] 2023-05-28T18:39:20+02:00 xxxx_NAS_Bkp img_backupd[27623]: (27623) utils.cpp:1487 [backup end] external ip: [ XX] 2023-05-28T18:39:20+02:00 xxxx_NAS_Bkp img_backupd[27623]: (27623) server_master.cpp:828 error occurred, and it isn't resumeble next time: ret[ST_QUOTA_NOT_ENOUGH], resume_st:[Not Resumable] Avez-vous une idée ? Merci !
-
- hypervault
- hyperbackup
-
(et 1 en plus)
Étiqueté avec :
-
Bonjour, J'ai une question concernant Hyperbackup. J'ai besoin de déplacer un disque sur lequel je fais des sauvegardes locales (de volume à volume) du NAS DS920+ à un NAS d'une autre marque, en l'occurrence ici un Asustor AS6704T. Je sais que je vais devoir reformater ce disque dans l'asustor, mais je voudrais recopier les backups dessus, en les déplaçant temporairement sur un autre volume du 920+. Ma question est donc : est-ce que Hyperbackup peut se reconnecter à une sauvegarde initialement faite en local, à cette sauvegarde accessible en webdav ? Car l'asustor sera un serveur WebDav pour recevoir les backups Hyperbackup (j'ai testé positivement ce dernier point, mais pas la reconnexion...) Merci d'avance 😊
-
Bonjour et d'avance merci du temps que vous accorderez à la lecture de mon thread. 🙏 Historiquement, j'effectue depuis 5 ans un backup en local de mes données d'un NAS(1) vers un second NAS(2). Tout se passait très bien jusqu'ici. Aujourd'hui j'ai la possibilité d'externaliser mon backup hors de mon réseau et à plusieurs kilomètres du NAS principal. Après avoir configuré en théorie correctement l'accès externe au NAS 2 je rencontre le problème suivant : Cette fenêtre survient après authentification de mon utilisateur dédié à Hyperbackup, après avoir sélectionné dossier partagé et répertoire, lorsqu'on clic sur "Suivant". Ce qui est d'autant plus incompréhensible, c'est que l'infobulle à coté de "Échec" n'indique aucune information complémentaire au survol... Pour aller plus loin, je n'ai donc que deux choix : Juger le certificat comme Fiable ou Ignorer Si je sélectionne "Fiable", je peux alors rentrer la clé de chiffrement pour me reconnecter à ma ancienne sauvegarde. -> Mon problème est que je ne suis pas à l'aise à l'idée que mon certificat n'ait pas été authentifié et je n'en comprends pas le comportement ? ---- En effet, à la différence d'un certificat auto signé, qui est la principale cause de ce type de problème, je dispose ici d'un certificat Wildcard payant de chez Infomaniak importé tant sur le NAS1 que NAS2 et attaché à Hyperbackup Vault. Lorsque j'étais en local, couplé avec dns server, je pointais mon backup depuis son NDD sans problème d'authentification, j'ai donc cherchais à retrouver ce confort d'utilisation. En externe, j'ai compris qu'il me fallait provisoirement ouvrir le port 5001 du NAS 2 pour pouvoir me log à l'utilisateur dédié à Hyperbackup. Naïvement je pensais que cela suffisait, couplé à un wildcard, pour valider l'authentification du certificat auprès d'Hyperbackyp. Mais non... Mon architecture est configurée comme suit : NAS 1 > RT 6600ax > Bbox Ip fixe ---- DDNS > LiveBox 4 > Routeur RT 1900ac - 6281/TCP > NAS 2 - 6281/TCP DNS Local sur les RT selon tuto de @Fenrir NAS 2 accessible en LT2P Pare-feu et bonnes pratiques de sécurité comme préconisé sur le forum (et qui sont souvent les seuls vrais bons conseils sur le web) Si une bonne âme passe par là et pouvait donner de l'eau à mon moulin, je lui en serais très reconnaissant.
- 6 réponses
-
- chiffrement
- backup
-
(et 3 en plus)
Étiqueté avec :
-
Bonjour et meilleurs vœux à tous 🎉, J'ai une petite question ❓concernant la MAJ de DSM 6.2.4 vers DSM 7.0.1 à destination de ceux qui ont fait le grand saut. Il y a maintenant 10 ans que j'utilise différents Syno avec les mêmes DD et je n'ai jamais fait de réinstallation malgré les multiples évolutions de DSM. Aujourd'hui je me tâte à faire une "clean install" c'est à dire repartir de 0 (comme expliqué dans la note de Syno). Il faut savoir aussi que j'utilise Hyper backup pour réaliser une sauvegarde journalière de tout mon Syno. Ma question est donc : Avez vous réalisé une installation complète de DSM 7 et utilisé hyper Backup pour restaurer votre ancienne configuration qui était sous DSM 6.2.4 (disques partagés, AD, DNS, Utilisateurs, groupes etc )? Je connaitre vos avis, conseils, retour d'expérience Merci à tous Hiboux63
- 1 réponse
-
- hyperbackup
- dsm6
-
(et 1 en plus)
Étiqueté avec :
-
Hello, Ce matin j'ai une tâche Hyperbackup en échec Je suis en train d'investiguer pour comprendre, et de faire d'autres essais. Mais si parmi vous, certains ont déjà eu ça, je suis preneur de votre expérience. la tâche en question est programmée le mardi, le jeudi et le samedi à 2h40 pour envoyer sur Google One (Google Drive). Et les fois précédentes je n'ai pas eu d'erreurs. Là elle m'a fait ça : J'ai d'autres tâches sur GoogleOne qui se sont bien déroulées cette même nuit avant, et les jours précédents... d'autres tâches en local aussi sans erreurs. Merci d'avance pour vos retours d'expérience 🙂 Edit : Bon, j'ai tenté de relancer la tâche, et là elle vient de se terminer sans erreurs : Trop étrange 😅
-
Bonsoir, J'aurais besoin des pros du rclone ou rsync 🙂 Comme je vais changer le disque de 8To par un plus gros, j'ai fait une copie de sauvegarde de toutes mes données du 8To ailleurs ou j'en ai déplacé sur les autres volumes du 920+. Pour les données sauvegardées ailleurs, elles ont été sauvegardé avec le mode rsync monoversion de Hyperbackup sans compression, sans chiffrement Les données sont : soit sur un disque dur externe (branché sur 920+ quand j'aurais un port libre) soit sur un disque dans mon autre NAS (le 214play) ou soit dans deux autres disques présents dans un dock USB branché sur le 214play (car actuellement j'ai plus de port USB libre sur le 920+ à cause d'un badblock en cours). Je précise à nouveau que c'est fait avec rsync, donc la structure des dossiers dans la sauvegarde est : /volumeX__ou__volumeUSBXX/dossier_partagé_destination/Nom_backup_hyperbackup/dossier_partagé_source/mes_données J'aimerais bien pour les données qui sont sur des disques dans le dock USB pouvoir les récupérer directement depuis le 920+- en branchant le dock dessus. Mais je ne trouve pas comment reconnecter en local une tâche Hyperbackup faite en réseau... Donc, une fois mes partages recréés sur le nouveau disque dans le 920+, quelle commande puis-je lancer pour copier sans erreur/oubli les fichiers/dossiers présents dans les backup des disques du dock USB ? J'ai peur qu'un simple copier/coller dans DSM puisse foirer certains fichier... Je ne maitrise pas du tout rclone ni rsync pour savoir quoi faire... mais il me semble que ces deux commandes permettent une fiabilité de copie non ? Merci de votre aide 😇
- 4 réponses
-
- hyperbackup
- rsync
-
(et 3 en plus)
Étiqueté avec :