Aller au contenu

loli71

Membres
  • Compteur de contenus

    681
  • Inscription

  • Dernière visite

  • Jours gagnés

    10

Messages posté(e)s par loli71

  1. @domlas, voici un tuto en français très bien fait et complet qui montre toutes les possibilités de Freefilesync :

    http://www.6ma.fr/tuto/synchroniser+vos+dossiers+avec+freefilesync-712

    Freefilesync ne supporte toutefois pas directement les serveurs FTP en standard à la différence de syncback, mais si tu veux absolument utiliser l'accès en FTP sur ton NAS à défaut des montages réseaux standard windows/linux (que tu peux scripter dans le bath de lancement de freefilesync).

    Freefilesync propose les solutions suivantes dans son fichier d'aide :

    Synchronize with FTP/WebDAV (Windows)

    FreeFileSync does not support accessing FTP volumes directly. But this functionality can be integrated by mapping the FTP web space to a drive letter:

    Example: Use the free utility NetDrive (http://www.netdrive.net)

    • Add a New Site and specify site name, site URL, drive letter, account and password.
    • Use the newly created drive as if it were a normal hard disk.
    Note
    Most FTP drives set a file's time stamp to the current time when synchronizing ignoring the source file's time and date. As a workaround you can do a Compare by File Size.

    Synchronize with SFTP (Linux)

    An SFTP share can be easily mapped onto a local folder for use with FreeFileSync:

    • Install:
      sudo apt-get install sshfs
    • Mount SFTP share:
      sshfs ssh-account@ssh-server:<path> mountpoint
    • Unmount:
      fusermount -u mountpoint

    EDIT:

    solution MAC/Windows (linux à venir bientôt): http://www.expandrive.com/expandrive

    Il existe aussi des solutions natives pour windows http://windowsitpro.com/networking/how-can-i-map-ftp-server-drive

    Pour ma part, j'utilise le montags réseaux sous windows au travers d'un fichier batch :

    @echo off
    echo Montage reseau sur lecteur O en cours
    NET USE O: <Adresse IP NAS>sauvegarde <PASSWORD> /USER:<USERNAME>
    echo Montage reseau effectue
    echo Lancement de la sauvegarde
    "C:Program FilesFreeFileSyncBinFreeFileSync_x64.exe" "C:nobackupPersoFreeFileSyncBackup_New_Full_Backup_nassyno.ffs_batch"
    
    if errorlevel 1 (
      ::if return code is 1 or greater, something went wrong, add special treatment here
      echo Erreur durant la sauvegarde, veuillez regarder le fichier de log
      echo Fin de la sauvegarde
      echo Deconnection du montage reseau O
      NET USE O: /delete
      pause
    ) else (
      echo synchronization OK
      echo Fin de la sauvegarde
      echo Deconnection du montage reseau O
      NET USE O: /delete
      pause
    )
    

    EDIT2: ce que j'ai vraiment apprécier dans cet outils, c'est la possibilité de définir des options globales pour la comparaison, la copie et les filtres mais aussi la possibilité de modifier ces options spécifiquement pour chaque répertoire, voici une petite capture d'écran pour mieux vous montrer, lorsque les icones dans la colonne du milieu sont en couleur, c'est qu'une configuration spécifique (différente de la conf par défaut) est en place :

    freefilesync.png

  2. Je n'ai pas cité ce logiciel juste pour le plaisir de voir mon pseudo dans un post, je vous rassure ;-)

    Cela fait presque 2 ans que j'utilise ce logiciel pour sauvegarder tous mes PC sur mon synology après avoir testé syncback.

    Si ce logiciel freefilesync n'apparait pas dans la liste des logiciels approuvés par synology, c'est certainement pour la simple et bonne raison qu'il ne fait pas appel à un système distant spécifique, il suffit de monter un répertoire réseau distant sur le syno pour faire les sauvegardes.

    De plus freefilesync est disponible sur toutes les plateformes (windows, linux, Mac) et il est opensource.

    Maintenant, je n'ai donné qu'une autre piste, que j'utilise depuis 2 ans avec un très grand contentement.

    Comme freefilesync marche aussi en ligne de commande, il suffit de faire un fichier batch qui monte le répertoire distant, qui lance la sauvegarde, puis qui démonte le répertoire distant.

    freefilesync permet aussi de choisir le mode de copie pour chaque répertoire (miroir, copie+effacement, copie uniquement, etc..) en s'appuyant non seulement sur la taille des fichier mais aussi la date pour ne faire que de l'incrémentale si on le souhaite ..

  3. Autre piste à regarder aussi, aussi complet de synback (voir plus) et complètement gratuit : http://freefilesync.sourceforge.net/

    - Fonctionne aussi en ligne de commande

    - Fonction RealtimeSync qui te permettra entre autre d'executer une commande (lancement de la synchro par exemple) à chaque fois d'un répertoire devient accessible (répertoire du montage réseau sur le syno par exemple).

  4. Good news,

    Je serais toi je remontrais l'info au niveau du suivi de bugs https://github.com/SynoCommunity/spksrc/issues?state=open , comme cela les développeurs l'intégreront, sinon à la prochaine mise à jour, tu risques de nouveau d'avoir le problème ;) , même si maintenant tu sais le résoudre.

    J'ai fait un pull request de toutes mes modifications/corrections de bug, reste plus qu'à voir si c'est accepté et intégré, à suivre.

  5. Salut,

    Pour ma part sur DSM 4.2, la partie proxy (squid) fonctionne bien, mais la partie squidguard plante dès qu'il essaye d'accéder aux listes :

    Contenu du fichier squidGuard.log:

    2014-06-19 10:20:23 [13999] INFO: squidGuard 1.5-alpha started (1403166023.191)
    2014-06-19 10:20:23 [13999] INFO: squidGuard ready for requests (1403166023.192)
    2014-06-19 10:20:23 [13996] INFO: New setting: logdir: /usr/local/squidguard/var/logs
    2014-06-19 10:20:23 [13996] INFO: New setting: dbhome: /usr/local/squidguard/var/db
    2014-06-19 10:20:23 [13996] INFO: squidGuard 1.5-alpha started (1403166023.192)
    2014-06-19 10:20:23 [13996] INFO: squidGuard ready for requests (1403166023.192)
    2014-06-19 10:20:23 [13997] INFO: New setting: logdir: /usr/local/squidguard/var/logs
    2014-06-19 10:20:23 [13997] INFO: New setting: dbhome: /usr/local/squidguard/var/db
    2014-06-19 10:20:23 [13997] INFO: squidGuard 1.5-alpha started (1403166023.191)
    2014-06-19 10:20:23 [13997] INFO: squidGuard ready for requests (1403166023.193)
    2014-06-19 10:22:56 [24122] INFO: New setting: logdir: /usr/local/squidguard/var/logs
    2014-06-19 10:22:56 [24122] INFO: New setting: dbhome: /usr/local/squidguard/var/db
    2014-06-19 10:22:56 [24122] init domainlist /usr/local/squidguard/var/db/adult/domains
    2014-06-19 10:22:56 [24122] FATAL: sgDbLoadTextFile: put: Invalid argument
    2014-06-19 10:22:56 [24122] ERROR: Going into emergency mode
    2014-06-19 10:22:56 [24122] ERROR: Ending emergency mode, stdin empty
    
    

    J'ai cherché un peu partout concernant cette erreur "sgDbLoadTextFile", mais je ne m'en sors pas.

    Et si j'essaye de lancer la compilation des blacklist à la main, cela ne marche pas non plus :

    nas> ./squidGuard -d -C all
    2014-06-19 10:33:44 [1545] INFO: New setting: logdir: /usr/local/squidguard/var/logs
    2014-06-19 10:33:44 [1545] INFO: New setting: dbhome: /usr/local/squidguard/var/db
    2014-06-19 10:33:44 [1545] init domainlist /usr/local/squidguard/var/db/adult/domains
    BDB1565 DB->put: method not permitted before handle's open method
    2014-06-19 10:33:44 [1545] FATAL: sgDbLoadTextFile: put: Invalid argument
    2014-06-19 10:33:44 [1545] ERROR: Going into emergency mode
    
    

    Si quelqu'un a une piste, je suis preneur.

  6. une question, tu as essayé la première partie de ta commande juste par curiosité ?

    l'option "-G" n'existe pas ......

     ssh -G
    ssh: illegal option -- G
    usage: ssh [-1246AaCfgKkMNnqsTtVvXxYy] [-b bind_address] [-c cipher_spec]
               [-D [bind_address:]port] [-e escape_char] [-F configfile]
               [-I pkcs11] [-i identity_file]
               [-L [bind_address:]port:host:hostport]
               [-l login_name] [-m mac_spec] [-O ctl_cmd] [-o option] [-p port]
               [-R [bind_address:]port:host:hostport] [-S ctl_path]
               [-W host:port] [-w local_tun[:remote_tun]]
               [user@]hostname [command]
    

    Du coup c'est le "illegal option" qui fait que tu as le résultat "System infected" ....

    Voici un site très utilile si tu utilises des commandes shell que tu ne connais pas : http://www.explainshell.com/

  7. Bonsoir à Tous,

    Me voila bloqué sur SAB.. en effet depuis hier il m'affiche l'erreur suivante :

    » Post-traitement interrompu (Impossible de créer le dossier /volume1/Music/XXX)

    Je ne penses pas avoir agit sur les droits !

    quand je fais un ls -all sur mon dossier j'obtiens un

    drwxrwxrwx 577 root root 20480 May 12 17:50 music

    Si vous voulez m'eclairer ;)

    Merci d'avance

    D'après ce que tu as écrit, il s'agit surtout d'un problème de majuscule/minuscule entre ta config post traitement (Music) et le dossier qui existe vraiment dans /volume1 (music)

  8. Merci à vous pour nous aider !!

    j'ai essayé mais j'ai à priori un problème de login. Voici un cat du fichier log :

    DEBUG: Fetching initial headers to pre-load cookies...
    HTTP/1.1 200 OK
    Date: Thu, 23 May 2013 06:41:08 GMT
    Server: Apache
    Cache-control: no-cache
    Content-Type: text/html; charset=ISO-8859-1
    Expires: Thu, 23 May 2013 06:41:08 GMT
    Set-Cookie: id=JVnFw29ptwywee+klWPLagoCpWw; domain=account.dyn.com; path=/; expires=Wed, 21-Aug-2013 06:41:08 GMT
    Set-Cookie: s1=q3c8tlw7j2q67k1g; domain=.dyn.com; path=/
    Set-Cookie: s2=9_%3d2zvv71skt4c6%3d; domain=account.dyn.com; path=/; secure
    Accept-Ranges: none
    Vary: Accept-Encoding
    DEBUG: Fetching UID...
    DEBUG: Read UID as '7139F84C6181229A3C7AA8F85C11BF5FA8' - posting data...
    <!DOCTYPE HTML PUBLIC "-//IETF//DTD HTML 2.0//EN">
    <HTML><HEAD>
    <TITLE>302 Found</TITLE>
    </HEAD><BODY>
    <H1>Found</H1>
    The document has moved <A HREF="https://account.dyn.com/">here</A>.<P>
    </BODY></HTML>
    DEBUG: Response received - verifying result...
    Login failed

    Ca vous dit quelquechose ???

    Quand je me connecte chez dyndns, ce n'est pas sur https://account.dyn.com/ mais sur https://account.dyn.com/entrance/ pour avoir la fenetre de login. Mais j'ai essayé les deux adresses dans le script sans résultat.

    J'ai aussi fait un CHMOD u+x dyn... pour le rendre exécutable.

    Le script est dans /volume1/homes/admin.

    J'ai raté quelquechose ? Merci

    Pour ma part, j'ai bien le Login successful malgrès la redirection de page :

    DEBUG: Fetching initial headers to pre-load cookies...
    HTTP/1.1 200 OK
    Date: Wed, 05 Jun 2013 09:08:03 GMT
    Server: Apache
    Cache-control: no-cache
    Content-Type: text/html; charset=ISO-8859-1
    Expires: Wed, 05 Jun 2013 09:08:03 GMT
    Set-Cookie: id=UHwlDqRUAHGk8k; domain=account.dyn.com; path=/; expires=Tue, 03-Sep-2013 09:08:03 GMT
    Set-Cookie: s1=f5a713puh3pv; domain=.dyn.com; path=/
    Set-Cookie: s2=rzd0igu%3du; domain=account.dyn.com; path=/; secure
    Accept-Ranges: none
    Vary: Accept-Encoding
    
    DEBUG: Fetching UID...
    DEBUG: Read UID as '9020D96FFD49976E8E6D2' - posting data...
    <!DOCTYPE HTML PUBLIC "-//IETF//DTD HTML 2.0//EN">
    <HTML><HEAD>
    <TITLE>302 Found</TITLE>
    </HEAD><BODY>
    <H1>Found</H1>
    The document has moved <A HREF="https://account.dyn.com/">here</A>.<P>
    </BODY></HTML>
    DEBUG: Response received - verifying result...
    Login successful
    
    

    Je pense donc que tu dois avoir un problème de définition de LOGIN et PASSWORD dans le script, si vous avez des caractères spéciaux dans votre mot de passe, pensez bien à utiliser les simple quotes pour encadrer le mot de passe plutôt que les doubles quotes :

    Par exemple :

    PASSWORD='M$N_M@tdePASSE!'

    au lieu de

    PASSWORD="M$N_M@tdePASSE!"

  9. Salut Foksadure

    Tout d'abord merci pour ton script, c'est effectivement une très bonne idée pour éviter de voir son compte dyndns supprimé.

    Voici les quelques modifications que j'ai apporté à ton scripts (peut être que tes soucis ne viennent pas de là mais bon ..) et il fonctionne parfaitement dans mon cas par l'appel de la tâche planifiée que j'ai crée :

    synoschedtask --get
                   ID: [3]
                 Name: [dyndns]
                State: [enabled]
                Owner: [root]
                 Type: [daily]
           Start date: [0/0/0]
             Run time: [17]:[30]
              Command: [/volume1/homes/user/dyndns-login.sh >/root/dyndns-login.log 2>&1]
        Last Run Time: Wed May 22 17:30:02 2013
               Status: [Success]
    

    J'ai tout d'abord mis un chemin complet vers /tmp/ pour le fichier de cookies et j'ai aussi mis le chemin complet des commandes appelés dans ton script :

    #!/bin/sh
    LOGIN="lelogindefoksaduresurdyn.com"
    PASSWORD="lemotdepassedefoksaduresurdyn.com"
    COOKIES="/tmp/dynsdns.cookies.txt"
    LOGINURL="https://account.dyn.com/"
    POSTURL="$LOGINURL"
    CHKURL="https://account.dyn.com/"
    DST="-" || DST="/dev/null"
    # Ensure no broken session caching...
    [[ -s "$COOKIES" ]] && rm "$COOKIES"
    echo >&2 "DEBUG: Fetching initial headers to pre-load cookies..."
    /usr/syno/bin/curl -b $COOKIES -c $COOKIES -Ikso "$DST" -A "$UA" --url "$LOGINURL"
    echo >&2 "DEBUG: Fetching UID..."
    VALUE="$( /usr/syno/bin/curl -b $COOKIES -c $COOKIES -kso - -A "$UA" --url "$LOGINURL" | grep -m 1 "multiform" | cut -d"'" -f 6 )"
    echo >&2 "DEBUG: Read UID as '$VALUE' - posting data..."
    /usr/syno/bin/curl -b $COOKIES -c $COOKIES -d "username=$LOGIN" -d "password=$PASSWORD" -d "iov_id" -d "multiform=$VALUE" -e "$LOGINURL" -kso "$DST" -A "$UA" --url "$POSTURL"
    echo >&2 "DEBUG: Response received - verifying result..."
    /usr/syno/bin/curl -b $COOKIES -c $COOKIES -e "$POSTURL" -kso - -A "$UA" --url "$CHKURL" | grep -q "<span>Welcome&nbsp;<b>$LOGIN</b></span>" && echo "Login successful" || echo >&2 "Login failed"
    

    Ensuite, afin de récupérer les potentielles erreurs lors de l'exécution du script dans la crontab, j'ai mis la ligne de commande suivante dans la partie "Script défini par l'utilisateur " du planificateur de tâches :

    /volume1/homes/user/dyndns-login.sh >/root/dyndns-login.log 2>&1
    

    ce qui permet d'avoir le retour du script dans le fichier de log "/root/dyndns-login.log"

    J'espère t'avoir aidé autant que tu nous a aidé pour la création de ton script ;-)

  10. Tu peux tester çà si tu veux : SyncBackFree V6
    http://www.2brightsparks.com/download-syncbackfree.html

    Parfais pour faire une sauvegarde sur un partage réseau tel que les NAS.

    SyncBackFree provides great features and benefits at no cost:
    • Backup
    • Synchronize: Copy files in both directions
    • Restore backup files easily
    • Email logs
    • Run programs before and after profiles
    • Schedule backups
    • Unicode enabled for non-English filenames
    • Process unlimited filename lengths
    • Simple and Advanced mode
    • Runs on Windows 8, 7, Vista, and XP
    • Extensive Help Documentation & Support
    • Completely Free!

  11. - Une fois mes 4 disques en place je les ai configurés les 4 disques en basic et quand je vais dans la gestion des stockages et je vois 300Mo utilisé sur les 4 volumes. pourtant j'avais encore rien installé (a part le DSM qui d'ailleur je ne sais pas sur lequel des 4 volumes il c'est installé). Qu'est ce que ces 300Mo utilisé sur les 4 volumes?

    En fait, si je ne me trompe pas, le DSM s'installe sur les 4 disques pour être certain qu'en cas de perte d'un des disque le système de base puisse toujours démarrer. Donc il est normal que tu trouves une partition de 300M sur chacun des disques sans rien avoir encore configuré.

    - Etant nouveau sur les NAS Synology j'essaye de comprendre la logique des dossier partager. J'ai créé un dossier intitulé "Volume 1" pour le volume 1, "Volume 2" pour le volume 2, "Sauvegarde Volume 1" pour le volume 3 et "Sauvegarde Volume 2" pour le volume 4. Je souhaite utiliser le volume 1 pour l'installation des appli du NAS, la centralisation de fichier divers (.doc, .pdf, .iso, etc...), site web, cloud, ce genre de fichier. Le volume 2 pour tout ce qui est multimédia (Musique, Video, Photo) et les 2 autres volumes pour une sauvegarde journalière (ou peut être tous les 2 jours). Est-ce-que je suis sur la bonne voie pour configurer mon NAS de façon optimal ou je m'y prend mal? pourriez-vous me donner des exemples par rapport à vos configurations?

    Il existe plusieurs possibilités de configuration du NAS avec 4 disques selon les goûts, les envies et l'utilisation.

    La première chose à comprendre sur les dossiers partagés est qu'ils permettent la mise en place de droits d'accès spécifiques selon ce que tu veux faire (droits par utilisateurs, groupes, par applications ..etc..)

    Le fait de séparer les 4 disques comme tu l'as fait n'est pas un mauvais choix en soit pour la partie volume1 et volume2, par contre, pour avoir un "secours" simple de ces deux volumes, j'aurais plutôt pour ma part fait le choix suivant :

    Création d'un groupe de disque comprenant le disque1 et le disque2 (pour utiliser la fonction de Raid1 afin d'avoir un secours automatique)

    Création du volume1 sur ce groupe de disque

    Création d'un groupe de disque comprenant le disque3 et le disque4 et création du volume2 sur ce deuxième groupe de disque.

    Avec cela, tu sépares bien les fonctionnalités de comme tu le souhaites sur volume1 et volume2 et la sécurisation des données sur chaque volume est gérée de façon autonome par le synology au travers du système de Raid.

    Car ce qu'il faut comprendre dans ton système, c'est que si tu perds ton volume1, tu auras les données sur ton volume "Sauvegarde Volume 1" mais les applications ne fonctionneront plus puisque installées sur ton disque qui est en panne.

    Pour ta deuxième question, je ne sais pas y répondre. En espérant t'avoir un peu aidé à comprendre.

  12. J'ai l'impression oui effectivement.

    Sinon je suppose que que le programme ecrit dans le fichier de log lorsqu'il a terminé.

    Sinon dernière solution pour savoir si c'est fini :

    ps | grep badblocks
    

    Tant qu'il badblocks qui tourne, tu le verra comme dan l'exemple suivant :

    nas> ps | grep badblocks
     9363 root      7720 S    SCREEN /bin/sh -c /usr/local/diskutils/sbin/badblocks -wv -b 4096 -c 4096 /dev/sdd > /root/badblocks_sd
     9364 root      2540 S    /bin/sh -c /usr/local/diskutils/sbin/badblocks -wv -b 4096 -c 4096 /dev/sdd > /root/badblocks_sdb.log 2
     9365 root     37032 D    /usr/local/diskutils/sbin/badblocks -wv -b 4096 -c 4096 /dev/sdd
     9630 root      7720 S    SCREEN /bin/sh -c /usr/local/diskutils/sbin/badblocks -wv -b 4096 -c 4096 /dev/sde > /root/badblocks_sd
     9631 root      2540 S    /bin/sh -c /usr/local/diskutils/sbin/badblocks -wv -b 4096 -c 4096 /dev/sde > /root/badblocks_sde.log 2
     9632 root     37032 D    /usr/local/diskutils/sbin/badblocks -wv -b 4096 -c 4096 /dev/sde
    
    
  13. donc cela veut dire que /dev/sdb n'est pas ton disque.

    Pour retrouver facilement le chemin de ton disque, tu peux taper cela :

    fdisk -l | grep "/dev/[sh]d[a-z]"
     

    Comme exemple, moi j'ai ce résultat :

    fdisk -l | grep "/dev/[sh]d[a-z]"
    Disk /dev/sdc: 163.9 GB, 163928604672 bytes
    /dev/sdc1 1 311 2490240 fd Linux raid autodetect
    /dev/sdc2 311 572 2097152 fd Linux raid autodetect
    /dev/sdc3 588 19930 155364608 f Win95 Ext'd (LBA)
    /dev/sdc5 589 19930 155356560 fd Linux raid autodetect
    Disk /dev/sdd: 2000.3 GB, 2000398934016 bytes
    Disk /dev/sdd doesn't contain a valid partition table
    Disk /dev/sde: 2000.3 GB, 2000398934016 bytes
    Disk /dev/sde doesn't contain a valid partition table
    Disk /dev/sdg: 2055 MB, 2055208960 bytes
    /dev/sdg1 * 1 9 16033+ 83 Linux
    /dev/sdg2 9 104 188735 83 Linux

    Mes deux disque 2TO que je suis en train de tester (merci Dioul au passage :rolleyes: ) sont donc /dev/sdd et /dev/sde

    A toi de jouer ;-)

  14. En fait il faut peut-être rajouter aussi "/usr/local/diskutils/sbin" au path car c'est là que se trouve badblocks, donc :

    PATH=/usr/local/diskutils/bin:/usr/local/diskutils/sbin:$PATH
     

    ou alors utiliser la ligne de commande complète :

    screen /bin/sh -c '/usr/local/diskutils/sbin/badblocks -wv -b 4096 -c 4096 /dev/sdb > /root/badblocks_sdb.log 2>&1'
     


×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.