Aller au contenu

Volume en panne sur DS214 play


Messages recommandés

Bonjour à tous,

Voilà, je vous expose mon problème, suite à l'ajout d'un nouveau disque dur dans mon Nas, j'ai suivi l'assistant  et me suis retrouvé avec un disque en mode shr avec protections de données.

Du coup, j'ai enlevé le 2nd disque, ce qui m'a mis le 1er en mode dégradé.

J'ai ensuite formaté le 2nd et l'ai remis dans le Nas et il est cette fois-ci en mode basic.

En suivant (mal) ce tuto :

https://www.cambier.org/2015/04/22/migrer-dun-mode-shr-avec-protection-de-donnees-a-un-mode-shr-sans-protection-de-donnees/:

J'ai tapé la commande suivante : 

mdadm /dev/md2 -f /dev/sdb5

mais je me suis retrouvé avec le volume 1 en panne et je n'arrive plus à le repasser en normal.

J'aimerais savoir s'il existe une commande pour annuler celle avec laquelle on déclare le disque défaillant ?

Merci d'avance

Modifié par yoshimovi
Lien vers le commentaire
Partager sur d’autres sites

j'ai deja un autre problème de raid sur le feux on va dire :p

1° question sur ton nas : as-tu pas inversé disk 1 (sda) et disk 2 (sdb) si je me trompe pas, tes disk dans ton nas sont empillé à l'horisontal, pour toi, le 2° disk, c'est celui du haut ou du bas ?

Citation

mdadm /dev/md2 -f /dev/sdb5

tu n'a tapé que cela, rien d'autre, c'est important

au passage, colle ici les print screen du gestionnaire de fichier dsm (tous les onglet non vide) et le "cat /proc/mdstat" pour que l'on ait tout sous la main

Lien vers le commentaire
Partager sur d’autres sites

Salut à toi et merci pour ta réponse,

Alors, je ne pense pas avoir inversé les disques dans le Nas, ils sont à la verticale et le disque est celui de gauche, où il y'a un seul petit point au-dessus du disque.

Le second disque est dans l'emplacement de droite où il y'a deux petits points au-dessus.

Il me semble que je n'ai rien tapé d'autre, mais dans le doute, je ne t'affirmerais rien.

 

Voici le "cat /proc/mdstat" et les captures du gestionnaire de stockage où il y'a quelque chose:

 

NAS-Synology> cat /proc/mdstat  

Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 

md3 : active raid1 sdb3[0]

      2925444544 blocks super 1.2 [1/1]

      

md2 : active raid1 sda5[0](E)

      2925435264 blocks super 1.2 [2/1] [E_]

      

md1 : active raid1 sda2[0] sdb2[1]

      2097088 blocks [2/2] [UU]

      

md0 : active raid1 sda1[0] sdb1[1]

      2490176 blocks [2/2] [UU]

      

unused devices: <none>

NAS-Synology> 

http://hpics.li/f5ae914

http://hpics.li/51c580e

http://hpics.li/c66af18

http://hpics.li/c917b7b

http://hpics.li/84bc032

http://hpics.li/15016d6

 

Modifié par yoshimovi
Lien vers le commentaire
Partager sur d’autres sites

il y a 2 minutes, gaetan.cambier a déclaré:

tu me tape cette commande : (et tu me renvoit toujours le retours de toutes les commande ;))


 mdadm --detail /dev/md2

 

La voici :

NAS-Synology> mdadm --detail /dev/md2

/dev/md2:

        Version : 1.2

  Creation Time : Fri Mar 13 18:57:46 2015

     Raid Level : raid1

     Array Size : 2925435264 (2789.91 GiB 2995.65 GB)

  Used Dev Size : 2925435264 (2789.91 GiB 2995.65 GB)

   Raid Devices : 2

  Total Devices : 1

    Persistence : Superblock is persistent

 

    Update Time : Sun Nov  8 01:19:41 2015

          State : clean, degraded

 Active Devices : 1

Working Devices : 1

 Failed Devices : 0

  Spare Devices : 0

 

           Name : NAS-Synology:2  (local to host NAS-Synology)

           UUID : 9dabf5f6:11d12dae:818b8f41:a0745435

         Events : 19639

 

    Number   Major   Minor   RaidDevice State

       0       8        5        0      active sync   /dev/sda5

       1       0        0        1      removed

Lien vers le commentaire
Partager sur d’autres sites

NAS-Synology> mdadm --grow --raid-devices=1 --force /dev/md2

mdadm: max_devs [384] of [/dev/md2]

mdadm: Cannot set raid-devices for /dev/md2: Invalid argument

NAS-Synology> mdadm --detail /dev/md2

/dev/md2:

        Version : 1.2

  Creation Time : Fri Mar 13 18:57:46 2015

     Raid Level : raid1

     Array Size : 2925435264 (2789.91 GiB 2995.65 GB)

  Used Dev Size : 2925435264 (2789.91 GiB 2995.65 GB)

   Raid Devices : 2

  Total Devices : 1

    Persistence : Superblock is persistent

 

    Update Time : Sun Nov  8 12:14:46 2015

          State : clean, degraded

 Active Devices : 1

Working Devices : 1

 Failed Devices : 0

  Spare Devices : 0

 

           Name : NAS-Synology:2  (local to host NAS-Synology)

           UUID : 9dabf5f6:11d12dae:818b8f41:a0745435

         Events : 19646

 

    Number   Major   Minor   RaidDevice State

       0       8        5        0      active sync   /dev/sda5

       1       0        0        1      removed

NAS-Synology> cat /proc/mstat

cat: can't open '/proc/mstat': No such file or directory

Lien vers le commentaire
Partager sur d’autres sites

bon, on passe en mode debug (plus d'interface graphique ni autres service, c normal)

syno_poweroff_task -d
mdadm --stop /dev/md2
mdadm --create --assume-clean --level=1 --raid-devices=1 /dev/md2 /dev/sda5
mdadm --assemble /dev/md2 /dev/sda5
cat /proc/mdstat

ca me semble un bon debut

Lien vers le commentaire
Partager sur d’autres sites

il y a 34 minutes, gaetan.cambier a déclaré:

bon, on passe en mode debug (plus d'interface graphique ni autres service, c normal)


syno_poweroff_task -d
mdadm --stop /dev/md2
mdadm --create --assume-clean --level=1 --raid-devices=1 /dev/md2 /dev/sda5
mdadm --assemble /dev/md2 /dev/sda5
cat /proc/mdstat

ca me semble un bon debut

Allez, c'est parti, je lance ça et je te met le résultat quand c'est terminé

Déjà ça et la dernière n'est pas encore finie

NAS-Synology> syno_poweroff_task -d

NAS-Synology> mdadm --stop /dev/md2

mdadm: stopped /dev/md2

NAS-Synology> mdadm --create --assume-clean --level=1 --raid-devices=1 /dev/md2 

/dev/sda5

mdadm: '1' is an unusual number of drives for an array, so it is probably

     a mistake.  If you really mean it you will need to specify --force before

     setting the number of drives.

NAS-Synology> mdadm --assemble /dev/md2 /dev/sda5

mdadm: device 0 in /dev/md2 has wrong state in superblock, but /dev/sda5 seems ok

mdadm: /dev/md2 has been started with 1 drive (out of 2).

NAS-Synology> cat /proc/mdstat

Lien vers le commentaire
Partager sur d’autres sites

ok, ctrl-c si la dernière commande ne passe pas, toute facon, j'ai oublié un tric, on recommence ainsi :

mdadm --stop /dev/md2
mdadm --create --assume-clean --force --level=1 --raid-devices=1 /dev/md2 /dev/sda5
mdadm --assemble /dev/md2 /dev/sda5
cat /proc/mdstat

et c repartit ;)

Lien vers le commentaire
Partager sur d’autres sites

ok, il me demande :

Continue creating array?

je pense que je dis oui ?

Voici le résultat :

NAS-Synology> mdadm --stop /dev/md2   

mdadm: stopped /dev/md2

NAS-Synology> mdadm --create --assume-clean --force --level=1 --raid-devices=1 /

dev/md2 /dev/sda5

mdadm: /dev/sda5 appears to be part of a raid array:

    level=raid1 devices=1 ctime=Sun Nov  8 14:27:12 2015

mdadm: Note: this array has metadata at the start and

    may not be suitable as a boot device.  If you plan to

    store '/boot' on this device please ensure that

    your boot-loader understands md/v1.x metadata, or use

    --metadata=0.90

Continue creating array? y

Continue creating array? (y/n) Continue creating array? (y/n) y

mdadm: Defaulting to version 1.2 metadata

mdadm: array /dev/md2 started.

La suite :

NAS-Synology> mdadm --assemble /dev/md2 /dev/sda5

mdadm: cannot open device /dev/sda5: Device or resource busy

mdadm: /dev/sda5 has no superblock - assembly aborted

NAS-Synology> cat /proc/mdstat

Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 

md2 : active raid1 sda5[0]

      2925435456 blocks super 1.2 [1/1]

      

md3 : active raid1 sdb3[0]

      2925444544 blocks super 1.2 [1/1]

      

md1 : active raid1 sda2[0] sdb2[1]

      2097088 blocks [2/2] [UU]

      

md0 : active raid1 sda1[0] sdb1[1]

      2490176 blocks [2/2] [UU]

      

unused devices: <none>

Lien vers le commentaire
Partager sur d’autres sites

Voilà :

 

NAS-Synology> vgchange -ay

  1 logical volume(s) in volume group "vg1000" now active

NAS-Synology> pvs

  PV         VG     Fmt  Attr PSize PFree

  /dev/md2   vg1000 lvm2 a-   2.72T    0 

NAS-Synology> vgs

  VG     #PV #LV #SN Attr   VSize VFree

  vg1000   1   1   0 wz--n- 2.72T    0 

NAS-Synology> lvs

  LV   VG     Attr   LSize Origin Snap%  Move Log Copy%  Convert

  lv   vg1000 -wi-a- 2.72T   

Lien vers le commentaire
Partager sur d’autres sites

bon donct on a 2 solution ;:

soit tout refonctionne dans le nas au redemmarage , et c'est resolu

soit, le dsm ne veux pas le remonter le disque, et faudra deplacer tes donnée en ligne de commande pour recréer le volume via le dsm

mais bon, l'important, c'est que les données doit là ;)

la dernière commande est 

reboot

je crois que je doit pas la détaillé ;)

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.