Aller au contenu

Messages recommandés

Posté(e)

Bonjour

J'ai un DS918+ depuis 5 ans avec 4 disques de 6 To WD Red Pro NAS - DSM à jour (7.1.1-42962) - BTRFS en Raid 4 ou 5, je ne sais plus - un seul volume global
Il y a un peu plus d'un mois, alerte sur les disques 2, 3 et 4 me conseillant de décocher les caches en écriture - je m'execute.
J'en profite pour appliquer la reco Syno : déclencher un nettoyage des données (qui ne se terminera pas avec succés le lendemain)
Puis il y a 15 jours, série de mails m'avertissant de "Détection d'une panne d'alimentation anormale qui s'est produite sur Disque 2, 3 et 4"
Alors que je suis à distance, on m'avertit d'un bip récurrent et sans fin - le NAS est alors éteint en attendant mon retour.
A mon retour, j'en profite pour faire ménage poussière approfondi. 
Et redémarrage ... 15 secondes et coup de pétard ... Le transfo 12V vient de rendre l'âme.
Je profite de l'attente de la commande du nouveau transfo pour :
- vérifier sur un PC un à un
l'état de santé des disques qui au dernier rapport mensuel étaient tous sain - les rapports SMART (Crystal Info et WD Analysis) sont tous OK
- voyant dans le forum que quelqu'un avait eu des soucis de pile mémoire, je la change.
Le transfo est livré - je rebranche tout ça et on tente le démarrage ...
Le disque 1 démarre, le 2 laisse entendre un mouvement répétitif de dépalcement de tête de lecture ... pas terrible
Je crois que le 3 fait pareil mais pas sûr - bref au bout d'un moment, enfin les disques sont OK (LED verte fixe), mais le statut global clignote vert.
Je tente alors une connexion et là, la débandade, les 4 LED disques s'éteignent ..., le bruit de tete de lecture recommence ... bref je stoppe le NAS par appui proloné sur bouton ON/OFF.
Plusieurs tentatives de connexion qui en guise de connexion proposent d'installer dernière version DSM alors que les infos appareil sont :
Infos appareil
Nom de serveur : DiskStation
Adresse IP : 192.168.1.80
Adresse MAC : 00:11:##:##.##.##
Numéro de série : (c'est le bon)
Version du DSM : 7.1.1-42962
Nom de modéle: DS918+
Statut: Non installé

Dernier point de situation : les led disques ne s'allument plus, le disque 2 fait son bruit récurrent (toutes les secondes) - seul la LED statu global clignote en vert - on entend des disques qui redémarrent, mais rien n'aboutit aprés plus d'une demi-heure d'attente - mais l'arrêt simple n'aboutit pas - obligé de forcer par appui 10 secondes sur ON/OFF.

Mon objectif premier et prioritaire est la conservation des données (environ 7 To)
Je suis à l'écoute de toute stratégie de débugage de cette affaire 
PS En désespoir de cause , j'envisage la récup des données via la procédure Syno avec un OS Ubuntu - il faut juste que je commande un HDD de 8 ou 10 To ...

Cordialement 

Posté(e)

Comment sait tu que tel ou tel disque fait du bruit ? Les 4 sont censés tourner ne même temps dans un espace restreint donc c'est assez compliqué de savoir non?

Posté(e)
Il y a 11 heures, _DR64_ a dit :

Comment sait tu que tel ou tel disque fait du bruit ? Les 4 sont censés tourner ne même temps dans un espace restreint donc c'est assez compliqué de savoir non?

Bonjour
Au démarrage, les 4 disques ne démarrent pas en même temps au start électrique du NAS ! D'abord le 1, puis 20 à 30 sec plus tard, le 2, etc 
Donc avec une oreille proche du Syno, a priori, on sait lequel "accroche" au démarrage tout au moins ...
Aprés la phase de démarrage, une fois les 4 disques en "vitesse de croisière", je te donne raison : on ne peut guère deviner lequel fais tel ou tel bruit car c'est un quatuor bien groupé qui murmure !  😉 Et quand il y en a un qui a le ventre qui gargouille, tu ne peux pas savoir lequel.

  • 2 semaines après...
Posté(e)

Hello, j'avance sur le sujet !
Mes 4 disques sont sains mais quand ils sont en place dans le NAS, le système me propose d'installer DSM et donc de virer les données ...
Si je mets un disque vierge seul dans le NAS, je fais une install et ca marche donc NAS OK lui aussi.
Alors, j'en suis donc au point où les disques sont OK mais pas dans le NAS , et d'un autre coté, le NAS est OK lui aussi mais sans les disques de mon volume RAID !
Une procédure pour concillier tout ça, sans toucher aux données ?
PS : ma tentative de recup des données sur un PC (selon procédure Syno) était bien partie et m'a permis de reconstituer le groupe RAID 5
Mais une fois le groupe RAID réactivé sur le PC, mon PC ne peut avoir des disques RAID et non RAID à la fois ! (S'il y a une méthode, je suis preneur !)
Dans l'attente de vos conseils ...
D'avance, un grans merci.
Cordialement

Posté(e) (modifié)

Salut,

As-tu une sauvegarde récente des données ?
Autre chose, as-tu essayé de démarrer en enlevant un disque alternativement ?

Modifié par .Shad.
Posté(e)

Bonjour .Shad.
Eh non, hélas, je n'ai pas de sauvegarde (mais j'ai compris la leçon - dés que ca refonctionne, je m'en occupe !)
Concernant ce test de tester les disques en les chaneant de slot, ou en les mettant un par un, je trouve des infos contradictoires quand à la survie des données en place. 
Je suis ouvert à tous les tests, mais ma hantise est la survie des données.
Il y a une procédure de reset (M.1 et M.2) - Est-ce que ca ne touche vraiment pas aux données ?
Ce que tu proposes, c'est de faire 4 tests en retirant tour à tour le 1, le 2, etc ... - Je crois avoir dejà pour un seul, mais ca n'aboutissait pas - je suis prêt à refaire avec méthode si tu m'assures qu'il n'y a rien à craindre pour les données !
J'attends ton GO et je fais ! Voire indique moi les informations à checker (LED, connexion, etc)
Merci d'avance pour ton aide .

Posté(e)

Il n'est pas du tout recommandé de sortir des disques d'un groupe en opération car cela introduit des erreurs de parités. Ces erreurs peuvent parfois être réparés mais le plus souvent le disque est éjecté du groupe et il faut faire une reconstruction pour le réintroduire.

De même, on ne peut pas démarrer un groupe sans le totalité des disques qui le compose car on s'expose à ces mêmes erreurs.

Il se peut au final que toutes les manipulations qui ont été faites aient endommagé le groupe. Néanmoins, le RAID a pu semble t'il être retrouvé sur le PC. On pourrait supposé qu'il est encore viable.

Comme le NAS semble fonctionner avec un seul disque dans la baie 1 et qu'il y a eu des alarmes d'alimentation sur les autres baies, il serait judicieux de tester ces baies en refaisant une installation avec un seul disque dans la baie 2 puis dans la 3 et enfin dans la 4. L'installation n'est peut-être pas indispensable, le simple déplacement du disque de baie en baie peut fonctionner.

Question : le nouveau bloc d'alimentation est-il identique à celui d'origine ? Sinon, est-ce que ses caractéristiques sont au minimum identiques ?

Posté(e)

Bonjour Mic13710
Merci pour ce retour.
Le bloc d'alim d'origine a duré 4 ans
Le deuxième, compatible dédié Syno, (aux caractéristiques identiques de celui dorigine : 12V, 100W, 8.33A) a duré un an
Le dernier, compatible dédié Syno, est légérement plus puissant : 12V, 120W, donc 10A afin de pouvoir mieux encaisser.

Suite à tes indications, je m'attaque de ce pas à l'install avec un seul disque sur le slot 1, puis 2, etc 
Sur le 1, (fait hier soir) c'est nickel - donc je vais faire illico les 3 autres et je rends compte.

Posté(e)

Je récapitule :
Conditions test : DS918+ (DSM 7.1.1-42962 upd 6) avec un seul disque (IronWolf Pro 14 Tb)
Slot 1 : disque étant vierge, propose install DSM - OK - je personnalise user admin et crée un groupe de stockage de 10 To
Slot 2 : démarrage OK - connexion OK (on retrouve l'install faite lors de la session sur le slot 1)
Slot 3 : démarrage OK - connexion OK (on retrouve l'install faite lors de la session sur le slot 1)
Slot 4 : démarrage OK - connexion OK (on retrouve l'install faite lors de la session sur le slot 1)
A chaque fois, au bout de 3 minutes environ, les LED (alim, status, et disque) se stabilisent fixes.

Je m'interroge sur un reset M.2 pour qu'il y ait reinstall DSM SANS TOUCHER AUX DONNEES quitte à redéfinir la config, les users, etc 
Ca le ferait ?

Posté(e)

La nuit porte conseil paraît il

En l'occurrence, avant même la nuit, il me vient une réflexion : le reset n'est possible qu'après un démarrage "complet" ... justement, mon souci est que le démarrage du NAS ne va pas jusqu'au bout ... donc ...

Posté(e)

Bonjour Jeff777
Oui, j'ai ouvert un ticket hier matin - je suis en attente de leur retour !
Je ne connais pas leur réactivité, mais pour l'instant, je n'ai aucune raison pour ne pas penser qu'ils font au mieux.
Je vais peut-être reprendre mes essais de récupration des données sur PC - j'etais bloqué car à partir du moment où le groupe de 4 disques a été réassemblé et reconnu en tant que RAID, il fallait passer les paramètres SATA (au niveau du BIOS) en RAID au lieu de AHCI, et du coup, ce sont les disques non RAID qui eux n'etaient plus reconnu et accessibles - entre autres, le SSD gérant l'OS Ubuntu 20.04, et le disque qui recevra les données récupérées ! Donc coincé.
Il faut que je creuse le sujet - mais si quelqu'un a de l'expérience sur le sujet ... je suis preneur !

Posté(e)

Bonjour Mic13710

Désolé pour le silence - Synology avait la main sur le NAS et je ne voulais pas perturbé !
Pour l'instant, les retours ne sont pas optimistes et du coup je reprends la récuperation des données sous Ubuntu !
Voici donc le contenu de "mdstat" :
 

root <> ~ >> cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md2 : active raid5 sdd5[2] sdc5[1] sde5[3] sdb5[0]
      17567074368 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
      
unused devices: <none>

Au niveau des parametres SATA dans le BIOS du PC, je suis en AHCI pour l'instant, pas en RAID, ce qui me vaut quelques insultes au démarrage
Mais je vois quand meme les disques dans "Disques"

par contre au niveau de la "fstab", elle ne référence pas les 4 disques du NAS, sinon ça bloque au démarrage
Il faut que je gère mon point de montage manuellement, si mes souvenirs Linux sont exacts !

root <> ~ >> cat /etc/fstab
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
# / was on /dev/sda2 during installation
UUID=4aedce24-80bb-42b5-b610-1318a661a007 /               ext4    errors=remount-ro 0       1
# /boot/efi was on /dev/sda1 during installation
UUID=F88A-A881  /boot/efi       vfat    umask=0077      0       1
/swapfile                                 none            swap    sw              0       0

j'ai backupé ma fstab avec les volumes RAID - mais si je la mets en ligne, ca va coincé de mémoire !
 

root <> /etc >> cat fstab.raid
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
# / was on /dev/sda2 during installation
UUID=4aedce24-80bb-42b5-b610-1318a661a007 /               ext4    errors=remount-ro 0       1
# /boot/efi was on /dev/sda1 during installation
UUID=F88A-A881  /boot/efi       vfat    umask=0077      0       1
# Les 4 RAID assembles
/dev/md127      /home/didier/SRC       ext4   ro              0       0

# Cible de recuperation
# UUID=8fd4109d-badc-48c3-a6fa-bbf23debb8ac      ext4  rw   0       0  

# SWAP
/swapfile                                 none            swap    sw              0       0

Comment faire pour arriver à voir mon arborescence du groupe de stockage du NAS constitué par les 4 disques : sdb, sdc, sdd et sde ?

Posté(e)

Complément d'info :

------------------------------------------------------------------------------
root <> /dev >> mdadm --detail /dev/md2
/dev/md2:
           Version : 1.2
     Creation Time : Tue Nov  7 20:29:31 2017
        Raid Level : raid5
        Array Size : 17567074368 (16.36 TiB 17.99 TB)
     Used Dev Size : 5855691456 (5.45 TiB 6.00 TB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sat Oct  7 01:57:51 2023
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : resync

              Name : Aladin:2
              UUID : df949868:874e4f99:55d2cc1f:50cc50bc
            Events : 8056

    Number   Major   Minor   RaidDevice State
       0       8       21        0      active sync   /dev/sdb5
       1       8       37        1      active sync   /dev/sdc5
       2       8       53        2      active sync   /dev/sdd5
       3       8       69        3      active sync   /dev/sde5
------------------------------------------------------------------------------

l'assemblage du groupe RAID des 4 disques semble OK
je me dis qu'il ne reste qu'à faire le point de montage ... mais ca rale !
Il se peut aussi que ma syntaxe ne soit pas correcte ...

------------------------------------------------------------------------------
root <> / >> mount /dev/vg1000/lv /home/didier/SRC -o ro
mount: /home/didier/SRC: impossible de lire le superbloc à l’adresse /dev/mapper/vg1000-lv.

------------------------------------------------------------------------------

Posté(e)

Malheureusement, le RAID est bien monté oui, mais uniquement sur la partition md2 qui est le swap. La md1 (celle du système) est absente ainsi que celle des données (md3 ou md5).

Est-ce que vous avez bien lancé lvm2 (important si vos disques sont en SHR) ?

Que donne les commandes suivantes ?

vgdisplay
parted --list
df -h

 

Posté(e)

Bonsoir !

Dans la procédure de la KB syno (Comment puis-je utiliser un PC pour récupérer des données en cas de dysfonctionnement de mon Synology NAS ?),
à part l'install de lvm2, il n'est pas spécifié qu'il faut le lancer ! Mais tu as raison, c'est assez sensé ... Quand on est un peu novice, on n'y pense pas.
Si vous pensez à une commande en particulier, je suis preneur - sinon, je chercherai.

Pour répondre à vos trois commandes :

 

vgdisplay

 

root <> /etc/mdadm >> vgdisplay
  WARNING: PV /dev/md2 in VG vg1000 is using an old PV header, modify the VG to update.
  --- Volume group ---
  VG Name               vg1000
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  2
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               16,36 TiB
  PE Size               4,00 MiB
  Total PE              4288836
  Alloc PE / Size       4288836 / 16,36 TiB
  Free  PE / Size       0 / 0   
  VG UUID               bytJV1-KDCo-nJMs-Tq5p-EFp4-Y15h-UA3xb2
   

 

parted --list

root <> / >> parted --list
Modèle : ATA CT240BX500SSD1 (scsi)
Disque /dev/sda : 240GB
Taille des secteurs (logiques/physiques) : 512B/512B
Table de partitions : gpt
Drapeaux de disque : 

Numéro  Début   Fin    Taille  Système de fichiers  Nom                   Drapeaux
 1      1049kB  538MB  537MB   fat32                EFI System Partition  démarrage, esp
 2      538MB   240GB  240GB   ext4


Modèle : ATA WDC WD6002FFWX-6 (scsi)
Disque /dev/sdb : 6001GB
Taille des secteurs (logiques/physiques) : 512B/4096B
Table de partitions : gpt
Drapeaux de disque : 

Numéro  Début   Fin     Taille  Système de fichiers  Nom  Drapeaux
 1      1049kB  2551MB  2550MB  ext4                      raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)            raid
 5      4840MB  6001GB  5996GB                            raid


Modèle : ATA WDC WD6002FFWX-6 (scsi)
Disque /dev/sdc : 6001GB
Taille des secteurs (logiques/physiques) : 512B/4096B
Table de partitions : gpt
Drapeaux de disque : 

Numéro  Début   Fin     Taille  Système de fichiers  Nom  Drapeaux
 1      1049kB  2551MB  2550MB  ext4                      raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)            raid
 5      4840MB  6001GB  5996GB                            raid


Modèle : ATA WDC WD6002FFWX-6 (scsi)
Disque /dev/sdd : 6001GB
Taille des secteurs (logiques/physiques) : 512B/4096B
Table de partitions : gpt
Drapeaux de disque : 

Numéro  Début   Fin     Taille  Système de fichiers  Nom  Drapeaux
 1      1049kB  2551MB  2550MB  ext4                      raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)            raid
 5      4840MB  6001GB  5996GB                            raid


Modèle : ATA WDC WD6002FFWX-6 (scsi)
Disque /dev/sde : 6001GB
Taille des secteurs (logiques/physiques) : 512B/4096B
Table de partitions : gpt
Drapeaux de disque : 

Numéro  Début   Fin     Taille  Système de fichiers  Nom  Drapeaux
 1      1049kB  2551MB  2550MB  ext4                      raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)            raid
 5      4840MB  6001GB  5996GB                            raid


Modèle : Mappeur de périphériques Linux (linear) (dm)
Disque /dev/mapper/vg1000-lv : 18,0TB
Taille des secteurs (logiques/physiques) : 512B/4096B
Table de partitions : loop
Drapeaux de disque : 

Numéro  Début  Fin     Taille  Système de fichiers  Drapeaux
 1      0,00B  18,0TB  18,0TB  btrfs


Erreur: /dev/md2 : étiquette de disque inconnue
Modèle : Grappe RAID logiciel Linux (md)                                  
Disque /dev/md2 : 18,0TB
Taille des secteurs (logiques/physiques) : 512B/4096B
Table de partitions : unknown
Drapeaux de disque : 

Concernant l'erreur : /dev/md2 : étiquette de disque inconnue
Je pense que ça vient du fait que je n'ai pas re-installé dans le PC (car il est encore dans le NAS) le gros disque que je destinais à la récupération des données.

root <> / >> df -h
Sys. de fichiers Taille Utilisé Dispo Uti% Monté sur
tmpfs              1,6G    2,1M  1,6G   1% /run
/dev/sda2          219G     14G  194G   7% /
tmpfs              7,8G       0  7,8G   0% /dev/shm
tmpfs              5,0M    4,0K  5,0M   1% /run/lock
/dev/sda1          511M    6,1M  505M   2% /boot/efi
tmpfs              1,6G    112K  1,6G   1% /run/user/1000

Au plaisir de vous lire.

Posté(e)

Hello
 

Je repart sur un ubuntu tout neuf pour ne pas être impacté par les erreurs du passé !
Et je tente de dérouler la procédure de la KB Syno (How_can_I_recover_data_from_my_DiskStation_using_a_PC)
Install mdadm et lvm2 : OK
et on passe à la commande d'assemblage :

root <> / >> mdadm -AsfR
mdadm: No arrays found in config file or automatically

Ca calme vite !
Du coup, je fais deux contrôles :
 

------------------------------------------------------------------------------
root <> /dev/md >> mdadm --detail /dev/md127
/dev/md127:
           Version : 1.2
     Creation Time : Tue Nov  7 20:29:31 2017
        Raid Level : raid5
        Array Size : 17567074368 (16.36 TiB 17.99 TB)
     Used Dev Size : 5855691456 (5.45 TiB 6.00 TB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Sat Oct  7 01:57:51 2023
             State : clean 
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : resync

              Name : Aladin:2
              UUID : df949868:874e4f99:55d2cc1f:50cc50bc
            Events : 8056

    Number   Major   Minor   RaidDevice State
       0       8       21        0      active sync   /dev/sdb5
       1       8       37        1      active sync   /dev/sdc5
       2       8       53        2      active sync   /dev/sdd5
       3       8       69        3      active sync   /dev/sde5

------------------------------------------------------------------------------

et des recherches d'infos sur les partitions *5 des 4 disques (qui sont celles qui a priori contiennent les données)
 

------------------------------------------------------------------------------
root <> ~ >> mdadm --examine /dev/sdb5
/dev/sdb5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : df949868:874e4f99:55d2cc1f:50cc50bc
           Name : Aladin:2
  Creation Time : Tue Nov  7 20:29:31 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 11711382912 sectors (5.45 TiB 6.00 TB)
     Array Size : 17567074368 KiB (16.36 TiB 17.99 TB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=0 sectors
          State : clean
    Device UUID : 925d9e5e:4f592d9f:88bf1059:a7ff0c3a

    Update Time : Sat Oct  7 01:57:51 2023
       Checksum : e1f7fef3 - correct
         Events : 8056

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 0
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)

------------------------------------------------------------------------------
root <> ~ >> mdadm --examine /dev/sdc5
/dev/sdc5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : df949868:874e4f99:55d2cc1f:50cc50bc
           Name : Aladin:2
  Creation Time : Tue Nov  7 20:29:31 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 11711382912 sectors (5.45 TiB 6.00 TB)
     Array Size : 17567074368 KiB (16.36 TiB 17.99 TB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=0 sectors
          State : clean
    Device UUID : e098bbf7:028d39db:2761d68c:e8cfad66

    Update Time : Sat Oct  7 01:57:51 2023
       Checksum : 1787dfd7 - correct
         Events : 8056

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)

------------------------------------------------------------------------------
root <> ~ >> mdadm --examine /dev/sdd5
/dev/sdd5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : df949868:874e4f99:55d2cc1f:50cc50bc
           Name : Aladin:2
  Creation Time : Tue Nov  7 20:29:31 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 11711382912 sectors (5.45 TiB 6.00 TB)
     Array Size : 17567074368 KiB (16.36 TiB 17.99 TB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=0 sectors
          State : clean
    Device UUID : 08d35499:c5c1b977:b471db5f:dca8d83e

    Update Time : Sat Oct  7 01:57:51 2023
       Checksum : d13843 - correct
         Events : 8056

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 2
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)

------------------------------------------------------------------------------
root <> ~ >> mdadm --examine /dev/sde5
/dev/sde5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : df949868:874e4f99:55d2cc1f:50cc50bc
           Name : Aladin:2
  Creation Time : Tue Nov  7 20:29:31 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 11711382912 sectors (5.45 TiB 6.00 TB)
     Array Size : 17567074368 KiB (16.36 TiB 17.99 TB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=0 sectors
          State : clean
    Device UUID : 3cdd6036:2f532f54:2771d971:79a32a47

    Update Time : Sat Oct  7 01:57:51 2023
       Checksum : 94a2cdf1 - correct
         Events : 8056

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 3
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)

------------------------------------------------------------------------------

Du coup, je ne sais plus quoi faire !
Si quelqu'un peut me faire part de ses lumières car je suis complétement désemparé alors que je sens que ca ne tient qu'à une commande magique ...
Je reste à votre disposition pour fournir toutes informations - Je compte sur vous !

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.