Doonet Posté(e) le 29 septembre 2023 Posté(e) le 29 septembre 2023 Bonjour J'ai un DS918+ depuis 5 ans avec 4 disques de 6 To WD Red Pro NAS - DSM à jour (7.1.1-42962) - BTRFS en Raid 4 ou 5, je ne sais plus - un seul volume global Il y a un peu plus d'un mois, alerte sur les disques 2, 3 et 4 me conseillant de décocher les caches en écriture - je m'execute. J'en profite pour appliquer la reco Syno : déclencher un nettoyage des données (qui ne se terminera pas avec succés le lendemain) Puis il y a 15 jours, série de mails m'avertissant de "Détection d'une panne d'alimentation anormale qui s'est produite sur Disque 2, 3 et 4" Alors que je suis à distance, on m'avertit d'un bip récurrent et sans fin - le NAS est alors éteint en attendant mon retour. A mon retour, j'en profite pour faire ménage poussière approfondi. Et redémarrage ... 15 secondes et coup de pétard ... Le transfo 12V vient de rendre l'âme. Je profite de l'attente de la commande du nouveau transfo pour : - vérifier sur un PC un à un l'état de santé des disques qui au dernier rapport mensuel étaient tous sain - les rapports SMART (Crystal Info et WD Analysis) sont tous OK - voyant dans le forum que quelqu'un avait eu des soucis de pile mémoire, je la change. Le transfo est livré - je rebranche tout ça et on tente le démarrage ... Le disque 1 démarre, le 2 laisse entendre un mouvement répétitif de dépalcement de tête de lecture ... pas terrible Je crois que le 3 fait pareil mais pas sûr - bref au bout d'un moment, enfin les disques sont OK (LED verte fixe), mais le statut global clignote vert. Je tente alors une connexion et là, la débandade, les 4 LED disques s'éteignent ..., le bruit de tete de lecture recommence ... bref je stoppe le NAS par appui proloné sur bouton ON/OFF. Plusieurs tentatives de connexion qui en guise de connexion proposent d'installer dernière version DSM alors que les infos appareil sont : Infos appareil Nom de serveur : DiskStation Adresse IP : 192.168.1.80 Adresse MAC : 00:11:##:##.##.## Numéro de série : (c'est le bon) Version du DSM : 7.1.1-42962 Nom de modéle: DS918+ Statut: Non installé Dernier point de situation : les led disques ne s'allument plus, le disque 2 fait son bruit récurrent (toutes les secondes) - seul la LED statu global clignote en vert - on entend des disques qui redémarrent, mais rien n'aboutit aprés plus d'une demi-heure d'attente - mais l'arrêt simple n'aboutit pas - obligé de forcer par appui 10 secondes sur ON/OFF. Mon objectif premier et prioritaire est la conservation des données (environ 7 To) Je suis à l'écoute de toute stratégie de débugage de cette affaire PS : En désespoir de cause , j'envisage la récup des données via la procédure Syno avec un OS Ubuntu - il faut juste que je commande un HDD de 8 ou 10 To ... Cordialement 0 Citer
_DR64_ Posté(e) le 29 septembre 2023 Posté(e) le 29 septembre 2023 Comment sait tu que tel ou tel disque fait du bruit ? Les 4 sont censés tourner ne même temps dans un espace restreint donc c'est assez compliqué de savoir non? 0 Citer
Doonet Posté(e) le 30 septembre 2023 Auteur Posté(e) le 30 septembre 2023 Il y a 11 heures, _DR64_ a dit : Comment sait tu que tel ou tel disque fait du bruit ? Les 4 sont censés tourner ne même temps dans un espace restreint donc c'est assez compliqué de savoir non? Bonjour Au démarrage, les 4 disques ne démarrent pas en même temps au start électrique du NAS ! D'abord le 1, puis 20 à 30 sec plus tard, le 2, etc Donc avec une oreille proche du Syno, a priori, on sait lequel "accroche" au démarrage tout au moins ... Aprés la phase de démarrage, une fois les 4 disques en "vitesse de croisière", je te donne raison : on ne peut guère deviner lequel fais tel ou tel bruit car c'est un quatuor bien groupé qui murmure ! 😉 Et quand il y en a un qui a le ventre qui gargouille, tu ne peux pas savoir lequel. 0 Citer
Doonet Posté(e) le 8 octobre 2023 Auteur Posté(e) le 8 octobre 2023 Hello, j'avance sur le sujet ! Mes 4 disques sont sains mais quand ils sont en place dans le NAS, le système me propose d'installer DSM et donc de virer les données ... Si je mets un disque vierge seul dans le NAS, je fais une install et ca marche donc NAS OK lui aussi. Alors, j'en suis donc au point où les disques sont OK mais pas dans le NAS , et d'un autre coté, le NAS est OK lui aussi mais sans les disques de mon volume RAID ! Une procédure pour concillier tout ça, sans toucher aux données ? PS : ma tentative de recup des données sur un PC (selon procédure Syno) était bien partie et m'a permis de reconstituer le groupe RAID 5 Mais une fois le groupe RAID réactivé sur le PC, mon PC ne peut avoir des disques RAID et non RAID à la fois ! (S'il y a une méthode, je suis preneur !) Dans l'attente de vos conseils ... D'avance, un grans merci. Cordialement 0 Citer
.Shad. Posté(e) le 8 octobre 2023 Posté(e) le 8 octobre 2023 (modifié) Salut, As-tu une sauvegarde récente des données ? Autre chose, as-tu essayé de démarrer en enlevant un disque alternativement ? Modifié le 8 octobre 2023 par .Shad. 0 Citer
Doonet Posté(e) le 9 octobre 2023 Auteur Posté(e) le 9 octobre 2023 Bonjour .Shad. Eh non, hélas, je n'ai pas de sauvegarde (mais j'ai compris la leçon - dés que ca refonctionne, je m'en occupe !) Concernant ce test de tester les disques en les chaneant de slot, ou en les mettant un par un, je trouve des infos contradictoires quand à la survie des données en place. Je suis ouvert à tous les tests, mais ma hantise est la survie des données. Il y a une procédure de reset (M.1 et M.2) - Est-ce que ca ne touche vraiment pas aux données ? Ce que tu proposes, c'est de faire 4 tests en retirant tour à tour le 1, le 2, etc ... - Je crois avoir dejà pour un seul, mais ca n'aboutissait pas - je suis prêt à refaire avec méthode si tu m'assures qu'il n'y a rien à craindre pour les données ! J'attends ton GO et je fais ! Voire indique moi les informations à checker (LED, connexion, etc) Merci d'avance pour ton aide . 0 Citer
.Shad. Posté(e) le 9 octobre 2023 Posté(e) le 9 octobre 2023 Je ne suis pas très calé sur ce sujet-là, je laisse @Mic13710 et @maxou56 donner leur avis, ils sont bien plus compétents en la matière. 0 Citer
Mic13710 Posté(e) le 9 octobre 2023 Posté(e) le 9 octobre 2023 Il n'est pas du tout recommandé de sortir des disques d'un groupe en opération car cela introduit des erreurs de parités. Ces erreurs peuvent parfois être réparés mais le plus souvent le disque est éjecté du groupe et il faut faire une reconstruction pour le réintroduire. De même, on ne peut pas démarrer un groupe sans le totalité des disques qui le compose car on s'expose à ces mêmes erreurs. Il se peut au final que toutes les manipulations qui ont été faites aient endommagé le groupe. Néanmoins, le RAID a pu semble t'il être retrouvé sur le PC. On pourrait supposé qu'il est encore viable. Comme le NAS semble fonctionner avec un seul disque dans la baie 1 et qu'il y a eu des alarmes d'alimentation sur les autres baies, il serait judicieux de tester ces baies en refaisant une installation avec un seul disque dans la baie 2 puis dans la 3 et enfin dans la 4. L'installation n'est peut-être pas indispensable, le simple déplacement du disque de baie en baie peut fonctionner. Question : le nouveau bloc d'alimentation est-il identique à celui d'origine ? Sinon, est-ce que ses caractéristiques sont au minimum identiques ? 0 Citer
Doonet Posté(e) le 9 octobre 2023 Auteur Posté(e) le 9 octobre 2023 Bonjour Mic13710 Merci pour ce retour. Le bloc d'alim d'origine a duré 4 ans Le deuxième, compatible dédié Syno, (aux caractéristiques identiques de celui dorigine : 12V, 100W, 8.33A) a duré un an Le dernier, compatible dédié Syno, est légérement plus puissant : 12V, 120W, donc 10A afin de pouvoir mieux encaisser. Suite à tes indications, je m'attaque de ce pas à l'install avec un seul disque sur le slot 1, puis 2, etc Sur le 1, (fait hier soir) c'est nickel - donc je vais faire illico les 3 autres et je rends compte. 0 Citer
Doonet Posté(e) le 9 octobre 2023 Auteur Posté(e) le 9 octobre 2023 Je récapitule : Conditions test : DS918+ (DSM 7.1.1-42962 upd 6) avec un seul disque (IronWolf Pro 14 Tb) Slot 1 : disque étant vierge, propose install DSM - OK - je personnalise user admin et crée un groupe de stockage de 10 To Slot 2 : démarrage OK - connexion OK (on retrouve l'install faite lors de la session sur le slot 1) Slot 3 : démarrage OK - connexion OK (on retrouve l'install faite lors de la session sur le slot 1) Slot 4 : démarrage OK - connexion OK (on retrouve l'install faite lors de la session sur le slot 1) A chaque fois, au bout de 3 minutes environ, les LED (alim, status, et disque) se stabilisent fixes. Je m'interroge sur un reset M.2 pour qu'il y ait reinstall DSM SANS TOUCHER AUX DONNEES quitte à redéfinir la config, les users, etc Ca le ferait ? 0 Citer
Mic13710 Posté(e) le 9 octobre 2023 Posté(e) le 9 octobre 2023 Que ce soit le reset 1 ou 2, les données ne sont pas touchées. 0 Citer
Doonet Posté(e) le 9 octobre 2023 Auteur Posté(e) le 9 octobre 2023 Merci Mic1317 pour ce retour. Je vais voir à faire un mode 2 pour réinstaller DSM ... A suivre. 0 Citer
Doonet Posté(e) le 9 octobre 2023 Auteur Posté(e) le 9 octobre 2023 La nuit porte conseil paraît il En l'occurrence, avant même la nuit, il me vient une réflexion : le reset n'est possible qu'après un démarrage "complet" ... justement, mon souci est que le démarrage du NAS ne va pas jusqu'au bout ... donc ... 0 Citer
Jeff777 Posté(e) le 10 octobre 2023 Posté(e) le 10 octobre 2023 Bonjour @Doonet Tu es essayé de contacter le support Synology ? 0 Citer
Doonet Posté(e) le 10 octobre 2023 Auteur Posté(e) le 10 octobre 2023 Bonjour Jeff777 Oui, j'ai ouvert un ticket hier matin - je suis en attente de leur retour ! Je ne connais pas leur réactivité, mais pour l'instant, je n'ai aucune raison pour ne pas penser qu'ils font au mieux. Je vais peut-être reprendre mes essais de récupration des données sur PC - j'etais bloqué car à partir du moment où le groupe de 4 disques a été réassemblé et reconnu en tant que RAID, il fallait passer les paramètres SATA (au niveau du BIOS) en RAID au lieu de AHCI, et du coup, ce sont les disques non RAID qui eux n'etaient plus reconnu et accessibles - entre autres, le SSD gérant l'OS Ubuntu 20.04, et le disque qui recevra les données récupérées ! Donc coincé. Il faut que je creuse le sujet - mais si quelqu'un a de l'expérience sur le sujet ... je suis preneur ! 0 Citer
Mic13710 Posté(e) le 10 octobre 2023 Posté(e) le 10 octobre 2023 @Doonet, si vous remontez votre RAID dans un PC, une fois le volume monté, il faudrait dans le terminal passer la commande suivante et poster le résultat. cat /proc/mdstat 0 Citer
Doonet Posté(e) le 12 octobre 2023 Auteur Posté(e) le 12 octobre 2023 Bonjour Mic13710 Désolé pour le silence - Synology avait la main sur le NAS et je ne voulais pas perturbé ! Pour l'instant, les retours ne sont pas optimistes et du coup je reprends la récuperation des données sous Ubuntu ! Voici donc le contenu de "mdstat" : root <> ~ >> cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] md2 : active raid5 sdd5[2] sdc5[1] sde5[3] sdb5[0] 17567074368 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU] unused devices: <none> Au niveau des parametres SATA dans le BIOS du PC, je suis en AHCI pour l'instant, pas en RAID, ce qui me vaut quelques insultes au démarrage Mais je vois quand meme les disques dans "Disques" par contre au niveau de la "fstab", elle ne référence pas les 4 disques du NAS, sinon ça bloque au démarrage Il faut que je gère mon point de montage manuellement, si mes souvenirs Linux sont exacts ! root <> ~ >> cat /etc/fstab # /etc/fstab: static file system information. # # Use 'blkid' to print the universally unique identifier for a # device; this may be used with UUID= as a more robust way to name devices # that works even if disks are added and removed. See fstab(5). # # <file system> <mount point> <type> <options> <dump> <pass> # / was on /dev/sda2 during installation UUID=4aedce24-80bb-42b5-b610-1318a661a007 / ext4 errors=remount-ro 0 1 # /boot/efi was on /dev/sda1 during installation UUID=F88A-A881 /boot/efi vfat umask=0077 0 1 /swapfile none swap sw 0 0 j'ai backupé ma fstab avec les volumes RAID - mais si je la mets en ligne, ca va coincé de mémoire ! root <> /etc >> cat fstab.raid # /etc/fstab: static file system information. # # Use 'blkid' to print the universally unique identifier for a # device; this may be used with UUID= as a more robust way to name devices # that works even if disks are added and removed. See fstab(5). # # <file system> <mount point> <type> <options> <dump> <pass> # / was on /dev/sda2 during installation UUID=4aedce24-80bb-42b5-b610-1318a661a007 / ext4 errors=remount-ro 0 1 # /boot/efi was on /dev/sda1 during installation UUID=F88A-A881 /boot/efi vfat umask=0077 0 1 # Les 4 RAID assembles /dev/md127 /home/didier/SRC ext4 ro 0 0 # Cible de recuperation # UUID=8fd4109d-badc-48c3-a6fa-bbf23debb8ac ext4 rw 0 0 # SWAP /swapfile none swap sw 0 0 Comment faire pour arriver à voir mon arborescence du groupe de stockage du NAS constitué par les 4 disques : sdb, sdc, sdd et sde ? 0 Citer
Doonet Posté(e) le 12 octobre 2023 Auteur Posté(e) le 12 octobre 2023 Complément d'info : ------------------------------------------------------------------------------ root <> /dev >> mdadm --detail /dev/md2 /dev/md2: Version : 1.2 Creation Time : Tue Nov 7 20:29:31 2017 Raid Level : raid5 Array Size : 17567074368 (16.36 TiB 17.99 TB) Used Dev Size : 5855691456 (5.45 TiB 6.00 TB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Sat Oct 7 01:57:51 2023 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K Consistency Policy : resync Name : Aladin:2 UUID : df949868:874e4f99:55d2cc1f:50cc50bc Events : 8056 Number Major Minor RaidDevice State 0 8 21 0 active sync /dev/sdb5 1 8 37 1 active sync /dev/sdc5 2 8 53 2 active sync /dev/sdd5 3 8 69 3 active sync /dev/sde5 ------------------------------------------------------------------------------ l'assemblage du groupe RAID des 4 disques semble OK je me dis qu'il ne reste qu'à faire le point de montage ... mais ca rale ! Il se peut aussi que ma syntaxe ne soit pas correcte ... ------------------------------------------------------------------------------ root <> / >> mount /dev/vg1000/lv /home/didier/SRC -o ro mount: /home/didier/SRC: impossible de lire le superbloc à l’adresse /dev/mapper/vg1000-lv. ------------------------------------------------------------------------------ 0 Citer
Mic13710 Posté(e) le 12 octobre 2023 Posté(e) le 12 octobre 2023 Malheureusement, le RAID est bien monté oui, mais uniquement sur la partition md2 qui est le swap. La md1 (celle du système) est absente ainsi que celle des données (md3 ou md5). Est-ce que vous avez bien lancé lvm2 (important si vos disques sont en SHR) ? Que donne les commandes suivantes ? vgdisplay parted --list df -h 0 Citer
Doonet Posté(e) le 12 octobre 2023 Auteur Posté(e) le 12 octobre 2023 Bonsoir ! Dans la procédure de la KB syno (Comment puis-je utiliser un PC pour récupérer des données en cas de dysfonctionnement de mon Synology NAS ?), à part l'install de lvm2, il n'est pas spécifié qu'il faut le lancer ! Mais tu as raison, c'est assez sensé ... Quand on est un peu novice, on n'y pense pas. Si vous pensez à une commande en particulier, je suis preneur - sinon, je chercherai. Pour répondre à vos trois commandes : vgdisplay root <> /etc/mdadm >> vgdisplay WARNING: PV /dev/md2 in VG vg1000 is using an old PV header, modify the VG to update. --- Volume group --- VG Name vg1000 System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 2 VG Access read/write VG Status resizable MAX LV 0 Cur LV 1 Open LV 0 Max PV 0 Cur PV 1 Act PV 1 VG Size 16,36 TiB PE Size 4,00 MiB Total PE 4288836 Alloc PE / Size 4288836 / 16,36 TiB Free PE / Size 0 / 0 VG UUID bytJV1-KDCo-nJMs-Tq5p-EFp4-Y15h-UA3xb2 parted --list root <> / >> parted --list Modèle : ATA CT240BX500SSD1 (scsi) Disque /dev/sda : 240GB Taille des secteurs (logiques/physiques) : 512B/512B Table de partitions : gpt Drapeaux de disque : Numéro Début Fin Taille Système de fichiers Nom Drapeaux 1 1049kB 538MB 537MB fat32 EFI System Partition démarrage, esp 2 538MB 240GB 240GB ext4 Modèle : ATA WDC WD6002FFWX-6 (scsi) Disque /dev/sdb : 6001GB Taille des secteurs (logiques/physiques) : 512B/4096B Table de partitions : gpt Drapeaux de disque : Numéro Début Fin Taille Système de fichiers Nom Drapeaux 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 6001GB 5996GB raid Modèle : ATA WDC WD6002FFWX-6 (scsi) Disque /dev/sdc : 6001GB Taille des secteurs (logiques/physiques) : 512B/4096B Table de partitions : gpt Drapeaux de disque : Numéro Début Fin Taille Système de fichiers Nom Drapeaux 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 6001GB 5996GB raid Modèle : ATA WDC WD6002FFWX-6 (scsi) Disque /dev/sdd : 6001GB Taille des secteurs (logiques/physiques) : 512B/4096B Table de partitions : gpt Drapeaux de disque : Numéro Début Fin Taille Système de fichiers Nom Drapeaux 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 6001GB 5996GB raid Modèle : ATA WDC WD6002FFWX-6 (scsi) Disque /dev/sde : 6001GB Taille des secteurs (logiques/physiques) : 512B/4096B Table de partitions : gpt Drapeaux de disque : Numéro Début Fin Taille Système de fichiers Nom Drapeaux 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 6001GB 5996GB raid Modèle : Mappeur de périphériques Linux (linear) (dm) Disque /dev/mapper/vg1000-lv : 18,0TB Taille des secteurs (logiques/physiques) : 512B/4096B Table de partitions : loop Drapeaux de disque : Numéro Début Fin Taille Système de fichiers Drapeaux 1 0,00B 18,0TB 18,0TB btrfs Erreur: /dev/md2 : étiquette de disque inconnue Modèle : Grappe RAID logiciel Linux (md) Disque /dev/md2 : 18,0TB Taille des secteurs (logiques/physiques) : 512B/4096B Table de partitions : unknown Drapeaux de disque : Concernant l'erreur : /dev/md2 : étiquette de disque inconnue Je pense que ça vient du fait que je n'ai pas re-installé dans le PC (car il est encore dans le NAS) le gros disque que je destinais à la récupération des données. root <> / >> df -h Sys. de fichiers Taille Utilisé Dispo Uti% Monté sur tmpfs 1,6G 2,1M 1,6G 1% /run /dev/sda2 219G 14G 194G 7% / tmpfs 7,8G 0 7,8G 0% /dev/shm tmpfs 5,0M 4,0K 5,0M 1% /run/lock /dev/sda1 511M 6,1M 505M 2% /boot/efi tmpfs 1,6G 112K 1,6G 1% /run/user/1000 Au plaisir de vous lire. 0 Citer
Doonet Posté(e) le 13 octobre 2023 Auteur Posté(e) le 13 octobre 2023 Hello Je repart sur un ubuntu tout neuf pour ne pas être impacté par les erreurs du passé ! Et je tente de dérouler la procédure de la KB Syno (How_can_I_recover_data_from_my_DiskStation_using_a_PC) Install mdadm et lvm2 : OK et on passe à la commande d'assemblage : root <> / >> mdadm -AsfR mdadm: No arrays found in config file or automatically Ca calme vite ! Du coup, je fais deux contrôles : ------------------------------------------------------------------------------ root <> /dev/md >> mdadm --detail /dev/md127 /dev/md127: Version : 1.2 Creation Time : Tue Nov 7 20:29:31 2017 Raid Level : raid5 Array Size : 17567074368 (16.36 TiB 17.99 TB) Used Dev Size : 5855691456 (5.45 TiB 6.00 TB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Sat Oct 7 01:57:51 2023 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K Consistency Policy : resync Name : Aladin:2 UUID : df949868:874e4f99:55d2cc1f:50cc50bc Events : 8056 Number Major Minor RaidDevice State 0 8 21 0 active sync /dev/sdb5 1 8 37 1 active sync /dev/sdc5 2 8 53 2 active sync /dev/sdd5 3 8 69 3 active sync /dev/sde5 ------------------------------------------------------------------------------ et des recherches d'infos sur les partitions *5 des 4 disques (qui sont celles qui a priori contiennent les données) ------------------------------------------------------------------------------ root <> ~ >> mdadm --examine /dev/sdb5 /dev/sdb5: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : df949868:874e4f99:55d2cc1f:50cc50bc Name : Aladin:2 Creation Time : Tue Nov 7 20:29:31 2017 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 11711382912 sectors (5.45 TiB 6.00 TB) Array Size : 17567074368 KiB (16.36 TiB 17.99 TB) Data Offset : 2048 sectors Super Offset : 8 sectors Unused Space : before=1968 sectors, after=0 sectors State : clean Device UUID : 925d9e5e:4f592d9f:88bf1059:a7ff0c3a Update Time : Sat Oct 7 01:57:51 2023 Checksum : e1f7fef3 - correct Events : 8056 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 0 Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing) ------------------------------------------------------------------------------ root <> ~ >> mdadm --examine /dev/sdc5 /dev/sdc5: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : df949868:874e4f99:55d2cc1f:50cc50bc Name : Aladin:2 Creation Time : Tue Nov 7 20:29:31 2017 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 11711382912 sectors (5.45 TiB 6.00 TB) Array Size : 17567074368 KiB (16.36 TiB 17.99 TB) Data Offset : 2048 sectors Super Offset : 8 sectors Unused Space : before=1968 sectors, after=0 sectors State : clean Device UUID : e098bbf7:028d39db:2761d68c:e8cfad66 Update Time : Sat Oct 7 01:57:51 2023 Checksum : 1787dfd7 - correct Events : 8056 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 1 Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing) ------------------------------------------------------------------------------ root <> ~ >> mdadm --examine /dev/sdd5 /dev/sdd5: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : df949868:874e4f99:55d2cc1f:50cc50bc Name : Aladin:2 Creation Time : Tue Nov 7 20:29:31 2017 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 11711382912 sectors (5.45 TiB 6.00 TB) Array Size : 17567074368 KiB (16.36 TiB 17.99 TB) Data Offset : 2048 sectors Super Offset : 8 sectors Unused Space : before=1968 sectors, after=0 sectors State : clean Device UUID : 08d35499:c5c1b977:b471db5f:dca8d83e Update Time : Sat Oct 7 01:57:51 2023 Checksum : d13843 - correct Events : 8056 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 2 Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing) ------------------------------------------------------------------------------ root <> ~ >> mdadm --examine /dev/sde5 /dev/sde5: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : df949868:874e4f99:55d2cc1f:50cc50bc Name : Aladin:2 Creation Time : Tue Nov 7 20:29:31 2017 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 11711382912 sectors (5.45 TiB 6.00 TB) Array Size : 17567074368 KiB (16.36 TiB 17.99 TB) Data Offset : 2048 sectors Super Offset : 8 sectors Unused Space : before=1968 sectors, after=0 sectors State : clean Device UUID : 3cdd6036:2f532f54:2771d971:79a32a47 Update Time : Sat Oct 7 01:57:51 2023 Checksum : 94a2cdf1 - correct Events : 8056 Layout : left-symmetric Chunk Size : 64K Device Role : Active device 3 Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing) ------------------------------------------------------------------------------ Du coup, je ne sais plus quoi faire ! Si quelqu'un peut me faire part de ses lumières car je suis complétement désemparé alors que je sens que ca ne tient qu'à une commande magique ... Je reste à votre disposition pour fournir toutes informations - Je compte sur vous ! 0 Citer
Messages recommandés
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.