Aller au contenu

[Résolu] Récupération superblock et données, crash raid 1 SHR synology


Zalea

Messages recommandés

Bonjour à tous :)
 
J'ai un énorme besoin de votre aide pour m'aider à récupérer mes données ! :)  
 
Suite à un crash inexpliqué d'un Serveur Synology (DS212j, Raid 1) j'essaye tant bien que mal de remonter le raid sous Ubuntu depuis quelques jours..
 
Brièvement l'explication de mes premières (mauvaises) manips :
 
Alors Suite au crash, redémarrage, un volume non trouvé (led éteinte disk2) et volume 1 clignotant. Led verte Status clignotant après le bip.  
Mes deux disques font un cliquetis comme si ils n'avaient pas assez de puissance pour se lancer.
Je pense à la carte mère du syno, mais la led bleu fixe indique que ce n'est pas ça..
 
Installation de Synology manager, et je constate que le DSM n'est plus détecté/installé.
 
j'ai réessayer de réinstaller un DSM, mais sans succès car il échoue à l'écriture de la partition système :

1457002736-erreurinstallationdsm.png

 

Arrêt du syno, démontage des deux disques et essai d'installation de DSM sur un vieux disque avec plein de secteur foutu, mais cela fonctionne.
 
Je m'intéresse donc au disques, (ceux démarre très bien lorsque je les branche à un adaptateur) j'effectue un test smart basique sous Windows et constate que mes disques ne contiennent aucunes erreurs;
Soulagement de courte durée jusqu’à que je m'intéresse au partitionnement et raid utilisé par synology lorsque qu'on laisse les options par défaut.. On apprend de ses erreurs hein..
 
Pour information si cela peut servir à d'autre : je ne sais pour quel raison, mais en branchant mes disques sur un convertisseur Sata/usb, le disque était reconnu comme deux par l'OS (windows ou Linux). Ce qui, jusqu’à que je m'en aperçoive m'a certainement permis de faire des erreurs..
 
 
Voici les logs de tout ce qui peut être utile pour m'aider à lire cette fichu partition, sous ubuntu avec un seul des disques raid branché en interne et reconnu correctement :)
 
J'ai retrouvé et réécris les partitions [md1] [md2] et Diskstation:2 grâce à testdisk.

Partition table type (auto): EFI GPT
Disk /dev/sdc - 3000 GB / 2794 GiB
Partition table type: EFI GPT
 
Analyse Disk /dev/sdc - 3000 GB / 2794 GiB - CHS 720764 173 47
hdr_size=92
hdr_lba_self=1
hdr_lba_alt=5860533167 (expected 5860533167)
hdr_lba_start=34
hdr_lba_end=5860533134
hdr_lba_table=2
hdr_entries=128
hdr_entsz=128
Current partition structure:
 1 P Linux Raid                   256    4980735    4980480 [md0]
 2 P Linux Raid               4980736    9175039    4194304 [md1]
 3 P Linux Raid               9437184 5860525703 5851088520 [DiskStation:2]

- smartctl -a /dev/sdc (disque du raid)

smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.19.0-25-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
 
=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red (AF)
Device Model:     WDC WD30EFRX-68AX9N0
Serial Number:    WD-WMC1T2244957
LU WWN Device Id: 5 0014ee 6586ddeee
Firmware Version: 80.00A80
User Capacity:    3 000 592 982 016 bytes [3,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Thu Mar  3 10:23:13 2016 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
 
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
 
General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
     was never started.
     Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
     without error or no self-test has ever  
     been run.
Total time to complete Offline  
data collection:   (39120) seconds.
Offline data collection
capabilities:     (0x7b) SMART execute Offline immediate.
     Auto Offline data collection on/off support.
     Suspend Offline collection upon new
     command.
     Offline surface scan supported.
     Self-test supported.
     Conveyance Self-test supported.
     Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
     power-saving mode.
     Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
     General Purpose Logging supported.
Short self-test routine  
recommended polling time:   (   2) minutes.
Extended self-test routine
recommended polling time:   ( 393) minutes.
Conveyance self-test routine
recommended polling time:   (   5) minutes.
SCT capabilities:         (0x70bd) SCT Status supported.
     SCT Error Recovery Control supported.
     SCT Feature Control supported.
     SCT Data Table supported.
 
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   176   175   021    Pre-fail  Always       -       6175
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       199
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   086   086   000    Old_age   Always       -       10456
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       141
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       54
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       144
194 Temperature_Celsius     0x0022   113   109   000    Old_age   Always       -       37
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0
 
SMART Error Log Version: 1
ATA Error Count: 744 (device log contains only the most recent five errors)
 CR = Command Register [HEX]
 FR = Features Register [HEX]
 SC = Sector Count Register [HEX]
 SN = Sector Number Register [HEX]
 CL = Cylinder Low Register [HEX]
 CH = Cylinder High Register [HEX]
 DH = Device/Head Register [HEX]
 DC = Device Command Register [HEX]
 ER = Error register [HEX]
 ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
 
Error 744 occurred at disk power-on lifetime: 10369 hours (432 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.
 
  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 61 46 00 00 00 a0  Device Fault; Error: ABRT
 
  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  ef 03 46 00 00 00 a0 08  30d+11:22:26.674  SET FEATURES [Set transfer mode]
  ec 00 00 00 00 00 a0 08  30d+11:22:26.660  IDENTIFY DEVICE
  c8 00 08 68 40 4d e0 08  30d+11:22:26.104  READ DMA
  ec 00 00 00 00 00 a0 08  30d+11:22:26.074  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 08  30d+11:22:26.055  SET FEATURES [Set transfer mode]
 
Error 743 occurred at disk power-on lifetime: 10369 hours (432 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.
 
  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 61 08 68 40 4d e0  Device Fault; Error: ABRT 8 sectors at LBA = 0x004d4068 = 5062760
 
  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  c8 00 08 68 40 4d e0 08  30d+11:22:26.104  READ DMA
  ec 00 00 00 00 00 a0 08  30d+11:22:26.074  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 08  30d+11:22:26.055  SET FEATURES [Set transfer mode]
  ec 00 00 00 00 00 a0 08  30d+11:22:26.040  IDENTIFY DEVICE
  c8 00 08 68 40 4d e0 08  30d+11:22:25.484  READ DMA
 
Error 742 occurred at disk power-on lifetime: 10369 hours (432 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.
 
  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 61 46 00 00 00 a0  Device Fault; Error: ABRT
 
  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  ef 03 46 00 00 00 a0 08  30d+11:22:26.055  SET FEATURES [Set transfer mode]
  ec 00 00 00 00 00 a0 08  30d+11:22:26.040  IDENTIFY DEVICE
  c8 00 08 68 40 4d e0 08  30d+11:22:25.484  READ DMA
  ec 00 00 00 00 00 a0 08  30d+11:22:25.455  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 08  30d+11:22:25.436  SET FEATURES [Set transfer mode]
 
Error 741 occurred at disk power-on lifetime: 10369 hours (432 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.
 
  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 61 08 68 40 4d e0  Device Fault; Error: ABRT 8 sectors at LBA = 0x004d4068 = 5062760
 
  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  c8 00 08 68 40 4d e0 08  30d+11:22:25.484  READ DMA
  ec 00 00 00 00 00 a0 08  30d+11:22:25.455  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 08  30d+11:22:25.436  SET FEATURES [Set transfer mode]
  ec 00 00 00 00 00 a0 08  30d+11:22:25.421  IDENTIFY DEVICE
  c8 00 08 68 40 4d e0 08  30d+11:22:24.865  READ DMA
 
Error 740 occurred at disk power-on lifetime: 10369 hours (432 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.
 
  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 61 46 00 00 00 a0  Device Fault; Error: ABRT
 
  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  ef 03 46 00 00 00 a0 08  30d+11:22:25.436  SET FEATURES [Set transfer mode]
  ec 00 00 00 00 00 a0 08  30d+11:22:25.421  IDENTIFY DEVICE
  c8 00 08 68 40 4d e0 08  30d+11:22:24.865  READ DMA
  ec 00 00 00 00 00 a0 08  30d+11:22:24.835  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 08  30d+11:22:24.816  SET FEATURES [Set transfer mode]
 
SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]
 
 
SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay. 

Pas de secteurs défectueux ou anomalie mais ces erreurs "ABRT", je pense que cela correspond à la coupure du NAS, ces erreurs ont-elle une incidences sur le disque ? ou ce sont juste des logs ?
 
- gdisk -l /dev/sdc

GPT fdisk (gdisk) version 0.8.8
 
Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: present
 
Found valid GPT with protective MBR; using GPT.
Disk /dev/sdc: 5860533168 sectors, 2.7 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): BC41BDFC-89C5-0740-8322-790BC8BE333E
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 5860533134
Partitions will be aligned on 256-sector boundaries
Total free space is 532325 sectors (259.9 MiB)
 
Number  Start (sector)    End (sector)  Size       Code  Name
   1             256         4980735   2.4 GiB     FD00  
   2         4980736         9175039   2.0 GiB     FD00  
   3         9437184      5860263175   2.7 TiB     FD00  
 

- parted -l

Modèle: ATA WDC WD30EFRX-68A (scsi)
Disque /dev/sdc : 3001GB
Taille des secteurs (logiques/physiques): 512B/4096B
Table de partitions : gpt
 
Numéro  Début   Fin     Taille  Système de fichiers  Nom  Fanions
 1      131kB   2550MB  2550MB  ext4                      raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)            raid
 3      4832MB  3000GB  2996GB                            raid
 

- mdadm --examine /dev/sd3
 

/dev/sdc3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : b066c1e2:0865d203:003cb7b1:abe75fd0
           Name : jerome-System-Product-Name:0  (local to host jerome-System-Product-Name)
  Creation Time : Thu Mar  3 09:47:50 2016
     Raid Level : raid1
   Raid Devices : 2
 
 Avail Dev Size : 5850826376 (2789.89 GiB 2995.62 GB)
     Array Size : 2925412992 (2789.89 GiB 2995.62 GB)
  Used Dev Size : 5850825984 (2789.89 GiB 2995.62 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : f24a7278:0f624bce:4c8a502e:81b4eaa5
 
    Update Time : Thu Mar  3 09:47:50 2016
       Checksum : 235d8dc6 - correct
         Events : 0
 
 
   Device Role : Active device 0
   Array State : A. ('A' == active, '.' == missing)


 - mdadm --examine /dev/sdc3 | grep -E "(^\/dev|UUID)"

/dev/sdc3:
     Array UUID : b066c1e2:0865d203:003cb7b1:abe75fd0
    Device UUID : f24a7278:0f624bce:4c8a502e:81b4eaa5

Ensuite pour assembler le raid :  
 
Méthode indiqué par synology :  https://www.synology.com/fr-fr/know [...] using_a_PC
- mdadm -Asf && vgchange -ay

mdadm: looking for devices for further assembly
mdadm: no RAID superblock on /dev/sde1
mdadm: no RAID superblock on /dev/sde
mdadm: no RAID superblock on /dev/sdd5
mdadm: no RAID superblock on /dev/sdd2
mdadm: no RAID superblock on /dev/sdd1
mdadm: no RAID superblock on /dev/sdd
mdadm: no RAID superblock on /dev/sdb1
mdadm: no RAID superblock on /dev/sdb
mdadm: no RAID superblock on /dev/sdc3
mdadm: no RAID superblock on /dev/sdc2
mdadm: no RAID superblock on /dev/sdc1
mdadm: no RAID superblock on /dev/sdc
mdadm: no RAID superblock on /dev/sda3
mdadm: no RAID superblock on /dev/sda2
mdadm: no RAID superblock on /dev/sda1
mdadm: no RAID superblock on /dev/sda
mdadm: looking for devices for /dev/md/Volume0
mdadm: Cannot assemble mbr metadata on /dev/sde1
mdadm: Cannot assemble mbr metadata on /dev/sde
mdadm: no recogniseable superblock on /dev/sdd5
mdadm: Cannot assemble mbr metadata on /dev/sdd2
mdadm: no recogniseable superblock on /dev/sdd1
mdadm: Cannot assemble mbr metadata on /dev/sdd
mdadm: Cannot assemble mbr metadata on /dev/sdb1
mdadm: Cannot assemble mbr metadata on /dev/sdb
mdadm: /dev/sdc3 has wrong uuid.
mdadm: no recogniseable superblock on /dev/sdc2
mdadm: no recogniseable superblock on /dev/sdc1
mdadm: Cannot assemble mbr metadata on /dev/sdc
mdadm: Cannot assemble mbr metadata on /dev/sda3
mdadm: Cannot assemble mbr metadata on /dev/sda2
mdadm: Cannot assemble mbr metadata on /dev/sda1
mdadm: no RAID superblock on /dev/sda 

Par contre lorsque j'essaye :
- mdadm --assemble --verbose /dev/md0  /dev/sdc3

mdadm: looking for devices for /dev/md0
mdadm: /dev/sdc3 is identified as a member of /dev/md0, slot 0.
mdadm: no uptodate device for slot 1 of /dev/md0
mdadm: added /dev/sdc3 to /dev/md0 as 0
mdadm: /dev/md0 has been started with 1 drive (out of 2).

- cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]  
md0 : active raid1 sdc3[0]
      2925412992 blocks super 1.2 [2/1] [U_]
       
unused devices: <none> 

- mdadm --examine /dev/md0

mdadm: No md superblock detected on /dev/md0.

Si j'essaye de la monter :
mount -t ext4 -o ro /dev/md0 /mnt/nas

mount : mauvais type de système de fichiers, option erronée, superbloc erroné
        sur /dev/md0, page de code ou programme auxiliaire manquant, ou autre erreur
       Dans quelques cas certaines informations sont utiles dans le journal
        système — essayez « dmesg | tail » ou quelque chose du genre

Donc si je comprends bien, l'intégrité du système de fichier est corrompu ?
 
- fsck /dev/md0

fsck de util-linux 2.20.1
e2fsck 1.42.9 (4-Feb-2014)
ext2fs_open2: Numéro magique invalide dans le super-bloc
fsck.ext2 : Superbloc invalide, tentons d'utiliser les blocs de sauvetage...
fsck.ext2: Numéro magique invalide dans le super-bloc lors de la tentative d'ouverture de /dev/md0
 
The superbloc could not be read or does not describe a valid ext2/ext3/ext4
système de fichiers.  If the périphérique is valid and it really contains an ext2/ext3/ext4
système de fichiers (and not swap or ufs or something else), then the superbloc
is corrupt, and you might try running e2fsck with an alternate superbloc:
    e2fsck -b 8193 <périphérique>
 or
    e2fsck -b 32768 <périphérique>

Je commence donc à rechercher un backup du superblock sur un autre secteur :
 
- mke2fs -n /dev/md0

mke2fs 1.42.9 (4-Feb-2014)
Étiquette de système de fichiers=
Type de système d'exploitation : Linux
Taille de bloc=4096 (log=2)
Taille de fragment=4096 (log=2)
« Stride » = 0 blocs, « Stripe width » = 0 blocs
182845440 i-noeuds, 731353248 blocs
36567662 blocs (5.00%) réservés pour le super utilisateur
Premier bloc de données=0
Nombre maximum de blocs du système de fichiers=4294967296
22320 groupes de blocs
32768 blocs par groupe, 32768 fragments par groupe
8192 i-noeuds par groupe
Superblocs de secours stockés sur les blocs :  
 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,  
 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,  
 102400000, 214990848, 512000000, 550731776, 644972544


J'ai essayé tous ces blocs avec :  
- e2fsck -b 644972544 /dev/md0

e2fsck 1.42.9 (4-Feb-2014)
e2fsck: Argument invalide lors de la tentative d'ouverture de /dev/md0
 
The superbloc could not be read or does not describe a valid ext2/ext3/ext4
système de fichiers.  If the périphérique is valid and it really contains an ext2/ext3/ext4
système de fichiers (and not swap or ufs or something else), then the superbloc
is corrupt, and you might try running e2fsck with an alternate superbloc:
    e2fsck -b 8193 <périphérique>
 or
    e2fsck -b 32768 <périphérique> 

Voilà ou j'en suis actuellement et je vous avoue que la suite me fait un peu peur, j’espère qu'une récupération reste possible et qu'une grande âme voudra bien m'aider :)
 
J'ai peut être aussi fait une erreur en essayant ces commandes suivante :
- mdadm --zero-superblock /dev/sdc3
- mdadm --create /dev/md0 --verbose --assume-clean --metadata=1.2 --level=1 --raid-devices=2 /dev/sdc3 missing
 
issue de ce ticket : http://serverfault.com/questions/6 [...] -with-mdam ressemblant énormément à mon cas.
 
 
Est ce que quelqu'un pourrait m'expliquer ce qu'est l'offset qui est calculé dans ce sujet ci :
https://forum.synology.com/enu/viewtopic.php?t=71546
 
Est-il possible d’utiliser loop sans retrouver le superblock ?
 
 
Ce sujet est aussi très intéressant :
https://bbs.archlinux.org/viewtopic.php?id=173635  
ainsi que celui ci : http://unix.stackexchange.com/ques [...] uperblocks
 
J'aimerais avoir des avis sur "mke2fs -S", est t-il possible de réécrire le superblock ?
 
 
Je précise que j'ai toujours l'autre disque sur lequel je n'ai utilisé que testdisk sous windows et à mon souvenir je n'ai touché à rien. je n'ai pas fait de backup n'ayant pas d'autre disque de 3To.
Je pense que l'autre disque est dans le même état mais je n'ai pas encore regardé. En dernier recours il reste Photorec qui, je suis certain fonctionnera mais si je pouvais éviter ceci..
 
Je suis désolé si c'est long à lire et très brouillon, mais je voulais mettre le max d'info pour que vous puissiez m'aider, je vous avoue que j'en ai un peu plein la tête et que je ne sais plus vers où m'orienter..
J'espère que qqn aura une fabuleuse idée pour retrouver ce superblock.
 
Merci d'avance de prendre le temps de vous intéressez à mon cas perdu.  

Modifié par Zalea
Lien vers le commentaire
Partager sur d’autres sites

Pour faire suite à mon problème j'ai trouvé ce sujet : http://forum.cgsecurity.org/phpBB3/post12685.html#p12685

où il est mentionné : "Recommencez le testdisk sur l'un des disques, en mettant "none" comme type de partition et dans les options "cylinder boundary : no". Quand vous trouvez la bonne partition, listez les fichiers (touche "P" ) pour vérifier que c'est la bonne et qu'elle est fonctionnelle. Notez alors les informations de positionnement LBA ou CHS et la taille et donnez les infos."
 
Je ne trouve pas l'option "cylinder boundary" (cela correspond à Align partition ? ) et je trouve bien toutes les partitions mais je n'ai pas la possibilité de les explorer.  

Analyse Disk /dev/sdc - 3000 GB / 2794 GiB - CHS 364801 255 63
Current partition structure:
   P Unknown                  0   0  1 364801  80 63 5860533168

search_part()
Disk /dev/sdc - 3000 GB / 2794 GiB - CHS 364801 255 63

recover_EXT2: s_block_group_nr=0/18, s_mnt_count=2/21, s_blocks_per_group=32768, s_inodes_per_group=8192
recover_EXT2: s_blocksize=4096
recover_EXT2: s_blocks_count 622544
recover_EXT2: part_size 4980352
     ext4                     0   4  5   310   7 17    4980352 [1.41.12-1963]
     ext4 blocksize=4096 Large file Sparse superblock Recover, 2549 MB / 2431 MiB

Raid magic value at 310/7/18
Raid apparent size: 2180925952 sectors
Raid chunk size: 0 bytes
md0 md 0.90.0 B.Endian Raid 1: devices 0(8,17)* 2(8,1)
     Linux md 0.9 RAID        0   4  5   310   9 19    4980480 [md0]
     md 0.90.0 B.Endian Raid 1: devices 0(8,17)* 2(8,1), 2550 MB / 2431 MiB
     Linux SWAP 2           310   9 20   571  28 17    4194160
     SWAP2 version 1, pagesize=4096, 2147 MB / 2047 MiB

Raid magic value at 571/28/34
Raid apparent size: 2180922880 sectors
Raid chunk size: 0 bytes
md1 md 0.90.0 B.Endian Raid 1: devices 0(8,18)* 1(8,2)
     Linux md 0.9 RAID      310   9 20   571  30 35    4194304 [md1]
     md 0.90.0 B.Endian Raid 1: devices 0(8,18)* 1(8,2), 2147 MB / 2048 MiB

Raid magic value at 587/111/37
Raid apparent size: 3739536084 sectors
jerome-System-Product-Name:0 md 1.x L.Endian Raid 1 - Array Slot : 0 (0)
     Linux md 1.x RAID      587 111 37 364784 130 26 5850825992 [jerome-System-Product-Name:0]
     md 1.x L.Endian Raid 1 - Array Slot : 0 (0), 2995 GB / 2789 GiB

Results
   P ext4                     0   4  5   310   7 17    4980352 [1.41.12-1963]
     ext4 blocksize=4096 Large file Sparse superblock Recover, 2549 MB / 2431 MiB
   P Linux md 0.9 RAID        0   4  5   310   9 19    4980480 [md0]
     md 0.90.0 B.Endian Raid 1: devices 0(8,17)* 2(8,1), 2550 MB / 2431 MiB
   P Linux SWAP 2           310   9 20   571  28 17    4194160
     SWAP2 version 1, pagesize=4096, 2147 MB / 2047 MiB
   P Linux md 0.9 RAID      310   9 20   571  30 35    4194304 [md1]
     md 0.90.0 B.Endian Raid 1: devices 0(8,18)* 1(8,2), 2147 MB / 2048 MiB
   P Linux md 1.x RAID      587 111 37 364784 130 26 5850825992 [jerome-System-Product-Name:0]
     md 1.x L.Endian Raid 1 - Array Slot : 0 (0), 2995 GB / 2789 GiB

interface_write()
   P ext4                     0   4  5   310   7 17    4980352 [1.41.12-1963]
   P Linux md 0.9 RAID        0   4  5   310   9 19    4980480 [md0]
   P Linux SWAP 2           310   9 20   571  28 17    4194160
   P Linux md 0.9 RAID      310   9 20   571  30 35    4194304 [md1]
   P Linux md 1.x RAID      587 111 37 364784 130 26 5850825992 [jerome-System-Product-Name:0]
 
Write isn't available because the partition table type "None" has been selected.

Et j'ai commis une erreur en réécrivant les métadonnée en 1.2 alors qu'elle sont en 0.9.

Pensez vous qu'il est toujours possible de pouvoir monter ce partition ?

Dans tout ce que j'ai pu trouvé sur le net, je vois ces différentes directions :

- Supprimer et réécrire le superblock ?

- Monter la partition en Ext3 ?

- Testdisk en mode "none" en type de partition

- Vérifier l'état du deuxième disque et refaire les mêmes manips

- Photorec...

Si qqn avait une idée pour réparer la table de partition et accéder à mes données, ça serait fantastique :)

Merci d'avance pour aide ou vos conseils.

Lien vers le commentaire
Partager sur d’autres sites

Hello,
 
J'ai pu récupérer toutes mes données grâce à l'autre disque :)
Le superblock était lui aussi effacé mais par contre toujours présent sur les secteurs de sauvegarde :)
Le raid c'est monté sans difficulté après cette opération donc le sujet est clos :)
Dois-je faire qqch pour mettre mon sujet en résolu ?

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.