thekingsky Posté(e) le 16 août 2016 Partager Posté(e) le 16 août 2016 (modifié) Bonjour à tous, Voilà le souci : Sur mon DS 415play, j'ai un volume contenant initialement 2 disque de 1,5To et 2 disque de 5To. Je viens de changer les 2 disques de 1,5To un par un en faisant une réparation du volume par des 4To. En théorie, j'aurais dû passer de 8To à 13To d'espace de stockage mais là impossible d'étendre mon volume principal. Une idée svp ? :( Merci Modifié le 16 août 2016 par thekingsky 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
thrymartin Posté(e) le 16 août 2016 Partager Posté(e) le 16 août 2016 Vérifie que la taille du volume simple.n'est pas limite à 16 to. Seul dans la série 416, le 416play est à 108 mais je ne sais pas ce qu'il en est pour les series 415 et antérieures. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
thekingsky Posté(e) le 16 août 2016 Auteur Partager Posté(e) le 16 août 2016 (modifié) A priori la taille max d'un volume sur le DS415play est bien de 108to donc je ne pense pas que ce soit cette valeur qui limite. Modifié le 16 août 2016 par thekingsky 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
thrymartin Posté(e) le 16 août 2016 Partager Posté(e) le 16 août 2016 Alors l'autre explication est dans l'aide synology, (pas très claire à ce sujet). Je cite "en shr pour augmenter la capacité. il faut ajouter un disque de taille égale ou plus grande que le plus grand des disques du volume." C'est pas clair puisque suit: ou un disque de capacité égale à un disque existant... (en fait dans ce dernier cas Ça doit être juste pour réparer). Si c'est ça c'est embêtant. Il aurait fallu acheter des 5 to. Ou... Mais ça oblige à sauvegarder ses données ailleurs. Réinitialiser le nas avec les 4 to en premier... 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
thekingsky Posté(e) le 16 août 2016 Auteur Partager Posté(e) le 16 août 2016 Omg c'est supra foireux leurs truc :( Donc j'ai plus qu'à revendre mes 4To pour reprendre des 5To mini c'est ca ? Merci en tout cas :) 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mic13710 Posté(e) le 16 août 2016 Partager Posté(e) le 16 août 2016 En appuyant sur le bouton gérer, il devrait y avoir la possibilité d'étendre le volume. Sinon, il y a probablement cette limitation sur l'augmentation à partir de disques de capacité au moins égale au disque le plus gros dont parle thrymartin. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
thekingsky Posté(e) le 16 août 2016 Auteur Partager Posté(e) le 16 août 2016 Oui j'ai essayé avec le bouton gérer mais tout est grisé à part le nettoyage RAID 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
firlin Posté(e) le 16 août 2016 Partager Posté(e) le 16 août 2016 Il faudrait voir avec @gaetan.cambier ce que ça dit en ligne de commande. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mic13710 Posté(e) le 16 août 2016 Partager Posté(e) le 16 août 2016 déjà commencer par les commandes suivantes : cat /proc/mdstat parted --list pvdisplay vgdisplay lvdisplay Postez les résultats ici. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
thekingsky Posté(e) le 16 août 2016 Auteur Partager Posté(e) le 16 août 2016 Yop, Voici les résultats des commandes : cat /proc/mdstat : Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md3 : active raid1 sdd6[0] sdc6[1] 3418622784 blocks super 1.2 [2/2] [UU] md2 : active raid5 sdb5[7] sda5[6] sdd5[4] sdc5[5] 4385958144 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU] md1 : active raid1 sdb2[3] sdd2[2] sdc2[1] sda2[0] 522048 blocks [4/4] [UUUU] md0 : active raid1 sdb1[1] sda1[0] sdc1[2] sdd1[3] 2489920 blocks [4/4] [UUUU] unused devices: <none> parted --list : Model: WDC WD40EFRX-68WT0N0 (scsi) Disk /dev/hda: 4001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 32.3kB 2550MB 2550MB ext4 raid 2 2550MB 3084MB 535MB linux-swap(v1) raid 5 3224MB 1500GB 1497GB raid Model: WDC WD40EFRX-68WT0N0 (scsi) Disk /dev/sda: 4001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 32.3kB 2550MB 2550MB ext4 raid 2 2550MB 3084MB 535MB linux-swap(v1) raid 5 3224MB 1500GB 1497GB raid Model: WDC WD40EFRX-68WT0N0 (scsi) Disk /dev/sdb: 4001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 32.3kB 2550MB 2550MB ext4 raid 2 2550MB 3084MB 535MB linux-swap(v1) raid 5 3224MB 1500GB 1497GB raid Model: WDC WD50EFRX-68MYMN1 (scsi) Disk /dev/sdc: 5001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 32.3kB 2550MB 2550MB ext4 raid 2 2550MB 3084MB 535MB linux-swap(v1) raid 5 3224MB 1500GB 1497GB raid 6 1500GB 5001GB 3501GB raid Model: WDC WD50EFRX-68MYMN1 (scsi) Disk /dev/sdd: 5001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 32.3kB 2550MB 2550MB ext4 raid 2 2550MB 3084MB 535MB linux-swap(v1) raid 5 3224MB 1500GB 1497GB raid 6 1500GB 5001GB 3501GB raid Error: /dev/mtdblock0: unrecognised disk label Model: Unknown (unknown) Disk /dev/mtdblock0: 852kB Sector size (logical/physical): 512B/512B Partition Table: unknown Disk Flags: Error: Can't have a partition outside the disk! Ignore/Cancel? i i Model: Unknown (unknown) Disk /dev/mtdblock1: 3146kB Sector size (logical/physical): 512B/512B Partition Table: msdos Disk Flags: Number Start End Size Type File system Flags 4 1024B 33.6MB 33.6MB primary Error: /dev/mtdblock2: unrecognised disk label Model: Unknown (unknown) Disk /dev/mtdblock2: 4194kB Sector size (logical/physical): 512B/512B Partition Table: unknown Disk Flags: Error: /dev/mtdblock3: unrecognised disk label Model: Unknown (unknown) Disk /dev/mtdblock3: 65.5kB Sector size (logical/physical): 512B/512B Partition Table: unknown Disk Flags: Error: /dev/mtdblock4: unrecognised disk label Model: Unknown (unknown) Disk /dev/mtdblock4: 65.5kB Sector size (logical/physical): 512B/512B Partition Table: unknown Disk Flags: Error: /dev/mtdblock5: unrecognised disk label Model: Unknown (unknown) Disk /dev/mtdblock5: 65.5kB Sector size (logical/physical): 512B/512B Partition Table: unknown Disk Flags: Model: Linux Software RAID Array (md) Disk /dev/md0: 2550MB Sector size (logical/physical): 512B/512B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 2550MB 2550MB ext4 Model: Linux Software RAID Array (md) Disk /dev/md1: 535MB Sector size (logical/physical): 512B/512B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 535MB 535MB linux-swap(v1) Model: Unknown (unknown) Disk /dev/zram0: 220MB Sector size (logical/physical): 4096B/4096B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 220MB 220MB linux-swap(v1) Model: Unknown (unknown) Disk /dev/zram1: 220MB Sector size (logical/physical): 4096B/4096B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 220MB 220MB linux-swap(v1) Error: /dev/md2: unrecognised disk label Model: Linux Software RAID Array (md) Disk /dev/md2: 4491GB Sector size (logical/physical): 512B/512B Partition Table: unknown Disk Flags: Error: /dev/md3: unrecognised disk label Model: Linux Software RAID Array (md) Disk /dev/md3: 3501GB Sector size (logical/physical): 512B/512B Partition Table: unknown Disk Flags: pvdisplay: --- Physical volume --- PV Name /dev/md2 VG Name vg1000 PV Size 4.08 TiB / not usable 2.25 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 1070790 Free PE 0 Allocated PE 1070790 PV UUID GNAKG1-3ePu-p5Bx-52lE-11xJ-ppko-TNAo7b --- Physical volume --- PV Name /dev/md3 VG Name vg1000 PV Size 3.18 TiB / not usable 2.81 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 834624 Free PE 0 Allocated PE 834624 PV UUID pR0Xjb-0J1d-oKan-0d1M-xy02-YxXH-ASaD6Z vgdisplay : --- Volume group --- VG Name vg1000 System ID Format lvm2 Metadata Areas 2 Metadata Sequence No 4 VG Access read/write VG Status resizable MAX LV 0 Cur LV 1 Open LV 1 Max PV 0 Cur PV 2 Act PV 2 VG Size 7.27 TiB PE Size 4.00 MiB Total PE 1905414 Alloc PE / Size 1905414 / 7.27 TiB Free PE / Size 0 / 0 VG UUID dTnKPa-y2ge-uPjs-wSSt-3A20-PX8z-GhVqaG lvdisplay : --- Logical volume --- LV Path /dev/vg1000/lv LV Name lv VG Name vg1000 LV UUID 2USfrE-ncnP-ucQG-rnHk-iESg-yv2k-k8dMw2 LV Write Access read/write LV Creation host, time , LV Status available # open 1 LV Size 7.27 TiB Current LE 1905414 Segments 2 Allocation inherit Read ahead sectors auto - currently set to 4096 Block device 253:0 Merci :) 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
gaetan.cambier Posté(e) le 16 août 2016 Partager Posté(e) le 16 août 2016 Je ferai pas des miracle : a la base tu as md2 qui as une taille 1.5 to par disque et md3 qui fait 3.5 to par disque. Comme tu n'est jamais passer par l'étape 4 to comme disk il y a rien a faire : 4to donc pas de problème pour reconstruire le md2, mais après la prochaine étape c'est md3 et la il te manque 1 to (Toutes les valeurs ont été arrondies pour faire plus simple) 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mic13710 Posté(e) le 16 août 2016 Partager Posté(e) le 16 août 2016 Effectivement, a mon avis, l'expansion n'est pas possible car l'organisation du raid est faite de cette manière : Un RAID5 organisé sur 1.5To de chacun des 4 disques et un RAID1 organisé sur les 3.5To restants des deux disques de 5To. On le voit très bien sur ces lignes avec md2 (RAID5) et md3 (RAID1) ainsi que les lignes 5 et 6 pour chaque disque. Il y a 7 heures, thekingsky a dit : Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md3 : active raid1 sdd6[0] sdc6[1] 3418622784 blocks super 1.2 [2/2] [UU] md2 : active raid5 sdb5[7] sda5[6] sdd5[4] sdc5[5] 4385958144 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU] md1 : active raid1 sdb2[3] sdd2[2] sdc2[1] sda2[0] 522048 blocks [4/4] [UUUU] md0 : active raid1 sdb1[1] sda1[0] sdc1[2] sdd1[3] 2489920 blocks [4/4] [UUUU] unused devices: <none> Il y a 7 heures, thekingsky a dit : Model: WDC WD40EFRX-68WT0N0 (scsi) Disk /dev/hda: 4001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 32.3kB 2550MB 2550MB ext4 raid 2 2550MB 3084MB 535MB linux-swap(v1) raid 5 3224MB 1500GB 1497GB raid Model: WDC WD40EFRX-68WT0N0 (scsi) Disk /dev/sda: 4001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 32.3kB 2550MB 2550MB ext4 raid 2 2550MB 3084MB 535MB linux-swap(v1) raid 5 3224MB 1500GB 1497GB raid Model: WDC WD40EFRX-68WT0N0 (scsi) Disk /dev/sdb: 4001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 32.3kB 2550MB 2550MB ext4 raid 2 2550MB 3084MB 535MB linux-swap(v1) raid 5 3224MB 1500GB 1497GB raid Model: WDC WD50EFRX-68MYMN1 (scsi) Disk /dev/sdc: 5001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 32.3kB 2550MB 2550MB ext4 raid 2 2550MB 3084MB 535MB linux-swap(v1) raid 5 3224MB 1500GB 1497GB raid 6 1500GB 5001GB 3501GB raid Model: WDC WD50EFRX-68MYMN1 (scsi) Disk /dev/sdd: 5001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 32.3kB 2550MB 2550MB ext4 raid 2 2550MB 3084MB 535MB linux-swap(v1) raid 5 3224MB 1500GB 1497GB raid 6 1500GB 5001GB 3501GB raid Quand vous avez remplacé vos disques, n'étant pas d'une taille au moins égale au disque le plus gros, le NAS a considéré un simple remplacement de disques existants et dans ce cas il ne fait que recopier à l'identique ce qui se trouvait sur le disque précédent. Pour pouvoir exploiter les To non utilisés des deux disques de 4To, il faudrait que le système casse les deux raid pour recréer un RAID5 cette fois sur 4To de chaque disque et un RAID1 sur les 1To restants des deux disques de 5To. Le système ne sait absolument pas faire ce genre de gymnastique. La seule solution est donc effectivement de remplacer les deux 4To par des 5To. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
thekingsky Posté(e) le 17 août 2016 Auteur Partager Posté(e) le 17 août 2016 Ok merci pour cette explication trés claire en tout cas :) 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.