Aller au contenu

Volume En Mode Jbod


Oooops!

Messages recommandés

Bonjour,

àprès s'être intéressé au fonctionnement "spécifique Synology" (?) du Raid0 () et du mode Basic (), on regarde un petit peu le mode JBOD.

Pour mémoire, rappel de la configuration: j'ai créé un volume JBOD regroupant un tout petit disque (80Go) et un disque de 1,5To, tous deux mis dans le DX213 connecté à mon DS209+II, et je teste des commandes proposées par Fravadona pour que nous essayions de voir "comment ça fonctionne".

Cette fois, il ne m'a pas paru indispensable de sortir le 80Go et de le réinitialiser sous Windows (comme l'est déjà le 1,5To).

Syno209p> df -h
Filesystem                Size      Used Available Use% Mounted on
/dev/md0                  2.3G    450.9M      1.8G  20% /
/tmp                    251.7M    732.0K    251.0M   0% /tmp
/dev/md2                  3.6T      3.2T    403.4G  89% /volume1
/dev/md3                  1.4T    197.2M      1.4T   0% /volume2

Ça ressemble beaucoup au cas du Basic.

Syno209p> parted --list
Model: ATA ST4000VN000-1H41 (scsi)
Disk /dev/hda: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 3      4832MB  4001GB  3996GB                        raid


Model: ATA ST4000VN000-1H41 (scsi)
Disk /dev/hdb: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 3      4832MB  4001GB  3996GB                        raid


Model: ATA ST4000VN000-1H41 (scsi)
Disk /dev/sda: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 3      4832MB  4001GB  3996GB                        raid


Model: ATA ST4000VN000-1H41 (scsi)
Disk /dev/sdb: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 3      4832MB  4001GB  3996GB                        raid


Model: ATA ST380013AS (scsi)
Disk /dev/sdca: .0GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type     File system  Flags
 1      131kB   2550MB  2550MB  primary  ext4         raid
 2      2550MB  4698MB  2147MB  primary               raid
 3      4832MB  .0GB  75.2GB  primary               raid


Model: ATA ST31500541AS (scsi)
Disk /dev/sdcb: 1500GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type     File system  Flags
 1      131kB   2550MB  2550MB  primary               raid
 2      2550MB  4698MB  2147MB  primary               raid
 3      4832MB  1500GB  1495GB  primary               raid


Model: Linux Software RAID Array (md)
Disk /dev/md0: 2550MB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system  Flags
 1      0.00B  2550MB  2550MB  ext4


Model: Linux Software RAID Array (md)
Disk /dev/md1: 2147MB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system     Flags
 1      0.00B  2147MB  2147MB  linux-swap(v1)


Model: Linux Software RAID Array (md)
Disk /dev/md2: 3996GB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system  Flags
 1      0.00B  3996GB  3996GB  ext4


Model: Linux Software RAID Array (md)
Disk /dev/md3: 1571GB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system  Flags
 1      0.00B  1571GB  1571GB  ext4

Là aussi les résultats semblent correspondre à ce à quoi on pouvait s'attendre?

Syno209p> mdadm --detail /dev/md3
/dev/md3:
        Version : 1.2
  Creation Time : Fri Apr  4 11:32:23 2014
     Raid Level : linear
     Array Size : 1533820800 (1462.77 GiB 1570.63 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Fri Apr  4 11:32:23 2014
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

       Rounding : 64K

           Name : Syno209p:3  (local to host Syno209p)
           UUID : feeebf6d:f7f66c44:f2fa5fc9:c45c1f9d
         Events : 0

    Number   Major   Minor   RaidDevice State
       0      68      227        0      active sync   /dev/sdca3
       1      68      243        1      active sync   /dev/sdcb3
Lien vers le commentaire
Partager sur d’autres sites

Bon ben voila tout est dit, et je vois que tu as bien assimile ma maniere de faire ;)

Donc, pas de LVM pour le JBOD non plus, c'est juste un RAID Linux de niveau "lineaire", c'est a dire les disques les uns a la suite des autres sans "strip".

Pour info, je n'ai eu a configurer ce niveau de RAID qu'une seule fois, juste pour contourner une limitation hardware de baies RAID. Ces baies geraient un RAID-6 sur 16 disques mais ne pouvaient exporter le volume global que par "tranches" de 2To maximum. Au niveau de Linux, configurer ces "tranches" en RAID 0, 5 ou 6 etait inutile car ils faisaient chuter les performances et n'apportaient aucune securite supplementaire. Le RAID "lineaire" etait pour ce cas de figure "exactement" la meilleure maniere de regrouper les tranches sans perte de performance ni de fiabilite.

PS: Maintenant tu veux tenter de voir par toi-meme ca qu'est un SHR ?

Lien vers le commentaire
Partager sur d’autres sites

Bonsoir,

j'ai eu un bon professeur ;).

Donc si on fait le point des 3 séries de manips, le LVM n'est utilisé que en SHR, car si j'ai bien lu les résultats même le montage un peu spécial du Raid0 (stripping sur les 2 disques jusqu'à la fin du plus petit disque et concaténation avec ce qui reste du gros disque) est maintenant standard dans Linux?

Pour ce qui est des tests en SHR, je veux bien, mais sera-ce significatif s'il n'y a que 2 disques (capacité du DX213)?

Ou alors j'ai bien un SHR sur 3 disques, avec des disques de taille différente, sur le 411+II, mais je t'avoue que là je suis un peu plus "frileux" pour faire des manip car c'est mon NAS principal. Mais bon, si tu m'assures que les manips sont sans risque...

Lien vers le commentaire
Partager sur d’autres sites

Le SHR avec 3 disques et des tailles differentes serait interressant a comprendre s'il est compose d'un petit et de deux plus gros; les manips sont sans danger car en lecture seule.

Les commandes sont celles de d'habitude mais il y aura peut-etre un /dev/md4 cette fois, car sans parler de la couche LVM, le plus logique serait qu'il y ait un RAID-5 sur /dev/md3 puis un RAID-1 sur /dev/md4.

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.