LVM – Anleitung für Anfänger
Führe das Gleiche für /dev/sdd aus:
fdisk /dev/sdd
Die Ausgabe von
fdisk -l
sieht wie folgt aus:
server1:~# fdisk -l
Disk /dev/sda: 21.4 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 18 144553+ 83 Linux
/dev/sda2 19 2450 19535040 83 Linux
/dev/sda4 2451 2610 1285200 82 Linux swap / Solaris
Disk /dev/sdb: 85.8 GB, 85899345920 bytes
255 heads, 63 sectors/track, 10443 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 1 3040 24418768+ fd Linux raid autodetect
/dev/sdb2 3041 10443 59464597+ fd Linux raid autodetect
Disk /dev/sdc: 85.8 GB, 85899345920 bytes
255 heads, 63 sectors/track, 10443 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdc1 1 3040 24418768+ fd Linux raid autodetect
Disk /dev/sdd: 85.8 GB, 85899345920 bytes
255 heads, 63 sectors/track, 10443 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdd1 1 3040 24418768+ fd Linux raid autodetect
/dev/sdd2 3041 10443 59464597+ fd Linux raid autodetect
Disk /dev/sde: 85.8 GB, 85899345920 bytes
255 heads, 63 sectors/track, 10443 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sde1 1 3040 24418768+ fd Linux raid autodetect
Disk /dev/sdf: 85.8 GB, 85899345920 bytes
255 heads, 63 sectors/track, 10443 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdf1 1 3040 24418768+ 8e Linux LVM
Disk /dev/md1: 25.0 GB, 25004736512 bytes
2 heads, 4 sectors/track, 6104672 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md1 doesn’t contain a valid partition table
Disk /dev/md0: 25.0 GB, 25004736512 bytes
2 heads, 4 sectors/track, 6104672 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md0 doesn’t contain a valid partition table
Nun fügen wir erneut /dev/sdb1 zu /dev/md0 und /dev/sdd1 zu /dev/md1 hinzu:
mdadm –manage /dev/md0 –add /dev/sdb1
server1:~# mdadm –manage /dev/md0 –add /dev/sdb1
mdadm: re-added /dev/sdb1
mdadm –manage /dev/md1 –add /dev/sdd1
server1:~# mdadm –manage /dev/md1 –add /dev/sdd1
mdadm: re-added /dev/sdd1
Nun werden die Inhalter beider RAID arrays synchronisiert. Wir müssen abwarten, bis dies abgeschlossen ist, bevor wir weiter machen können. Den Status der Synchronisation können wir mit Folgendem überprüfen
cat /proc/mdstat
Während der Synchronisation sieht die Ausgabe wie folgt aus:
server1:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid5] [raid4] [raid6] [raid10]
md0 : active raid1 sdb1[1] sdc1[0]
24418688 blocks [2/1] [U_]
[=>……………….] recovery = 9.9% (2423168/24418688) finish=2.8min speed=127535K/sec
md1 : active raid1 sdd1[1] sde1[0]
24418688 blocks [2/1] [U_]
[=>……………….] recovery = 6.4% (1572096/24418688) finish=1.9min speed=196512K/sec
unused devices: <none>
So sieht sie aus wenn die Synchronisation abgeschlossen ist:
server1:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid5] [raid4] [raid6] [raid10]
md0 : active raid1 sdb1[1] sdc1[0]
24418688 blocks [2/2] [UU]
md1 : active raid1 sdd1[1] sde1[0]
24418688 blocks [2/2] [UU]
unused devices: <none>
Nun führen wir den gleichen Prozess erneut aus, dieses Mal ersetzen wir /dev/sdc und /dev/sde:
mdadm –manage /dev/md0 –fail /dev/sdc1
mdadm –manage /dev/md0 –remove /dev/sdc1
mdadm –manage /dev/md1 –fail /dev/sde1
mdadm –manage /dev/md1 –remove /dev/sde1
fdisk /dev/sdc
fdisk /dev/sde
mdadm –manage /dev/md0 –add /dev/sdc1
mdadm –manage /dev/md1 –add /dev/sde1
cat /proc/mdstat
Warte bis die Synchronisation abgeschlossen ist.
Als Nächstes erstellen wir die RAID arrays /dev/md2 von /dev/sdb2 und /dev/sdc2 sowie /dev/md3 von /dev/sdd2 und /dev/sde2.
mdadm –create /dev/md2 –auto=yes -l 1 -n 2 /dev/sdb2 /dev/sdc2
server1:~# mdadm –create /dev/md2 –auto=yes -l 1 -n 2 /dev/sdb2 /dev/sdc2
mdadm: array /dev/md2 started.
mdadm –create /dev/md3 –auto=yes -l 1 -n 2 /dev/sdd2 /dev/sde2
server1:~# mdadm –create /dev/md3 –auto=yes -l 1 -n 2 /dev/sdd2 /dev/sde2
mdadm: array /dev/md3 started.
Bevor wir weiter machen, müssen die neuen RAID arrays synchronisiert werden, also solltest Du Folgendes überprüfen
cat /proc/mdstat
server1:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid5] [raid4] [raid6] [raid10]
md3 : active raid1 sde2[1] sdd2[0]
59464512 blocks [2/2] [UU]
[=>……………….] resync = 5.1% (3044224/59464512) finish=5.5min speed=169123K/sec
md2 : active raid1 sdc2[1] sdb2[0]
59464512 blocks [2/2] [UU]
[=>……………….] resync = 5.5% (3312512/59464512) finish=9.3min speed=100379K/sec
md0 : active raid1 sdc1[0] sdb1[1]
24418688 blocks [2/2] [UU]
md1 : active raid1 sde1[0] sdd1[1]
24418688 blocks [2/2] [UU]
unused devices: <none>
Nachdem die Synchronisation abgeschlossen ist, bereiten wir /dev/md2 und /dev/md3 für LVM vor:
pvcreate /dev/md2 /dev/md3
server1:~# pvcreate /dev/md2 /dev/md3
Physical volume „/dev/md2“ successfully created
Physical volume „/dev/md3“ successfully created
und fügen /dev/md2 und /dev/md3 unserer fileserver Volume Group hinzu:
vgextend fileserver /dev/md2 /dev/md3
server1:~# vgextend fileserver /dev/md2 /dev/md3
Volume group „fileserver“ successfully extended
Lass uns nun unsere *display Befehel laufen lassen:
pvdisplay
server1:~# pvdisplay
— Physical volume —
PV Name /dev/md0
VG Name fileserver
PV Size 23.29 GB / not usable 0
Allocatable yes (but full)
PE Size (KByte) 4096
Total PE 5961
Free PE 0
Allocated PE 5961
PV UUID 7JHUXF-1R2p-OjbJ-X1OT-uaeg-gWRx-H6zx3P
— Physical volume —
PV Name /dev/md1
VG Name fileserver
PV Size 23.29 GB / not usable 0
Allocatable yes
PE Size (KByte) 4096
Total PE 5961
Free PE 18
Allocated PE 5943
PV UUID pwQ5AJ-RwVK-EebA-0Z13-d27d-2IdP-HqT5RW
— Physical volume —
PV Name /dev/md2
VG Name fileserver
PV Size 56.71 GB / not usable 0
Allocatable yes
PE Size (KByte) 4096
Total PE 14517
Free PE 14517
Allocated PE 0
PV UUID 300kTo-evxm-rfmf-90LA-4YOJ-2LG5-t4JHnf
— Physical volume —
PV Name /dev/md3
VG Name fileserver
PV Size 56.71 GB / not usable 0
Allocatable yes
PE Size (KByte) 4096
Total PE 14517
Free PE 14517
Allocated PE 0
PV UUID LXFSW6-7LQX-ZGGU-dV95-jQgg-TK44-U5JOjO