Тестване на производилтелност на софтуерни RAID масиви
Здравейте,
това е моята първа статия тук, поради което се надявам да бъда извинен ако има допуснати грешки, или не сте ме разбрали за нещо.
В първата си статия ще обясня на кратко целия цикъл по тестването на производителността на софтуерен RAID.
Тестовата система е един стар сървър P4 със 3G RAM, 2x80GB ATA дискове и 6x400GB SATA дискове.
За операционна система използвах Debian 5.0.3 stable 386i
Направих стандартна инсталация, като по време на инсталацията от инсталатора сложих двата диска по 80GB в RAID 1 масив, и го използвах за „/“ на линукса.
След като инсталацията приключи е необходимо да създадем RAID масивите.
Самото създаване става в следните стъпки:
Необходимо е да бъдат инсталирани следните пакети:
mdadm – за създаване и управление на RAID масиви
postmark – за извършване на тестовете
Трябва да бъдат подготвени дисковете, като им се зададе правилния тип.
В моя случай аз използвах fdisk
server1:~# fdisk /dev/sda The number of cylinders for this disk is set to 8355. There is nothing wrong with that, but this is larger than 1024, and could in certain setups cause problems with: 1) software that runs at boot time (e.g., old versions of LILO) 2) booting and partitioning software from other OSs (e.g., DOS FDISK, OS/2 FDISK) Command (m for help):
Можете да натиснете „m“ за да получите помощ в използането на fdisk.
Желателно е да натиснете „p“ за да прегледате текущите дискове.
Ако няма такива чрез „n“ трябва да създадете такъв, като в моя случай на всеки диск направих по един дял с пълния капацитет на диска.
След като създадете диска чрез натискане на „t“ задавате ID на диска. За RAID трябва да изберете „fd“ – Linux raid auto:
Command (m for help): t Partition number (1-5): 1 Hex code (type L to list codes): L ... ... ... 16 Hidden FAT16 61 SpeedStor f2 DOS secondary 17 Hidden HPFS/NTF 63 GNU HURD or Sys fd Linux raid auto 18 AST SmartSleep 64 Novell Netware fe LANstep 1b Hidden Win95 FA 65 Novell Netware ff BBT Hex code (type L to list codes): fd Changed system type of partition 1 to fd (Linux raid autodetect) Command (m for help):
За да се запише всичко и излезете от fdisk трябва да въведете „w“.
Операцията се повтаря за всеки диск.
След като сте създали всички дискове е време да ги вкарате в райд масив.
Командата която използвах е mdadm.
В моя случай направих тестове с 2 диска в RAID0 и RAID1, и 4 диска в RAID0, RAID5 и RAID10.
Ето как се създава масив от 2 диска в RAID0:
server1:~# mdadm --create --verbose /dev/md0 --level=0 --raid-devices=2 /dev/sda1 /dev/sdb2
Следва форматиране на новосъздадения RAID масив чрез следната команда:
server1:~# mkfs.ext3 /dev/md0
Остава само да монтираме масива и ще бъде готов за използване.
За целта добавяме следния ред в /etc/fstab:
/dev/md0 /mnt/raid0 ext3 defaults 0 0
Трябва да създадем директорията /mnt/raid0 и да монтираме RAID масива:
server1:~# mkdir /mnt/raid0 server1:~# mount /dev/md0
Време е да преминем към същинската част, а именно самия тест с postmark:
server1:~# postmark pm>set location /mnt/raid0 pm>set number 5000 pm>set transactions 5000 pm>set buffering false pm>set size 500 10000000 pm>run Creating files...Done Performing transactions..........Done Deleting files...Done Time: 966 seconds total 591 seconds of transactions (8 per second) Files: 7482 created (7 per second) Creation alone: 5000 files (15 per second) Mixed with transactions: 2482 files (4 per second) 2510 read (4 per second) 2490 appended (4 per second) 7482 deleted (7 per second) Deletion alone: 4964 files (85 per second) Mixed with transactions: 2518 files (4 per second) Data: 13215.77 megabytes read (13.68 megabytes per second) 40857.20 megabytes written (42.30 megabytes per second)
Подобно на упътването по-горе направих тестове за 2 диска RAID1, и 4 диска в RAID0, RAID5 и RAID10.
Резултатите от тестовете Ви предоставям в следна графика:
Инсталация и настройка на OpenVPN стъпка по стъпка.