VM上で試したらRead/Writeともに5MB/sと散々だったATAoEですが、実機上で試したらすさまじい性能でした。
ターゲットはAtom 330上のvblade-11-1(Debian etchのパッケージ) で、使用しているブロックデバイスは /dev/sda6です。/dev/sdaにはSeagate Barracuda.11がSATA300接続で繋がっています。
イニシエータはWindows XPで、WinAoE-0.97gです。パーティションはNTFSでフォーマットしています。
とにかくReadが恐ろしく速いですね。メモリにキャッシュされる分が効くのでしょう。
しばらく使っていると突然Writeが6MB/sくらいまでスローダウンしてしまうことがあります。原因はわかりません。Readは速いままなのですがねえ?
土日歩かなかったから膝の具合が良くなっていることを期待したのですが、逆に悪化していました。な、なぜだ?
寮で相部屋の人が膝を悪くした経験があるので聞いてみると、自分と症状が似ています。ところが膝を悪くしたきっかけはバイトで無理な運動を続けたせいとのこと。無理な運動がきっかけといっても、自分には思い当たる節がないし…わけわからん。
歩いていると足が痛い。正確に言うと膝の内側(?)が痛くて、歩くたびに痛みが走る。激しい運動もしていないし、ぶつけたわけでもないのに…なぜだ…?
左下の7番の虫歯を放置していたら、大穴が開いていました。歯医者に行ってレントゲン取ったら「歯がほとんどない…。」って歯医者さんが絶句してました。
そこまでひどくなると冷たい物がしみるなどというレベルではなく、何もしていなくても痛くて生活に困るほどです。
昨年末から治療していて、抜随、根充は終わり今日は金属の土台を固定しました。来週は冠をかぶせるそうですから、そろそろ終わりです。
週1回くらいのペースで通って、丸二ヶ月かかりましたね。虫歯は放置せずにすぐに歯医者へ。
目次: Linux
Linuxのファイルシステム選びはいつも迷います。どれも決め手に欠けるんです…。
先日組んだ 3TBのRAIDをReiserFSにしたら起動時のチェックに数分かかって腹立ってきたので、XFSに切り替えました。3TBの広さを活かして、大きいファイルメインで運用します。
ルートディレクトリを置くパーティションには細かいファイルが多いので、ReiserFSを使おうと思います。
誰かJFS使っている人いませんかねー…?
今ハードディスクがとても安いので、1TBのディスクを3個買いました。HDDを注文したときから、後でディスクを追加(5台まで増築予定)したときに拡張できるのか?と気になっていました。
世の中に同じ想いの方がどれだけいるか知りませんが、一度作ったRAID 5アレイを拡張する方法を紹介します。当方の実験環境はDebian GNU/Linux(etch) です。
例としてディスク3本からなるRAID-5アレイを作り、そこへ1本追加する様子を示したいと思います。実験のため100MBのパーティションでアレイを作っていますが、HDD全体を使っていても同じ手順でできるはずです。
# mdadm --create /dev/md0 -n 3 -l 5 -a p /dev/sdb1 /dev/sdc1 /dev/sdd1 mdadm: array /dev/md0 started. # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md0 : active raid5 sdd1[2] sdc1[1] sdb1[0] 208640 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU] unused devices: <none>
LinuxでソフトウェアRAIDアレイをいじるにはmdadmコマンドを使います。まず --createで100MB x 3(-n 3)の領域からなるRAID-5アレイ(-l 5)を作りました。容量は200MBです。今回はパーティションを作らないので関係ありませんが、パーティションが作れるアレイ(-a p)にするのが無難でしょう。
次にアレイ上の領域にファイルシステムを作り、マウントします。
# mkreiserfs /dev/md0 mkreiserfs 3.6.19 (2003 www.namesys.com) (... 略 ...) Guessing about desired format.. Kernel 2.6.25 is running. Format 3.6 with standard journal Count of blocks on the device: 52160 Number of blocks consumed by mkreiserfs formatting process: 8213 Blocksize: 4096 Hash function used to sort names: "r5" Journal Size 8193 blocks (first block 18) Journal Max transaction length 1024 inode generation number: 0 UUID: 27c689b4-5cee-4223-9d7c-adb29cfdeb7c ATTENTION: YOU SHOULD REBOOT AFTER FDISK! ALL DATA WILL BE LOST ON '/dev/md0'! Continue (y/n):y Initializing journal - 0%....20%....40%....60%....80%....100% Syncing..ok Tell your friends to use a kernel based on 2.4.18 or later, and especially not a kernel based on 2.4.9, when you use reiserFS. Have fun. ReiserFS is successfully created on /dev/md0. # mount /dev/md0 /mnt/md0 # df Filesystem 1K-blocks Used Available Use% Mounted on /dev/sda1 62498888 1879688 60619200 4% / /dev/md0 208628 32840 175788 16% /mnt/md0
おなじみの mkfsコマンドでファイルシステムを作り、マウントして容量を確認しています。例ではReiserFSですが、ext2, XFS, JFSの場合でもresizeツールがあれば同じ手順で拡張できます。
次にアレイを拡張します。ファイルシステムを利用中の場合は、一度アンマウントしてアレイを変更できるようにしてから作業してください。
# umount /mnt/md0 # mdadm --add /dev/md0 /dev/sdb2 mdadm: added /dev/sdb2 # mdadm --detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Sun Feb 1 04:05:28 2009 Raid Level : raid5 Array Size : 208640 (203.78 MiB 213.65 MB) Device Size : 104320 (101.89 MiB 106.82 MB) (... 略 ...) Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 3 8 18 - spare /dev/sdb2 # mdadm --grow /dev/md0 -n 4 mdadm: Need to backup 384K of critical section.. mdadm: ... critical section passed. # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md0 : active raid5 sdb2[3] sdd1[2] sdc1[1] sdb1[0] 208640 blocks super 0.91 level 5, 64k chunk, algorithm 2 [4/4] [UUUU] [===>.................] reshape = 15.6% (16384/104320) finish=0.8min speed=1638K/sec unused devices: <none> (... しばし待ちます ...) # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md0 : active raid5 sdb2[3] sdd1[2] sdc1[1] sdb1[0] 312960 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] unused devices: <none>
まず --addでスペアディスクを追加します。例では /dev/sdb2です。次に --growでRAIDアレイのディスク数を変更します。するとアレイのreshapeが始まります。容量が大きいほど時間がかかるので、しばし待ってください。reshape中のアレイの容量は200MBですが、reshapeが終わると容量が300MBに増加していることがわかると思います。
次にファイルシステムの領域を拡張します。
# resize_reiserfs /dev/md0 resize_reiserfs 3.6.19 (2003 www.namesys.com) ReiserFS report: blocksize 4096 block count 78240 (52160) free blocks 70026 (43947) bitmap block count 3 (2) Syncing..done resize_reiserfs: Resizing finished successfully. # mount /dev/md0 /mnt/md0 # df Filesystem 1K-blocks Used Available Use% Mounted on /dev/sda1 62498888 1879692 60619196 4% / /dev/md0 312944 32840 280104 11% /mnt/md0
ReiserFSの場合は、resize_reiserfsコマンドで領域のサイズ変更ができます。サイズを指定しなければ自動的にパーティションサイズの最大まで拡張してくれます。サイズを減らす(シュリンク)機能はベータ版らしく、実行すると警告が出ます。
RAID-5, 6あるいは1などでディスクが壊れた際の交換方法を紹介します。
# df Filesystem 1K-blocks Used Available Use% Mounted on /dev/sda1 62498888 1879716 60619172 4% / /dev/md0 521580 521580 0 100% /mnt/md0 # mdadm --detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Sat Jan 31 16:05:28 2009 Raid Level : raid5 Array Size : 521600 (509.46 MiB 534.12 MB) Device Size : 104320 (101.89 MiB 106.82 MB) (... 略 ...) Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 3 8 18 3 active sync /dev/sdb2 4 8 50 4 active sync /dev/sdd2 5 8 34 5 active sync /dev/sdc2 # mdadm --fail /dev/md0 /dev/sdb1 mdadm: set /dev/sdb1 faulty in /dev/md0 # mdadm --detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Sat Jan 31 16:15:28 2009 Raid Level : raid5 Array Size : 521600 (509.46 MiB 534.12 MB) Device Size : 104320 (101.89 MiB 106.82 MB) (... 略 ...) Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 3 8 18 3 active sync /dev/sdb2 4 8 50 4 active sync /dev/sdd2 5 8 34 5 active sync /dev/sdc2 6 8 17 - faulty spare /dev/sdb1
LinuxでソフトウェアRAIDアレイをいじるにはmdadmコマンドを使います。使用中のRAIDアレイ(100MBディスク6本からなるRAID-5アレイ)で故障を発生させます。といっても実際にディスクを破壊するわけにはいきませんので、--failでシステムに故障を伝えます。故障したデバイスはfaulty spareという状態に変更されます。
次に故障したディスクを外します。
# mdadm --remove /dev/md0 /dev/sdb1 mdadm: hot removed /dev/sdb1 # mdadm --detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Sat Jan 31 16:28:28 2009 Raid Level : raid5 Array Size : 521600 (509.46 MiB 534.12 MB) Device Size : 104320 (101.89 MiB 106.82 MB) (... 略 ...) Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 3 8 18 3 active sync /dev/sdb2 4 8 50 4 active sync /dev/sdd2 5 8 34 5 active sync /dev/sdc2
故障したディスク(faulty spare)を --removeに指定して、アレイから取り除きます。アレイから取り除けるのは、故障している、していないに関わらずスペアディスクのみです。活きているディスクを --removeしようとしても失敗します。
次に新たなディスクを追加します。
# mdadm --add /dev/md0 /dev/sdb1 mdadm: added /dev/sdb1 # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md0 : active raid5 sdb1[6] sdd2[4] sdc2[5] sdb2[3] sdd1[2] sdc1[1] 521600 blocks level 5, 64k chunk, algorithm 2 [6/5] [_UUUUU] [====>................] recovery = 20.5% (22272/104320) finish=0.0min speed=22272K/sec unused devices: <none> # mdadm --detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Sat Jan 31 16:58:28 2009 Raid Level : raid5 Array Size : 521600 (509.46 MiB 534.12 MB) Device Size : 104320 (101.89 MiB 106.82 MB) (... 略 ...) Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 3 8 18 3 active sync /dev/sdb2 4 8 50 4 active sync /dev/sdd2 5 8 34 5 active sync /dev/sdc2
新たなディスクを --addで加えることでディスクの数が6本に戻ります。するとリカバリが始まります。今まで通り --detailで見ても良いですが、/proc/mdstatにもっとわかりやすい進行表示が出ます。
素晴らしいことにRAID-5アレイを止めなくとも、上記の作業が全てできます。リカバリ処理もI/O帯域を食いつぶさないように加減しますから、ユーザは --removeしてディスク交換して --addすれば、後はシステムがよきに計らってくれるわけです。便利ですね。
< | 2009 | > | ||||
<< | < | 02 | > | >> | ||
日 | 月 | 火 | 水 | 木 | 金 | 土 |
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
合計:
本日: