目次: Linux
Linuxのファイルシステム選びはいつも迷います。どれも決め手に欠けるんです…。
先日組んだ 3TBのRAIDをReiserFSにしたら起動時のチェックに数分かかって腹立ってきたので、XFSに切り替えました。3TBの広さを活かして、大きいファイルメインで運用します。
ルートディレクトリを置くパーティションには細かいファイルが多いので、ReiserFSを使おうと思います。
誰かJFS使っている人いませんかねー…?
この記事にコメントする
今ハードディスクがとても安いので、1TBのディスクを3個買いました。HDDを注文したときから、後でディスクを追加(5台まで増築予定)したときに拡張できるのか?と気になっていました。
世の中に同じ想いの方がどれだけいるか知りませんが、一度作ったRAID 5アレイを拡張する方法を紹介します。当方の実験環境はDebian GNU/Linux(etch) です。
例としてディスク3本からなるRAID-5アレイを作り、そこへ1本追加する様子を示したいと思います。実験のため100MBのパーティションでアレイを作っていますが、HDD全体を使っていても同じ手順でできるはずです。
# mdadm --create /dev/md0 -n 3 -l 5 -a p /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: array /dev/md0 started.
# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md0 : active raid5 sdd1[2] sdc1[1] sdb1[0]
208640 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
LinuxでソフトウェアRAIDアレイをいじるにはmdadmコマンドを使います。まず --createで100MB x 3(-n 3)の領域からなるRAID-5アレイ(-l 5)を作りました。容量は200MBです。今回はパーティションを作らないので関係ありませんが、パーティションが作れるアレイ(-a p)にするのが無難でしょう。
次にアレイ上の領域にファイルシステムを作り、マウントします。
# mkreiserfs /dev/md0
mkreiserfs 3.6.19 (2003 www.namesys.com)
(... 略 ...)
Guessing about desired format.. Kernel 2.6.25 is running.
Format 3.6 with standard journal
Count of blocks on the device: 52160
Number of blocks consumed by mkreiserfs formatting process: 8213
Blocksize: 4096
Hash function used to sort names: "r5"
Journal Size 8193 blocks (first block 18)
Journal Max transaction length 1024
inode generation number: 0
UUID: 27c689b4-5cee-4223-9d7c-adb29cfdeb7c
ATTENTION: YOU SHOULD REBOOT AFTER FDISK!
ALL DATA WILL BE LOST ON '/dev/md0'!
Continue (y/n):y
Initializing journal - 0%....20%....40%....60%....80%....100%
Syncing..ok
Tell your friends to use a kernel based on 2.4.18 or later, and especially not a
kernel based on 2.4.9, when you use reiserFS. Have fun.
ReiserFS is successfully created on /dev/md0.
# mount /dev/md0 /mnt/md0
# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sda1 62498888 1879688 60619200 4% /
/dev/md0 208628 32840 175788 16% /mnt/md0
おなじみの mkfsコマンドでファイルシステムを作り、マウントして容量を確認しています。例ではReiserFSですが、ext2, XFS, JFSの場合でもresizeツールがあれば同じ手順で拡張できます。
次にアレイを拡張します。ファイルシステムを利用中の場合は、一度アンマウントしてアレイを変更できるようにしてから作業してください。
# umount /mnt/md0
# mdadm --add /dev/md0 /dev/sdb2
mdadm: added /dev/sdb2
# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.03
Creation Time : Sun Feb 1 04:05:28 2009
Raid Level : raid5
Array Size : 208640 (203.78 MiB 213.65 MB)
Device Size : 104320 (101.89 MiB 106.82 MB)
(... 略 ...)
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 18 - spare /dev/sdb2
# mdadm --grow /dev/md0 -n 4
mdadm: Need to backup 384K of critical section..
mdadm: ... critical section passed.
# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md0 : active raid5 sdb2[3] sdd1[2] sdc1[1] sdb1[0]
208640 blocks super 0.91 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
[===>.................] reshape = 15.6% (16384/104320) finish=0.8min speed=1638K/sec
unused devices: <none>
(... しばし待ちます ...)
# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md0 : active raid5 sdb2[3] sdd1[2] sdc1[1] sdb1[0]
312960 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
unused devices: <none>
まず --addでスペアディスクを追加します。例では /dev/sdb2です。次に --growでRAIDアレイのディスク数を変更します。するとアレイのreshapeが始まります。容量が大きいほど時間がかかるので、しばし待ってください。reshape中のアレイの容量は200MBですが、reshapeが終わると容量が300MBに増加していることがわかると思います。
次にファイルシステムの領域を拡張します。
# resize_reiserfs /dev/md0 resize_reiserfs 3.6.19 (2003 www.namesys.com) ReiserFS report: blocksize 4096 block count 78240 (52160) free blocks 70026 (43947) bitmap block count 3 (2) Syncing..done resize_reiserfs: Resizing finished successfully. # mount /dev/md0 /mnt/md0 # df Filesystem 1K-blocks Used Available Use% Mounted on /dev/sda1 62498888 1879692 60619196 4% / /dev/md0 312944 32840 280104 11% /mnt/md0
ReiserFSの場合は、resize_reiserfsコマンドで領域のサイズ変更ができます。サイズを指定しなければ自動的にパーティションサイズの最大まで拡張してくれます。サイズを減らす(シュリンク)機能はベータ版らしく、実行すると警告が出ます。
この記事にコメントする
RAID-5, 6あるいは1などでディスクが壊れた際の交換方法を紹介します。
# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sda1 62498888 1879716 60619172 4% /
/dev/md0 521580 521580 0 100% /mnt/md0
# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.03
Creation Time : Sat Jan 31 16:05:28 2009
Raid Level : raid5
Array Size : 521600 (509.46 MiB 534.12 MB)
Device Size : 104320 (101.89 MiB 106.82 MB)
(... 略 ...)
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 18 3 active sync /dev/sdb2
4 8 50 4 active sync /dev/sdd2
5 8 34 5 active sync /dev/sdc2
# mdadm --fail /dev/md0 /dev/sdb1
mdadm: set /dev/sdb1 faulty in /dev/md0
# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.03
Creation Time : Sat Jan 31 16:15:28 2009
Raid Level : raid5
Array Size : 521600 (509.46 MiB 534.12 MB)
Device Size : 104320 (101.89 MiB 106.82 MB)
(... 略 ...)
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 18 3 active sync /dev/sdb2
4 8 50 4 active sync /dev/sdd2
5 8 34 5 active sync /dev/sdc2
6 8 17 - faulty spare /dev/sdb1
LinuxでソフトウェアRAIDアレイをいじるにはmdadmコマンドを使います。使用中のRAIDアレイ(100MBディスク6本からなるRAID-5アレイ)で故障を発生させます。といっても実際にディスクを破壊するわけにはいきませんので、--failでシステムに故障を伝えます。故障したデバイスはfaulty spareという状態に変更されます。
次に故障したディスクを外します。
# mdadm --remove /dev/md0 /dev/sdb1
mdadm: hot removed /dev/sdb1
# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.03
Creation Time : Sat Jan 31 16:28:28 2009
Raid Level : raid5
Array Size : 521600 (509.46 MiB 534.12 MB)
Device Size : 104320 (101.89 MiB 106.82 MB)
(... 略 ...)
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 18 3 active sync /dev/sdb2
4 8 50 4 active sync /dev/sdd2
5 8 34 5 active sync /dev/sdc2
故障したディスク(faulty spare)を --removeに指定して、アレイから取り除きます。アレイから取り除けるのは、故障している、していないに関わらずスペアディスクのみです。活きているディスクを --removeしようとしても失敗します。
次に新たなディスクを追加します。
# mdadm --add /dev/md0 /dev/sdb1
mdadm: added /dev/sdb1
# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md0 : active raid5 sdb1[6] sdd2[4] sdc2[5] sdb2[3] sdd1[2] sdc1[1]
521600 blocks level 5, 64k chunk, algorithm 2 [6/5] [_UUUUU]
[====>................] recovery = 20.5% (22272/104320) finish=0.0min speed=22272K/sec
unused devices: <none>
# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.03
Creation Time : Sat Jan 31 16:58:28 2009
Raid Level : raid5
Array Size : 521600 (509.46 MiB 534.12 MB)
Device Size : 104320 (101.89 MiB 106.82 MB)
(... 略 ...)
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 18 3 active sync /dev/sdb2
4 8 50 4 active sync /dev/sdd2
5 8 34 5 active sync /dev/sdc2
新たなディスクを --addで加えることでディスクの数が6本に戻ります。するとリカバリが始まります。今まで通り --detailで見ても良いですが、/proc/mdstatにもっとわかりやすい進行表示が出ます。
素晴らしいことにRAID-5アレイを止めなくとも、上記の作業が全てできます。リカバリ処理もI/O帯域を食いつぶさないように加減しますから、ユーザは --removeしてディスク交換して --addすれば、後はシステムがよきに計らってくれるわけです。便利ですね。
この記事にコメントする
SeaMonkeyでVAIO type Gのサイトを見ると100%フリーズします。一方IE7だと正常に表示されます。
SeaMonkeyがクラッシュするなら開発元にレポートを送れるけど、フリーズだとどうしようもないですね。しかもどういう条件で再現するのか試しているうちに、一切フリーズしなくなってしまいました。真相は闇の中です。
もちろん今も正常に表示されます。原因はフラッシュ周りかと思ったけど、IEは動いていたしなあ?一体なんだったんだろうか。キャッシュが壊れたのかなあ?
この記事にコメントする
最近話題の Intel Atom 330を買いました。1.60GHz駆動、デュアルコア&Hyper-Threadingで疑似4コアだそうです。HDDを外付けして静音ファイルサーバにする予定です。
静音性、値段、省スペース性から見て玄箱PROは有力な対立候補でしたが、肝心のPCI Expressスロットは箱から基盤をばらさないと使えなくて不便だし、CPUが非力(ARM9/400MHz)なので見送りました。
Atomプロセッサは単独では販売されておらず、マザーボードとセットで販売されています。価格は1万円くらいです。安いもんですね。
現時点でAtom 330を搭載する製品はIntel D945GCLF2とMSI Wind Board 330です。あとはECSからも出るとか出ないとか。どちらのボードもノースIntel 945GC、サウスICH7です。ネットワークやオーディオ周りが違うので要チェック。
以下、ファイルサーバでやりたいことリスト。
ATA over Ethernetは以前VM上で実験して散々な結果でしたが、実機だとどうかなあ。
この記事にコメントする
EthernetをSANとして使う技術はSCSIプロトコルをTCP/IPでやりとりするiSCSIが有名ですが、ATAプロトコルをEthernetでやりとりする ATA over Ethernet(以降ATAoE)という技術もあります。
ATAoEの売りは複雑なTCP/IPスタックを省略することで、ATAoE対応ストレージ(ターゲットと呼ぶ)がiSCSIターゲットより安く(高速に?)できるという点です。
しかしTCP/IPを捨てたことはATAoEの欠点でもあります。特にルーティングができない…というよりEthernetにはルーティングという概念が元からありませんから、単一のセグメント内でしか使えない、という大きな欠点を抱えています。
個人向けならば別にルーティングなんざ必要ないので、ATAoEの「安さ」という点が活きると思いますが、IETFの標準にまで食い込んだiSCSIをひっくり返すのは難しそうだ…。
Buffaloが個人向けの廉価なiSCSIターゲットを出していますが、ATAoEでは個人向けのターゲットは見かけません。
仕方ないのでLinux PC上でvbladeというソフトウェアを動かしてATAoEターゲットを構築します。
# aptitude install vblade (省略) # dd if=/dev/zero of=file bs=67108864 count=1 # vblade 1 2 eth0 ./file & ioctl returned 0 67108864 bytes pid 1603: e1.2, 131072 sectors
これで1-2という番号のついた64MBのATAoEターゲットがeth0のネットワークに対して公開されます。
今は実験なので適当に作った64MBのファイルをストレージ領域として使っていますが、本番では /dev/hdcなどのブロックデバイスを使います。やり方は同じです。
次にイニシエータ側を構築します。
# aptitude install aoetools
(省略)
# aoe-discover
# aoe-stat
e1.2 0.067GB eth0 up
# ls -l /dev/etherd
total 0
c-w--w---- 1 root disk 152, 3 Jan 25 2009 discover
brw-rw---- 1 root disk 152, 288 Jan 25 04:46 e1.2
cr--r----- 1 root disk 152, 2 Jan 25 2009 err
c-w--w---- 1 root disk 152, 4 Jan 25 2009 interfaces
c-w--w---- 1 root disk 152, 5 Jan 25 2009 revalidate
# fdisk /dev/etherd/e1.2
(省略)
# ls -l /dev/etherd
total 0
c-w--w---- 1 root disk 152, 3 2009-01-25 13:45 discover
brw-rw---- 1 root disk 152, 288 2009-01-25 04:53 e1.2
brw-rw---- 1 root disk 152, 289 2009-01-25 04:53 e1.2p1
cr--r----- 1 root disk 152, 2 2009-01-25 13:45 err
c-w--w---- 1 root disk 152, 4 2009-01-25 13:45 interfaces
c-w--w---- 1 root disk 152, 5 2009-01-25 13:45 revalidate
まずaoe-discoverでターゲットを探し、デバイスファイルを作ります。すると /dev/etherdにe1.2というブロックデバイスが見えるはずです。この数字はターゲットを作ったときにつけた数字です。数字は適当で良いですが、他とかぶらないようにしましょう。
このブロックデバイスにfdiskなどでパーティションを作ると、e1.2p1のようにpと数字がついたデバイスが追加されるはずです。あとは通常のディスクを扱うようにmkfsをして、mountします。
Windowsをイニシエータにするには WinAoE というGPLのドライバを利用します。
サイトにあるwinaoe-0.97g.zipアーカイブを展開します。そして
[コントロールパネル] - [ハードウェアの追加] - [次へ]
- [はい、ハードウェアを接続しています(Y)] - [次へ]
- [新しいハードウェアデバイスの追加](リストの一番下にある) - [次へ]
- [一覧から選択したハードウェアをインストールする(詳細)(M)] - [次へ]
- [SCSIとRAIDコントローラ] - [次へ]
- [ディスク使用(H)] - [参照(B)]
先ほど展開したディレクトリにbinというディレクトリがあるので、その中のaoe.infを指定します。
- [AoE Driver] - [次へ] - [次へ]
署名されていないドライバなので、インストール時に警告が出ます。納得できるならインストールしてください。
> aoe scan Client NIC Target Server MAC Size 00:01:xx:xx:xx:xx e1.2 08:00:xx:xx:xx:xx 64M > aoe mount 00:01:xx:xx:xx:xx 1 2 mounting e1.2 from 00:13:xx:xx:xx:xx
ターゲットを認識させるにはMS-DOSプロンプトからaoe scanを実行してターゲットのMACアドレスを得た後、aoe mountにてクライアントのMACアドレスとターゲットの番号を指定してマウントします。
あとはローカルのディスクを使うときと同じなのですが、一応説明しておくと、
[コントロールパネル] - [管理ツール] - [コンピュータの管理]
- [記憶域] - [ディスクの管理] - [ディスクn](新しくできているはず)
- 右クリックして [新しいパーティション(N)] - [次へ]
- [プライマリパーティション] - [次へ]
- サイズ入力して [次へ]
- ドライブ文字を割り当てて [次へ]
- フォーマットの条件を決めて [次へ]
- [完了]
これでエクスプローラにドライブが出現するはずです。
簡単にベンチマークを取ってみたところ、結果はRead、Writeともに5MB/sという悲しい結果に…。Sambaだと16MB/s位出るのになあ…。
この記事にコメントする
| < | 2009 | > | ||||
| << | < | 02 | > | >> | ||
| 日 | 月 | 火 | 水 | 木 | 金 | 土 |
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
25年10月15日
25年10月18日
22年5月5日
25年10月19日
23年4月11日
06年4月22日
25年10月17日
25年10月6日
25年10月13日
20年10月23日
25年10月12日
20年8月29日
19年1月13日
18年10月13日
18年9月3日
18年8月20日
18年7月23日
18年7月22日
18年10月14日
18年11月10日
wiki
Linux JM
Java API
2002年
2003年
2004年
2005年
2006年
2007年
2008年
2009年
2010年
2011年
2012年
2013年
2014年
2015年
2016年
2017年
2018年
2019年
2020年
2021年
2022年
2023年
2024年
2025年
過去日記について
アクセス統計
サーバ一覧
サイトの情報合計:
本日: