EthernetをSANとして使う技術はSCSIプロトコルをTCP/IPでやりとりするiSCSIが有名ですが、ATAプロトコルをEthernetでやりとりする ATA over Ethernet(以降ATAoE)という技術もあります。
ATAoEの売りは複雑なTCP/IPスタックを省略することで、ATAoE対応ストレージ(ターゲットと呼ぶ)がiSCSIターゲットより安く(高速に?)できるという点です。
しかしTCP/IPを捨てたことはATAoEの欠点でもあります。特にルーティングができない…というよりEthernetにはルーティングという概念が元からありませんから、単一のセグメント内でしか使えない、という大きな欠点を抱えています。
個人向けならば別にルーティングなんざ必要ないので、ATAoEの「安さ」という点が活きると思いますが、IETFの標準にまで食い込んだiSCSIをひっくり返すのは難しそうだ…。
Buffaloが個人向けの廉価なiSCSIターゲットを出していますが、ATAoEでは個人向けのターゲットは見かけません。
仕方ないのでLinux PC上でvbladeというソフトウェアを動かしてATAoEターゲットを構築します。
# aptitude install vblade (省略) # dd if=/dev/zero of=file bs=67108864 count=1 # vblade 1 2 eth0 ./file & ioctl returned 0 67108864 bytes pid 1603: e1.2, 131072 sectors
これで1-2という番号のついた64MBのATAoEターゲットがeth0のネットワークに対して公開されます。
今は実験なので適当に作った64MBのファイルをストレージ領域として使っていますが、本番では /dev/hdcなどのブロックデバイスを使います。やり方は同じです。
次にイニシエータ側を構築します。
# aptitude install aoetools (省略) # aoe-discover # aoe-stat e1.2 0.067GB eth0 up # ls -l /dev/etherd total 0 c-w--w---- 1 root disk 152, 3 Jan 25 2009 discover brw-rw---- 1 root disk 152, 288 Jan 25 04:46 e1.2 cr--r----- 1 root disk 152, 2 Jan 25 2009 err c-w--w---- 1 root disk 152, 4 Jan 25 2009 interfaces c-w--w---- 1 root disk 152, 5 Jan 25 2009 revalidate # fdisk /dev/etherd/e1.2 (省略) # ls -l /dev/etherd total 0 c-w--w---- 1 root disk 152, 3 2009-01-25 13:45 discover brw-rw---- 1 root disk 152, 288 2009-01-25 04:53 e1.2 brw-rw---- 1 root disk 152, 289 2009-01-25 04:53 e1.2p1 cr--r----- 1 root disk 152, 2 2009-01-25 13:45 err c-w--w---- 1 root disk 152, 4 2009-01-25 13:45 interfaces c-w--w---- 1 root disk 152, 5 2009-01-25 13:45 revalidate
まずaoe-discoverでターゲットを探し、デバイスファイルを作ります。すると /dev/etherdにe1.2というブロックデバイスが見えるはずです。この数字はターゲットを作ったときにつけた数字です。数字は適当で良いですが、他とかぶらないようにしましょう。
このブロックデバイスにfdiskなどでパーティションを作ると、e1.2p1のようにpと数字がついたデバイスが追加されるはずです。あとは通常のディスクを扱うようにmkfsをして、mountします。
Windowsをイニシエータにするには WinAoE というGPLのドライバを利用します。
サイトにあるwinaoe-0.97g.zipアーカイブを展開します。そして
[コントロールパネル] - [ハードウェアの追加] - [次へ]
- [はい、ハードウェアを接続しています(Y)] - [次へ]
- [新しいハードウェアデバイスの追加](リストの一番下にある) - [次へ]
- [一覧から選択したハードウェアをインストールする(詳細)(M)] - [次へ]
- [SCSIとRAIDコントローラ] - [次へ]
- [ディスク使用(H)] - [参照(B)]
先ほど展開したディレクトリにbinというディレクトリがあるので、その中のaoe.infを指定します。
- [AoE Driver] - [次へ] - [次へ]
署名されていないドライバなので、インストール時に警告が出ます。納得できるならインストールしてください。
> aoe scan Client NIC Target Server MAC Size 00:01:xx:xx:xx:xx e1.2 08:00:xx:xx:xx:xx 64M > aoe mount 00:01:xx:xx:xx:xx 1 2 mounting e1.2 from 00:13:xx:xx:xx:xx
ターゲットを認識させるにはMS-DOSプロンプトからaoe scanを実行してターゲットのMACアドレスを得た後、aoe mountにてクライアントのMACアドレスとターゲットの番号を指定してマウントします。
あとはローカルのディスクを使うときと同じなのですが、一応説明しておくと、
[コントロールパネル] - [管理ツール] - [コンピュータの管理]
- [記憶域] - [ディスクの管理] - [ディスクn](新しくできているはず)
- 右クリックして [新しいパーティション(N)] - [次へ]
- [プライマリパーティション] - [次へ]
- サイズ入力して [次へ]
- ドライブ文字を割り当てて [次へ]
- フォーマットの条件を決めて [次へ]
- [完了]
これでエクスプローラにドライブが出現するはずです。
簡単にベンチマークを取ってみたところ、結果はRead、Writeともに5MB/sという悲しい結果に…。Sambaだと16MB/s位出るのになあ…。
最近話題の Intel Atom 330を買いました。1.60GHz駆動、デュアルコア&Hyper-Threadingで疑似4コアだそうです。HDDを外付けして静音ファイルサーバにする予定です。
静音性、値段、省スペース性から見て玄箱PROは有力な対立候補でしたが、肝心のPCI Expressスロットは箱から基盤をばらさないと使えなくて不便だし、CPUが非力(ARM9/400MHz)なので見送りました。
Atomプロセッサは単独では販売されておらず、マザーボードとセットで販売されています。価格は1万円くらいです。安いもんですね。
現時点でAtom 330を搭載する製品はIntel D945GCLF2とMSI Wind Board 330です。あとはECSからも出るとか出ないとか。どちらのボードもノースIntel 945GC、サウスICH7です。ネットワークやオーディオ周りが違うので要チェック。
以下、ファイルサーバでやりたいことリスト。
ATA over Ethernetは以前VM上で実験して散々な結果でしたが、実機だとどうかなあ。
SeaMonkeyでVAIO type Gのサイトを見ると100%フリーズします。一方IE7だと正常に表示されます。
SeaMonkeyがクラッシュするなら開発元にレポートを送れるけど、フリーズだとどうしようもないですね。しかもどういう条件で再現するのか試しているうちに、一切フリーズしなくなってしまいました。真相は闇の中です。
もちろん今も正常に表示されます。原因はフラッシュ周りかと思ったけど、IEは動いていたしなあ?一体なんだったんだろうか。キャッシュが壊れたのかなあ?
RAID-5, 6あるいは1などでディスクが壊れた際の交換方法を紹介します。
# df Filesystem 1K-blocks Used Available Use% Mounted on /dev/sda1 62498888 1879716 60619172 4% / /dev/md0 521580 521580 0 100% /mnt/md0 # mdadm --detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Sat Jan 31 16:05:28 2009 Raid Level : raid5 Array Size : 521600 (509.46 MiB 534.12 MB) Device Size : 104320 (101.89 MiB 106.82 MB) (... 略 ...) Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 3 8 18 3 active sync /dev/sdb2 4 8 50 4 active sync /dev/sdd2 5 8 34 5 active sync /dev/sdc2 # mdadm --fail /dev/md0 /dev/sdb1 mdadm: set /dev/sdb1 faulty in /dev/md0 # mdadm --detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Sat Jan 31 16:15:28 2009 Raid Level : raid5 Array Size : 521600 (509.46 MiB 534.12 MB) Device Size : 104320 (101.89 MiB 106.82 MB) (... 略 ...) Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 3 8 18 3 active sync /dev/sdb2 4 8 50 4 active sync /dev/sdd2 5 8 34 5 active sync /dev/sdc2 6 8 17 - faulty spare /dev/sdb1
LinuxでソフトウェアRAIDアレイをいじるにはmdadmコマンドを使います。使用中のRAIDアレイ(100MBディスク6本からなるRAID-5アレイ)で故障を発生させます。といっても実際にディスクを破壊するわけにはいきませんので、--failでシステムに故障を伝えます。故障したデバイスはfaulty spareという状態に変更されます。
次に故障したディスクを外します。
# mdadm --remove /dev/md0 /dev/sdb1 mdadm: hot removed /dev/sdb1 # mdadm --detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Sat Jan 31 16:28:28 2009 Raid Level : raid5 Array Size : 521600 (509.46 MiB 534.12 MB) Device Size : 104320 (101.89 MiB 106.82 MB) (... 略 ...) Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 3 8 18 3 active sync /dev/sdb2 4 8 50 4 active sync /dev/sdd2 5 8 34 5 active sync /dev/sdc2
故障したディスク(faulty spare)を --removeに指定して、アレイから取り除きます。アレイから取り除けるのは、故障している、していないに関わらずスペアディスクのみです。活きているディスクを --removeしようとしても失敗します。
次に新たなディスクを追加します。
# mdadm --add /dev/md0 /dev/sdb1 mdadm: added /dev/sdb1 # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md0 : active raid5 sdb1[6] sdd2[4] sdc2[5] sdb2[3] sdd1[2] sdc1[1] 521600 blocks level 5, 64k chunk, algorithm 2 [6/5] [_UUUUU] [====>................] recovery = 20.5% (22272/104320) finish=0.0min speed=22272K/sec unused devices: <none> # mdadm --detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Sat Jan 31 16:58:28 2009 Raid Level : raid5 Array Size : 521600 (509.46 MiB 534.12 MB) Device Size : 104320 (101.89 MiB 106.82 MB) (... 略 ...) Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 3 8 18 3 active sync /dev/sdb2 4 8 50 4 active sync /dev/sdd2 5 8 34 5 active sync /dev/sdc2
新たなディスクを --addで加えることでディスクの数が6本に戻ります。するとリカバリが始まります。今まで通り --detailで見ても良いですが、/proc/mdstatにもっとわかりやすい進行表示が出ます。
素晴らしいことにRAID-5アレイを止めなくとも、上記の作業が全てできます。リカバリ処理もI/O帯域を食いつぶさないように加減しますから、ユーザは --removeしてディスク交換して --addすれば、後はシステムがよきに計らってくれるわけです。便利ですね。
今ハードディスクがとても安いので、1TBのディスクを3個買いました。HDDを注文したときから、後でディスクを追加(5台まで増築予定)したときに拡張できるのか?と気になっていました。
世の中に同じ想いの方がどれだけいるか知りませんが、一度作ったRAID 5アレイを拡張する方法を紹介します。当方の実験環境はDebian GNU/Linux(etch) です。
例としてディスク3本からなるRAID-5アレイを作り、そこへ1本追加する様子を示したいと思います。実験のため100MBのパーティションでアレイを作っていますが、HDD全体を使っていても同じ手順でできるはずです。
# mdadm --create /dev/md0 -n 3 -l 5 -a p /dev/sdb1 /dev/sdc1 /dev/sdd1 mdadm: array /dev/md0 started. # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md0 : active raid5 sdd1[2] sdc1[1] sdb1[0] 208640 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU] unused devices: <none>
LinuxでソフトウェアRAIDアレイをいじるにはmdadmコマンドを使います。まず --createで100MB x 3(-n 3)の領域からなるRAID-5アレイ(-l 5)を作りました。容量は200MBです。今回はパーティションを作らないので関係ありませんが、パーティションが作れるアレイ(-a p)にするのが無難でしょう。
次にアレイ上の領域にファイルシステムを作り、マウントします。
# mkreiserfs /dev/md0 mkreiserfs 3.6.19 (2003 www.namesys.com) (... 略 ...) Guessing about desired format.. Kernel 2.6.25 is running. Format 3.6 with standard journal Count of blocks on the device: 52160 Number of blocks consumed by mkreiserfs formatting process: 8213 Blocksize: 4096 Hash function used to sort names: "r5" Journal Size 8193 blocks (first block 18) Journal Max transaction length 1024 inode generation number: 0 UUID: 27c689b4-5cee-4223-9d7c-adb29cfdeb7c ATTENTION: YOU SHOULD REBOOT AFTER FDISK! ALL DATA WILL BE LOST ON '/dev/md0'! Continue (y/n):y Initializing journal - 0%....20%....40%....60%....80%....100% Syncing..ok Tell your friends to use a kernel based on 2.4.18 or later, and especially not a kernel based on 2.4.9, when you use reiserFS. Have fun. ReiserFS is successfully created on /dev/md0. # mount /dev/md0 /mnt/md0 # df Filesystem 1K-blocks Used Available Use% Mounted on /dev/sda1 62498888 1879688 60619200 4% / /dev/md0 208628 32840 175788 16% /mnt/md0
おなじみの mkfsコマンドでファイルシステムを作り、マウントして容量を確認しています。例ではReiserFSですが、ext2, XFS, JFSの場合でもresizeツールがあれば同じ手順で拡張できます。
次にアレイを拡張します。ファイルシステムを利用中の場合は、一度アンマウントしてアレイを変更できるようにしてから作業してください。
# umount /mnt/md0 # mdadm --add /dev/md0 /dev/sdb2 mdadm: added /dev/sdb2 # mdadm --detail /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Sun Feb 1 04:05:28 2009 Raid Level : raid5 Array Size : 208640 (203.78 MiB 213.65 MB) Device Size : 104320 (101.89 MiB 106.82 MB) (... 略 ...) Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 3 8 18 - spare /dev/sdb2 # mdadm --grow /dev/md0 -n 4 mdadm: Need to backup 384K of critical section.. mdadm: ... critical section passed. # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md0 : active raid5 sdb2[3] sdd1[2] sdc1[1] sdb1[0] 208640 blocks super 0.91 level 5, 64k chunk, algorithm 2 [4/4] [UUUU] [===>.................] reshape = 15.6% (16384/104320) finish=0.8min speed=1638K/sec unused devices: <none> (... しばし待ちます ...) # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md0 : active raid5 sdb2[3] sdd1[2] sdc1[1] sdb1[0] 312960 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] unused devices: <none>
まず --addでスペアディスクを追加します。例では /dev/sdb2です。次に --growでRAIDアレイのディスク数を変更します。するとアレイのreshapeが始まります。容量が大きいほど時間がかかるので、しばし待ってください。reshape中のアレイの容量は200MBですが、reshapeが終わると容量が300MBに増加していることがわかると思います。
次にファイルシステムの領域を拡張します。
# resize_reiserfs /dev/md0 resize_reiserfs 3.6.19 (2003 www.namesys.com) ReiserFS report: blocksize 4096 block count 78240 (52160) free blocks 70026 (43947) bitmap block count 3 (2) Syncing..done resize_reiserfs: Resizing finished successfully. # mount /dev/md0 /mnt/md0 # df Filesystem 1K-blocks Used Available Use% Mounted on /dev/sda1 62498888 1879692 60619196 4% / /dev/md0 312944 32840 280104 11% /mnt/md0
ReiserFSの場合は、resize_reiserfsコマンドで領域のサイズ変更ができます。サイズを指定しなければ自動的にパーティションサイズの最大まで拡張してくれます。サイズを減らす(シュリンク)機能はベータ版らしく、実行すると警告が出ます。
目次: Linux
Linuxのファイルシステム選びはいつも迷います。どれも決め手に欠けるんです…。
先日組んだ 3TBのRAIDをReiserFSにしたら起動時のチェックに数分かかって腹立ってきたので、XFSに切り替えました。3TBの広さを活かして、大きいファイルメインで運用します。
ルートディレクトリを置くパーティションには細かいファイルが多いので、ReiserFSを使おうと思います。
誰かJFS使っている人いませんかねー…?
左下の7番の虫歯を放置していたら、大穴が開いていました。歯医者に行ってレントゲン取ったら「歯がほとんどない…。」って歯医者さんが絶句してました。
そこまでひどくなると冷たい物がしみるなどというレベルではなく、何もしていなくても痛くて生活に困るほどです。
昨年末から治療していて、抜随、根充は終わり今日は金属の土台を固定しました。来週は冠をかぶせるそうですから、そろそろ終わりです。
週1回くらいのペースで通って、丸二ヶ月かかりましたね。虫歯は放置せずにすぐに歯医者へ。
歩いていると足が痛い。正確に言うと膝の内側(?)が痛くて、歩くたびに痛みが走る。激しい運動もしていないし、ぶつけたわけでもないのに…なぜだ…?
土日歩かなかったから膝の具合が良くなっていることを期待したのですが、逆に悪化していました。な、なぜだ?
寮で相部屋の人が膝を悪くした経験があるので聞いてみると、自分と症状が似ています。ところが膝を悪くしたきっかけはバイトで無理な運動を続けたせいとのこと。無理な運動がきっかけといっても、自分には思い当たる節がないし…わけわからん。
VM上で試したらRead/Writeともに5MB/sと散々だったATAoEですが、実機上で試したらすさまじい性能でした。
ターゲットはAtom 330上のvblade-11-1(Debian etchのパッケージ) で、使用しているブロックデバイスは /dev/sda6です。/dev/sdaにはSeagate Barracuda.11がSATA300接続で繋がっています。
イニシエータはWindows XPで、WinAoE-0.97gです。パーティションはNTFSでフォーマットしています。
とにかくReadが恐ろしく速いですね。メモリにキャッシュされる分が効くのでしょう。
しばらく使っていると突然Writeが6MB/sくらいまでスローダウンしてしまうことがあります。原因はわかりません。Readは速いままなのですがねえ?
大下さんにシュークリームをもらいました。で、大下さんはおいしい金平糖を買いに行くのだと行って、京都へ去っていきました。
金平糖ってあのイガイガしたお菓子ですよね。金平糖にうまい、まずいって差があるのかあ。どれほど違うのか気になるけど、膝が痛いのでついていくのはやめておきました。でも気になる…。
6個あったシュークリームは即なくなりました。うます!
大下さんと北海道旅行に行きました。30分前に着けば余裕と油断していたら、ゴタゴタして飛行機に乗り遅れそうになりました。早朝の伊丹空港を猛ダッシュです。
旅行でもなんでも2人以上になったら、必ず処理の同期が必要なことを忘れていました。北海道に帰省する気分で時間決めてたのは良くなかった。
まずは赤レンガこと、旧北海道庁を見に行きました。大下さんは古い西洋作りの建物が好きらしくて、おおはしゃぎして写真を撮りまくっていました。私は3回目なので、普段見ない画とか説明文なんかを読んでいました。
北海道の歴史には必ず開拓、札幌農学校(クラークさん)、アイヌの人々が出てきます。中学生くらいの時に地元の街の歴史を習いますが、やはりこの3点セットが出てきます。北海道と切っても切れない仲ですね。
雪印パーラーでパフェを食べました。雪印の生キャラメルが載ったパフェを食べました。生キャラメルがかなり甘い。一個でいいわこれ…。
2Fは喫茶店で、1Fは土産屋です。2Fだけだとどうも狭いので、1Fも喫茶にした方が良いのでは?と思ったけど、帰りに見たら1Fにも意外と人が居ました。このままでいいのかな。
大通公園ではさっぽろ雪祭りの雪像がいくつか残っていました。白昼堂々と重機でガンガン破壊してました…。祭りの後って感じ。
わざわざ破壊の様子を写真に納めに来る人も多いそうです。雪像は雪祭り期間中見られるけど、破壊の瞬間は今しかないからなのだとか。うーん、納得できるようなできないような。
大通公園を抜けて、突き当たりにあるさっぽろテレビ塔に行きました。
全てのエレベーターにエレベーターガールが居ます。特に展望台へ行くまでのエレベーターでは「〜階へまいります」と言うときと同じ調子で、テレビ塔の観光案内をしてくれます。
観光案内が終わった後に「テレビ塔っていつ出来たんですか?」って話しかけたら、普通に話す時の声で「東京タワーより1年早い1957年ですね。」と答えてくれました。お姉さんの普通の声と、観光案内している時の声とのあまりの違いにびびった…プロってすげー。
ホテルは定山渓温泉のホテル鹿の湯にしました。本館 鹿の湯と新館 花もみじがあります。花もみじの方にしました。大浴場、貸し切り風呂が揃っていて風呂には困りません。部屋もなぜかしらんけど、むちゃくちゃ広かった。
晩ご飯が豪華なプランを選択したのですが、これが正解だった。時期的にカニの季節だったので、とにかくカニづくしです。うーん、他の料理もうまい〜。
今日の目的は旭山動物園のみです。朝早くにホテルを出て、札幌駅からスーパーカムイで一気に旭川へ。
北海道に住んでいたときから非常に気になっていた、L特急の「L」の部分。
日本語 | 英語 |
---|---|
快速 | Rapid |
急行 | Express |
特急、特別急行 | Limited Express |
L特急 | ?? |
超特急、新幹線 | Super Express |
英語の対訳ができません。電車の方向幕を見るとLimited Expressとなっていますが、特急だけでLimited Expressですから、頭のLは意味がないのか?単に特急で良いじゃないか。変な名前だな。
旭山動物園って元々は旭川市の市立動物園で、大して広くもないし、坂ばかりで歩きづらいです。そんな場所なのに有名なのは展示の方法が斬新だから。とにかく動物との距離が近い。触れそうな距離に、実際に動物が居て、実際に動いている。
これは楽しいですよ。全国区になったのは伊達じゃないなあ。
猛獣だろうが何だろうがとにかく近いです。たまに排泄物が飛んでくるらしいですが、間に何もないから仕方ないね。
全部紹介していたら切りがないので、ペンギンの散歩だけ。
檻から無理矢理全部のペンギンを出すのではなく、散歩開始時刻に檻に居るペンギンのうち、気が乗ったペンギンだけが散歩するらしいです。誰も散歩に乗ってこなかったら中止という、なんとも気ままなイベントです。
といってもノリノリの奴らはいっぱいいるらしく、中止になることはまずありません。
ジェンツーは群れを作らず単独で歩きますが、キングペンギンは先頭の一匹にぞろぞろとついて行きます。先頭のペンギンが血迷うと全滅…まるでレミングス。
帰ってきたら真っ暗でした。やはり定山渓(札幌の西端)からの日帰りは無理があったな…。写真は翌朝撮ったものです。
食事の時に仲居さんと「早朝から日帰りで旭山に行ってきた。」と言う話をしていたら、そういえば朝、部屋の掃除に行ったら居ませんでしたから、勝手にやってしまいました、って言われました。おわ。そういえば出かけるから居ませんってフロントに連絡するのを忘れてたね。
昨日も食べ終わった後、片付けてくださいって連絡するの忘れてたし…。こんなんばっかり。
< | 2009 | > | ||||
<< | < | 01 | > | >> | ||
日 | 月 | 火 | 水 | 木 | 金 | 土 |
- | - | - | - | 1 | 2 | 3 |
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
合計:
本日:
管理者: Katsuhiro Suzuki(katsuhiro( a t )katsuster.net)
This is Simple Diary 1.0
Copyright(C) Katsuhiro Suzuki 2006-2023.
Powered by PHP 8.2.20.
using GD bundled (2.1.0 compatible)(png support.)