OpenSolaris/Illumos (OpenIndiana, etc.) 6 (768レス)
OpenSolaris/Illumos (OpenIndiana, etc.) 6 http://mevius.5ch.net/test/read.cgi/unix/1337411922/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
26: 22 [sage] 2012/06/15(金) 01:51:55.41 電源切って別のHDDに入れ替えたら usr1@oi151a:~$ dmesgzpool status -v zpool pool: zpool state: UNAVAIL status: One or more devices could not be opened. There are insufficient replicas for the pool to continue functioning. action: Attach the missing device and online it using 'zpool online'. see: http://www.sun.com/msg/ZFS-8000-3C scan: none requested config: NAME STATE READ WRITE CKSUM zpool UNAVAIL 0 0 0 insufficient replicas c2t50014EE111111111d0 ONLINE 0 0 0 c2t50014EE222222222d0 ONLINE 0 0 0 c2t50014EE333333333d0 UNAVAIL 0 0 0 cannot open c2t50014EE444444444d0 ONLINE 0 0 0 こうなった。接続先は同じなんだけどzfsには新しいc2t50014EE999999999d0は認識されない http://mevius.5ch.net/test/read.cgi/unix/1337411922/26
27: 22 [sage] 2012/06/15(金) 01:53:19.51 名前を指定してreplaceしようとしたら usr1@oi151a:~$ zpool replace zpool c2t50014EE333333333d0 c2t50014EE999999999d0 cannot open 'zpool': pool is unavailable poolがUNAVAILなのが駄目らしいので、ONLINEにしようとしても usr1@oi151a:~$ zpool online zpool c2t50014EE333333333d0 cannot open 'zpool': pool is unavailable これでもやっぱり駄目 usr1@oi151a:~$ zpool online zpool c2t50014EE999999999d0 missing device name といわれてONLINEにできない、今ここ http://mevius.5ch.net/test/read.cgi/unix/1337411922/27
28: 名無しさん@お腹いっぱい。 [sage] 2012/06/15(金) 02:31:20.20 もしかしてそれstripeなのか? http://mevius.5ch.net/test/read.cgi/unix/1337411922/28
29: 名無しさん@お腹いっぱい。 [sage] 2012/06/15(金) 07:25:31.52 stripeだから次のようにメッセージが出てるわけだな status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. 冗長デバイス抜きのpoolがHDD交換で復旧すると思ってたんだろうか? http://mevius.5ch.net/test/read.cgi/unix/1337411922/29
30: 名無しさん@お腹いっぱい。 [sage] 2012/06/15(金) 15:29:19.66 変な汗どころじゃ済まない話になってきたな http://mevius.5ch.net/test/read.cgi/unix/1337411922/30
31: 名無しさん@お腹いっぱい。 [sage] 2012/06/15(金) 21:14:14.85 壊れたディスクをddなりでイメージコピーしてみる、位か…… http://mevius.5ch.net/test/read.cgi/unix/1337411922/31
32: 名無しさん@お腹いっぱい。 [sage] 2012/06/16(土) 01:33:19.76 壊れたHDDってddで読み出せるの? http://mevius.5ch.net/test/read.cgi/unix/1337411922/32
33: 名無しさん@お腹いっぱい。 [sage] 2012/06/16(土) 02:10:13.51 元の状態でプールがDEGRADEDってことは辛うじてアクセスできんのか? だったらその死にかけのHDD戻してある程度のデータは救えないのかな http://mevius.5ch.net/test/read.cgi/unix/1337411922/33
34: 22 [sage] 2012/06/16(土) 03:02:05.22 あれ?stripe? usr1@oi151a:~$ sudo zpool history | grep "zpool create" 2011-03-13.17:49:21 zpool create zpool c2t50014EE111111111d0 c2t50014EE222222222d0 c2t50014EE333333333d0 c2t50014EE444444444d0 あばばばば pool作り直して首つってきます。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/34
35: 名無しさん@お腹いっぱい。 [sage] 2012/06/16(土) 03:21:35.12 zpool statusの時点で気付けw http://mevius.5ch.net/test/read.cgi/unix/1337411922/35
36: 名無しさん@お腹いっぱい。 [sage] 2012/06/16(土) 03:30:40.61 >>33 比較的軽傷な単一ディスクのプールならやったことあるけど ストライプメンバーだとどうなるんだろうな? http://mevius.5ch.net/test/read.cgi/unix/1337411922/36
37: 22 [sage] 2012/06/16(土) 12:05:20.60 >>36 自分の場合、被害を受けているのは最近書き込んだファイルのみで それ以外の部分は問題がありませんでした。当然、HDDの壊れ方に もよると思いますが。 しかし、運用中にWRITEでエラーが出ていないのにREADでNGって いやですね。定期的にscrubしておけばよかった。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/37
38: 名無しさん@お腹いっぱい。 [sage] 2012/06/16(土) 15:25:46.64 >>32 「正常に」読み出せるかどうかは、運次第 conv=noerror とかして、とにかく読めるところだけでもコピーするって話 http://mevius.5ch.net/test/read.cgi/unix/1337411922/38
39: 名無しさん@お腹いっぱい。 [sage] 2012/06/16(土) 18:02:35.09 >>37 SATA HDDだとREAD ERROR発生で終了というパターンが基本じゃね? 代替領域がある限りこそっと処理してるからSMART見てなきゃ気付かないはず http://mevius.5ch.net/test/read.cgi/unix/1337411922/39
40: 名無しさん@お腹いっぱい。 [sage] 2012/06/22(金) 23:14:38.88 copies=2 とか指定してたとするとstripeメンバが死んだ状態でもそれなりに生きてるファイルは読み出せる・・・ のではないかと予想はしているが実験してみたことはない。 あんまり使う予定が思いつかないがどうなんだろうな>copies http://mevius.5ch.net/test/read.cgi/unix/1337411922/40
41: 名無しさん@お腹いっぱい。 [sage] 2012/06/22(金) 23:27:42.28 >>40 そのはず…だけどおれも試したことないわw RAIDZかミラーするから http://mevius.5ch.net/test/read.cgi/unix/1337411922/41
42: 名無しさん@お腹いっぱい。 [sage] 2012/06/22(金) 23:52:04.39 そのコピーって別のディスクにって言う保証は無かった気がする http://mevius.5ch.net/test/read.cgi/unix/1337411922/42
43: 名無しさん@お腹いっぱい。 [sage] 2012/06/23(土) 02:38:04.65 zfsのマニュアルページにはこう書いてあるな copies=1 | 2 | 3 Controls the number of copies of data stored for this dataset. These copies are in addition to any redundancy provided by the pool, for example, mirroring or RAID-Z. The copies are stored on different disks, if possible. 「可能なら」別のディスクに書くみたいだな しかし冗長性なしのpool選んでこれに期待するのって単なるバカだろw http://mevius.5ch.net/test/read.cgi/unix/1337411922/43
44: 名無しさん@お腹いっぱい。 [sage] 2012/06/24(日) 08:42:19.83 そんな奴は居ないので安心しろ http://mevius.5ch.net/test/read.cgi/unix/1337411922/44
45: 名無しさん@お腹いっぱい。 [] 2012/07/04(水) 00:58:48.08 oi_151a_prestable5来た ttp://wiki.openindiana.org/oi/oi_151a_prestable5+Release+Notes http://mevius.5ch.net/test/read.cgi/unix/1337411922/45
46: 吠鉱山 ◆STCMXN/JPY [sage] 2012/07/04(水) 14:25:09.50 もうopensolaris時代みたいにSPARC版出さないのかね。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/46
47: 名無しさん@お腹いっぱい。 [] 2012/07/05(木) 00:46:33.19 >>46 出したいけどSPARC用の人員が足りてないらしい 我こそはと思う人はぜひ名乗り出てほしいそうな http://mevius.5ch.net/test/read.cgi/unix/1337411922/47
48: 名無しさん@お腹いっぱい。 [sage] 2012/07/13(金) 11:53:58.49 LSI の SAS HBA に Supermicro の JBOD を使っている時に、cfgadm -c unconfigure を実行すると該当のスロットのランプは点灯してくれますか? http://mevius.5ch.net/test/read.cgi/unix/1337411922/48
49: 名無しさん@お腹いっぱい。 [sage] 2012/07/13(金) 15:37:54.23 unconfigureで自動点灯させる意味がわからん 保守したいHDDの位置を示すならlocator使うだろ JBODって本来はspanningのはずなのに 単純な複数HDD筐体までそう呼ぶ連中がいて紛らわしいな http://mevius.5ch.net/test/read.cgi/unix/1337411922/49
50: 名無しさん@お腹いっぱい。 [sage] 2012/07/14(土) 01:22:59.97 >>49 そういうオプションがあるのですね。 ディスクが故障した場合は、unconfigure -> locator=on -> 交換 -> locator=off -> configure という感じでしょうか。 よび方は JBOD chassis とよんだほうがいいですか? http://mevius.5ch.net/test/read.cgi/unix/1337411922/50
51: 名無しさん@お腹いっぱい。 [sage] 2012/07/14(土) 12:50:25.40 JBODでディスク交換なんてことになったらデータすっ飛んでるんじゃね? http://mevius.5ch.net/test/read.cgi/unix/1337411922/51
52: 名無しさん@お腹いっぱい。 [sage] 2012/07/15(日) 00:24:47.66 ZFS で mirror を組もうと考えていて、ドライブが故障した場合に間違えずに 交換する方法があるのかと思い質問させていただきました。 ZFS は RAID カードを使わないことが推奨されているようですが、今は状況が 変わっていたりしますかね? WriteBack Cache が付いた RAID カードなら RAID カードで RAID を組んだほうが 速いんじゃないかという気もしますが。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/52
53: 名無しさん@お腹いっぱい。 [sage] 2012/07/15(日) 09:45:36.46 >>52 ZFSのメリットなくてもいいなら、 それでも良いんじゃ。 ま、好きにしろって事だが。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/53
54: 名無しさん@お腹いっぱい。 [sage] 2012/07/15(日) 12:42:15.56 最初にスロットなりコネクタなりディスクなりにシールでも貼っとけばいいんじゃねーの? あと、今時、生の UFS で使える程度の容量で我慢できるものなのかね? どっちにしろ svm なり使うんだったら、zfs の方が管理上マシだと思うが http://mevius.5ch.net/test/read.cgi/unix/1337411922/54
55: 名無しさん@お腹いっぱい。 [sage] 2012/07/15(日) 14:42:51.42 >>53 raw disk を使うメリットって何? WriteBack Cache を使うと、ZIL を SSD に置かなくても、 書き込みが遅くならないというメリットがあるけど。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/55
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 713 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.014s