OpenSolaris/Illumos (OpenIndiana, etc.) 6 (768レス)
1-

463
(1): 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 21:53:30.33 AAS
てゆーかそこまで耐久性とかこだわるんならSAS使うべ?それならWindowsのみなんてカードほとんど無いと思うけど?
464: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 22:13:29.99 AAS
なんつーか、素直にNetAppでも買っとけって話じゃね?
465: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 22:14:54.71 AAS
要件定義に失敗してるよーな
466: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 22:23:59.60 AAS
Win8のn方向ミラーは「データをアレイ中の任意のn台に書く」ってだけだよね。そんな難しい原理ではなかった気が。

何重ミラーにしようと1つのマシン上でやる以上はrm -rf /には勝てないんだから、
別マシンを用意してzfs send/recvする方が良いとは思うんだけどね。
数TBのバックアップストレージを予算的に用意できないからやむを得ずRAIDによるデータ保護に期待する、
ならともかく5wayミラー想定するほどHDDに余裕あるなら、自分だったら8台でRAID-Z2組んだマシンを2台用意する。
データ保護より何より高可用性が大事なんだとしても、HBAなり電源が逝ったみたいな事態だと結局マシンは止めなきゃいかんのだし。
467
(2): 名無しさん@お腹いっぱい。 [sage] 2013/09/24(火) 08:16:49.37 AAS
snapshotスクリプトがコケててsnapshotが取れてなかったDatasetが
アプリのバグでファイルの半数以上がrmされたorz

(朝五時に電話かかってきて「ファイル消えてんぞぐるぁ」と来た)
zdbでブロックが残ってるのは確認したが、約2T/20万objectの羅列を眺めて15分ほど固まった

そんな俺に誰か一言
468: 名無しさん@お腹いっぱい。 [sage kani?] 2013/09/24(火) 10:37:23.78 AAS
バックアップって大事だね
469: 名無しさん@お腹いっぱい。 [sage] 2013/09/24(火) 10:51:34.55 AAS
snapshotでniceshot!
470: 名無しさん@お腹いっぱい。 [sage] 2013/09/24(火) 15:14:49.90 AAS
>>460
460(3): 454 [sage] 2013/09/23(月) 20:29:22.71 AAS
レスありがとうございます
長文失礼します

>>455
1・・・こだわらなければOpenSolaris系で良さそうですね
2・・・NASとしての性能面ではSolaris系の方が有利ですか
 軽く探して見た感じだとSolaris系の場合は対応したSATA HBA(PCI-Express)カードが
 なかなか見つから無いように思います
3・・・すみません。自分もWindows8のストレージプールについては良く理解できていません
ストレージを仮想化して、スケーラビリティ、復元性、効率性を高める - Building Windows 8 - Site Home - MSDN Blogs
外部リンク[aspx]:blogs.msdn.com
2ウェイミラーと3ウェイミラーが使用可能のようですが、3ウェイミラーは
・パリティではなくミラーを複数台のドライブに分散して記録する
・2台以上死んでもサービスを継続できる
っぽいです。具体的な原理は自分も良く理解できていません
このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました
パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします
Windows8による構築も検討して調べてみているのですが、縮退モードからドライブ交換無しでリビルドできたり
プールからドライブの削除が出来たり、SATAカードが選び放題だったりと、Solaris(or FreeBSD)+ZFSより
優れる面もあるのですが、実績がほとんど無いこととWindowsだと言うことで不安があります

>>459
現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが
HBAやドライブ電源の障害でNAS丸ごとクラッシュという事態は避けたいです(単一障害点の削減)
RAID-Z2や3ウェイミラーの場合は2台の死亡までしか許容できないのでHBAと電源を
8台用意する必要があり、流石に現実的ではありません
現実的には
4台死亡を許容(5ウェイパリティ、RAID-Zしたセットをプールに追加)してHBAと電源を4台用意するか
8台死亡を許容(RAID10。ミラーしたセットをプールに追加)してHBAと電源を2台用意する
あたりが落としどころかなと思っています
後半何言ってるのかわかりません
>>467
zdb叩く前にとっととバックアップからリストアしろ
471
(1): 名無しさん@お腹いっぱい。 [sage] 2013/10/02(水) 22:09:45.65 AAS
仮想マシン上のOpenSolarisにApacheとPHPをインストールしなければならないのですが、
手元の資料にはどちらも解凍・展開からの手順しか書いておらず進められずにいます
解凍・展開前に必要な準備等がありましたら教えて頂けないでしょうか
472: 名無しさん@お腹いっぱい。 [sage] 2013/10/02(水) 23:22:37.37 AAS
まず服を脱ぎます。
473: 名無しさん@お腹いっぱい。 [sage] 2013/10/02(水) 23:24:29.22 AAS
まず服を脱ぎます
474: 名無しさん@お腹いっぱい。 [sage] 2013/10/03(木) 08:39:21.94 AAS
PHP出版に勤めます
475: 名無しさん@お腹いっぱい。 [sage] 2013/10/04(金) 19:51:07.50 AAS
PHP出版を辞めましたエントリを書きます
476: 名無しさん@お腹いっぱい。 [sage] 2013/10/04(金) 19:52:54.75 AAS
つまんね。
477: 名無しさん@お腹いっぱい。 [sage] 2013/10/05(土) 21:05:41.25 AAS
>>467
スナップショットがこけててもバックアップがあるんだから問題ないだろ。
2TBの書き戻しは気が変になりそうだろうが、がんばれ/
478: 名無しさん@お腹いっぱい。 [sage kani?] 2013/10/06(日) 15:15:27.57 AAS
>>471
展開前のブツをDLしてきたとか手持ちであるならそこから進めるだけじゃん?w
つーかその資料とやらを作ったヤシに聞けよ
479
(1): 名無しさん@お腹いっぱい。 [sage] 2013/11/03(日) 12:20:27.14 AAS
CIFSストレージとして使ってますが、ストレージ空き容量が減ってくると
加速度的に読み書きが遅くなりますね
480: 名無しさん@お腹いっぱい。 [] 2013/11/03(日) 14:12:45.89 AAS
>>479
ZFSの事か?
ま、公式にも使用量は80%以下で使えと言われているし、
CoWの仕組み上、空き容量が減ってくると遅くなるのは、
しようが無い事ではある。
DISK数が少ないと、なおさら効いてくるかもな。
481: 名無しさん@お腹いっぱい。 [sage] 2013/11/03(日) 15:14:16.11 AAS
そこでZILとL2ARCをSSDで、ですよ奥さん!
482
(1): 名無しさん@お腹いっぱい。 [sage] 2013/12/06(金) 22:56:03.83 AAS
dedup=onでrecordsize=4kとかにするとファイル書き込んだときにwriteが増えて異常に遅くなるんだがこれなんだろ?
recordsize弄らなければ急に遅くはならないし、read増えてないのでDDTに書きに行ってるとかか??
recordsize大きいとデータに埋もれて見えないだけとかいうオチか? dedup率優先なpoolにしようかと思ったが遅すぎる

実験方法:
vmに16〜32GB程度メモリ割り当て。zpool create ; zfs create ; zfs set dedup=on, compress=on, sync=disabled
cp dummy_5GB.bin hoge
zfs set recordsize=4k
cp dummy_5GB.bin hoge
483: 名無しさん@お腹いっぱい。 [sage] 2013/12/07(土) 07:48:19.15 AAS
>>482
外部リンク:blogs.oracle.com
Other consideration (metadata overhead, caching) dictates however that the recordsize not be reduced below a certain point (16K to 64K; do send-in your experience).
484: 名無しさん@お腹いっぱい。 [sage] 2013/12/07(土) 19:19:55.08 AAS
今回のはdedupが支配要因に見えるしここまで遅いとそういう話ではないような気も。
ひとまず32kでやってみるけど。
ddtとかのメタデータって2〜3重化されてるんだっけ? 実験的にOFFにできるのかな。
実験先のドライブが1LUNなのが問題な気がしてきた。
485
(1): 名無しさん@お腹いっぱい。 [sage] 2013/12/08(日) 08:34:34.33 AAS
2重化されてる。
ZAPはrecordsize単位で作られるのだから128K→4Kでは32倍にもなる。
486
(1): 名無しさん@お腹いっぱい。 [sage] 2013/12/08(日) 09:08:30.23 AAS
ところで、本番で想定しているプールサイズで、メモリ消費量予想してみました?
外部リンク[html]:www.c0t0d0s0.org
RAM 32GB→ARC 24GB→metadata 6GB→...
recorsize=4KBだと、プール1TBで DDT 3GBくらいとか?
dedupでストレージを節約しようとしても、代償に必要とされる
メモリが高コストにつくと、あまり意味ないのでは。
487: 名無しさん@お腹いっぱい。 [sage] 2013/12/09(月) 19:54:47.72 AAS
>>485が書いてくれてるとおりrecordsizeの減少はmetadataの急激な増大を生むので単にそれが原因ぽい
特に1ドライブ上で実験してしまうと離れた位置に2重化して書き込もうとするので猛烈なrandom writeに。
(割とマシなSANでもRAID6 1LUNマウントでは追いつかなかった)
物理ドライブを8本にしてみたら極端な遅さにはならなくなった(1〜2本が酷いだけで4本程度あれば十分かもしれない)が
write総量がかなり増えることには違いないので相性の良いハードで無い限りrecordsize=4kはしんどそう
格納するデータが2k〜4kブロックでないと重複排除が効きづらいものだとzfsの使用は悩ましいことになる
recordsize=128kでの重複排除率が低すぎる場合はserver2012あたりに浮気した方がいいのかもしれない

>>486
メモリ64のマシンが余ったので仮想で半分割り当ててみたんだがarc_meta_limit上げれば割と収まるんじゃないかなー
若しくはARCは16程度でL2に64くらいとか(計算してないけど)
1-
あと 281 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 0.020s