OpenSolaris/Illumos (OpenIndiana, etc.) 6 (768レス)
OpenSolaris/Illumos (OpenIndiana, etc.) 6 http://mevius.5ch.net/test/read.cgi/unix/1337411922/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
463: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 21:53:30.33 てゆーかそこまで耐久性とかこだわるんならSAS使うべ?それならWindowsのみなんてカードほとんど無いと思うけど? http://mevius.5ch.net/test/read.cgi/unix/1337411922/463
464: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 22:13:29.99 なんつーか、素直にNetAppでも買っとけって話じゃね? http://mevius.5ch.net/test/read.cgi/unix/1337411922/464
465: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 22:14:54.71 要件定義に失敗してるよーな http://mevius.5ch.net/test/read.cgi/unix/1337411922/465
466: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 22:23:59.60 Win8のn方向ミラーは「データをアレイ中の任意のn台に書く」ってだけだよね。そんな難しい原理ではなかった気が。 何重ミラーにしようと1つのマシン上でやる以上はrm -rf /には勝てないんだから、 別マシンを用意してzfs send/recvする方が良いとは思うんだけどね。 数TBのバックアップストレージを予算的に用意できないからやむを得ずRAIDによるデータ保護に期待する、 ならともかく5wayミラー想定するほどHDDに余裕あるなら、自分だったら8台でRAID-Z2組んだマシンを2台用意する。 データ保護より何より高可用性が大事なんだとしても、HBAなり電源が逝ったみたいな事態だと結局マシンは止めなきゃいかんのだし。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/466
467: 名無しさん@お腹いっぱい。 [sage] 2013/09/24(火) 08:16:49.37 snapshotスクリプトがコケててsnapshotが取れてなかったDatasetが アプリのバグでファイルの半数以上がrmされたorz (朝五時に電話かかってきて「ファイル消えてんぞぐるぁ」と来た) zdbでブロックが残ってるのは確認したが、約2T/20万objectの羅列を眺めて15分ほど固まった そんな俺に誰か一言 http://mevius.5ch.net/test/read.cgi/unix/1337411922/467
468: 名無しさん@お腹いっぱい。 [sage kani?] 2013/09/24(火) 10:37:23.78 バックアップって大事だね http://mevius.5ch.net/test/read.cgi/unix/1337411922/468
469: 名無しさん@お腹いっぱい。 [sage] 2013/09/24(火) 10:51:34.55 snapshotでniceshot! http://mevius.5ch.net/test/read.cgi/unix/1337411922/469
470: 名無しさん@お腹いっぱい。 [sage] 2013/09/24(火) 15:14:49.90 >>460 後半何言ってるのかわかりません >>467 zdb叩く前にとっととバックアップからリストアしろ http://mevius.5ch.net/test/read.cgi/unix/1337411922/470
471: 名無しさん@お腹いっぱい。 [sage] 2013/10/02(水) 22:09:45.65 仮想マシン上のOpenSolarisにApacheとPHPをインストールしなければならないのですが、 手元の資料にはどちらも解凍・展開からの手順しか書いておらず進められずにいます 解凍・展開前に必要な準備等がありましたら教えて頂けないでしょうか http://mevius.5ch.net/test/read.cgi/unix/1337411922/471
472: 名無しさん@お腹いっぱい。 [sage] 2013/10/02(水) 23:22:37.37 まず服を脱ぎます。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/472
473: 名無しさん@お腹いっぱい。 [sage] 2013/10/02(水) 23:24:29.22 まず服を脱ぎます http://mevius.5ch.net/test/read.cgi/unix/1337411922/473
474: 名無しさん@お腹いっぱい。 [sage] 2013/10/03(木) 08:39:21.94 PHP出版に勤めます http://mevius.5ch.net/test/read.cgi/unix/1337411922/474
475: 名無しさん@お腹いっぱい。 [sage] 2013/10/04(金) 19:51:07.50 PHP出版を辞めましたエントリを書きます http://mevius.5ch.net/test/read.cgi/unix/1337411922/475
476: 名無しさん@お腹いっぱい。 [sage] 2013/10/04(金) 19:52:54.75 つまんね。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/476
477: 名無しさん@お腹いっぱい。 [sage] 2013/10/05(土) 21:05:41.25 >>467 スナップショットがこけててもバックアップがあるんだから問題ないだろ。 2TBの書き戻しは気が変になりそうだろうが、がんばれ/ http://mevius.5ch.net/test/read.cgi/unix/1337411922/477
478: 名無しさん@お腹いっぱい。 [sage kani?] 2013/10/06(日) 15:15:27.57 >>471 展開前のブツをDLしてきたとか手持ちであるならそこから進めるだけじゃん?w つーかその資料とやらを作ったヤシに聞けよ http://mevius.5ch.net/test/read.cgi/unix/1337411922/478
479: 名無しさん@お腹いっぱい。 [sage] 2013/11/03(日) 12:20:27.14 CIFSストレージとして使ってますが、ストレージ空き容量が減ってくると 加速度的に読み書きが遅くなりますね http://mevius.5ch.net/test/read.cgi/unix/1337411922/479
480: 名無しさん@お腹いっぱい。 [] 2013/11/03(日) 14:12:45.89 >>479 ZFSの事か? ま、公式にも使用量は80%以下で使えと言われているし、 CoWの仕組み上、空き容量が減ってくると遅くなるのは、 しようが無い事ではある。 DISK数が少ないと、なおさら効いてくるかもな。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/480
481: 名無しさん@お腹いっぱい。 [sage] 2013/11/03(日) 15:14:16.11 そこでZILとL2ARCをSSDで、ですよ奥さん! http://mevius.5ch.net/test/read.cgi/unix/1337411922/481
482: 名無しさん@お腹いっぱい。 [sage] 2013/12/06(金) 22:56:03.83 dedup=onでrecordsize=4kとかにするとファイル書き込んだときにwriteが増えて異常に遅くなるんだがこれなんだろ? recordsize弄らなければ急に遅くはならないし、read増えてないのでDDTに書きに行ってるとかか?? recordsize大きいとデータに埋もれて見えないだけとかいうオチか? dedup率優先なpoolにしようかと思ったが遅すぎる 実験方法: vmに16〜32GB程度メモリ割り当て。zpool create ; zfs create ; zfs set dedup=on, compress=on, sync=disabled cp dummy_5GB.bin hoge zfs set recordsize=4k cp dummy_5GB.bin hoge http://mevius.5ch.net/test/read.cgi/unix/1337411922/482
483: 名無しさん@お腹いっぱい。 [sage] 2013/12/07(土) 07:48:19.15 >>482 ttps://blogs.oracle.com/roch/entry/tuning_zfs_recordsize Other consideration (metadata overhead, caching) dictates however that the recordsize not be reduced below a certain point (16K to 64K; do send-in your experience). http://mevius.5ch.net/test/read.cgi/unix/1337411922/483
484: 名無しさん@お腹いっぱい。 [sage] 2013/12/07(土) 19:19:55.08 今回のはdedupが支配要因に見えるしここまで遅いとそういう話ではないような気も。 ひとまず32kでやってみるけど。 ddtとかのメタデータって2〜3重化されてるんだっけ? 実験的にOFFにできるのかな。 実験先のドライブが1LUNなのが問題な気がしてきた。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/484
485: 名無しさん@お腹いっぱい。 [sage] 2013/12/08(日) 08:34:34.33 2重化されてる。 ZAPはrecordsize単位で作られるのだから128K→4Kでは32倍にもなる。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/485
486: 名無しさん@お腹いっぱい。 [sage] 2013/12/08(日) 09:08:30.23 ところで、本番で想定しているプールサイズで、メモリ消費量予想してみました? ttp://www.c0t0d0s0.org/archives/7271-ZFS-Dedup-Internals.html RAM 32GB→ARC 24GB→metadata 6GB→... recorsize=4KBだと、プール1TBで DDT 3GBくらいとか? dedupでストレージを節約しようとしても、代償に必要とされる メモリが高コストにつくと、あまり意味ないのでは。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/486
487: 名無しさん@お腹いっぱい。 [sage] 2013/12/09(月) 19:54:47.72 >>485が書いてくれてるとおりrecordsizeの減少はmetadataの急激な増大を生むので単にそれが原因ぽい 特に1ドライブ上で実験してしまうと離れた位置に2重化して書き込もうとするので猛烈なrandom writeに。 (割とマシなSANでもRAID6 1LUNマウントでは追いつかなかった) 物理ドライブを8本にしてみたら極端な遅さにはならなくなった(1〜2本が酷いだけで4本程度あれば十分かもしれない)が write総量がかなり増えることには違いないので相性の良いハードで無い限りrecordsize=4kはしんどそう 格納するデータが2k〜4kブロックでないと重複排除が効きづらいものだとzfsの使用は悩ましいことになる recordsize=128kでの重複排除率が低すぎる場合はserver2012あたりに浮気した方がいいのかもしれない >>486 メモリ64のマシンが余ったので仮想で半分割り当ててみたんだがarc_meta_limit上げれば割と収まるんじゃないかなー 若しくはARCは16程度でL2に64くらいとか(計算してないけど) http://mevius.5ch.net/test/read.cgi/unix/1337411922/487
488: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 09:43:55.45 Dedupの効率?みたいな物の比較ってある? 確かにZFSでDedupしても予想の半分程度しか減らないことがある Compressと併用すると効率が悪くなったりしないよね http://mevius.5ch.net/test/read.cgi/unix/1337411922/488
489: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 17:36:55.37 dedupは思ったほど効果なかったなぁ そのデメリットがあまりにひどすぎて使うのやめたが gzip圧縮の方がかなり効く そもそもdedupがそんなに必要となる状況ってどんなのがあるんだろう? バックアップで各世代をそのまま保存しつつ、変更がないから同じファイルが いくつも存在するといった場合なら、そもそもsnapshotバックアップでいいし http://mevius.5ch.net/test/read.cgi/unix/1337411922/489
490: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 20:40:55.24 仮想マシンのイメージファイル置き場がメジャーじゃね ひな形vmをコピーする際にzfs cloneすればいいんだが、実際は丸コピした方が楽な場合が多くw (ファイル単位でclone出来るようにはならんのか?) http://mevius.5ch.net/test/read.cgi/unix/1337411922/490
491: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 20:50:36.07 マジレスすると、メールアーカイブで添付ファイルとかに効くと思う http://mevius.5ch.net/test/read.cgi/unix/1337411922/491
492: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 22:28:48.23 添付ファイル単位で単離されてるならそりゃ効くだろうけども メル鯖によってはbase64encされた状態でtextの間に挟まってないかそれ? dedup効くのかね http://mevius.5ch.net/test/read.cgi/unix/1337411922/492
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 276 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.007s