OpenSolaris/Illumos (OpenIndiana, etc.) 6 (768レス)
上
下
前
次
1-
新
487
: 2013/12/09(月)19:54
AA×
>>485
>>486
[240|
320
|
480
|
600
|
原寸
|
JPG
|
べ
|
レス栞
|
レス消
]
487: [sage] 2013/12/09(月) 19:54:47.72 >>485が書いてくれてるとおりrecordsizeの減少はmetadataの急激な増大を生むので単にそれが原因ぽい 特に1ドライブ上で実験してしまうと離れた位置に2重化して書き込もうとするので猛烈なrandom writeに。 (割とマシなSANでもRAID6 1LUNマウントでは追いつかなかった) 物理ドライブを8本にしてみたら極端な遅さにはならなくなった(1〜2本が酷いだけで4本程度あれば十分かもしれない)が write総量がかなり増えることには違いないので相性の良いハードで無い限りrecordsize=4kはしんどそう 格納するデータが2k〜4kブロックでないと重複排除が効きづらいものだとzfsの使用は悩ましいことになる recordsize=128kでの重複排除率が低すぎる場合はserver2012あたりに浮気した方がいいのかもしれない >>486 メモリ64のマシンが余ったので仮想で半分割り当ててみたんだがarc_meta_limit上げれば割と収まるんじゃないかなー 若しくはARCは16程度でL2に64くらいとか(計算してないけど) http://mevius.5ch.net/test/read.cgi/unix/1337411922/487
が書いてくれてるとおりの減少はの急激な増大を生むので単にそれが原因ぽい 特にドライブ上で実験してしまうと離れた位置に重化して書き込もうとするので猛烈な に 割とマシなでも マウントでは追いつかなかった 物理ドライブを本にしてみたら極端な遅さにはならなくなった本が酷いだけで本程度あれば十分かもしれないが 総量がかなり増えることには違いないので相性の良いハードで無い限りはしんどそう 格納するデータがブロックでないと重複排除が効きづらいものだとの使用は悩ましいことになる での重複排除率が低すぎる場合はあたりに浮気した方がいいのかもしれない メモリのマシンが余ったので仮想で半分割り当ててみたんだが上げれば割と収まるんじゃないかなー 若しくはは程度でにくらいとか計算してないけど
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 281 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
ぬこの手
ぬこTOP
0.044s