OpenSolaris/Illumos (OpenIndiana, etc.) 6 (768レス)
OpenSolaris/Illumos (OpenIndiana, etc.) 6 http://mevius.5ch.net/test/read.cgi/unix/1337411922/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
487: 名無しさん@お腹いっぱい。 [sage] 2013/12/09(月) 19:54:47.72 >>485が書いてくれてるとおりrecordsizeの減少はmetadataの急激な増大を生むので単にそれが原因ぽい 特に1ドライブ上で実験してしまうと離れた位置に2重化して書き込もうとするので猛烈なrandom writeに。 (割とマシなSANでもRAID6 1LUNマウントでは追いつかなかった) 物理ドライブを8本にしてみたら極端な遅さにはならなくなった(1〜2本が酷いだけで4本程度あれば十分かもしれない)が write総量がかなり増えることには違いないので相性の良いハードで無い限りrecordsize=4kはしんどそう 格納するデータが2k〜4kブロックでないと重複排除が効きづらいものだとzfsの使用は悩ましいことになる recordsize=128kでの重複排除率が低すぎる場合はserver2012あたりに浮気した方がいいのかもしれない >>486 メモリ64のマシンが余ったので仮想で半分割り当ててみたんだがarc_meta_limit上げれば割と収まるんじゃないかなー 若しくはARCは16程度でL2に64くらいとか(計算してないけど) http://mevius.5ch.net/test/read.cgi/unix/1337411922/487
488: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 09:43:55.45 Dedupの効率?みたいな物の比較ってある? 確かにZFSでDedupしても予想の半分程度しか減らないことがある Compressと併用すると効率が悪くなったりしないよね http://mevius.5ch.net/test/read.cgi/unix/1337411922/488
489: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 17:36:55.37 dedupは思ったほど効果なかったなぁ そのデメリットがあまりにひどすぎて使うのやめたが gzip圧縮の方がかなり効く そもそもdedupがそんなに必要となる状況ってどんなのがあるんだろう? バックアップで各世代をそのまま保存しつつ、変更がないから同じファイルが いくつも存在するといった場合なら、そもそもsnapshotバックアップでいいし http://mevius.5ch.net/test/read.cgi/unix/1337411922/489
490: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 20:40:55.24 仮想マシンのイメージファイル置き場がメジャーじゃね ひな形vmをコピーする際にzfs cloneすればいいんだが、実際は丸コピした方が楽な場合が多くw (ファイル単位でclone出来るようにはならんのか?) http://mevius.5ch.net/test/read.cgi/unix/1337411922/490
491: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 20:50:36.07 マジレスすると、メールアーカイブで添付ファイルとかに効くと思う http://mevius.5ch.net/test/read.cgi/unix/1337411922/491
492: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 22:28:48.23 添付ファイル単位で単離されてるならそりゃ効くだろうけども メル鯖によってはbase64encされた状態でtextの間に挟まってないかそれ? dedup効くのかね http://mevius.5ch.net/test/read.cgi/unix/1337411922/492
493: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 22:42:06.40 >>490 cloneはファイルシステムを分けて使う場合は便利だけど、 逆にそれが不便になる場合もあるからねぇ さくらでZFSストレージをVPSのファイルサーバに使って大失敗してたけど あれどんなシステムでどんな失敗だったんだろうな http://mevius.5ch.net/test/read.cgi/unix/1337411922/493
494: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 23:55:38.85 上で上がってたような特定用途の領域を必要なだけFSとして切り出してdedupかけるのが (メモリ的にも現実的な)本来の用途なわけで、数TB、数十TBのプール全体にdedupかけて、なんてのはアホの極みでしかないな。 1GBくらいのディスクイメージcpして使用領域増えてないわーい、みたいなブログ記事たまに見るけどそんなこと言ってもねぇ・・・ http://mevius.5ch.net/test/read.cgi/unix/1337411922/494
495: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 01:01:29.62 さくらの場合はnfsで使っていて1000台ぐらいで性能が頭打ちに なったとかどっかで見た気がする。 そもそもnfsを使うのが筋が悪かった。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/495
496: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 01:33:43.51 特定用途のvm置き場にdedupかけたけど効果はさっぱりだったな。ブロックサイズ固定まではしてみなかったが さくらはzfsでdedupかけてたのかな? どちらにせよzfs自体が大規模トラフィックに向いてない気がするな。nfsは構造上小規模向けだろうに GlusterFSやらの分散型でスケールアウト狙った方が http://mevius.5ch.net/test/read.cgi/unix/1337411922/496
497: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 01:38:34.13 NFSはそもそも共有して意味があるんであって クライアントが別々にのファイルにアクセスするなら NFSする意味がないからな iSCSIの方が良かったんじゃないのかと cloneで同じ設定のVMを作り出すのは便利だからそこだけうまくやってればねぇ http://mevius.5ch.net/test/read.cgi/unix/1337411922/497
498: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 09:54:37.02 共有してるからvMotionできる iSCSIよりずっと手軽で管理しやすい http://mevius.5ch.net/test/read.cgi/unix/1337411922/498
499: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 10:44:40.53 それは微妙にzfsとは違う方向から異論が出そうだが、 iscsiの使い勝手が悪い件については賛成。 そりゃnfsでファイル見えてりゃ規模が大きくなればなるほど管理が圧倒的に楽になる。 ただzfsでサブディレクトリ作ってもクライアントから追加でマウントしないと共有が見えない。 Linuxのnfsdで出来てるんだから何とかしろよ絶対便利だろそれorz http://mevius.5ch.net/test/read.cgi/unix/1337411922/499
500: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 11:04:15.45 サブディレクトリ??? http://mevius.5ch.net/test/read.cgi/unix/1337411922/500
501: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 17:33:27.78 ファイルシステムのことかな? そりゃ別だからmountしないと見えない http://mevius.5ch.net/test/read.cgi/unix/1337411922/501
502: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 20:47:49.35 ああ、zfs createで作られるマウントポイントってなんつーの? zfs create pool/zfs1 zfs create pool/zfs1/zfs2 zfs create pool/zfs1/zfs2/zfs3 みたく階層化たりとか。 Linux系はpool/zfs1をnfs共有しとくとその下に増やしても自動で見えるイメージ inodeとか誤魔化せば出来るんじゃねーかやってくれよっていう http://mevius.5ch.net/test/read.cgi/unix/1337411922/502
503: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 22:41:29.91 >>502 ふっ、貴様はまだbtrfsを知らないようだな・・・ http://mevius.5ch.net/test/read.cgi/unix/1337411922/503
504: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 22:48:48.99 >>502 ZFS用語的にはtype=fliesystemかな? datasetでもいいか ハードリンクできないから下手なことしたら混乱しそうだけどな http://mevius.5ch.net/test/read.cgi/unix/1337411922/504
505: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 00:20:56.53 階層化たり??? http://mevius.5ch.net/test/read.cgi/unix/1337411922/505
506: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 00:29:12.62 btrfsってこれのことですかーっ >_< ttp://togetter.com/li/513383 >>504 おお、あれfilesystemっていうのか。>>502みたく階層化して使う場合ってどう表現すればいいんだろ 「filesystemの中にfilesystemをマウントする」とかか。これだと通じるかどうか微妙なラインだが http://mevius.5ch.net/test/read.cgi/unix/1337411922/506
507: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 00:34:52.91 >>506 filesytem単位にmountpointは設定できるからなぁ defaultでは自動でそのまま階層化されるけどね http://mevius.5ch.net/test/read.cgi/unix/1337411922/507
508: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 15:28:03.50 ZFSの階層構造はプロパティとかの管理上便利ってだけでファイルシステムとしては独立してるんだから 運用上はext4とかの領域作りまくって色んなフォルダにマウントしてるのと変わらん。 >>507の言うようにdefaultだとZFS上の階層構造そのままの位置にマウントするからフォルダ的に扱える気がするだけだな。 dedupを実際に活用できてる現場ってどれくらいあるのかね? それなりに大きいストレージだと個人レベルじゃ用意できない量のメモリを必要とするし、 それだけのメモリを用意できるストレージだとストレージ自体ももっと大規模で結局メモリ足りないんじゃ?と思ってしまう。 メモリー積んでdedupかけるより、dedupで削減できる容量分のHDD追加した方がコスト的にマシなケースしか浮かんでこない。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/508
509: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 16:13:29.19 zfs on Linuxの環境だが既存fsの下層に新規fs作ったらESXi側から見えたよ エクスポートの設定の問題か そしてアンマウントできなくなっちまったが http://mevius.5ch.net/test/read.cgi/unix/1337411922/509
510: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 16:59:21.54 >>509 499あたりが書いてるが Linuxでは可能. vm単位でfs作ってcloneしたら即アクセスできる Solarisではfs作る度にクライアント側でマウントしないと使えない http://mevius.5ch.net/test/read.cgi/unix/1337411922/510
511: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 17:28:53.06 誠に失礼した http://mevius.5ch.net/test/read.cgi/unix/1337411922/511
512: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 23:26:31.49 NFSv4 mirror mount ってのがあるんですって。 http://docs.oracle.com/cd/E19120-01/open.solaris/817-2271/gfwqw/index.html 図は Oracle Solaris 11 ZFSを使ってみよう(概要・設計ガイド) - 富士通 http://jp.fujitsu.com/platform/server/sparc/technical/document/pdf/00_ZFS.pdf のページ40に。この、富士通のzfs文書シリーズ、良いですね。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/512
513: 名無しさん@お腹いっぱい。 [sage] 2013/12/17(火) 00:28:29.14 ESXiは5.5になってもNFSv4はまだ使えないですかそうですか http://mevius.5ch.net/test/read.cgi/unix/1337411922/513
514: 名無しさん@お腹いっぱい。 [sage] 2013/12/17(火) 13:19:40.89 zfs on linux以外は糞ということですねそうですね http://mevius.5ch.net/test/read.cgi/unix/1337411922/514
515: 名無しさん@お腹いっぱい。 [sage] 2013/12/17(火) 15:09:43.09 ZFS使おうとして Linux選ぶやつなんか、いるの? http://mevius.5ch.net/test/read.cgi/unix/1337411922/515
516: 名無しさん@お腹いっぱい。 [sage] 2013/12/17(火) 21:36:45.50 >>508 Linux LVM的に言えば ZPOOL=VG ZFS filesystem=LV みたいなもんだからな 別々のLVだからmountも別 NFSクライアント側でハードリンクしたらどうなるかちょっと気になってきた http://mevius.5ch.net/test/read.cgi/unix/1337411922/516
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 252 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.007s