OpenSolaris/Illumos (OpenIndiana, etc.) 6 (768レス)
OpenSolaris/Illumos (OpenIndiana, etc.) 6 http://mevius.5ch.net/test/read.cgi/unix/1337411922/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
461: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 21:16:01.12 > Solaris系の場合は対応したSATA HBA(PCI-Express)カードがなかなか見つから無いように思います ま、思うのは勝手だけどな。普通LSI買うだろ > このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました 別に何面ミラーでも作れると思うけどな>ZFS > パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします パフォーマンスは知らんけど、容量は不利だろうな > 縮退モードからドライブ交換無しでリビルドできたりプールからドライブの削除が出来たり ミラー構成なら何でも出来るだろ>ZFS > 現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが 以下意味不明につきレスは避ける 取り敢えず、1台のマシンをNASにするなら、その1台が単一障害点とやらになるだろ http://mevius.5ch.net/test/read.cgi/unix/1337411922/461
462: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 21:47:41.75 >>460 ttp://wiki.openindiana.org/pages/viewpage.action?pageId=23856206 Adaotec/Highpoint/LSIと主だったところは大体対応してるけどな (Highpoint対応されたのは確かに比較的最近だが) http://mevius.5ch.net/test/read.cgi/unix/1337411922/462
463: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 21:53:30.33 てゆーかそこまで耐久性とかこだわるんならSAS使うべ?それならWindowsのみなんてカードほとんど無いと思うけど? http://mevius.5ch.net/test/read.cgi/unix/1337411922/463
464: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 22:13:29.99 なんつーか、素直にNetAppでも買っとけって話じゃね? http://mevius.5ch.net/test/read.cgi/unix/1337411922/464
465: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 22:14:54.71 要件定義に失敗してるよーな http://mevius.5ch.net/test/read.cgi/unix/1337411922/465
466: 名無しさん@お腹いっぱい。 [sage] 2013/09/23(月) 22:23:59.60 Win8のn方向ミラーは「データをアレイ中の任意のn台に書く」ってだけだよね。そんな難しい原理ではなかった気が。 何重ミラーにしようと1つのマシン上でやる以上はrm -rf /には勝てないんだから、 別マシンを用意してzfs send/recvする方が良いとは思うんだけどね。 数TBのバックアップストレージを予算的に用意できないからやむを得ずRAIDによるデータ保護に期待する、 ならともかく5wayミラー想定するほどHDDに余裕あるなら、自分だったら8台でRAID-Z2組んだマシンを2台用意する。 データ保護より何より高可用性が大事なんだとしても、HBAなり電源が逝ったみたいな事態だと結局マシンは止めなきゃいかんのだし。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/466
467: 名無しさん@お腹いっぱい。 [sage] 2013/09/24(火) 08:16:49.37 snapshotスクリプトがコケててsnapshotが取れてなかったDatasetが アプリのバグでファイルの半数以上がrmされたorz (朝五時に電話かかってきて「ファイル消えてんぞぐるぁ」と来た) zdbでブロックが残ってるのは確認したが、約2T/20万objectの羅列を眺めて15分ほど固まった そんな俺に誰か一言 http://mevius.5ch.net/test/read.cgi/unix/1337411922/467
468: 名無しさん@お腹いっぱい。 [sage kani?] 2013/09/24(火) 10:37:23.78 バックアップって大事だね http://mevius.5ch.net/test/read.cgi/unix/1337411922/468
469: 名無しさん@お腹いっぱい。 [sage] 2013/09/24(火) 10:51:34.55 snapshotでniceshot! http://mevius.5ch.net/test/read.cgi/unix/1337411922/469
470: 名無しさん@お腹いっぱい。 [sage] 2013/09/24(火) 15:14:49.90 >>460 後半何言ってるのかわかりません >>467 zdb叩く前にとっととバックアップからリストアしろ http://mevius.5ch.net/test/read.cgi/unix/1337411922/470
471: 名無しさん@お腹いっぱい。 [sage] 2013/10/02(水) 22:09:45.65 仮想マシン上のOpenSolarisにApacheとPHPをインストールしなければならないのですが、 手元の資料にはどちらも解凍・展開からの手順しか書いておらず進められずにいます 解凍・展開前に必要な準備等がありましたら教えて頂けないでしょうか http://mevius.5ch.net/test/read.cgi/unix/1337411922/471
472: 名無しさん@お腹いっぱい。 [sage] 2013/10/02(水) 23:22:37.37 まず服を脱ぎます。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/472
473: 名無しさん@お腹いっぱい。 [sage] 2013/10/02(水) 23:24:29.22 まず服を脱ぎます http://mevius.5ch.net/test/read.cgi/unix/1337411922/473
474: 名無しさん@お腹いっぱい。 [sage] 2013/10/03(木) 08:39:21.94 PHP出版に勤めます http://mevius.5ch.net/test/read.cgi/unix/1337411922/474
475: 名無しさん@お腹いっぱい。 [sage] 2013/10/04(金) 19:51:07.50 PHP出版を辞めましたエントリを書きます http://mevius.5ch.net/test/read.cgi/unix/1337411922/475
476: 名無しさん@お腹いっぱい。 [sage] 2013/10/04(金) 19:52:54.75 つまんね。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/476
477: 名無しさん@お腹いっぱい。 [sage] 2013/10/05(土) 21:05:41.25 >>467 スナップショットがこけててもバックアップがあるんだから問題ないだろ。 2TBの書き戻しは気が変になりそうだろうが、がんばれ/ http://mevius.5ch.net/test/read.cgi/unix/1337411922/477
478: 名無しさん@お腹いっぱい。 [sage kani?] 2013/10/06(日) 15:15:27.57 >>471 展開前のブツをDLしてきたとか手持ちであるならそこから進めるだけじゃん?w つーかその資料とやらを作ったヤシに聞けよ http://mevius.5ch.net/test/read.cgi/unix/1337411922/478
479: 名無しさん@お腹いっぱい。 [sage] 2013/11/03(日) 12:20:27.14 CIFSストレージとして使ってますが、ストレージ空き容量が減ってくると 加速度的に読み書きが遅くなりますね http://mevius.5ch.net/test/read.cgi/unix/1337411922/479
480: 名無しさん@お腹いっぱい。 [] 2013/11/03(日) 14:12:45.89 >>479 ZFSの事か? ま、公式にも使用量は80%以下で使えと言われているし、 CoWの仕組み上、空き容量が減ってくると遅くなるのは、 しようが無い事ではある。 DISK数が少ないと、なおさら効いてくるかもな。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/480
481: 名無しさん@お腹いっぱい。 [sage] 2013/11/03(日) 15:14:16.11 そこでZILとL2ARCをSSDで、ですよ奥さん! http://mevius.5ch.net/test/read.cgi/unix/1337411922/481
482: 名無しさん@お腹いっぱい。 [sage] 2013/12/06(金) 22:56:03.83 dedup=onでrecordsize=4kとかにするとファイル書き込んだときにwriteが増えて異常に遅くなるんだがこれなんだろ? recordsize弄らなければ急に遅くはならないし、read増えてないのでDDTに書きに行ってるとかか?? recordsize大きいとデータに埋もれて見えないだけとかいうオチか? dedup率優先なpoolにしようかと思ったが遅すぎる 実験方法: vmに16〜32GB程度メモリ割り当て。zpool create ; zfs create ; zfs set dedup=on, compress=on, sync=disabled cp dummy_5GB.bin hoge zfs set recordsize=4k cp dummy_5GB.bin hoge http://mevius.5ch.net/test/read.cgi/unix/1337411922/482
483: 名無しさん@お腹いっぱい。 [sage] 2013/12/07(土) 07:48:19.15 >>482 ttps://blogs.oracle.com/roch/entry/tuning_zfs_recordsize Other consideration (metadata overhead, caching) dictates however that the recordsize not be reduced below a certain point (16K to 64K; do send-in your experience). http://mevius.5ch.net/test/read.cgi/unix/1337411922/483
484: 名無しさん@お腹いっぱい。 [sage] 2013/12/07(土) 19:19:55.08 今回のはdedupが支配要因に見えるしここまで遅いとそういう話ではないような気も。 ひとまず32kでやってみるけど。 ddtとかのメタデータって2〜3重化されてるんだっけ? 実験的にOFFにできるのかな。 実験先のドライブが1LUNなのが問題な気がしてきた。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/484
485: 名無しさん@お腹いっぱい。 [sage] 2013/12/08(日) 08:34:34.33 2重化されてる。 ZAPはrecordsize単位で作られるのだから128K→4Kでは32倍にもなる。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/485
486: 名無しさん@お腹いっぱい。 [sage] 2013/12/08(日) 09:08:30.23 ところで、本番で想定しているプールサイズで、メモリ消費量予想してみました? ttp://www.c0t0d0s0.org/archives/7271-ZFS-Dedup-Internals.html RAM 32GB→ARC 24GB→metadata 6GB→... recorsize=4KBだと、プール1TBで DDT 3GBくらいとか? dedupでストレージを節約しようとしても、代償に必要とされる メモリが高コストにつくと、あまり意味ないのでは。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/486
487: 名無しさん@お腹いっぱい。 [sage] 2013/12/09(月) 19:54:47.72 >>485が書いてくれてるとおりrecordsizeの減少はmetadataの急激な増大を生むので単にそれが原因ぽい 特に1ドライブ上で実験してしまうと離れた位置に2重化して書き込もうとするので猛烈なrandom writeに。 (割とマシなSANでもRAID6 1LUNマウントでは追いつかなかった) 物理ドライブを8本にしてみたら極端な遅さにはならなくなった(1〜2本が酷いだけで4本程度あれば十分かもしれない)が write総量がかなり増えることには違いないので相性の良いハードで無い限りrecordsize=4kはしんどそう 格納するデータが2k〜4kブロックでないと重複排除が効きづらいものだとzfsの使用は悩ましいことになる recordsize=128kでの重複排除率が低すぎる場合はserver2012あたりに浮気した方がいいのかもしれない >>486 メモリ64のマシンが余ったので仮想で半分割り当ててみたんだがarc_meta_limit上げれば割と収まるんじゃないかなー 若しくはARCは16程度でL2に64くらいとか(計算してないけど) http://mevius.5ch.net/test/read.cgi/unix/1337411922/487
488: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 09:43:55.45 Dedupの効率?みたいな物の比較ってある? 確かにZFSでDedupしても予想の半分程度しか減らないことがある Compressと併用すると効率が悪くなったりしないよね http://mevius.5ch.net/test/read.cgi/unix/1337411922/488
489: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 17:36:55.37 dedupは思ったほど効果なかったなぁ そのデメリットがあまりにひどすぎて使うのやめたが gzip圧縮の方がかなり効く そもそもdedupがそんなに必要となる状況ってどんなのがあるんだろう? バックアップで各世代をそのまま保存しつつ、変更がないから同じファイルが いくつも存在するといった場合なら、そもそもsnapshotバックアップでいいし http://mevius.5ch.net/test/read.cgi/unix/1337411922/489
490: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 20:40:55.24 仮想マシンのイメージファイル置き場がメジャーじゃね ひな形vmをコピーする際にzfs cloneすればいいんだが、実際は丸コピした方が楽な場合が多くw (ファイル単位でclone出来るようにはならんのか?) http://mevius.5ch.net/test/read.cgi/unix/1337411922/490
491: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 20:50:36.07 マジレスすると、メールアーカイブで添付ファイルとかに効くと思う http://mevius.5ch.net/test/read.cgi/unix/1337411922/491
492: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 22:28:48.23 添付ファイル単位で単離されてるならそりゃ効くだろうけども メル鯖によってはbase64encされた状態でtextの間に挟まってないかそれ? dedup効くのかね http://mevius.5ch.net/test/read.cgi/unix/1337411922/492
493: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 22:42:06.40 >>490 cloneはファイルシステムを分けて使う場合は便利だけど、 逆にそれが不便になる場合もあるからねぇ さくらでZFSストレージをVPSのファイルサーバに使って大失敗してたけど あれどんなシステムでどんな失敗だったんだろうな http://mevius.5ch.net/test/read.cgi/unix/1337411922/493
494: 名無しさん@お腹いっぱい。 [sage] 2013/12/14(土) 23:55:38.85 上で上がってたような特定用途の領域を必要なだけFSとして切り出してdedupかけるのが (メモリ的にも現実的な)本来の用途なわけで、数TB、数十TBのプール全体にdedupかけて、なんてのはアホの極みでしかないな。 1GBくらいのディスクイメージcpして使用領域増えてないわーい、みたいなブログ記事たまに見るけどそんなこと言ってもねぇ・・・ http://mevius.5ch.net/test/read.cgi/unix/1337411922/494
495: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 01:01:29.62 さくらの場合はnfsで使っていて1000台ぐらいで性能が頭打ちに なったとかどっかで見た気がする。 そもそもnfsを使うのが筋が悪かった。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/495
496: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 01:33:43.51 特定用途のvm置き場にdedupかけたけど効果はさっぱりだったな。ブロックサイズ固定まではしてみなかったが さくらはzfsでdedupかけてたのかな? どちらにせよzfs自体が大規模トラフィックに向いてない気がするな。nfsは構造上小規模向けだろうに GlusterFSやらの分散型でスケールアウト狙った方が http://mevius.5ch.net/test/read.cgi/unix/1337411922/496
497: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 01:38:34.13 NFSはそもそも共有して意味があるんであって クライアントが別々にのファイルにアクセスするなら NFSする意味がないからな iSCSIの方が良かったんじゃないのかと cloneで同じ設定のVMを作り出すのは便利だからそこだけうまくやってればねぇ http://mevius.5ch.net/test/read.cgi/unix/1337411922/497
498: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 09:54:37.02 共有してるからvMotionできる iSCSIよりずっと手軽で管理しやすい http://mevius.5ch.net/test/read.cgi/unix/1337411922/498
499: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 10:44:40.53 それは微妙にzfsとは違う方向から異論が出そうだが、 iscsiの使い勝手が悪い件については賛成。 そりゃnfsでファイル見えてりゃ規模が大きくなればなるほど管理が圧倒的に楽になる。 ただzfsでサブディレクトリ作ってもクライアントから追加でマウントしないと共有が見えない。 Linuxのnfsdで出来てるんだから何とかしろよ絶対便利だろそれorz http://mevius.5ch.net/test/read.cgi/unix/1337411922/499
500: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 11:04:15.45 サブディレクトリ??? http://mevius.5ch.net/test/read.cgi/unix/1337411922/500
501: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 17:33:27.78 ファイルシステムのことかな? そりゃ別だからmountしないと見えない http://mevius.5ch.net/test/read.cgi/unix/1337411922/501
502: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 20:47:49.35 ああ、zfs createで作られるマウントポイントってなんつーの? zfs create pool/zfs1 zfs create pool/zfs1/zfs2 zfs create pool/zfs1/zfs2/zfs3 みたく階層化たりとか。 Linux系はpool/zfs1をnfs共有しとくとその下に増やしても自動で見えるイメージ inodeとか誤魔化せば出来るんじゃねーかやってくれよっていう http://mevius.5ch.net/test/read.cgi/unix/1337411922/502
503: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 22:41:29.91 >>502 ふっ、貴様はまだbtrfsを知らないようだな・・・ http://mevius.5ch.net/test/read.cgi/unix/1337411922/503
504: 名無しさん@お腹いっぱい。 [sage] 2013/12/15(日) 22:48:48.99 >>502 ZFS用語的にはtype=fliesystemかな? datasetでもいいか ハードリンクできないから下手なことしたら混乱しそうだけどな http://mevius.5ch.net/test/read.cgi/unix/1337411922/504
505: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 00:20:56.53 階層化たり??? http://mevius.5ch.net/test/read.cgi/unix/1337411922/505
506: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 00:29:12.62 btrfsってこれのことですかーっ >_< ttp://togetter.com/li/513383 >>504 おお、あれfilesystemっていうのか。>>502みたく階層化して使う場合ってどう表現すればいいんだろ 「filesystemの中にfilesystemをマウントする」とかか。これだと通じるかどうか微妙なラインだが http://mevius.5ch.net/test/read.cgi/unix/1337411922/506
507: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 00:34:52.91 >>506 filesytem単位にmountpointは設定できるからなぁ defaultでは自動でそのまま階層化されるけどね http://mevius.5ch.net/test/read.cgi/unix/1337411922/507
508: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 15:28:03.50 ZFSの階層構造はプロパティとかの管理上便利ってだけでファイルシステムとしては独立してるんだから 運用上はext4とかの領域作りまくって色んなフォルダにマウントしてるのと変わらん。 >>507の言うようにdefaultだとZFS上の階層構造そのままの位置にマウントするからフォルダ的に扱える気がするだけだな。 dedupを実際に活用できてる現場ってどれくらいあるのかね? それなりに大きいストレージだと個人レベルじゃ用意できない量のメモリを必要とするし、 それだけのメモリを用意できるストレージだとストレージ自体ももっと大規模で結局メモリ足りないんじゃ?と思ってしまう。 メモリー積んでdedupかけるより、dedupで削減できる容量分のHDD追加した方がコスト的にマシなケースしか浮かんでこない。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/508
509: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 16:13:29.19 zfs on Linuxの環境だが既存fsの下層に新規fs作ったらESXi側から見えたよ エクスポートの設定の問題か そしてアンマウントできなくなっちまったが http://mevius.5ch.net/test/read.cgi/unix/1337411922/509
510: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 16:59:21.54 >>509 499あたりが書いてるが Linuxでは可能. vm単位でfs作ってcloneしたら即アクセスできる Solarisではfs作る度にクライアント側でマウントしないと使えない http://mevius.5ch.net/test/read.cgi/unix/1337411922/510
511: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 17:28:53.06 誠に失礼した http://mevius.5ch.net/test/read.cgi/unix/1337411922/511
512: 名無しさん@お腹いっぱい。 [sage] 2013/12/16(月) 23:26:31.49 NFSv4 mirror mount ってのがあるんですって。 http://docs.oracle.com/cd/E19120-01/open.solaris/817-2271/gfwqw/index.html 図は Oracle Solaris 11 ZFSを使ってみよう(概要・設計ガイド) - 富士通 http://jp.fujitsu.com/platform/server/sparc/technical/document/pdf/00_ZFS.pdf のページ40に。この、富士通のzfs文書シリーズ、良いですね。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/512
513: 名無しさん@お腹いっぱい。 [sage] 2013/12/17(火) 00:28:29.14 ESXiは5.5になってもNFSv4はまだ使えないですかそうですか http://mevius.5ch.net/test/read.cgi/unix/1337411922/513
514: 名無しさん@お腹いっぱい。 [sage] 2013/12/17(火) 13:19:40.89 zfs on linux以外は糞ということですねそうですね http://mevius.5ch.net/test/read.cgi/unix/1337411922/514
515: 名無しさん@お腹いっぱい。 [sage] 2013/12/17(火) 15:09:43.09 ZFS使おうとして Linux選ぶやつなんか、いるの? http://mevius.5ch.net/test/read.cgi/unix/1337411922/515
516: 名無しさん@お腹いっぱい。 [sage] 2013/12/17(火) 21:36:45.50 >>508 Linux LVM的に言えば ZPOOL=VG ZFS filesystem=LV みたいなもんだからな 別々のLVだからmountも別 NFSクライアント側でハードリンクしたらどうなるかちょっと気になってきた http://mevius.5ch.net/test/read.cgi/unix/1337411922/516
517: 名無しさん@お腹いっぱい。 [sage] 2013/12/21(土) 16:56:55.29 >>515 そらzfs on Linuxが安定したら乗り換える人多いだろうよ http://mevius.5ch.net/test/read.cgi/unix/1337411922/517
518: 名無しさん@お腹いっぱい。 [sage] 2013/12/21(土) 21:18:52.91 ZFS使うためだけにOpenIndianaやFreeBSD選んでる人が結構いそうだからな。 元々がLinux使いならそりゃZFSもLinuxで使えた方が嬉しいだろう。 このスレも9割くらいZFSスレになってるけど、Solaris系で使ってる人半分もいなかったりしてw http://mevius.5ch.net/test/read.cgi/unix/1337411922/518
519: 名無しさん@お腹いっぱい。 [sage] 2013/12/21(土) 23:22:13.32 Linuxが使いやすいとは全く思わないが、使えるデバイスの多さ(ドライバの充実度)が 半端ないからなぁ http://mevius.5ch.net/test/read.cgi/unix/1337411922/519
520: 名無しさん@お腹いっぱい。 [sage] 2013/12/22(日) 00:28:18.14 数は力だよ、アニキ。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/520
521: 名無しさん@お腹いっぱい。 [sage] 2013/12/22(日) 10:46:04.53 >>517 すでにかなり安定してるし、0.6.1以降は安定版扱いだよ http://mevius.5ch.net/test/read.cgi/unix/1337411922/521
522: 名無しさん@お腹いっぱい。 [sage] 2013/12/22(日) 11:45:00.62 自称安定版か。 これまでどれほど自称に騙されてきた事か・・・ もう誰も信じない、俺が信じるのはサポート契約だけだ!(死亡フラグ)。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/522
523: 名無しさん@お腹いっぱい。 [sage] 2013/12/23(月) 00:03:48.30 Btrfsは非常に安定した安心なファイルシステムです http://mevius.5ch.net/test/read.cgi/unix/1337411922/523
524: 名無しさん@お腹いっぱい。 [sage] 2013/12/23(月) 01:23:40.18 >>523 たしかに、いつまで経ってもちゃんとしたものが出てこないという 意味では安定しまくっている。 ってか、raid5/6程度の実装に何年かかってるんだろうね。 zfsが発表の翌年にはほぼ実用になってたのが異常に早いのかも知れないが。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/524
525: 名無しさん@お腹いっぱい。 [sage] 2013/12/23(月) 03:16:53.76 ZFSはオーパーツだからしょうがない。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/525
526: 名無しさん@お腹いっぱい。 [sage] 2013/12/24(火) 21:11:41.15 >>524 >>523はレス内容そのままのネタツイートが由来だぞw ググると安定・安心っぷりがわかる http://mevius.5ch.net/test/read.cgi/unix/1337411922/526
527: 名無しさん@お腹いっぱい。 [sage] 2013/12/24(火) 21:25:04.24 http://togetter.com/li/513383 これか。 こんなネタ知らんわ。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/527
528: 名無しさん@お腹いっぱい。 [sage] 2013/12/26(木) 21:15:11.55 >>517 安定しそうにもないから >515 なんだが..w # Linuxに ZFSを安定に稼働させられるわけがない、という.. >>521 そんなバカなww >>524 深い泥田に柱は、結局立たないんだよ。 JFSや XFSで実証済みなので鉄板です。 本家の人達が来て大量に地盤改良剤を注入しましたがダメでしたw 途中で意味不明のヨコヤリまで入る始末。議論はケンカ腰でやるもんだそうです(爆笑) http://mevius.5ch.net/test/read.cgi/unix/1337411922/528
529: 名無しさん@お腹いっぱい。 [sage] 2013/12/26(木) 21:23:13.40 >>528 >そんなバカなww ttps://groups.google.com/a/zfsonlinux.org/forum/#!topic/zfs-announce/ZXADhyOwFfA >Today the ZFS on Linux project reached an important milestone with the official 0.6.1 release! >Over two years of use by real users has convinced us ZoL is ready for wide scale deployment >on everything from desktops to super computers. http://mevius.5ch.net/test/read.cgi/unix/1337411922/529
530: 名無しさん@お腹いっぱい。 [sage] 2013/12/27(金) 02:54:42.32 nfsの利便性とドライバ充実度のメリットがでかいなぁ http://mevius.5ch.net/test/read.cgi/unix/1337411922/530
531: 名無しさん@お腹いっぱい。 [sage] 2013/12/27(金) 04:47:54.08 LinuxのNFSは正直あまり使いたくない http://mevius.5ch.net/test/read.cgi/unix/1337411922/531
532: 名無しさん@お腹いっぱい。 [sage] 2013/12/27(金) 08:52:06.33 NFSv4はFreeBSDの方が結構バギーだったんじゃない? 今は知らないけど。 あと2000年代前半でzero copy化されてパフォーマンスはその時 かなり上がったよ。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/532
533: 名無しさん@お腹いっぱい。 [sage] 2013/12/28(土) 13:46:51.29 本家Solarisでさえ、デフォルトのファイルシステムに採用するのに5年以上かかったのに。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/533
534: 名無しさん@お腹いっぱい。 [sage] 2013/12/29(日) 15:42:42.87 >>532 NFSの版とか zero copy入ってるかどうかとかそんな次元の話してるようじゃ どーしよーもなくてさww http://mevius.5ch.net/test/read.cgi/unix/1337411922/534
535: 名無しさん@お腹いっぱい。 [sage] 2014/01/23(木) 22:02:52.18 ZFSの質問です 2TBのmirrorのpoolにファイルシステムを置いてますが、これが残り23GBくらいになったところで 急激に遅くなってきました ハード的に強化するとしたら、メモリ?HDD追加? どちらでしょうか http://mevius.5ch.net/test/read.cgi/unix/1337411922/535
536: 名無しさん@お腹いっぱい。 [] 2014/01/23(木) 22:34:23.55 >>535 ZFSは使用量80%未満で使う事が、大前提。これは、メーカーも言っていること。 ZFSはpoolの空き容量が20%切ったところで、遅くなり出す。 10%切ったら、遅くなるだけじゃなく、色々弊害出だして、危機的状況。 大至急HDDの追加、現状poolからのデータ退避をすすめる。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/536
537: 名無しさん@お腹いっぱい。 [sage] 2014/01/23(木) 22:53:13.01 今のmirror vdev1つなプールにもう1セットmirrorを追加すれば。 急場はしのげそうですね。 使用量・負荷の均衡が取れるのははるか先でしょうから、 少しずつでも、外へ退避してから書き戻し、していくといいと思います。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/537
538: 名無しさん@お腹いっぱい。 [sage] 2014/01/24(金) 01:19:35.47 ttp://ftp-admin.blogspot.jp/2013/12/zfs.html ftp-adminの人も同じこと書いてるね. http://mevius.5ch.net/test/read.cgi/unix/1337411922/538
539: 名無しさん@お腹いっぱい。 [sage] 2014/01/24(金) 19:06:00.90 空き容量が残り20%を切ったら、コピーオンライトというのを切ればいいのか ふむふむ... http://mevius.5ch.net/test/read.cgi/unix/1337411922/539
540: 名無しさん@お腹いっぱい。 [sage] 2014/01/24(金) 21:20:36.42 アッ http://mevius.5ch.net/test/read.cgi/unix/1337411922/540
541: 名無しさん@お腹いっぱい。 [sage] 2014/01/25(土) 18:22:04.86 それを すてるなんてとんでもない! http://mevius.5ch.net/test/read.cgi/unix/1337411922/541
542: 名無しさん@お腹いっぱい。 [sage] 2014/01/26(日) 08:00:38.44 スレ違いだったら申し訳ありません 今までSolarisをまともに使ったことがないので 一から勉強したいのですが、そういった目的の場合 SolarisとOpenSolarisはどちらが向いているでしようか 他OSの経験は公私双方でWindows、RHELあたりを 主に扱ったことがあります http://mevius.5ch.net/test/read.cgi/unix/1337411922/542
543: 名無しさん@お腹いっぱい。 [sage] 2014/01/26(日) 09:22:26.69 犬厨ってのは、なんでクソつまらんコピペをばらまこうとか思えるんだろう? とっとと精神科なりに入院すればいいのに http://mevius.5ch.net/test/read.cgi/unix/1337411922/543
544: 名無しさん@お腹いっぱい。 [sage] 2014/01/26(日) 10:21:22.99 >>542 コピペ改変 http://toro.2ch.net/test/read.cgi/unix/1380865524/728 http://mevius.5ch.net/test/read.cgi/unix/1337411922/544
545: 名無しさん@お腹いっぱい。 [sage] 2014/01/26(日) 15:06:54.60 ダミーの dataset 作って、そこに reservation でも設定すれば 空き容量食い尽くすってのは未然に防げるのかな。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/545
546: 名無しさん@お腹いっぱい。 [sage] 2014/01/26(日) 15:38:56.59 親FS(pool直下、同名)にrefreservation http://mevius.5ch.net/test/read.cgi/unix/1337411922/546
547: 名無しさん@お腹いっぱい。 [sage] 2014/01/26(日) 19:49:03.06 空き容量なくなってきたら古いsnapshot消して凌いでたわ http://mevius.5ch.net/test/read.cgi/unix/1337411922/547
548: 名無しさん@お腹いっぱい。 [sage] 2014/01/26(日) 21:40:59.90 1分毎のホームディレクトリスナップショットで、 ゴミ箱要らず 気兼ねなくrmできるようになりました...となるのかな? http://mevius.5ch.net/test/read.cgi/unix/1337411922/548
549: 名無しさん@お腹いっぱい。 [sage] 2014/01/26(日) 22:17:10.31 timesliderが15分毎にスナップショット取ってくれるので 時には助かるけど、ゴミ箱も手に入るなら欲しい。 ZFSのsharesmbには無いから、Sambaに浮気したり。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/549
550: 名無しさん@お腹いっぱい。 [sage] 2014/01/27(月) 16:16:07.98 >>548 rm対策より上書き対策で助かるけどね http://mevius.5ch.net/test/read.cgi/unix/1337411922/550
551: 名無しさん@お腹いっぱい。 [sage] 2014/01/27(月) 21:45:17.94 zfsにnfsやsmbや統合されてるのはいいんだけど他のと併用する場合にどの程度競合するのか分からなくて怖い sambaやglusterfsなんかで別途shareした場合安定動作するのか?というのが怖くてzfs内蔵のを使い続けてる http://mevius.5ch.net/test/read.cgi/unix/1337411922/551
552: 名無しさん@お腹いっぱい。 [sage] 2014/01/27(月) 23:14:02.28 同じポート使うから、sambaと共存は無理じゃないの? http://mevius.5ch.net/test/read.cgi/unix/1337411922/552
553: 名無しさん@お腹いっぱい。 [sage] 2014/01/30(木) 19:26:57.63 nfsはOKということ?? http://mevius.5ch.net/test/read.cgi/unix/1337411922/553
554: 名無しさん@お腹いっぱい。 [] 2014/01/30(木) 19:55:55.29 レイヤー違うもんをごちゃ混ぜに考えてんのか? 何が分からんのかが、分からん http://mevius.5ch.net/test/read.cgi/unix/1337411922/554
555: 名無しさん@お腹いっぱい。 [sage] 2014/01/30(木) 21:15:20.89 今ふと思ったんだけど、raidzでzvol作って、そこで、FAT32やext2みたいな軽量なファイルシステム置けば、 信頼性と高速性を両立できるんじゃないかな? http://mevius.5ch.net/test/read.cgi/unix/1337411922/555
556: 名無しさん@お腹いっぱい。 [sage] 2014/01/30(木) 21:21:51.18 物理的な障害はともかく、ファイルシステムぶっ壊れるのに変わりない気がするがな http://mevius.5ch.net/test/read.cgi/unix/1337411922/556
557: 名無しさん@お腹いっぱい。 [sage] 2014/01/30(木) 22:02:21.76 >>555 ZFSはZFS上の整合性しか取ってくれないが、それで良いか? ZVOL上のデータなんて、考えてくれないぞ? つか、ZOVL上でいくら軽いFS動かそうが、下でZFS動いてたら一緒じゃ? 直接ZFS扱えるんなら、ZFSそのまま使えば良いんじゃ無いの・・・ 無駄にアホなことやってるようにしか見えん。。。 よく言われることだが、ZFSはハードをけちる為の物じゃないから、 パフォーマンスほしけりゃ、それだけ金かけろって事。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/557
558: 名無しさん@お腹いっぱい。 [sage] 2014/01/31(金) 22:42:29.96 OIでglusterfsなんで動くの? http://mevius.5ch.net/test/read.cgi/unix/1337411922/558
559: 名無しさん@お腹いっぱい。 [sage] 2014/01/31(金) 23:09:02.57 >>558 ソースからコンパイルして、動かしてる人はいるぽいよ。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/559
560: 名無しさん@お腹いっぱい。 [sage] 2014/02/01(土) 13:30:48.01 compression on + dedup on の500Gを zfs destroy かけた。 コマンドは async_destroyのおかげで即終了。 けど zfs set sharesmb=name= とかいじってたら NFSクライアントからサーバごと見えなくなり、焦って電源サイクル。 mounting ZFS: 1/nn とか出たまま固まる。 ようやくログインできても動きが怪しい。 その後30分ぐらい iostat で svc_t が5桁台を示してたけど zpool get の freeing が 0 になったら、完全に回復した。 教訓。大容量destroyはサービス停止時に。asyncに頼らない。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/560
561: 名無しさん@お腹いっぱい。 [sage] 2014/02/01(土) 13:36:45.98 compression=lz4は、良いですね。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/561
562: 名無しさん@お腹いっぱい。 [sage] 2014/02/01(土) 14:39:39.74 >>545>>546 80%(か90%)の容量でquotaかければいいんじゃないの? http://mevius.5ch.net/test/read.cgi/unix/1337411922/562
563: 名無しさん@お腹いっぱい。 [sage] 2014/02/01(土) 15:35:03.47 >>559 nfsとzfsが競合しないのかそれ http://mevius.5ch.net/test/read.cgi/unix/1337411922/563
564: 名無しさん@お腹いっぱい。 [sage] 2014/02/01(土) 15:57:14.97 >>560 dedupは削除の時に激重になるんだよね snapshot作ってる時はrmではわからないが snapshot destroy や zfs destroyで発動する http://mevius.5ch.net/test/read.cgi/unix/1337411922/564
565: 名無しさん@お腹いっぱい。 [sage] 2014/02/01(土) 20:23:45.94 >>562 1. ファイル入れる FS に quota 2. ファイル入れない FS に (ref)reservation どっちでも目的は達せられる。 ただ、ファイル入れる FS の quota は 別の目的で設定したいこともあるだろうから、 ファイル入れない FS の設定で対応した方が 融通は利きやすいだろう。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/565
566: 名無しさん@お腹いっぱい。 [sage] 2014/02/01(土) 20:59:27.92 >>563 NFS共有してない、SMB専用の場所いじってました。 先人の言や、自分でも試してみて、やっぱり dedup=offに戻すと決めての過程なので、いいんですけどね。 すんごい遅い、途中で再起動しちゃうとより一層遅い。聞いてた通りでした。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/566
567: 名無しさん@お腹いっぱい。 [sage] 2014/02/01(土) 21:55:41.05 >>566 zfs自体には本体の冗長性がないからglusterfsでレプリカすればかなり良いのではという思いつきなんだが いろいろ難しそうだな http://mevius.5ch.net/test/read.cgi/unix/1337411922/567
568: 名無しさん@お腹いっぱい。 [sage] 2014/02/01(土) 22:02:07.90 「本体の冗長性」ってなに? http://mevius.5ch.net/test/read.cgi/unix/1337411922/568
569: 名無しさん@お腹いっぱい。 [sage] 2014/02/01(土) 22:39:54.91 サーバ1台丸ごと死んだ場合の可用性 http://mevius.5ch.net/test/read.cgi/unix/1337411922/569
570: 名無しさん@お腹いっぱい。 [sage] 2014/02/02(日) 14:57:02.79 サーバ丸ごと死んだら、さすがのZFSでも、どうにもならんだろ http://mevius.5ch.net/test/read.cgi/unix/1337411922/570
571: 名無しさん@お腹いっぱい。 [sage] 2014/02/02(日) 15:09:08.41 ちょっとは話の流れ読めよw http://mevius.5ch.net/test/read.cgi/unix/1337411922/571
572: 名無しさん@お腹いっぱい。 [sage] 2014/02/03(月) 23:34:23.98 ブートドライブをzfs mirror化するお話を巷で散見しますが、 ふとMBRやgrubもmirror・raidz化できるのかな?なんて思ったりしました http://mevius.5ch.net/test/read.cgi/unix/1337411922/572
573: 名無しさん@お腹いっぱい。 [sage] 2014/02/03(月) 23:39:27.44 ttp://docs.oracle.com/cd/E23824_01/html/E24456/storage-4.html The root pool must be created as a mirrored configuration or as a single-disk configuration. A RAID-Z or a striped configuration is not supported. ttp://docs.oracle.com/cd/E19253-01/819-5461/ggtia/index.html Booting From an Alternate Disk in a Mirrored ZFS Root Pool x86# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c0t1d0s0 http://mevius.5ch.net/test/read.cgi/unix/1337411922/573
574: 名無しさん@お腹いっぱい。 [sage] 2014/02/15(土) 20:31:04.34 ZFSのミラーってセクタ位置まで同一にする保証ってあったっけ? あるならMBRに使っても問題ないだろうけど、疑問。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/574
575: 名無しさん@お腹いっぱい。 [sage] 2014/02/15(土) 20:52:24.69 MBRがファイルシステムに含まれるかどうか、考えれば分かるんじゃね? http://mevius.5ch.net/test/read.cgi/unix/1337411922/575
576: 名無しさん@お腹いっぱい。 [sage] 2014/02/16(日) 23:06:44.42 たしかZFSのブート領域はセクタミラーを保証してた筈。 先頭から512byteまでかな だけど、BIOSがZFSを理解出来なきゃいけないので、 パソコンでマルチブートするのは難易度高いかと http://mevius.5ch.net/test/read.cgi/unix/1337411922/576
577: 名無しさん@お腹いっぱい。 [sage] 2014/02/17(月) 19:21:00.41 両方のディスクにブート情報書き込まないと起動しなかったような。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/577
578: 名無しさん@お腹いっぱい。 [sage] 2014/02/18(火) 22:43:15.48 > だけど、BIOSがZFSを理解出来なきゃいけないので、 ご冗談を。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/578
579: 名無しさん@お腹いっぱい。 [sage] 2014/02/25(火) 13:26:40.63 6TB HDD対応してます? http://mevius.5ch.net/test/read.cgi/unix/1337411922/579
580: 名無しさん@お腹いっぱい。 [sage] 2014/03/05(水) 23:09:19.00 OpenIndianaのcifs serverでファイルサーバやってるんですが、このcifs serverって、 samba serverやWindows のファイル共有と違う動作するものなんですかね? AndroidのES Files explorerやGhost Commanderで接続できないのが 不思議です http://mevius.5ch.net/test/read.cgi/unix/1337411922/580
581: 名無しさん@お腹いっぱい。 [sage] 2014/03/06(木) 13:34:35.48 Sambaの開発方面によると、SMBや CIFSというのは MSの OSによってアホほど 違って、なにもかも実装するのはとてもムリだそうなので、当然違いはあると思うよ。 Sunの時に開発した人達は今でも近いところにいるのかなぁ.. http://mevius.5ch.net/test/read.cgi/unix/1337411922/581
582: 名無しさん@お腹いっぱい。 [sage] 2014/03/07(金) 22:12:41.98 そうですか oi付属のcifs serverよりも、Sambaに入れ替えた方が筋が良いのかな... http://mevius.5ch.net/test/read.cgi/unix/1337411922/582
583: 名無しさん@お腹いっぱい。 [sage] 2014/03/08(土) 00:17:19.94 >>582 カーネルモジュールであるゆえの絶対性能を取るか互換性を取るかのトレードオフだと思う http://mevius.5ch.net/test/read.cgi/unix/1337411922/583
584: 名無しさん@お腹いっぱい。 [sage] 2014/03/08(土) 01:20:18.75 cifsはmsがライセンスしないといろいろ正しい実装ができないようで、 sambaはそれゆえに互換性の問題で、頭を悩ませてきた solarisのcifsは、msからライセンスを受けてるものかもしれない。 ちなみに、sambaみたいにNTFSのACLを強引にUnix permissionにするのではくて、 zfs aclにそのまま入るので、互換性はたかいはず。 問題はillumosが、fork後にどこまで追いかけてるかだな。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/584
585: 名無しさん@お腹いっぱい。 [sage] 2014/03/08(土) 02:47:18.49 ファイルサーバでSolaris 11使ってるけど、 ES Files explorerから問題なく使用できてるよ。 http://mevius.5ch.net/test/read.cgi/unix/1337411922/585
586: 名無しさん@お腹いっぱい。 [sage] 2014/03/13(木) 19:09:40.07 >>585 それはoiを捨てろという託宣ですかね http://mevius.5ch.net/test/read.cgi/unix/1337411922/586
587: 名無しさん@お腹いっぱい。 [sage] 2014/03/30(日) 08:49:19.76 初歩質問ですみません、oiのCUIとGUIの切り替えってどうやってやればいいのでしょうか? http://mevius.5ch.net/test/read.cgi/unix/1337411922/587
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 181 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.015s