OpenSolaris/Illumos (OpenIndiana, etc.) 6 (768レス)
上下前次1-新
431(2): 2013/07/16(火) NY:AN:NY.AN AAS
7K4000 とか、2TB でも 512byte/sector なの買えばいいんじゃねーの?
432(2): 2013/07/16(火) NY:AN:NY.AN AAS
>>430
> 緑なんてさっさとポイしちゃいなさい。
そのためにpoolのHDD10個まとめてポイするハメになるとか・・・ポルナレフ召喚していいですか?
あとHBAに安いからという理由でヤフオクで入手したLSIの3041を使ってたりするんだが、いろいろと詰んでる事がわかった。
>>431
7K4000とかググってみたけど扱ってる店もうないみたいだが・・・
とりあえずWindowsマシンにちょっと古めのHGSTの7K3000 が刺さっているの見つけたのでこれと入れ替えを画策することにした
省2
433: 2013/07/16(火) NY:AN:NY.AN AAS
>>431
> 7K4000とかググってみたけど扱ってる店もうないみたいだが・・・
自己レスだが4000とかってサイズかと思って2000に置き換えてググってたがそうじゃないのか
サハロフとかの表記だと別の形式だから混乱したがHGSTならまだ512セクタのHDDを扱ってるのな
でも値段がちょっと高めなのが悩ましい
434(1): 2013/07/17(水) NY:AN:NY.AN AAS
>>432
FreeBSDでも同じような感じに陥ったことがあって、もう面倒くさくなったので
新規poolは全部ashift:12で作るようにしちゃってる
10台全部まとめて交換しなくても、半分くらいの交換で低速病が改善されるかも
自分の場合は、6台交換した時点で低速病が滅多に出なくなった
因みに交換したHDDはsmartエラー出まくりだったから、RMA交換して
ヤフオクに出しちゃったから、出費がそんなになかったのはラッキーだった
435: 2013/07/17(水) NY:AN:NY.AN AAS
>>432
>LSIの3041
その辺詳しく
436(2): 2013/07/17(水) NY:AN:NY.AN AAS
どうせ2.2TBの壁とかジャネーノ?
437: 2013/07/18(木) NY:AN:NY.AN AAS
>>436
そのとおりダヨ
いまpoolまるごと更新するならコスパと将来性で3TBモデル選びたいがそうするとHBAまで更新しなきゃならなくなる
さて22時にディスク交換してresilverが後12時間かかるようだ
明日はエアコン付けっぱなし&前面扇風機で会社行くしかねーな
438: 2013/07/18(木) NY:AN:NY.AN AAS
>>434
FreeBSDでも発生するのか
ってことはVer28共通の問題なんかな
本家はどうなってるんだろう
439: 2013/07/19(金) NY:AN:NY.AN AAS
>>436
あぁそういう系のか。確かにそれはそれでいやだな
なにかディスクエラー時にzfsが凍るとかドライバ・ファーム周りかと思った
440: 2013/07/23(火) NY:AN:NY.AN AAS
ZFSだけ使えればいいから、あとはZFSを外向きに簡単設定でexport出来るようなUIをつけたのを出してくれないかな
441: 2013/07/23(火) NY:AN:NY.AN AAS
export が NFS 的なそれなら、外向きもクソもないだろうし、inherit するから create する時に
sharenfs なりしとけばいいと思うが
442: 2013/07/25(木) NY:AN:NY.AN AAS
freenasとかnexentaとかじゃいかんのか
443: 2013/08/16(金) NY:AN:NY.AN AAS
oi_151a_prestable8来てた
外部リンク:wiki.openindiana.org
444: 2013/08/16(金) NY:AN:NY.AN AAS
昨日oi-dev-151a8-live-x86.isoをダウンロードするのに一晩かかった。
445: 2013/08/16(金) NY:AN:NY.AN AAS
黄緑色は目が疲れる。
446: 2013/08/21(水) NY:AN:NY.AN AAS
SATA3に対応したっぽい表示になったっぴ。
以下、boot開始〜ログインできるところまでsyslogを比較して違ってたところ。
〜〜
sata: SATA Gen2 signaling speed (3.0Gbps)
↓a7からa8
sata: SATA Gen3 signaling speed (6.0Gbps)
〜〜
省8
447(1): 2013/09/09(月)15:14 AAS
チラ裏
Oi 151a8とzfs on Linux(0.6.2)のアレイ互換性実験してみた
Linux側の鳥はopenSUSEとdebianで
zfs export/zfs importで問題なくお互いのアレイを使える模様
exportなしでOiを単純にシャットダウンしてLinux側でzfs import -f でも大丈夫
あたりめーだろアフォという話だったらスマソ
448: 2013/09/09(月)22:41 AAS
よろしい、では各feature flagsをactiveにしたときの互換性を確認するんだ
・・・というのは冗談としてoi、ZoLやその他諸々と相互運用できるファイルシステムは便利だな
FreeBSDもv5000になったみたいだし、MacZFSもZoLからのポートを開発中だから色んなOSで広く使えそう。
ディスク上のデータだけちゃんとしてれば各ポートでトラブル起こってもとりあえずoiでインポートできるから助かる。
(実際ZoLでresilverが無限ループに陥ったけどoiで回復できたことがあった)
449(1): 2013/09/09(月)23:17 AAS
正直、単体ディスクで試したんだろーな、程度にしか思えない俺がいる
450: 2013/09/10(火)00:02 AAS
なんか警告とかでた?
451: 447 2013/09/10(火)00:04 AAS
>>449
一応仮想環境でのRAIDZ3台から初めて実ディスクSATA3台のRAIDZ、実ディスク6台のRAID-Z2、同6台AFT付と試したお
452(1): 2013/09/18(水)22:24 AAS
openzfsのページでGMOのロゴがでかでかと出てきて
盛大に萎えた
453: 2013/09/19(木)00:27 AAS
>>452
外部リンク[OSX]:github.com
実は現行のZFS-OSXに一番コミットしてるのがGMOの人だったりする。
だからまあ気に食わなくても理解はできる。
454(3): 2013/09/23(月)06:22 AAS
ZFSを利用したNASを構築を検討しているのですが何点か疑問があります
1.OracleSolarisとOpenSolaris系で機能・性能上の違いはどの程度ありますか?
2.Solaris系とFreeBSD系で機能・性能上の違いはどの程度ありますか?
FreeBSDは使用経験がありますが、ZFSはSolarisが本家なので
どちらがよいのか悩んでいます
3.ZFSでWindows8のストレージプールのnウェイミラー的な構成は可能ですか?
5ウェイミラー(4台死亡までサービス継続)の構成が取れるのであれば
省2
455(1): 2013/09/23(月)08:34 AAS
>>454
1.
OracleSolarisは機能的にはプール暗号化とかそのへんで若干進んでる、性能レベルは誤差
ただIllumos系はFreeBSD/ZFSonLinuxとの互換性を取る方向に進んでる
今は完全ではないけどそのうちアレイの完全互換が期待できる
2.
zfs自身の性能差はFreeBSDとSolarisで大差ない
省4
456(1): 2013/09/23(月)15:02 AAS
最近solaris利用者かなり減ってます?
457: 2013/09/23(月)15:04 AAS
そりゃ増えることはないからね
458: 2013/09/23(月)15:15 AAS
絶対数では微々増で、割合としては大幅減なんじゃないかな
459(1): 2013/09/23(月)18:39 AAS
>>454
v29以降の機能が入ってるのがOracle、feature flags以降の機能が入ってるのがillumos系
あと個人的には5wayミラーの理由が気になる・・・そんな凄いデータなのか
そこまで行くとミラー数増やすより停電・天災等々で物理的に全HDD逝ってしまうリスクに対処する方がいい気がしてしまうけど。
>>456
需要の多くがZFSで、そのZFSもFreeBSD/Linux移植の完成度が上がれば上がるほどそっちに流れるからなぁ。
460(3): 454 2013/09/23(月)20:29 AAS
レスありがとうございます
長文失礼します
>>455
1・・・こだわらなければOpenSolaris系で良さそうですね
2・・・NASとしての性能面ではSolaris系の方が有利ですか
軽く探して見た感じだとSolaris系の場合は対応したSATA HBA(PCI-Express)カードが
なかなか見つから無いように思います
省21
461: 2013/09/23(月)21:16 AAS
> Solaris系の場合は対応したSATA HBA(PCI-Express)カードがなかなか見つから無いように思います
ま、思うのは勝手だけどな。普通LSI買うだろ
> このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました
別に何面ミラーでも作れると思うけどな>ZFS
> パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします
省6
462: 2013/09/23(月)21:47 AAS
>>460
外部リンク:wiki.openindiana.org
Adaotec/Highpoint/LSIと主だったところは大体対応してるけどな
(Highpoint対応されたのは確かに比較的最近だが)
463(1): 2013/09/23(月)21:53 AAS
てゆーかそこまで耐久性とかこだわるんならSAS使うべ?それならWindowsのみなんてカードほとんど無いと思うけど?
464: 2013/09/23(月)22:13 AAS
なんつーか、素直にNetAppでも買っとけって話じゃね?
465: 2013/09/23(月)22:14 AAS
要件定義に失敗してるよーな
466: 2013/09/23(月)22:23 AAS
Win8のn方向ミラーは「データをアレイ中の任意のn台に書く」ってだけだよね。そんな難しい原理ではなかった気が。
何重ミラーにしようと1つのマシン上でやる以上はrm -rf /には勝てないんだから、
別マシンを用意してzfs send/recvする方が良いとは思うんだけどね。
数TBのバックアップストレージを予算的に用意できないからやむを得ずRAIDによるデータ保護に期待する、
ならともかく5wayミラー想定するほどHDDに余裕あるなら、自分だったら8台でRAID-Z2組んだマシンを2台用意する。
データ保護より何より高可用性が大事なんだとしても、HBAなり電源が逝ったみたいな事態だと結局マシンは止めなきゃいかんのだし。
467(2): 2013/09/24(火)08:16 AAS
snapshotスクリプトがコケててsnapshotが取れてなかったDatasetが
アプリのバグでファイルの半数以上がrmされたorz
(朝五時に電話かかってきて「ファイル消えてんぞぐるぁ」と来た)
zdbでブロックが残ってるのは確認したが、約2T/20万objectの羅列を眺めて15分ほど固まった
そんな俺に誰か一言
468: [sage kani?] 2013/09/24(火)10:37 AAS
バックアップって大事だね
469: 2013/09/24(火)10:51 AAS
snapshotでniceshot!
470: 2013/09/24(火)15:14 AAS
>>460
後半何言ってるのかわかりません
>>467
zdb叩く前にとっととバックアップからリストアしろ
471(1): 2013/10/02(水)22:09 AAS
仮想マシン上のOpenSolarisにApacheとPHPをインストールしなければならないのですが、
手元の資料にはどちらも解凍・展開からの手順しか書いておらず進められずにいます
解凍・展開前に必要な準備等がありましたら教えて頂けないでしょうか
472: 2013/10/02(水)23:22 AAS
まず服を脱ぎます。
473: 2013/10/02(水)23:24 AAS
まず服を脱ぎます
474: 2013/10/03(木)08:39 AAS
PHP出版に勤めます
475: 2013/10/04(金)19:51 AAS
PHP出版を辞めましたエントリを書きます
476: 2013/10/04(金)19:52 AAS
つまんね。
477: 2013/10/05(土)21:05 AAS
>>467
スナップショットがこけててもバックアップがあるんだから問題ないだろ。
2TBの書き戻しは気が変になりそうだろうが、がんばれ/
478: [sage kani?] 2013/10/06(日)15:15 AAS
>>471
展開前のブツをDLしてきたとか手持ちであるならそこから進めるだけじゃん?w
つーかその資料とやらを作ったヤシに聞けよ
479(1): 2013/11/03(日)12:20 AAS
CIFSストレージとして使ってますが、ストレージ空き容量が減ってくると
加速度的に読み書きが遅くなりますね
480: 2013/11/03(日)14:12 AAS
>>479
ZFSの事か?
ま、公式にも使用量は80%以下で使えと言われているし、
CoWの仕組み上、空き容量が減ってくると遅くなるのは、
しようが無い事ではある。
DISK数が少ないと、なおさら効いてくるかもな。
481: 2013/11/03(日)15:14 AAS
そこでZILとL2ARCをSSDで、ですよ奥さん!
482(1): 2013/12/06(金)22:56 AAS
dedup=onでrecordsize=4kとかにするとファイル書き込んだときにwriteが増えて異常に遅くなるんだがこれなんだろ?
recordsize弄らなければ急に遅くはならないし、read増えてないのでDDTに書きに行ってるとかか??
recordsize大きいとデータに埋もれて見えないだけとかいうオチか? dedup率優先なpoolにしようかと思ったが遅すぎる
実験方法:
vmに16〜32GB程度メモリ割り当て。zpool create ; zfs create ; zfs set dedup=on, compress=on, sync=disabled
cp dummy_5GB.bin hoge
zfs set recordsize=4k
省1
483: 2013/12/07(土)07:48 AAS
>>482
外部リンク:blogs.oracle.com
Other consideration (metadata overhead, caching) dictates however that the recordsize not be reduced below a certain point (16K to 64K; do send-in your experience).
484: 2013/12/07(土)19:19 AAS
今回のはdedupが支配要因に見えるしここまで遅いとそういう話ではないような気も。
ひとまず32kでやってみるけど。
ddtとかのメタデータって2〜3重化されてるんだっけ? 実験的にOFFにできるのかな。
実験先のドライブが1LUNなのが問題な気がしてきた。
485(1): 2013/12/08(日)08:34 AAS
2重化されてる。
ZAPはrecordsize単位で作られるのだから128K→4Kでは32倍にもなる。
486(1): 2013/12/08(日)09:08 AAS
ところで、本番で想定しているプールサイズで、メモリ消費量予想してみました?
外部リンク[html]:www.c0t0d0s0.org
RAM 32GB→ARC 24GB→metadata 6GB→...
recorsize=4KBだと、プール1TBで DDT 3GBくらいとか?
dedupでストレージを節約しようとしても、代償に必要とされる
メモリが高コストにつくと、あまり意味ないのでは。
487: 2013/12/09(月)19:54 AAS
>>485が書いてくれてるとおりrecordsizeの減少はmetadataの急激な増大を生むので単にそれが原因ぽい
特に1ドライブ上で実験してしまうと離れた位置に2重化して書き込もうとするので猛烈なrandom writeに。
(割とマシなSANでもRAID6 1LUNマウントでは追いつかなかった)
物理ドライブを8本にしてみたら極端な遅さにはならなくなった(1〜2本が酷いだけで4本程度あれば十分かもしれない)が
write総量がかなり増えることには違いないので相性の良いハードで無い限りrecordsize=4kはしんどそう
格納するデータが2k〜4kブロックでないと重複排除が効きづらいものだとzfsの使用は悩ましいことになる
recordsize=128kでの重複排除率が低すぎる場合はserver2012あたりに浮気した方がいいのかもしれない
省3
488: 2013/12/14(土)09:43 AAS
Dedupの効率?みたいな物の比較ってある?
確かにZFSでDedupしても予想の半分程度しか減らないことがある
Compressと併用すると効率が悪くなったりしないよね
489: 2013/12/14(土)17:36 AAS
dedupは思ったほど効果なかったなぁ
そのデメリットがあまりにひどすぎて使うのやめたが
gzip圧縮の方がかなり効く
そもそもdedupがそんなに必要となる状況ってどんなのがあるんだろう?
バックアップで各世代をそのまま保存しつつ、変更がないから同じファイルが
いくつも存在するといった場合なら、そもそもsnapshotバックアップでいいし
490(1): 2013/12/14(土)20:40 AAS
仮想マシンのイメージファイル置き場がメジャーじゃね
ひな形vmをコピーする際にzfs cloneすればいいんだが、実際は丸コピした方が楽な場合が多くw
(ファイル単位でclone出来るようにはならんのか?)
491: 2013/12/14(土)20:50 AAS
マジレスすると、メールアーカイブで添付ファイルとかに効くと思う
492: 2013/12/14(土)22:28 AAS
添付ファイル単位で単離されてるならそりゃ効くだろうけども
メル鯖によってはbase64encされた状態でtextの間に挟まってないかそれ? dedup効くのかね
493: 2013/12/14(土)22:42 AAS
>>490
cloneはファイルシステムを分けて使う場合は便利だけど、
逆にそれが不便になる場合もあるからねぇ
さくらでZFSストレージをVPSのファイルサーバに使って大失敗してたけど
あれどんなシステムでどんな失敗だったんだろうな
494: 2013/12/14(土)23:55 AAS
上で上がってたような特定用途の領域を必要なだけFSとして切り出してdedupかけるのが
(メモリ的にも現実的な)本来の用途なわけで、数TB、数十TBのプール全体にdedupかけて、なんてのはアホの極みでしかないな。
1GBくらいのディスクイメージcpして使用領域増えてないわーい、みたいなブログ記事たまに見るけどそんなこと言ってもねぇ・・・
495: 2013/12/15(日)01:01 AAS
さくらの場合はnfsで使っていて1000台ぐらいで性能が頭打ちに
なったとかどっかで見た気がする。
そもそもnfsを使うのが筋が悪かった。
496: 2013/12/15(日)01:33 AAS
特定用途のvm置き場にdedupかけたけど効果はさっぱりだったな。ブロックサイズ固定まではしてみなかったが
さくらはzfsでdedupかけてたのかな?
どちらにせよzfs自体が大規模トラフィックに向いてない気がするな。nfsは構造上小規模向けだろうに
GlusterFSやらの分散型でスケールアウト狙った方が
497: 2013/12/15(日)01:38 AAS
NFSはそもそも共有して意味があるんであって
クライアントが別々にのファイルにアクセスするなら
NFSする意味がないからな
iSCSIの方が良かったんじゃないのかと
cloneで同じ設定のVMを作り出すのは便利だからそこだけうまくやってればねぇ
498: 2013/12/15(日)09:54 AAS
共有してるからvMotionできる
iSCSIよりずっと手軽で管理しやすい
499: 2013/12/15(日)10:44 AAS
それは微妙にzfsとは違う方向から異論が出そうだが、
iscsiの使い勝手が悪い件については賛成。
そりゃnfsでファイル見えてりゃ規模が大きくなればなるほど管理が圧倒的に楽になる。
ただzfsでサブディレクトリ作ってもクライアントから追加でマウントしないと共有が見えない。
Linuxのnfsdで出来てるんだから何とかしろよ絶対便利だろそれorz
500: 2013/12/15(日)11:04 AAS
サブディレクトリ???
501: 2013/12/15(日)17:33 AAS
ファイルシステムのことかな?
そりゃ別だからmountしないと見えない
502(3): 2013/12/15(日)20:47 AAS
ああ、zfs createで作られるマウントポイントってなんつーの?
zfs create pool/zfs1
zfs create pool/zfs1/zfs2
zfs create pool/zfs1/zfs2/zfs3
みたく階層化たりとか。
Linux系はpool/zfs1をnfs共有しとくとその下に増やしても自動で見えるイメージ
inodeとか誤魔化せば出来るんじゃねーかやってくれよっていう
503: 2013/12/15(日)22:41 AAS
>>502
ふっ、貴様はまだbtrfsを知らないようだな・・・
504(1): 2013/12/15(日)22:48 AAS
>>502
ZFS用語的にはtype=fliesystemかな? datasetでもいいか
ハードリンクできないから下手なことしたら混乱しそうだけどな
505: 2013/12/16(月)00:20 AAS
階層化たり???
506(1): 2013/12/16(月)00:29 AAS
btrfsってこれのことですかーっ >_<
外部リンク:togetter.com
>>504
おお、あれfilesystemっていうのか。>>502みたく階層化して使う場合ってどう表現すればいいんだろ
「filesystemの中にfilesystemをマウントする」とかか。これだと通じるかどうか微妙なラインだが
507(1): 2013/12/16(月)00:34 AAS
>>506
filesytem単位にmountpointは設定できるからなぁ
defaultでは自動でそのまま階層化されるけどね
508(1): 2013/12/16(月)15:28 AAS
ZFSの階層構造はプロパティとかの管理上便利ってだけでファイルシステムとしては独立してるんだから
運用上はext4とかの領域作りまくって色んなフォルダにマウントしてるのと変わらん。
>>507の言うようにdefaultだとZFS上の階層構造そのままの位置にマウントするからフォルダ的に扱える気がするだけだな。
dedupを実際に活用できてる現場ってどれくらいあるのかね?
それなりに大きいストレージだと個人レベルじゃ用意できない量のメモリを必要とするし、
それだけのメモリを用意できるストレージだとストレージ自体ももっと大規模で結局メモリ足りないんじゃ?と思ってしまう。
メモリー積んでdedupかけるより、dedupで削減できる容量分のHDD追加した方がコスト的にマシなケースしか浮かんでこない。
509(1): 2013/12/16(月)16:13 AAS
zfs on Linuxの環境だが既存fsの下層に新規fs作ったらESXi側から見えたよ
エクスポートの設定の問題か
そしてアンマウントできなくなっちまったが
510: 2013/12/16(月)16:59 AAS
>>509 499あたりが書いてるが
Linuxでは可能. vm単位でfs作ってcloneしたら即アクセスできる
Solarisではfs作る度にクライアント側でマウントしないと使えない
511: 2013/12/16(月)17:28 AAS
誠に失礼した
上下前次1-新書関写板覧索設栞歴
あと 257 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.016s