OpenSolaris/Illumos (OpenIndiana, etc.) 6 (768レス)
前次1-
抽出解除 レス栞

16: 前スレ975 [sage] 2012/05/25(金) 03:09:13.44 AAS
訂正

故障機はiscsiイニシエータで、

故障機はiscsiターゲットで、
314
(1): 名無しさん@お腹いっぱい。 [sage] 2013/03/19(火) 13:31:05.44 AAS
>>300
300(1): 名無しさん@お腹いっぱい。 [sage] 2013/03/17(日) 17:09:36.12 AAS
opensolaris.org が閉鎖かぁ。
ソースツリーも取れなくなるの?
346
(1): 名無しさん@お腹いっぱい。 [sage] 2013/05/14(火) 09:54:00.44 AAS
>>345
345(2): 名無しさん@お腹いっぱい。 [sage] 2013/05/14(火) 01:32:42.91 AAS
>>339
今時のzfs配下でもdefect list 使えるのか ! じゃあanalyzeかけるだけか
しかしなんともローテク感溢れるのでSATAやSSDでも使えるzfsレイヤから指定する方法とかもほしいなそれは
不良セクタに当たった場合に代替だけしてdegradeに落ちなければいいんだがどういう閾値なんだろうか

HBAによってはシングルドライブでLD設定してるとドライブエラー生じた際に
自動リトライかなにかするらしくsolarisから見てタイムアウトして一撃degradeとかいろいろ。
主にファームやドライバが腐ってる訳だがsolarisだしな。変な気をまわさない低機能HBA使えってのは頷ける。

>>340
exactly.
全数載せる実験で在庫HDDが足りんとかその程度の用途なのでデータの安全とか運用とか関係ない話題なんだが
なぜかSATAで長期運用中のストレージのディスク交換だと確信している方々が

>>343
だ、だまされないぞー(棒)
いや、エラー出たとか、返事かえってこねーディスク
をとっととディスって何が悪いってのが、FS側の意見。

> HBAによってはシングルドライブでLD設定してるとドライブエラー生じた際に自動リトライかなにかするらしく
こんな事やってる”HBA”はシラネ。
普通のSATAなら、HDD自身が諦めるまで、返事かえってこねー事はあるが、
こいつはHBA関係ねぇ。
とっととエラー返すHDD使えってー事だ。
358: 名無しさん@お腹いっぱい。 [sage] 2013/05/16(木) 23:22:39.44 AAS
>>346
どこのFSか知らんがZFSはエラー出たからといってそう簡単には分離しないポリシーだぞ
>>356
356(1): 名無しさん@お腹いっぱい。 [] 2013/05/16(木) 23:00:17.42 AAS
タイムアウトってHBAが決めるんじゃないの?
上で出てるけど、HDDが諦めてエラー返してきてもHBAがリトライしちゃう場合がある
逆パターンとしてディスクが長時間無応答になったのでリセット発行→ループ でスピンアップ繰り返しとかも
Disk側がやってる場合と区別付きにくいが
542
(1): 名無しさん@お腹いっぱい。 [sage] 2014/01/26(日) 08:00:38.44 AAS
スレ違いだったら申し訳ありません

今までSolarisをまともに使ったことがないので
一から勉強したいのですが、そういった目的の場合
SolarisとOpenSolarisはどちらが向いているでしようか
他OSの経験は公私双方でWindows、RHELあたりを
主に扱ったことがあります
573: 名無しさん@お腹いっぱい。 [sage] 2014/02/03(月) 23:39:27.44 AAS
外部リンク[html]:docs.oracle.com
The root pool must be created as a mirrored configuration or as a single-disk configuration. A RAID-Z or a striped configuration is not supported.

外部リンク[html]:docs.oracle.com
Booting From an Alternate Disk in a Mirrored ZFS Root Pool
x86# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c0t1d0s0
650: 名無しさん@お腹いっぱい。 [sage] 2014/12/07(日) 21:46:40.44 AAS
>>649
649(1): 名無しさん@お腹いっぱい。 [sage] 2014/12/07(日) 19:31:44.52 AAS
>>648
ありがとうございます。
zpool import tank -fしましたら、
今度はコマンドがいつまでも終わりません。
/dev/dsk/c5t5d0は、3TBなんですが、どれくらいの時間でコマンドが終了するのが普通なんでしょうか?
何度も(ほとんどの場合プール名でなく id 指定で) import してきましたが、瞬時です。
正常シャットダウンしたクリーンなpoolではないのかな?

大量削除中に強制電源断したときは、ブートに(mountされるまで)数時間待ったものですが。
前次1-
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 0.729s*