[過去ログ] 【Bash】Windows Subsystem for Linux【WSL】7 (1002レス)
前次1-
抽出解除 レス栞

このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
117
(3): 2020/02/15(土)18:59 ID:y+pnqd5S(3/12) AAS
肥大化したMFTはHDD上だと厄介だろうと思うけど
実際に数十万個のファイルが断続的に追加されてきたHDDでは
断片化され継ぎ足されてきたMFTをいちいち舐めては吟味するしんどさが体感できた

断片化したMFTの取得はSSDでも都度リクエスト発行になるから
HDDのシーク時間ほどではないにせよ手間と待ち時間は増加するだろう

細かいファイルを大量に格納する用途があらかじめはっきりしているなら、
NTFSのフォーマット時にMFTを大きめに確保するしかない

(エロ)動画なんかよりも、(エロ)画像やデータベースなんかの方が影響も大きいと思うよ
122
(2): 2020/02/15(土)21:47 ID:8h7ExAPV(1) AAS
>>117
> 実際に数十万個のファイルが断続的に追加されてきたHDDでは
> 断片化され継ぎ足されてきたMFTをいちいち舐めては吟味するしんどさが体感できた

"体感"できたというのなら、そのHDDをなんかのツールで
MFTを圧縮したら"体感"してパフォーマンスが"上がる(元に戻る)"ってことだなw

MFTはメモリに読み込まれるし、継ぎ足されたところでMFTは一定のサイズごとに確保されるし
数十万のファイルが断続的に追加されたところで断片化することはない。
てかMFTの断片数いくつよ?言ってみな

defrag c: -a -v で調べられるからよ
うちもファイルの総数30万のドライブがあるが
省1
178
(1): 2020/02/16(日)08:25 ID:D93MVdiL(17/21) AAS
こいつは >>117

> 実際に数十万個のファイルが断続的に追加されてきたHDDでは
> 断片化され継ぎ足されてきたMFTをいちいち舐めては吟味するしんどさが体感できた

数十万個のファイルでしんどくなるとか言ってるくせに
俺は30万といったら火傷www(大爆笑ww)

ソース出してきてやったで?おまえの発言のソースをな
214
(2): 2020/02/17(月)15:12 ID:NibFNbtg(1) AAS
>>212
見境なく噛み付く狂犬だから今更驚きもしないが、おれは117-ではない
その>>117には "数十万個のファイルが断続的に追加されてきた" という書き方をされているから
ファイル総数が数十万ではなく、I/Oが日別で数十万と読める(俺はそう読んだ。ピークはもっと高かったりするのだろう)
何かのログか一時的なキャッシュ、211の推測にもあるビッグデータ採取の可能性もありかな
前次1-
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 0.249s*