【保存・記録】ウェブアーカイブ総合 Page.02 (127レス)
【保存・記録】ウェブアーカイブ総合 Page.02 http://mevius.5ch.net/test/read.cgi/internet/1700519014/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
必死チェッカー(本家)
(べ)
自ID
レス栞
あぼーん
リロード規制
です。10分ほどで解除するので、
他のブラウザ
へ避難してください。
40: 192.168.0.774 [sage] 2024/02/25(日) 02:04:04.75 ID:cjUiDYTX0 自作ツールの話だけど、DLしたデータを保存するファイル形式って何かいいのある? 例えば https://example.com/blog/article?mode=view&page=10 とかのURLを保存する時、 リクエストしたURL、レスポンスヘッダー、日時等のメタデータ、もちろんレスポンス本文 を保存したい。 もちろんレスポンス本文はバイナリの場合もある。 wgetだとローカルに example.com フォルダの中に blogフォルダの中に article_mode=view&page=10 というファイルを作る(半角の?はファイル名で使えないので置換される) みたいなのがベタだと思うけど、それだとまずURL文字列の情報が失われてるし、レスポンスヘッダも消えてる。 それに1URLが1ファイルに保存されるから1サイトまるごとだとファイル数が多すぎて取り回しがしにくくなる。 warcファイルでいいやと思ったけど、一般的にはマイナーでエコシステムが力不足な事があるし じゃあsqlteに自分でテーブルやカラムを作ってやればいいけど独自規格は後々困りそうだし…。 どうすればいいんすかね。 http://mevius.5ch.net/test/read.cgi/internet/1700519014/40
42: 192.168.0.774 [sage] 2024/02/25(日) 19:29:29.32 ID:cjUiDYTX0 うーん、それもそうか… http://mevius.5ch.net/test/read.cgi/internet/1700519014/42
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.043s