2ちゃん画像落としまくりスクリプト (294レス)
2ちゃん画像落としまくりスクリプト http://mevius.5ch.net/test/read.cgi/unix/1003833552/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
151: 名無しさん@お腹いっぱい。 [sage] 03/01/05 05:23 どうせやるなら、以前にもちょっと話出てたけど、一人が落としたファイルをどっかの鯖に キャッシュしといて他の人はそっちから落とせるようなの作ろうよ。そうすれば2ちゃんの 負荷も減るし、うpろだの負荷も減るし、ソッコーで消されたファイルもキャッシュに残って るしで、うっはうはーじゃん。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/151
152: 名無しさん@お腹いっぱい。 [sage] 03/01/05 07:33 どうせなら落としたファイルがP2Pで共有されるようにするとか http://mevius.5ch.net/test/read.cgi/unix/1003833552/152
153: 名無しさん@お腹いっぱい。 [sage] 03/01/05 18:40 >>147 普通はdatファイルを直接落とそうとするのでは無いの? >>151 それやろうかな... 今はdatファイルを貯めているんだけど。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/153
154: 名無しさん@お腹いっぱい。 [] 03/01/06 00:20 >>150 複数ファイル(.mpgとか.rmとかの動画)も同時に落せるヤシキモンヌ http://mevius.5ch.net/test/read.cgi/unix/1003833552/154
155: 名無しさん@お腹いっぱい。 [sage] 03/01/06 01:01 >>154 もちろんそういう仕様にしてあるよ。てかできたけど。 けどrm,ramはすっかりわすれてたというか、そんなのにちゃんで見たことないのだが。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/155
156: 名無しさん@お腹いっぱい。 [sage] 03/01/06 03:14 >>153 て優香、datファイルを落とせるならそうしたいんだけど、やりかた 教えてーな。 たしかどっかでdatファイルは落とせなくなったとか聞いたような気がしたんで、 htmlをそのまま落としてマッチングしてるんだけど・・・ http://mevius.5ch.net/test/read.cgi/unix/1003833552/156
157: 153 [sage] 03/01/06 14:02 >>156 http://pc.2ch.net/test/read.cgi/unix/1003833552/ だったら http://pc.2ch.net/unix/dat/1003833552.dat でいけるのではないと? >たしかどっかでdatファイルは落とせなくなったとか聞いたような気がしたんで、 >htmlをそのまま落としてマッチングしてるんだけど・・・ これは俺も聞いたことあるけど、閉鎖騒動の時あたりじゃないの? 俺はそれよりあとに2ch来たからよく知らないけど、 read.cgiにアクセスするより、datファイルに直接アクセスしたほうが、負荷は減るらしい、と聞いたこともあ
る。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/157
158: 153 [sage] 03/01/06 14:51 >>156 とりあえず、俺の作ったdatファイルだけ落とすスクリプトも張っておこう。 粗末なシェルスクリプトだが... #!/bin/sh PATH=/usr/local/bin:/usr/bin:/bin:/usr/local/sbin:/usr/sbin:/sbin DATE=`date +%Y%m%d_%H%M%S` if [ "$1" ] && [ "$2" ] && [ "$3" ] && [ "$4" ] ;then : else echo "useage: ./get.sh [dat|subject] [dir] [host] [ita] [waittime] [wget-flag]" exit fi HOMEDIR=/home/hoge/documents/data TARGET=$1 DIR=$2 HOST=$3 ITA=$4 LOGFILE=./wget_log.txt if [ "$5" ];then WAIT=
$5 else WAIT=3 fi http://mevius.5ch.net/test/read.cgi/unix/1003833552/158
159: 153 [sage] 03/01/06 14:52 # -c tuchuukara # -N time stamp WGETFLAG="-t 3 -a${LOGFILE} -P./dat -U "Hogella/1.0" -nd $6" if ! [ -d ${HOMEDIR}/${DIR} ] ;then echo ${HOMEDIR}/${DIR} no such directry\! exit fi /bin/test -d ${HOMEDIR}/${DIR}/dat || mkdir ${HOMEDIR}/${DIR}/dat /bin/test -d ${HOMEDIR}/${DIR}/old_dat || mkdir ${HOMEDIR}/${DIR}/old_dat /bin/test -d ${HOMEDIR}/${DIR}/subject || mkdir ${HOMEDIR}/${DIR}/subject cd ${HOMEDIR}/${DIR} test -f ${LOGFILE} || touch ${LOGFILE} printf "###\n###\
n### DATE=${DATE} \n### args=$* \n###\n###\n" >> ${LOGFILE} if [ ${TARGET} = subject ];then rm -f subject.txt wget -a${LOGFILE} -U "Hogella/1.0" http://${HOST}/${ITA}/subject.txt cp subject.txt ./subject/subject.${DATE}.txt http://mevius.5ch.net/test/read.cgi/unix/1003833552/159
160: 153 [sage] 03/01/06 14:52 elif [ ${TARGET} = dat ];then echo "---> DATE = ${DATE}" mkdir old_dat/${DATE} rm -f subject.txt wget -a${LOGFILE} http://${HOST}/${ITA}/subject.txt echo "---> got subject file" sleep 1 echo -n "---> dat file... " for DAT in `cat ./subject.txt | cut -f1 -d.` ;do echo "--->TARGET is ${DAT}" >> ${LOGFILE} echo -n "${DAT}" wget ${WGETFLAG} http://${HOST}/${ITA}/dat/${DAT}.dat if [ -f ./dat/${DAT}.dat.1 ];then echo "---> file moved to old_dat dir" >>
${LOGFILE} mv ./dat/${DAT}.dat ./old_dat/${DATE} mv ./dat/${DAT}.dat.1 ./dat/${DAT}.dat echo -n "_ " elif [ -f ./dat/${DAT}.dat ];then echo -n ". " else echo -n "X " fi sleep ${WAIT} done echo " " echo "---> all done" >>${LOGFILE} echo "---> all done" fi http://mevius.5ch.net/test/read.cgi/unix/1003833552/160
161: 153 [sage] 03/01/06 14:55 HOMEDIR=/home/hoge/documents/data を適当に書き換えて mkdir $HOMEDIR/test-dir ./get.sh dat test-dir pc.2ch.net unix 3 で使えると思う(freebsd以外は不明)。 2度目からは ./get.sh dat test-dir pc.2ch.net unix 3 -c で差分だけとってこれる。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/161
162: 名無しさん@お腹いっぱい。 [sage] 03/01/06 15:20 あらほんと。 で、にちゃんの鯖に負担かけないように、前回収得した所からの差分だけ 拾いたいんだけど、どうやるの? http://mevius.5ch.net/test/read.cgi/unix/1003833552/162
163: 名無しさん@お腹いっぱい。 [sage] 03/01/06 15:24 うーん、 cgiから差分だけ拾うのと、datを全部拾って差分を調べるのとではどっちがいいんだろ? てか、dat拾う方がいいんだろうなぁ。作りなおしてみるか。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/163
164: 153 [sage] 03/01/06 15:42 >>162 wgetのオプションで俺が使えると思うのは。 -c ファイルサイズを見て、増加分だけダウンロードする。 -N タイムスタンプを見て、ファイルが更新されていたら、(ファイルすべて)をダウンロードする。 -nc ファイルが存在したら、ダウンロードしない。(接続もしない) -t 3 失敗したときの再トライ回数(デフォルトは20なので、3ぐらいに設定したほうがよいと思う) -x ディレクトリを作って、URLを再現する (例 htt
p://pc.2ch.net/unix/dat/0000000.dat → ./pc.2ch.net/unix/dat/000000.dat ) -nd -xの逆、ディレクトリを作らない。(-rは同時に-xが有効になるけど、-ndをつけるとディレクトリを作らない) -i link.txt ファイルからURLを読み込んでダウンロードする。 -nv ダウンロードメッセージをいくらか静かにする。 -A acclist, --accept=acclist acclistで指定した拡張子(?)のみダウンロードする。,で区切る(?) -U "Mozilla/4.0" ユーザーエージェントをちょろまかす。 -P PREFIX --progress=dot ダウンロード中の
メッセージスタイルを変更。 -o hoge.txt ログファイル(上書きしてしまう) -a hoge.txt ログファイル(追加から書く) -r リンクをたどり、再起的に取る(ただし、別のホストはダウンロードしない) -w 3 再起的にとる場合のダウンロードしたときの待ち時間 --no-parent 再起的にダウンロードする際、親ディレクトリから上はダウンロードしない。 -nd http://mevius.5ch.net/test/read.cgi/unix/1003833552/164
165: 153 [sage] 03/01/06 15:44 >>164 失敗。 wgetのオプションで俺が使えると思うのは。 -c ファイルサイズを見て、増加分だけダウンロードする。 -N タイムスタンプを見て、ファイルが更新されていたら、(ファイルすべて)をダウンロードする。 -nc ファイルが存在したら、ダウンロードしない。(接続もしない) -t 3 失敗したときの再トライ回数(デフォルトは20なので、3ぐらいに設定したほうがよいと思う) -x ディレクトリを作って、URLを再現する
(例 http://pc.2ch.net/unix/dat/0000000.dat → ./pc.2ch.net/unix/dat/000000.dat ) -nd -xの逆、ディレクトリを作らない。(-rは同時に-xが有効になるけど、-ndをつけるとディレクトリを作らない) -i link.txt ファイルからURLを読み込んでダウンロードする。 -nv ダウンロードメッセージをいくらか静かにする。 -A acclist, --accept=acclist acclistで指定した拡張子(?)のみダウンロードする。,で区切る(?) -U "Mozilla/4.0" ユーザーエージェントをちょろまかす。 -P PATH PATHを基準にファイルを保
存 --progress=dot ダウンロード中のメッセージスタイルを変更。 -o hoge.txt ログファイル(上書きしてしまう) -a hoge.txt ログファイル(追加から書く) -r リンクをたどり、再起的に取る(ただし、別のホストはダウンロードしない) -w 3 再起的にとる場合のダウンロードしたときの待ち時間 --no-parent 再起的にダウンロードする際、親ディレクトリから上はダウンロードしない。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/165
166: 153 [sage] 03/01/06 15:55 WINDOWSのiriaとか見たいに、帯域制限してダウンロードすることができないか、 は調べたことあるけど、方法が見つからなかった。wgetではできないのでは無いかと思う。 代わりには、-wで制限するか、スクリプトの中にsleepを入れる方法があると思う。 あと画像ファイルを落とすとき、-x と -nc を組み合わせて使ったら、同一のファイルをダウンロードする問題はなくなると思う。 >>158-160の欠点は、あぼーんでlogが詰まったら、不適切なところから、ダウンロードを開始してしまうため、 変なdatファイルを作
ってしまう。これは-Nですべてをダウンロードしなおせばいいけど、負荷が増える。 >>163 うーん、-nc -x オプションで、すでにダウンロードしてあるファイルをダウンロードしないようにするか、 もしくはwgetで何バイト目からを指定して、別ファイルにダウンロードすることができるような、オプションがあるかも.. http://mevius.5ch.net/test/read.cgi/unix/1003833552/166
167: 153 [sage] 03/01/06 15:59 >>162 wget -c で増加分をダウンロードできるらしいです。 これは、ダウンロード途中でコネクションが切れたりして、 あとからその続きからダウンロードしたい場合にも使えるようです。 遠くのftpサーバとかに使えます。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/167
168: 名無しさん@お腹いっぱい。 [sage] 03/01/06 16:45 >>167 さんくすこ。 スレログとらなくても、リンクさえ拾えれば大丈夫だからねぇ、 あぼーんされても大丈夫だと思う。 というわけで、増分だけ拾うようにしますわ。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/168
169: 名無しさん@お腹いっぱい。 [sage] 03/01/06 18:57 このスレでやるな。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/169
170: 名無しさん@お腹いっぱい。 [sage] 03/01/06 18:59 >>169 何を?なぜ? http://mevius.5ch.net/test/read.cgi/unix/1003833552/170
171: 1 [sage] 03/01/06 19:18 dat落ちするかとおもったけど なんかまたあがってきてるんで ひさびさにバージョンアップしようかな というか、つかってる人(使う人)とかいるんでしょうか? http://mevius.5ch.net/test/read.cgi/unix/1003833552/171
172: 名無しさん@お腹いっぱい。 [sage] 03/01/06 21:10 つくった。 けど、htmlから拾ってるから効率悪いよ。 http://homepage3.nifty.com/wahya/ http://mevius.5ch.net/test/read.cgi/unix/1003833552/172
173: 名無しさん@お腹いっぱい。 [sage] 03/01/06 21:15 >>172 君のPCの時計ずれてない? http://mevius.5ch.net/test/read.cgi/unix/1003833552/173
174: 名無しさん@お腹いっぱい。 [sage] 03/01/06 21:18 >>173 え?どこ? さっき作ったばかりだからおかしいところあったら指摘して〜 >>171 >>1さんキタ━━━━━━(゚∀゚)━━━━━━━!!!!! http://mevius.5ch.net/test/read.cgi/unix/1003833552/174
175: 名無しさん@お腹いっぱい。 [sage] 03/01/06 21:19 >>171 つか、使うかどうかより、自分で作ってみるのも楽しいのかも。 1さんのも参考にしたいのでオネガイシマス。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/175
176: 名無しさん@お腹いっぱい。 [sage] 03/01/06 21:21 >>174 いやこんなんでたから。 ゴミレススマソ。 --- get2ch_v006/get2ch.pl tar: get2ch_v006/get2ch.pl: time stamp Jan 7 21:00 2003 is 85213 s in the future get2ch_v006/get2chrc.txt tar: get2ch_v006/get2chrc.txt: time stamp Jan 7 21:00 2003 is 85213 s in the future get2ch_v006/readme.txt tar: get2ch_v006/readme.txt: time stamp Jan 7 21:00 2003 is 85213 s in the future get2ch_v006/subback2subhash.pl tar: get2ch_v006/subback2subhash.pl: time stamp Ja
n 7 21:00 2003 is 85213 s in the future http://mevius.5ch.net/test/read.cgi/unix/1003833552/176
177: 名無しさん@お腹いっぱい。 [sage] 03/01/06 21:24 >>176 ・・・なんかちょうど1日ずれてるような。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/177
178: 名無しさん@お腹いっぱい。 [sage] 03/01/06 23:34 て優香、wget使わなければforkしなくていいからActivePerlでも使えるようになるし、 Irvineでも使えばwgetよりはるかに効率的に収集できるし。 あーあ、UNIX板で気付いちゃいけないことに気付いちゃったよ。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/178
179: 名無しさん@お腹いっぱい。 [sage] 03/01/07 10:03 萌え板を監視するスクリプトも( ゚д゚)ホスィ… http://mevius.5ch.net/test/read.cgi/unix/1003833552/179
180: 名無しさん@お腹いっぱい。 [sage] 03/01/07 11:41 >>179 萌え板を監視、って具体的に何できればいいんだ? と優香、萌え板って何?ファイヤーウォールのこと? http://mevius.5ch.net/test/read.cgi/unix/1003833552/180
181: 名無しさん@お腹いっぱい。 [sage] 03/01/07 12:52 >>178 soretteCUI? http://mevius.5ch.net/test/read.cgi/unix/1003833552/181
182: 179 [sage] 03/01/07 13:06 説明不足でした。 こんな感じの掲示板です。 http://www9.xdsl.ne.jp/~w2web/moe/moelinks.html 萌々ぼ〜どって言うのかな? ソノテの人の画像アップ掲示板として広く使われてるみたいです。 欲しいのは画像をいっきに落とす・・ですが できたら全てのページをログも含めてHDに保存できるのが好ましいです。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/182
183: 名無しさん@お腹いっぱい。 [sage] 03/01/07 13:32 >>182 そうか、wgetの-rオプションだけでは画像アップローダーの 2ページ目以降のがとってこれないのか... うーむ http://mevius.5ch.net/test/read.cgi/unix/1003833552/183
184: 名無しさん@お腹いっぱい。 [sage] 03/01/07 14:57 >>182 なるほど。理解した。 VBスクリプトなら、次のページをめくるボタンを押すスクリプトが簡単に書けるけど、 Perlとかだとどうやってやるんだろ? http://mevius.5ch.net/test/read.cgi/unix/1003833552/184
185: 名無しさん@お腹いっぱい。 [sage] 03/01/07 14:58 wgetでpostできるようにするパッチあるよ ttp://pluto.im.uec.ac.jp/~sekita-n/prog/ CGIを激しく呼び出してアク禁喰らっても知らないけど http://mevius.5ch.net/test/read.cgi/unix/1003833552/185
186: 名無しさん@お腹いっぱい。 [sage] 03/01/07 15:03 >>184 cgiを読んだら、POSTを送ることでページをめくるようになってた。 perlだったら直接サーバと繋いで、POSTを直接送ればできるのでは? またはhttp://hoghoge/moemoe.cgi?page=3でページを直接指定して(GETでも)ページを開けるらしい。 ところでwgetでPOSTを送ることってできないよね?(wget厨ですまそ) http://mevius.5ch.net/test/read.cgi/unix/1003833552/186
187: 186 [sage] 03/01/07 15:05 >>185 リロードしたらみました。 すまそ。試してみます。 wget以外でPOSTを簡単に送れるツールを以前どこかで見たことあったけど。。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/187
188: 名無しさん@お腹いっぱい。 [sage] 03/01/07 15:57 curl使え http://mevius.5ch.net/test/read.cgi/unix/1003833552/188
189: 名無しさん@お腹いっぱい。 [sage] 03/01/07 17:03 >>181 Irvineもコマンドラインから使えるけど。 irvine list.txt で、URLリストを入れられる。 cronで回すのでなければ、Win上でやったほうが簡単かも。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/189
190: 名無しさん@お腹いっぱい。 [sage] 03/01/07 19:44 ⊂⌒~⊃。Д。)⊃ http://mevius.5ch.net/test/read.cgi/unix/1003833552/190
191: 名無しさん@お腹いっぱい。 [sage] 03/01/07 21:57 その萌え萌えなんちゃらってやつな、moemoe.htmlと同じディレクトリにある moemoe.logってのがログファイルだからそれ落とせ。画像のURLも載ってるから。 CGI叩くのやめれ。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/191
192: 名無しさん@お腹いっぱい。 [] 03/01/08 01:46 >>172 なんかデリられてるみたいなんで差異うpキボンヌ、クレクレ君でスマソ http://mevius.5ch.net/test/read.cgi/unix/1003833552/192
193: 名無しさん@お腹いっぱい。 [sage] 03/01/08 01:51 >>187 w3m http://mevius.5ch.net/test/read.cgi/unix/1003833552/193
194: 名無しさん@お腹いっぱい。 [sage] 03/01/08 09:32 >>192 ゴメソ。 cgiからゲトーしてるので下手するとアク禁になっちゃうから今消してる。 もうすぐ次バージョンうpするからまってて〜(;´Д`) http://mevius.5ch.net/test/read.cgi/unix/1003833552/194
195: 名無しさん@お腹いっぱい。 [sage] 03/01/08 14:37 >>193 それだ! http://mevius.5ch.net/test/read.cgi/unix/1003833552/195
196: 名無しさん@お腹いっぱい。 [sage] 03/01/08 21:35 >>192 うpしたよ〜 急いで書いたからちゃんと動くかわからないけど。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/196
197: 名無しさん@お腹いっぱい。 [sage] 03/01/08 21:49 >>196 さっきの動かなかったから、差し替えますた。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/197
198: 名無しさん@お腹いっぱい。 [sage] 03/01/08 22:46 >>197 まだ時計がずれてない?(w 勘違いだったらスマソ。 ちょっと読んで気になったのは、 スレッドの差分を取ってくるときのwgetのオプションで-cと-ncの両方を指定しているけど、 これって両方あったらまずくないの?>>165 あと、datファイルを連続してダウンロードしたら、2chの負荷が大きくなってまずいと思うけど.. http://mevius.5ch.net/test/read.cgi/unix/1003833552/198
199: 名無しさん@お腹いっぱい。 [sage] 03/01/08 22:50 >>198 あらほんと。 -cと-nc一緒に書いちゃってるけど、一応動いてるし、ダウンロードの 速さからして差分だけ落としてるように思ふ。 て優香、汚いソースを丁寧に読んでくれてありが? datは差分だけ落としてるから連続ダウソも大丈夫かと思ったが、 やっぱヤバイかね?間隔あけた方がいいかな? http://mevius.5ch.net/test/read.cgi/unix/1003833552/199
200: 名無しさん@お腹いっぱい。 [sage] 03/01/08 22:52 あと、wgetのダウンロード速度が遅くていらつくんだけど、なんか解決方法 ありませんか? http://mevius.5ch.net/test/read.cgi/unix/1003833552/200
201: 名無しさん@お腹いっぱい。 [sage] 03/01/08 23:02 >>199 いや、ちょっとmonazilla関係のスレをよんでたら、 いかにサーバの負荷を減らすかいろいろ考えられていて、 この、datファイルを総ざらいするのも極力避けた方がいいかと思ってきた。 やるとしても、負荷の低い時間帯にかなり間隔を開けて行った方が良いかと... >ダウンロードの >速さからして差分だけ落としてるように思ふ。 -ncはすでにファイルが存在したら、ダウンロードしないので、ダウンロードされていない可能性は? http://mevius.5ch.net/test/read.cgi/unix/1
003833552/201
202: 名無しさん@お腹いっぱい。 [sage] 03/01/08 23:16 >>201 今 -nc消したやつをうpしたよ。 だけど、-nc消したらなんだか速度が遅くなったような・・・ あと、日時がバグってるのはアーカイバーがおかしいらしいことが分かったよ。 だからキニシナーイ >datファイルを総ざらいするのも極力避けた方がいいかと思ってきた。 なるほど。一応スレのレス数見て更新されてるか確認してから各スレの差分をダウソ するようにしてるけど。もっと負荷を減らす方法ないでつかね? cronで回すなら、10秒おきに更新されてるスレを1スレずつ巡回みたいなこ
とも考えられるけど。 >-ncはすでにファイルが存在したら、ダウンロードしないので、ダウンロードされていない可能性は? 一応ダウンロードされてるようだが・・・謎。 まぁ直したし。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/202
203: 名無しさん@お腹いっぱい。 [sage] 03/01/08 23:19 >>202 速度で判断するより、wgetのログをちゃんと見た方がはっきりするかと... http://mevius.5ch.net/test/read.cgi/unix/1003833552/203
204: 名無しさん@お腹いっぱい。 [sage] 03/01/08 23:27 >>203 -ncつけてるやつはログが消えちゃったけど、-nc消したやつのログみたら 全部落としてるみたい・・・鬱 http://mevius.5ch.net/test/read.cgi/unix/1003833552/204
205: 名無しさん@お腹いっぱい。 [sage] 03/01/09 01:58 (´-`).。oO(画像掲示板から落とした方が簡単なのに、なんでだろう…) http://mevius.5ch.net/test/read.cgi/unix/1003833552/205
206: 名無しさん@お腹いっぱい。 [sage] 03/01/09 16:19 こんなのもあったり http://j2ch.free-city.net/ http://mevius.5ch.net/test/read.cgi/unix/1003833552/206
207: 名無しさん@お腹いっぱい。 [sage] 03/01/09 19:32 >>205 ソレダ━━━━━━(゚∀゚)━━━━━━━!!!!! にちゃんねらがよく利用している画像掲示板を巡回すれば、良質なジェイペーグが 集まるよな。 >>206 同一のアドレスがたくさん・・・sortしてuniq通せよな〜、と。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/207
208: 名無しさん@お腹いっぱい。 [sage] 03/01/09 20:05 >>206 さらに1時間更新とか... どんなシステムか気になる。 >>207 Windowsでは画像掲示板を巡回して画像をダウンロードするソフトを聞いたことあるけど、 人参収穫か大根収穫とか名前だったか... まあ、crontabで自動で回してみたい http://mevius.5ch.net/test/read.cgi/unix/1003833552/208
209: 名無しさん@お腹いっぱい。 [sage] 03/01/09 21:08 >>208 これか? 人参自動収穫機 http://ninjinclub.tripod.co.jp/ http://mevius.5ch.net/test/read.cgi/unix/1003833552/209
210: 名無しさん@お腹いっぱい。 [sage] 03/01/09 23:41 この画像掲示板はPOSTじゃないと見れないみたいなんですが、w3m等の POSTがしゃべれるツールで画像をダウンロードする方法が分からないのですが、 分かる方いらっしゃいませんか? ttp://sss.direct.ne.jp/nuke/bbs.cgi http://mevius.5ch.net/test/read.cgi/unix/1003833552/210
211: 名無しさん@お腹いっぱい。 [sage] 03/01/10 01:23 >>210 とりあえず>>191の様にログが保存されていないか探してみるとか? imgboardはデフォルトではfile.dat、fileback.datって名前だったような... ただ、ログファイル名変えてたり、アクセス権を切っている可能性があるので(俺もだけど) このばあいは>>209を試してみるとか? 下手にperlでPOSTを送ったりするのはやめた方がいいと思う http://mevius.5ch.net/test/read.cgi/unix/1003833552/211
212: 名無しさん@お腹いっぱい。 [sage] 03/01/10 01:25 >>210 てか、右クリック→名前を付けて保存ではいけないのか? もしくはman w3m http://mevius.5ch.net/test/read.cgi/unix/1003833552/212
213: 名無しさん@お腹いっぱい。 [sage] 03/01/10 02:00 ぷ http://mevius.5ch.net/test/read.cgi/unix/1003833552/213
214: 名無しさん@お腹いっぱい。 [sage] 03/01/12 14:20 >>210 上のほうで出てるパッチを当てたwgetだとこんな感じ? #!/bin/bash url="http://hoge.com/hoge/imgboard.cgi??page=" img="/hoge/img-box/" lastpage=10 i=0 while [ $i -lt $lastpage ] do i=`expr $i + 1` echo $url$i >> list.txt done wget -r -w 1 -I $img -i list.txt -o wget.log rm -f list.txt http://mevius.5ch.net/test/read.cgi/unix/1003833552/214
215: age2ch.pl 0.03.28 [sage] 03/01/12 16:20 保守 http://mevius.5ch.net/test/read.cgi/unix/1003833552/215
216: 名無しさん@お腹いっぱい。 [sage] 03/01/12 23:06 >>241 普通に wget "http://hoge.com/hoge/imgboard.cgi?page=2" でもいけない? >>215 それはやめとけ。 下手したら悪禁になるかもしれないらしい http://mevius.5ch.net/test/read.cgi/unix/1003833552/216
217: 山崎渉 [(^^)sage] 03/01/15 12:59 (^^) http://mevius.5ch.net/test/read.cgi/unix/1003833552/217
218: 名無しさん@お腹いっぱい。 [] 03/01/24 15:59 java版を作ってみますた。 http://gobo.free-city.net/ ※javaの実行環境が必要です。 ※Windows、Macでも動くかも。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/218
219: あぼーん [あぼーん] あぼーん http://mevius.5ch.net/test/read.cgi/unix/1003833552/219
220: あぼーん [あぼーん] あぼーん http://mevius.5ch.net/test/read.cgi/unix/1003833552/220
221: 名無しさん@お腹いっぱい。 [sage] 03/01/25 17:42 >>218 ネタでつか? 鯖がみつかりませぬ・・・ http://mevius.5ch.net/test/read.cgi/unix/1003833552/221
222: 218 [] 03/01/26 00:18 あれ?確かに見つかりませんね...。 って、鯖ごと落ちてる? 昨日まではアクセスできたのにな。今日話題になってるSQLPの影響かなぁ? http://mevius.5ch.net/test/read.cgi/unix/1003833552/222
223: 名無しさん@お腹いっぱい。 [sage] 03/01/26 00:43 >>222 ここでは話題になってないのかな・・ ttp://dailynews.yahoo.co.jp/fc/computer/internet/ http://mevius.5ch.net/test/read.cgi/unix/1003833552/223
224: 218 [sage] 03/01/26 09:12 >>221 たった今、鯖が復帰していることを確認しますた。よろしくおながいします。 いちお、間借りしたところは、 The site gobo.free-city.net is running Apache/1.3.27 (Unix) on FreeBSD なので今回の騒ぎで落ちちゃったわけではなさそうですが。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/224
225: 名無しさん@お腹いっぱい。 [sage] 03/01/31 10:59 どうやらUAをいじらないとdatファイルを直接getできなくなったらしいが http://mevius.5ch.net/test/read.cgi/unix/1003833552/225
226: 山崎渉 [(^^)] 03/04/17 12:33 (^^) http://mevius.5ch.net/test/read.cgi/unix/1003833552/226
227: あぼーん [あぼーん] あぼーん http://mevius.5ch.net/test/read.cgi/unix/1003833552/227
228: 名無しさん@お腹いっぱい。 [] 03/04/21 02:09 ↑山崎、必死だな(笑 http://mevius.5ch.net/test/read.cgi/unix/1003833552/228
229: 名無しさん@お腹いっぱい。 [] 03/04/28 15:53 UNIX コマンドだと標準で巡回コマンド付いてきますが、何か? http://mevius.5ch.net/test/read.cgi/unix/1003833552/229
230: 名無しさん@お腹いっぱい。 [sage] 03/05/06 16:55 Mac OS 10.2 のターミナルで実行しました そしたら、 pl {-input <binary_file>} {-output <binary_file>} Reads ASCII PL from stdin (or serialized file if -input specified) and writes ASCII PL to stdout (or serialized file if -output) なんて出ちゃって、もうわかりませぬ どうかおしえてください。。。 おながいします。。。 http://mevius.5ch.net/test/read.cgi/unix/1003833552/230
231: あぼーん [あぼーん] あぼーん http://mevius.5ch.net/test/read.cgi/unix/1003833552/231
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 63 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.012s