[過去ログ]
くだすれPython(超初心者用) その48【まず1嫁】 (1002レス)
くだすれPython(超初心者用) その48【まず1嫁】 http://mevius.5ch.net/test/read.cgi/tech/1589201940/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
712: デフォルトの名無しさん [sage] 2020/07/08(水) 02:58:31.93 ID:sBTgQPNr requestsで連番ページにアクセスして生きてるかどうか調べる requests.get(連番url)入れて、if html.status_code == 200: ならそのurlをappendしていってリスト化するだけ ページによってまちまちだけどだいたい100ページで30秒ほどかかる。1ページ0.3秒ほど これってもうこれ以上縮められない?もっと効率いいやり方ないのかな http://mevius.5ch.net/test/read.cgi/tech/1589201940/712
714: デフォルトの名無しさん [sage] 2020/07/08(水) 07:50:44.48 ID:mofePuJd >>712 multiprocessingモジュール使うとか http://mevius.5ch.net/test/read.cgi/tech/1589201940/714
715: デフォルトの名無しさん [sage] 2020/07/08(水) 08:42:20.69 ID:hEQaHqpN >>712 requestsじゃなくaiohttpやfaster-than-requestsで並列実行する サーバーがサポートしてればGETじゃなくHEADで curlの-Z -Iオプション付きの実行時間をベースラインとして比較すればいいと思う http://mevius.5ch.net/test/read.cgi/tech/1589201940/715
736: デフォルトの名無しさん [sage] 2020/07/09(木) 18:34:07.93 ID:3EwxQJI6 >>712並列処理でasyncioを調べたけど一つも理解できないまま1日が過ぎた。ゲンナリ… http://mevius.5ch.net/test/read.cgi/tech/1589201940/736
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.045s