亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python中scrapy重復執行的實現方法

發布時間:2021-05-28 14:24:55 來源:億速云 閱讀:348 作者:小新 欄目:開發技術

這篇文章給大家分享的是有關python中scrapy重復執行的實現方法的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

Scrapy是一個為了爬取網站數據,提取結構性數據而編寫的應用框架,我們只需要實現少量的代碼,就能夠快速的抓取

Scrapy模塊:

1、scheduler:用來存放url隊列

2、downloader:發送請求

3、spiders:提取數據和url

4、itemPipeline:數據保存

from twisted.internet import reactor, defer
from scrapy.crawler import CrawlerRunner
from scrapy.utils.log import configure_logging
import time
import logging
from scrapy.utils.project import get_project_settings
 
 
#在控制臺打印日志
configure_logging()
#CrawlerRunner獲取settings.py里的設置信息
runner = CrawlerRunner(get_project_settings())
 
@defer.inlineCallbacks
def crawl():
  while True:
    logging.info("new cycle starting")
    yield runner.crawl("xxxxx")
    #1s跑一次
    time.sleep(1)
  reactor.stop()
 
crawl()
reactor.run()

感謝各位的閱讀!關于“python中scrapy重復執行的實現方法”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

宁武县| 顺义区| 谷城县| 沧源| 泰州市| 乐业县| 汉川市| 沁阳市| 南安市| 宣武区| 韩城市| 南乐县| 阜平县| 黔江区| 绥化市| 石泉县| 温州市| 保德县| 永安市| 昭苏县| 铁力市| 凯里市| 包头市| 长葛市| 尉犁县| 寿阳县| 五台县| 漠河县| 万荣县| 灵丘县| 手机| 积石山| 宝兴县| 保亭| 伊通| 平安县| 柳州市| 安远县| 黎城县| 昭苏县| 蓝山县|