您好,登錄后才能下訂單哦!
這篇文章主要介紹rpop方法怎么在python分布式爬蟲中使用,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!
下面的代碼是消費端爬蟲程序的示例
import time import redis r = redis.Redis(host='127.0.0.1', port=6379, password='yourpassword', db=1) # 爬蟲程序 def crawl(task): print('爬取url {task}'.format(task=task)) time.sleep(1) while True: task = r.rpop('url_queue') if not task: time.sleep(1) continue crawl(task)
爬蟲程序要不停的使用rpop方法從redis的隊列中拉取數據進行爬取,考慮到生產者隨時都可能寫入新的任務,因此,必須使用死循環,得不到消息時,sleep一段時間,繼續獲取消息。
關于部署
生產端的程序,消費端的程序可以隨意部署,但不管如何,都要確保這些機器與redis所在的機器是網絡連通的,因為他們一個要寫消息到redis,一個要從redis拉取任務,至于生產端和消費端是否網絡連通則沒有任何必要,甚至同一端的worker之間也不必網絡連通
數據存儲
消費端的worker在爬取數據以后,可以根據實際需要決定是否直接落庫,如果需要對數據進行規范化處理或是其他操作,則可以寫入新的消息隊列中,由下一個工序的worker拉取數據進行處理
以上是“rpop方法怎么在python分布式爬蟲中使用”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。