您好,登錄后才能下訂單哦!
本篇內容主要講解“怎么用Docker部署Scrapy”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“怎么用Docker部署Scrapy”吧!
1. 部署步驟
1.1 上傳本地scrapy爬蟲代碼除了settings外到git 服務器
1.2 編寫dockerfile文件,把settings和requirements.txt 也拷貝到image里,一起打包成一個image
dockerfile內容:
from ubuntu run apt-get update run apt-get install -y git run apt-get install -y nano run apt-get install -y redis-server run apt-get -y dist-upgrade run apt-get install -y openssh-server run apt-get install -y python3.5 python3-pip run apt-get install -y zlib1g-dev libffi-dev libssl-dev run apt-get install -y libxml2-dev libxslt1-dev run mkdir /code workdir /code add ./requirements.txt /code/ add ./settings.py /code/ run mkdir /code/myspider run pip3 install -r requirements.txt volume [ "/data" ]
requirements.txt 內容:
beautifulsoup4 scrapy setuptools scrapy_redis redis sqlalchemy pymysql pillow
整個目錄結構:
docker build -t fox6419/scrapy:scrapytag .
fox6419是用戶名,scrapytag是tag
成功后,執行docker images可以在本地看到image
1.3 打包的image 上傳到docker hub中
docker push username/repository:tag
push的命令格式是這樣的,我這邊就是:
docker push fox6419/scrapy:scrapytag
1.4 在digitalocean這種主機商創建帶docker應用的ubuntu 16.04版本
1.5 登陸docker,拉下1.3的image,然后run起來
docker run -it fox6419/scrapy:scrapytag /bin/bash
1.6 命令進去后,git clone 1.1中的爬蟲,然后復制images里的settings到爬蟲目錄,然后執行scrapy crawl xxx即可
到此,相信大家對“怎么用Docker部署Scrapy”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。