亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬蟲框架Scrapy基本用法入門教程

發布時間:2020-09-29 22:52:42 來源:腳本之家 閱讀:166 作者:噴跑的豆子 欄目:開發技術

本文實例講述了Python爬蟲框架Scrapy基本用法。分享給大家供大家參考,具體如下:

Xpath

<html>
<head>
  <title>標題</title>
</head>
<body>
  <h3>二級標題</h3>
  <p>爬蟲1</p>
  <p>爬蟲2</p>
</body>
</html>

在上述html代碼中,我要獲取h3的內容,我們可以使用以下代碼進行獲取:

info = response.xpath("/html/body/h3/text()")

可以看出/html/body/h3為內容的層次結構,text()則是獲取h3標簽的內容。//p獲取所有p標簽。獲取帶具體屬性的標簽://標簽[@屬性="屬性值"]

<div class="hide"></div>

獲取class為hide的div標簽

div[@class="hide"]

再比如,我們在谷歌Chrome瀏覽器上的Console界面使用$x['//h3']命令獲取頁面中的h3元素信息:

Python爬蟲框架Scrapy基本用法入門教程

xmlfeed模板

創建一個xmlfeed模板的爬蟲

scrapy genspider -t xmlfeed abc iqianyue.com

核心代碼:

from scrapy.spiders import XMLFeedSpider
class AbcSpider(XMLFeedSpider):
  name = 'abc'
  start_urls = ['http://yum.iqianyue.com/weisuenbook/pyspd/part12/test.xml']
  iterator = 'iternodes' # 迭代器,默認為iternodes,是一個基于正則表達式的高性能迭代器。除了iternodes,還有“html”和“xml”
  itertag = 'person' # 設置從哪個節點(標簽)開始迭代
  # parse_node會在節點與提供的標簽名相符時自動調用
  def parse_node(self, response, selector):
    i = {}
    xpath = "/person/email/text()"
    info = selector.xpath(xpath).extract()
    print(info)
    return i

csvfeed模板

創建一個csvfeed模板的爬蟲

scrapy genspider -t csvfeed csvspider iqianyue.com

核心代碼

from scrapy.spiders import CSVFeedSpider
class CsvspiderSpider(CSVFeedSpider):
  name = 'csvspider'
  allowed_domains = ['iqianyue.com']
  start_urls = ['http://yum.iqianyue.com/weisuenbook/pyspd/part12/mydata.csv']
  # headers 主要存放csv文件中包含的用于提取字段的信息列表
  headers = ['name', 'sex', 'addr', 'email']
  # delimiter 字段之間的間隔
  delimiter = ','
  def parse_row(self, response, row):
    i = {}
    name = row["name"]
    sex = row["sex"]
    addr = row["addr"]
    email = row["email"]
    print(name,sex,addr,email)
    #i['url'] = row['url']
    #i['name'] = row['name']
    #i['description'] = row['description']
    return i

crawlfeed模板

創建一個crawlfeed模板的爬蟲

scrapy genspider -t crawlfeed crawlspider sohu.com

核心代碼

class CrawlspiderSpider(CrawlSpider):
  name = 'crawlspider'
  allowed_domains = ['sohu.com']
  start_urls = ['http://sohu.com/']
  rules = (
    Rule(LinkExtractor(allow=r'Items/'), callback='parse_item', follow=True),
  )
  def parse_item(self, response):
    i = {}
    #i['domain_id'] = response.xpath('//input[@id="sid"]/@value').extract()
    #i['name'] = response.xpath('//div[@id="name"]').extract()
    #i['description'] = response.xpath('//div[@id="description"]').extract()
    return i

上面代碼rules部分中的LinkExtractor為連接提取器。

LinkExtractor中對應的參數及含義

參數名 參數含義
allow 提取符合正則表達式的鏈接
deny 不提取符合正則表達式的鏈接
restrict_xpaths 使用XPath表達式與allow共同作用提取同時符合對應XPath表達式和對應正則表達式的鏈接
allow_domains 允許提取的域名,比如我們想只提取某個域名下的鏈接時會用到
deny_domains 進制提取的域名

更多關于Python相關內容可查看本站專題:《Python Socket編程技巧總結》、《Python正則表達式用法總結》、《Python數據結構與算法教程》、《Python函數使用技巧總結》、《Python字符串操作技巧匯總》、《Python入門與進階經典教程》及《Python文件與目錄操作技巧匯總》

希望本文所述對大家Python程序設計有所幫助。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

虎林市| 朝阳市| 荥经县| 肥乡县| 阜康市| 靖远县| 西盟| 唐河县| 青阳县| 昂仁县| 利辛县| 凤冈县| 沧州市| 万安县| 呼和浩特市| 山东省| 江口县| 永兴县| 旺苍县| 江北区| 从化市| 龙门县| 兖州市| 龙川县| 海兴县| 临夏市| 岳阳市| 绥滨县| 疏勒县| 南阳市| 温泉县| 绥芬河市| 洮南市| 阿合奇县| 五指山市| 濮阳市| 镇安县| 淮南市| 富顺县| 桦南县| 潜山县|