亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python爬蟲時提取數據后跟蹤到下一個鏈接報錯怎么辦

發布時間:2021-08-09 13:48:08 來源:億速云 閱讀:195 作者:小新 欄目:編程語言

小編給大家分享一下python爬蟲時提取數據后跟蹤到下一個鏈接報錯怎么辦,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

解決方法:不要將“NoneType”連接到 str。這意味著該next_page變量沒有從response.xpath().get()上一行函數中提到的 xpath 中獲取任何值。沒有匹配的 xpath,因此get()返回None。

示例:

正在嘗試制作一個爬蟲,它可以從 SCP wiki 中獲取信息并跟蹤下一個 SCP 的鏈接并繼續像這樣。使用當前的代碼,從第一個跟蹤鏈接中提取數據后,爬蟲停止跟蹤到下一個鏈接。

import scrapyclass QuotesSpider(scrapy.Spider):
    name = "scp"
    start_urls = [
        'https://scp-wiki.wikidot.com/scp-002',
    ]
    def parse(self, response):        for scp in response.xpath('//*[@id="main-content"]'):            yield {                'title': scp.xpath('//*[@id="page-content"]/p[1]').get(),                'tags': scp.xpath('//*[@id="main-content"]/div[4]').get(),                'class': scp.xpath('//*[@id="page-content"]/p[2]').get(),                'scp': scp.xpath('//*[@id="page-content"]/p[3]').get(),                'desc': scp.xpath('//*[@id="page-content"]/p[6]').get(),
            }
        next_page = response.xpath('//*[@id="page-content"]/div[3]/div/p/a[2]/@href').get()
        next_page = 'https://scp-wiki.wikidot.com'+next_page        print(next_page)
        next_page = response.urljoin(next_page)
        print(next_page)        yield response.follow(next_page, callback=self.parse)

當我運行這個代碼時,收到了以下錯誤:

next_page = ' 
TypeError: can only concatenate str (not "NoneType") to str

當出現以上錯誤時,可以使用本文開頭提到的解決方法進行處理。

以上是“python爬蟲時提取數據后跟蹤到下一個鏈接報錯怎么辦”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

定边县| 永丰县| 集安市| 临武县| 临海市| 斗六市| 天门市| 当雄县| 通辽市| 昌邑市| 巍山| 汝城县| 屏山县| 固安县| 罗定市| 美姑县| 康乐县| 西吉县| 临洮县| 江川县| 甘孜县| 保靖县| 翁源县| 正蓝旗| 林芝县| 隆安县| 大城县| 凌云县| 廊坊市| 香格里拉县| 绥芬河市| 兴城市| 新竹市| 镇平县| 大厂| 怀来县| 得荣县| 潼关县| 石楼县| 开封县| 株洲市|