亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python如何爬取全站小說

發布時間:2021-11-25 14:30:20 來源:億速云 閱讀:212 作者:iii 欄目:大數據

這篇文章主要講解了“Python如何爬取全站小說”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“Python如何爬取全站小說”吧!

開發環境:

  • 版 本:anaconda5.2.0(python3.6.5)

  • 編輯器:pycharm 社區版

PS:如有需要Python學習資料的小伙伴可以加下方的群去找免費管理員領取

點擊加群即可免費獲取Python學習資料

可以免費領取源碼項目實戰視頻PDF文件

開始擼代碼:

1、導入工具

import requests
import parsel

2、偽造瀏覽器的環境

headers = {
    # "Cookie": "bcolor=; font=; size=; fontcolor=; width=; Hm_lvt_3806e321b1f2fd3d61de33e5c1302fa5=1596800365,1596800898; Hm_lpvt_3806e321b1f2fd3d61de33e5c1302fa5=1596802442",
    "Host": "www.shuquge.com",
    "Referer": "http://www.shuquge.com/txt/8659/index.html",
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.92 Safari/537.36",
}

3、解析網站,爬取小說

def download_one_chapter(url_chapter, book):
    """爬取一章小說"""
    # 從瀏覽器里面分析出來的
    response = requests.get(url_chapter, headers=headers)
    # response.apparent_encoding
    # 自適應編碼,萬能的  正確率是百分之 99%
    response.encoding = response.apparent_encoding
    # print(response.text)
    """提取數據"""
    """ 
    工具  bs4 parsel
    
    xpath
    css
    re
    """
    # 把html轉化為提取對象
    # 標簽重復怎么辦 id class 怎么二次進行提取
    sel = parsel.Selector(response.text)
    h2 = sel.css('h2::text')
    title = h2.get()
    print(title)

    content = sel.css('#content ::text').getall()
    # print(content)
    # text = "".join(content)
    # print(text)
    # w write 寫入
    """寫入數據"""
    # with open(title + '.txt', mode='w', encoding='utf-8') as f:
    with open(book + '.txt', mode='w', encoding='utf-8') as f:
        f.write(title)
        f.write('\n')
        for line in content:
            f.write(line.strip())
            f.write('\n')
"""爬取一本小說 會有很多章"""
# download_one_chapter('http://www.shuquge.com/txt/8659/2324752.html')
# download_one_chapter('http://www.shuquge.com/txt/8659/2324753.html')
def download_one_book(book_url):
    response = requests.get(book_url, headers=headers)
    response.encoding = response.apparent_encoding
    html = response.text
    sel = parsel.Selector(html)
    title = sel.css('h3::text').get()

    index_s = sel.css('body > div.listmain > dl > dd > a::attr(href)').getall()
    print(index_s)
    for index in index_s:
        print(book_url[:-10] + index)
        one_chapter_url = book_url[:-10] + index
        download_one_chapter(one_chapter_url, title)

1. 異常不會 try except

2. 錯誤重試 報錯之后,重新嘗試,或者是記錄下來,重新請求

下載一本小說需要哪些東西

download_one_book('http://www.shuquge.com/txt/8659/index.html')
download_one_book('http://www.shuquge.com/txt/122230/index.html')
download_one_book('http://www.shuquge.com/txt/117456/index.html')

根據每一章的地址下載每一章小說根據每一本小說的目錄頁下載一個本小說

下載整個網站的小說 -> 下載所有類別的小說 -> 下載每一個類別下面的每一頁小說

運行代碼后的效果:

Python如何爬取全站小說

感謝各位的閱讀,以上就是“Python如何爬取全站小說”的內容了,經過本文的學習后,相信大家對Python如何爬取全站小說這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

赣州市| 都江堰市| 马尔康县| 塔河县| 舟山市| 章丘市| 余江县| 赤城县| 星座| 汕头市| 建宁县| 靖州| 合山市| 元氏县| 宜阳县| 呼图壁县| 靖西县| 乌拉特后旗| 积石山| 建德市| 双江| 大石桥市| 安仁县| 定边县| 南投县| 新干县| 孟州市| 峨眉山市| 正安县| 上林县| 浦县| 龙游县| 喀喇沁旗| 突泉县| 合阳县| 南岸区| 鹤峰县| 大城县| 毕节市| 扬州市| 安顺市|