亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python爬蟲獲取多頁天涯帖子

發布時間:2020-10-14 03:44:34 來源:腳本之家 閱讀:191 作者:zengdamo 欄目:開發技術

今天練習了抓取多頁天涯帖子,重點復習的知識包括

  • soup.find_all和soup.selcet兩個篩選方式對應不同的參數;
  • 希望將獲取到的多個內容組合在一起返回的時候,要用'zip()'的代碼來實現;
  • 兩層代碼結構之間的關系如何構造;

這里有一個疑問:有時候一個標簽可以有多個屬性,不知道soup.find_all()能不能接受不止一個屬性以縮小查找的范圍。

# 引入庫和請求頭文件
import requests
from bs4 import BeautifulSoup
headers = {
  'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'
}

# 定義主體函數。函數主體由四部分組成:
#1.請求網址
#2.解析網頁,形成可查找的html格式
#3.通過soup.select或者sopu.find_all查找需要的標簽
#4.通過zip()代碼將多個內容合并在一起

def get_content(url):
  res = requests.get(url,headers = headers)
  res.encoding = 'utf-8'
  soup = BeautifulSoup(res.text,'html.parser')
  contents = soup.find_all('div','bbs-content')
  authors = soup.find_all('a','js-vip-check')
  for author,content in zip(authors,contents):
    data = {
    'author':author.get_text().strip(),
    'content': content.get_text().strip()
  }
    print(data)
# 在這里構造一個兩層鏈接結構:帖子的1、2、3、4頁和帖子的詳情頁的關系在這里實現
if __name__ == '__main__':
  urls = ['http://bbs.tianya.cn/post-develop-2271894-{}.shtml'.format(str(i)) for i in range (1,5)] # 要注意,這里的‘5'是不包括在范圍里的
  for url in urls:
    get_content(url)

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

杂多县| 郎溪县| 嘉黎县| 汝州市| 都兰县| 凉城县| 庐江县| 平罗县| 西乌| 九龙坡区| 大英县| 古丈县| 拜城县| 广宗县| 定西市| 甘洛县| 公安县| 富裕县| 新民市| 泊头市| 金沙县| 平顶山市| 阿鲁科尔沁旗| 祁阳县| 乌兰县| 温州市| 凤庆县| 高台县| 手游| 长寿区| 亚东县| 镇赉县| 盐池县| 南川市| 噶尔县| 深水埗区| 哈巴河县| 合阳县| 汕尾市| 社旗县| 漳浦县|