亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》
  • 首頁 > 
  • 教程 > 
  • 開發技術 > 
  • Python怎么使用Selenium模塊實現模擬瀏覽器抓取淘寶商品美食信息功能

Python怎么使用Selenium模塊實現模擬瀏覽器抓取淘寶商品美食信息功能

發布時間:2021-04-17 14:04:31 來源:億速云 閱讀:127 作者:小新 欄目:開發技術

這篇文章給大家分享的是有關Python怎么使用Selenium模塊實現模擬瀏覽器抓取淘寶商品美食信息功能的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

具體如下:

import re
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import TimeoutException
from pyquery import PyQuery as pq
from bs4 import BeautifulSoup
from pymongo import MongoClient
from pymongo.errors import PyMongoError
url = 'http://www.taobao.com'
KEYWORD = '美食'
# monogdb配置信息
MONGO_HOST = "localhost"
MONGO_DATABASE = "taobao"
MONGO_TABLE = "meishi"
client = MongoClient(host=MONGO_HOST)
db = client[MONGO_DATABASE]
# PhantomJS 命令行相關配置
# 參見 http://phantomjs.org/api/command-line.html
SERVICE_ARGS = ['--disk-cache=true', '--load-images=false']
# driver = webdriver.Chrome() # 有界面
driver = webdriver.PhantomJS(service_args=SERVICE_ARGS) # 無界面
delay = 10
wait = WebDriverWait(driver, delay)
# print('windows size', driver.get_window_size())
# PhantomJs()的瀏覽器窗口很小,寬高只有400 * 300
driver.maximize_window() # 窗口最大化 # 對于PhantomJS來說設置窗口大小很關鍵,如果不設置,經常會出現問題
# driver.set_window_size(1920, 1080) # 設置瀏覽器窗口大小
# 模擬在淘寶網頁中輸入關鍵字搜索
def search():
  print("準備搜索 %s" % KEYWORD)
  try:
    driver.get(url)
    input_box = wait.until(
      EC.presence_of_element_located((By.CSS_SELECTOR, "input#q"))
    )
    search_btn = wait.until(EC.element_to_be_clickable(
      (By.CSS_SELECTOR, '#J_TSearchForm > div.search-button > button')))
    input_box.send_keys(KEYWORD)
    search_btn.click()
    total_page_str = wait.until(
      EC.presence_of_element_located(
        (By.CSS_SELECTOR, 'div.total'))).text
    total_page_num = int(re.search("(\d+)", total_page_str).group(1))
    item_list = get_goods_by_beautifulsoup()
    save_to_mongodb(item_list)
    return total_page_num
  except TimeoutError:
    print("搜索%s超時", KEYWORD)
    print("重新嘗試搜索: %s", KEYWORD)
    search()
# 根據頁碼獲取指定頁數據,并將其保存到數據庫中
def get_page(page_num):
  print("正在獲取第%d頁數據" % page_num)
  try:
    page_num_box = wait.until(
      EC.presence_of_element_located(
        (By.CSS_SELECTOR, "div.form > input")))
    ok_btn = wait.until(EC.element_to_be_clickable(
      (By.CSS_SELECTOR, 'div.form > span.btn.J_Submit')))
    page_num_box.clear()
    page_num_box.send_keys(page_num)
    ok_btn.click()
    wait.until(
      EC.text_to_be_present_in_element(
        (By.CSS_SELECTOR,
         'li.item.active > span.num'),
        str(page_num)))
    item_list = get_goods_by_beautifulsoup()
    save_to_mongodb(item_list)
  except TimeoutException:
    print("請求第%d頁失敗" % page_num)
    print("嘗試重新獲取第%d頁" % page_num)
    return get_page(page_num)
def get_goods_by_pyquery():
  '''
  通過pyquery庫解析數據
  獲取商品的圖片url、價格、標題、成交量、店鋪名稱、店鋪位置
  '''
  wait.until(EC.presence_of_element_located(
    (By.CSS_SELECTOR, "#mainsrp-itemlist .items .item")))
  html = driver.page_source
  doc = pq(html)
  items = list(doc('#mainsrp-itemlist .items .item').items())
  for item in items:
    yield {
      # 不要用src屬性,獲取的圖片地址很多是.gif圖片,而非真實商品圖片,
      'image': 'http://' + item.find('.J_ItemPic.img').attr('data-src'),
      'price': item.find('.price').text(),
      'title': item.find('.row > .J_ClickStat').text().strip(),
      'deal_cnt': item.find('.deal-cnt').text()[:-3],
      'shop': item.find('.shop').text(),
      'location': item.find('.location').text(),
    }
# 通過bs4解析數據
def get_goods_by_beautifulsoup():
  '''
  通過bs4庫解析數據
  獲取商品的圖片url、價格、標題、成交量、店鋪名稱、店鋪位置
  '''
  wait.until(EC.presence_of_element_located(
    (By.CSS_SELECTOR, "#mainsrp-itemlist .items .item")))
  html = driver.page_source
  soup = BeautifulSoup(html, 'lxml')
  items = soup.select('#mainsrp-itemlist .items .item')
  for item in items:
    yield {
      'image': 'http:' + item.select('img.J_ItemPic.img')[0]['data-src'],
      'price': item.select('div.price.g_price.g_price-highlight')[0].get_text(strip=True),
      'title': item.select('div.row.row-2.title > a.J_ClickStat')[0].get_text(strip=True),
      'deal_cnt': item.select('div.deal-cnt')[0].text[:-3],
      'shop': item.select('div.shop > a')[0].get_text(strip=True),
      'location': item.select('div.location')[0].text,
    }
def save_to_mongodb(item_list):
  for item in item_list:
    try:
      db[MONGO_TABLE].insert(item)  # insert支持插入多條數據
      print("mongodb插入數據成功:", item)
    except PyMongoError as e:
      print("mongodb插入數據失敗:", item, e)
# 獲取淘寶美食的圖片url、價格、標題、成交量、店鋪名稱、店鋪位置并將結果保存在mongodb數據庫中
if __name__ == '__main__':
  try:
    total_pages = search()
    for page_num in range(2, total_pages + 1):
      get_page(page_num)
  except Exception as e:
    print("出錯了", e)
  finally: # 確保 瀏覽器能正常關閉
    driver.close()

備注:

PhantomJS無界面瀏覽器打開的窗口默認大小400*300, 往往不能將網頁加載完全,會給提取數據造成很大的困難,因此需要指定窗口大小。

可以使用 maximize_window() 最大化窗口或者set_window_size()設置指定大小

可能會出現的異常:

raise TimeoutException(message, screen, stacktrace)
selenium.common.exceptions.TimeoutException: Message:
Screenshot: available via screen

感謝各位的閱讀!關于“Python怎么使用Selenium模塊實現模擬瀏覽器抓取淘寶商品美食信息功能”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

栾川县| 宣恩县| 和静县| 乌拉特中旗| 舞钢市| 涡阳县| 天长市| 新营市| 龙州县| 基隆市| 宜兴市| 马公市| 博客| 马尔康县| 城市| 同江市| 周口市| 来宾市| 林周县| 东丽区| 朔州市| 临沭县| 郎溪县| 颍上县| 武清区| 叙永县| 米易县| 青浦区| 嘉定区| 贺兰县| 襄垣县| 兴业县| 类乌齐县| 乐昌市| 侯马市| 阿克陶县| 车险| 和田市| 海门市| 泸定县| 彭阳县|