亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python怎么爬取當當網APP數據

發布時間:2021-10-26 09:57:45 來源:億速云 閱讀:237 作者:柒染 欄目:大數據

本篇文章給大家分享的是有關Python怎么爬取當當網APP數據,小編覺得挺實用的,因此分享給大家學習,希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。

目標

場景:有時候通過傳統的方法去爬一些 Web 網頁或者 APP,受限于對方的反爬方案,很難爬到想要的數據,這個時候可以考慮使用「Appium」結合「mitmproxy」的方式去爬取數據。

其中,Appium 負責驅動 App 端自動化運行,mitmproxy 負責截取請求數據并解析保存到數據庫。

今天的目的是爬取「當當網」的所有數據,并保存到 MongoDB 數據庫當中。 

準備工作

首先,需要在 PC 上安裝好 Charles 和 Appium Desktop,并配置好 mitmproxy 環境。

# 安裝mitmproxy依賴包
pip3 install mitmproxy

# 安裝pymongodb
pip3 install pymongo

另外,需要準備一臺 Android 手機,另外 PC 端配置好 Android 開發環境。

爬取思路

1. 在配置好手動代理的情況下,打開 Charles 實時捕獲客戶端的發起的網絡請求。

打開當當網搜索商品的頁面,搜索關鍵字「Python」,可以在 Charles 查看到當前請求的 URL 地址包含:「word=Python」

編寫 mitmproxy 的執行腳本文件,重寫 response() 函數,通過對請求的 URL 進行過濾,對有用的數據進行整理并保存到 MongoDB 數據庫當中。

class DangDangMongo(object):
    """
    初始化MongoDB數據庫
    """
    def __init__(self):
        self.client = MongoClient('localhost')
        self.db = self.client['admin']
        self.db.authenticate("root", "xag")
        self.dangdang_book_collection = self.db['dangdang_book']

def response(flow):

    # 過濾請求的URL
    if 'keyword=Python' in request.url:

        data = json.loads(response.text.encode('utf-8'))

        # 書籍
        products = data.get('products') or None

        product_datas = []

        for product in products:
            # 書ID
            product_id = product.get('id')

            # 書名
            product_name = product.get('name')

            # 書價格
            product_price = product.get('price')

            # 作者
            authorname = product.get('authorname')

            # 出版社
            publisher = product.get('publisher')

            product_datas.append({
                'product_id': product_id,
                'product_name': product_name,
                'product_price': product_price,
                'authorname': authorname,
                'publisher': publisher
            })

        DangDangMongo().dangdang_book_collection.insert_many(product_datas)
        print('成功插入數據成功')

先打開客戶端的手動代理監聽 8080 端口,然后執行「mitmdump」命令,然后滾動商品界面,發現數據到寫入到數據庫中了。

 mitmdump -s script_dangdang.py

2. 下面我們要利用 Appium 幫我們實現 自動化。

首先打開 Appium Desktop,并啟動服務。

Python怎么爬取當當網APP數據

獲取到包名和初始 Activity 后,就可以利用 WebDriver 去模擬打開當當網 APP。

self.caps = {
            'automationName': DRIVER,
            'platformName': PLATFORM,
            'deviceName': DEVICE_NAME,
            'appPackage': APP_PACKAGE,
            'appActivity': APP_ACTIVITY,
            'platformVersion': ANDROID_VERSION,
            'autoGrantPermissions': AUTO_GRANT_PERMISSIONS,
            'unicodeKeyboard': True,
            'resetKeyboard': True
        }
self.driver = webdriver.Remote(DRIVER_SERVER, self.caps)

接著使用 Android SDK 自帶的工具 uiautomatorviewer 獲取到元素信息,使用 Appium 中的 WebDriver 去操作 UI 元素。

第一次打開應用的時候,可能會出現紅包雨對話框、新人專享紅包對話框、切換城市對話框,這里需要通過元素 ID 獲取到關閉按鈕,執行點擊操作來關閉這些對話框。

這里創建一個 新的線程 來單獨處理這些對話框。

class ExtraJob(threading.Thread):
   def run(self):
        while self.__running.isSet():

            # 為True時立即返回, 為False時阻塞直到內部的標識位為True后返回
            self.__flag.wait()

            # 1.0 【紅包雨】對話框
            red_packet_element = is_element_exist(self.driver, 'com.dangdang.buy2:id/close')
            if red_packet_element:
                red_packet_element.click()

            # 1.1 【新人專享券】對話框
            new_welcome_page_sure_element = is_element_exist(self.driver, 'com.dangdang.buy2:id/dialog_cancel_tv')
            if new_welcome_page_sure_element:
                new_welcome_page_sure_element.click()

            # 1.2 【切換位置】對話框
            change_city_cancle_element = is_element_exist(self.driver, 'com.dangdang.buy2:id/left_bt')
            if change_city_cancle_element:
                change_city_cancle_element.click()

extra_job = ExtraJob(dangdang.driver)
extra_job.start()

接下來就是點擊搜索按鈕,然后輸入內容,執行點擊搜索對話框。

 # 1.搜索框
search_element_pro = self.wait.until(
            EC.presence_of_element_located((By.ID, 'com.dangdang.buy2:id/index_search')))
search_element_pro.click()

search_input_element = self.wait.until(
            EC.presence_of_element_located((By.ID, 'com.dangdang.buy2:id/search_text_layout')))
search_input_element.set_text(KEY_WORD)

# 2.搜索對話框,開始檢索
search_btn_element = self.wait.until(
            EC.element_to_be_clickable((By.ID, 'com.dangdang.buy2:id/search_btn_search')))
search_btn_element.click()

# 3.休眠3秒,保證第一頁的內容加載完全
time.sleep(3)

待第一頁的數據加載完全之后,可以一直向上滾動頁面,直到數據全部被加載完全,數據會由 mitmproxy 自動保存到 MongoDB 數據庫當中。

while True:
      str1 = self.driver.page_source
      self.driver.swipe(FLICK_START_X, FLICK_START_Y + FLICK_DISTANCE, FLICK_START_X, FLICK_START_X)
      time.sleep(1)
      str2 = self.driver.page_source
      if str1 == str2:
            print('停止滑動')
            # 停止線程
            extra_job.stop()
            break
      print('繼續滑動'

結果

首先使用 mitmdump 開啟請求監聽的服務,然后執行爬取腳本。

App 會自動打開,執行一系列操作后,到達商品界面,然后自動滑動界面,通過 mitmproxy 自動把有用的數據保存到 MongoDB 數據庫中。

Python怎么爬取當當網APP數據

以上就是Python怎么爬取當當網APP數據,小編相信有部分知識點可能是我們日常工作會見到或用到的。希望你能通過這篇文章學到更多知識。更多詳情敬請關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

临江市| 喀喇| 霍林郭勒市| 青海省| 图木舒克市| 开原市| 千阳县| 衡阳县| 固阳县| 紫阳县| 青岛市| 肃南| 济宁市| 庄河市| 定日县| 平陆县| 吉水县| 云南省| 岳普湖县| 祁东县| 报价| 万源市| 简阳市| 平昌县| 白朗县| 资源县| 衡山县| 延津县| 霍邱县| 五常市| 连山| 荥经县| 池州市| 漠河县| 朔州市| 大安市| 女性| 南召县| 南投县| 东兰县| 黔西|