亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

爬蟲如何部署代理ip

發布時間:2021-09-08 10:59:57 來源:億速云 閱讀:135 作者:小新 欄目:編程語言

這篇文章主要為大家展示了“爬蟲如何部署代理ip”,內容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領大家一起研究并學習一下“爬蟲如何部署代理ip”這篇文章吧。

爬蟲部署代理ip的方法:

1、利用IP代理池技術,每次從IP代理池中隨機選擇一個IP代理來爬取數據。

import urllib.request
import random
#構建IP代理池
ip_pool = [
    '58.221.55.58:808',
    '120.198.248.26:8088',
    '221.229.166.55:8080',
    '139.196.214.67:8080'
]
 
def ip(ip_pool, url):
    #從IP代理池中隨機選一個IP代理
    ip = random.choice(ip_pool)
    print(ip)
    #格式化IP代理格
    proxy = urllib.request.ProxyHandler({'http': ip})
    #裝入IP代理
    opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)
    return urllib.request.urlopen(url).read().decode('utf-8', 'ignore')
    
data = ip(ip_pool, 'https://www.baidu.com/?tn=98010089_dg&ch=15')
print(data)

2、使用IP代理池和用戶代理的組合來增加訪問量,更安全。利用ip代理的動態ip構建自己的代理ip池,可以保證ip的質量。

因為ip代理的ip資源是獨立有效的。

import urllib.request
import random
import urllib.error
#自定義UA_IP類,用來隨機得到
def UA_IP(thisUrl):
    #構建用戶代理池
    ua_pool = [
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.89 Safari/537.36',
        'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.41 Safari/535.1 QQBrowser/6.9.11079.201',
        'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; .NET4.0E)',
        'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0'
 
    ]
 
    #構建ip代理池
    ip_pool = [
        '139.196.196.74',
        '112.124.47.21',
        '61.129.70.109',
        '221.229.166.55'
    ]
 
    thisUA = random.choice(ua_pool) #從用戶代理池中隨機選擇一個用戶代理
    thisIP = random.choice(ip_pool) #從IP代理池中隨機選擇一個IP代理
    headers = ('User-Agent', thisUA)    #構造報頭
    #將IP格式化
    proxy = urllib.request.ProxyHandler({'http': thisIP})
    #裝入IP代理
    opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)
    #裝入代理
    opener.addheaders = [headers]
    #將opener設置為全局
    urllib.request.install_opener(opener)
    #從網頁爬取信息
    data = urllib.request.urlopen(thisUrl).read().decode('utf-8', 'gnore')
    return data
 
#網頁池,后面從網頁池中選擇一個進行該網頁信息的爬取
urls = [
    'https://mp.csdn.net/mdeditor/88323361#',
    'https://mp.csdn.net/mdeditor/88144295#',
    'https://mp.csdn.net/mdeditor/88144295#',
    'https://mp.csdn.net/mdeditor/88081609#'
]
 
#爬取1000次
for i in range(0, 1000):
    try:
        thisUrl = random.choice(urls)
        data = UA_IP(thisUrl)
        print(len(data))
    except urllib.error.HTTPError as e:
        if hasattr(e, 'code'):
            print(e.code)
        if hasattr(e, 'reason'):
            print(e.reason)

以上是“爬蟲如何部署代理ip”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

称多县| 宝兴县| 定安县| 祁东县| 常德市| 天等县| 建平县| 南召县| 丰宁| 厦门市| 会泽县| 新昌县| 潼南县| 容城县| 连城县| 子长县| 北辰区| 芮城县| 航空| 洪泽县| 肥东县| 繁峙县| 同德县| 洪雅县| 松溪县| 板桥市| 凤庆县| 宁国市| 涿鹿县| 长寿区| 甘南县| 峨眉山市| 常熟市| 双流县| 嘉义县| 天门市| 扎赉特旗| 永仁县| 浑源县| 仪陇县| 汉中市|