亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

學習Python selenium自動化網頁抓取器

發布時間:2020-10-25 22:44:14 來源:腳本之家 閱讀:248 作者:Rock_Song 欄目:開發技術

直接入正題---Python selenium自動控制瀏覽器對網頁的數據進行抓取,其中包含按鈕點擊、跳轉頁面、搜索框的輸入、頁面的價值數據存儲、mongodb自動id標識等等等。

1、首先介紹一下 Python selenium ---自動化測試工具,用來控制瀏覽器來對網頁的操作,在爬蟲中與BeautifulSoup結合那就是天衣無縫,除去國外的一些變態的驗證網頁,對于圖片驗證碼我有自己寫的破解圖片驗證碼的源代碼,成功率在85%。

詳情請咨詢QQ群--607021567(這不算廣告,群里有好多Python的資源分享,還有大數據的一些知識【hadoop】)

2、beautifulsoup就不需要詳細的介紹了,直接上網址::https://www.crummy.com/software/BeautifulSoup/bs4/doc/(BeautifulSoup的官方文檔)

3、關于mongodb的自動id的生成。mongodb中所有的存儲數據都是有固定的id的,但是mongodb的id對于人類來講是復雜的,對于機器來講是小菜一碟的,所以在存入數據的同時,我習慣用新id來對每一條數據的負責!

在Python中使用mongodb的話需要引進模塊 from pymongo import MongoClient,ASCENDING, DESCENDING ,該模塊就是你的責任!

接下來開始講程序,直接上實例(一步一步來):

引入模塊:

from selenium import webdriver
from bs4 import BeautifulSoup
import requests
from pymongo import MongoClient,ASCENDING, DESCENDING
import time
import re

其中的每一個模塊都會說已經解釋過了,其中的re、requests都是之前就有提過的,他們都是核心缺一不可!

首先,我舉一個小例子,淘寶的自動模擬搜索功能(源碼):

先說一下selenium 的定位方法

find_element_by_id
find_element_by_name
find_element_by_xpath
find_element_by_link_text
find_element_by_partial_link_text
find_element_by_tag_name
find_element_by_class_name
find_element_by_css_selector

源碼:

from selenium import webdriver
from bs4 import BeautifulSoup
import requests
from pymongo import MongoClient,ASCENDING, DESCENDING
import time
import re
def TaoBao():
 try:
  Taobaourl = 'https://www.taobao.com/'
  driver = webdriver.Chrome()
  driver.get(Taobaourl)
  time.sleep(5)#通常這里需要停頓,不然你的程序很有可能被檢測到是Spider
  text='Strong Man'#輸入的內容
  driver.find_element_by_xpath('//input[@class="search-combobox-input"]').send_keys(text).click()
  driver.find_element_by_xpath('//button[@class="btn-search tb-bg"]').click()
  driver.quit()
 except Exception,e:
  print e
if __name__ == '__main__':
 TaoBao()

效果的實現,你們可以直接復制后直接運行!我只用了xpath的這個方法,因為它最實在!橙色字體(如果我沒有色盲的話),就是網頁中定位的元素,可以找到的!

接下來就是與BeautifulSoup的結合了,但是我們看到的只是打開了網頁,并沒有源碼,那么就需要 “變量名.page_source”這個方法,他會實現你的夢想,你懂得?

ht = driver.page_source
#print ht 你可以Print出啦看看
soup = BeautifulSoup(ht,'html.parser')

下面就是BeautifulSoup的一些語法操作了,對于數據的結構還有采集,在上一篇里面有詳細的抓取操作!!!

算了!說一個最簡單的定位抓取:

soup = BeautifulSoup(ht,'html.parser')
a = soup.find('table',id="ctl00_ContentMain_SearchResultsGrid_grid")
if a: #必須加判斷,不然訪問的網頁或許沒有這一元素,程序就會都停止!

class的標簽必須是class_,一定要記住!

哈哈哈!mongodb了昂,細節細節,首先需要用到模塊----from pymongo import MongoClient,ASCENDING, DESCENDING

因為在python,mongodb的語法仍然實用,所以需要定義一個庫,并且是全局性的,還有鏈接你計算機的一個全局變量。

if __name__ == '__main__': 
 global db#全局變量     
 global table#全局數據庫
 table = 'mouser_product'
 mconn=MongoClient("mongodb://localhost")#地址
 db=mconn.test
 db.authenticate('test','test')#用戶名和密碼
 Taobao()

定義這些后,需要我們的新id來對數據的跟蹤加定義:

db.sn.find_and_modify({"_id": table}, update={ "$inc": {'currentIdValue': 1}},upsert=True)
dic = db.ids.find({"_id":table}).limit(1)
return dic[0].get("currentIdValue") 

這個方法是通用的,所以只要記住其中的mongodb的語法就可以了!因為這里是有返回值的,所以這個是個方法體,這里不需要太過于糾結是怎么實現的,理解就好,中心還是在存數據的過程中

count = db[table].find({'數據':數據}).count() #是檢索數據庫中的數據
if count <= 0:        #判斷是否有
ids= getNewsn()       #ids就是我們新定義的id,這里的id是1開始的增長型id
db[table].insert({"ids":ids,"數據":數據})   

這樣我們的數據就直接存入到mongodb的數據庫中了,這里解釋一下為什么在大數據中這么喜歡mongodb,因為它小巧,速度佳!

最后來一個實例源碼:

from selenium import webdriver
from bs4 import BeautifulSoup
import requests
from pymongo import MongoClient,ASCENDING, DESCENDING
import time
import re
def parser():
 try:
  f = open('sitemap.txt','r')
  for i in f.readlines():
   sorturl=i.strip()
   driver = webdriver.Firefox()
   driver.get(sorturl)
   time.sleep(50)
   ht = driver.page_source
   #pageurl(ht)
   soup = BeautifulSoup(ht,'html.parser')
   a = soup.find('a',class_="first-last")
   if a:
    pagenum = int(a.get_text().strip())
    print pagenum
    for i in xrange(1,pagenum):
     element = driver.find_element_by_xpath('//a[@id="ctl00_ContentMain_PagerTop_%s"]' %i)
     element.click()
     html = element.page_source
     pageurl(html)
     time.sleep(50)
     driver.quit()
 except Exception,e:
  print e
def pageurl(ht):
 try:
  soup = BeautifulSoup(ht,'html.parser')
  a = soup.find('table',id="ctl00_ContentMain_SearchResultsGrid_grid")
  if a:
   tr = a.find_all('tr',class_="SearchResultsRowOdd")
   if tr:
     for i in tr:
      td = i.find_all('td')
      if td:
       url = td[2].find('a')
       if url:
        producturl = '網址'+url['href']
        print producturl
        count = db[table].find({"url":producturl}).count()
        if count<=0:
         sn = getNewsn()
         db[table].insert({"sn":sn,"url":producturl})
         print str(sn) + ' inserted successfully'
         time.sleep(3)
        else:
         print 'exists url'
   tr1 = a.find_all('tr',class_="SearchResultsRowEven")
   if tr1:
     for i in tr1:
      td = i.find_all('td')
      if td:
       url = td[2].find('a')
       if url:
        producturl = '網址'+url['href']
        print producturl
        count = db[table].find({"url":producturl}).count()
        if count<=0:
         sn = getNewsn()
         db[table].insert({"sn":sn,"url":producturl})
         print str(sn) + ' inserted successfully'
         time.sleep(3)
        else:
         print 'exists url'
        #time.sleep(5)
 except Exception,e:
  print e
def getNewsn(): 
 db.sn.find_and_modify({"_id": table}, update={ "$inc"{'currentIdValue': 1}},upsert=True)
 dic = db.sn.find({"_id":table}).limit(1)
 return dic[0].get("currentIdValue")
if __name__ == '__main__': 
 global db     
 global table
 table = 'mous_product'
 mconn=MongoClient("mongodb://localhost")
 db=mconn.test
 db.authenticate('test','test')
 parser()

這一串代碼是破解一個老外的無聊驗證碼界面結緣的,我真的對他很無語了!破解方法還是實踐中!這是完整的源碼,無刪改的哦!純手工!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

连云港市| 深州市| 德清县| 河北省| 江口县| 兴安盟| 左云县| 高州市| 开化县| 兴海县| 界首市| 合作市| 成安县| 竹山县| 那坡县| 吴堡县| 搜索| 海门市| 日照市| 九寨沟县| 华亭县| 隆子县| 阳曲县| 合水县| 崇阳县| 津市市| 宁津县| 霍林郭勒市| 连州市| 普陀区| 清苑县| 千阳县| 义马市| 湟中县| 绍兴市| 越西县| 绥滨县| 长顺县| 佛学| 新安县| 永善县|