您好,登錄后才能下訂單哦!
這篇文章主要介紹python如何構建爬蟲,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!
爬蟲具有域名切換、信息收集以及信息存儲功能。
這里講述如何構建基礎的爬蟲架構。
1、
urllib庫:包含從網絡請求數據、處理cookie、改變請求頭和用戶處理元數據的函數。是python標準庫.urlopen用于打開讀取一個從網絡獲取的遠程對象。能輕松讀取HTML文件、圖像文件及其他文件流。
2、
beautifulsoup庫:通過定位HTML標簽格式化和組織復雜的網絡信息,用python對象展現XML結構信息。不是標準庫,可用pip安裝。常用的對象是BeautifulSoup對象。
1、基礎爬蟲
爬蟲需要首先import對象,然后打開網址,使用BeautifulSoup對網頁內容進行讀取。
2、使用print輸出打開的網址的內容。
3、從輸出中可以看出內容的結構為:
4、輸出內容中的html-body-h2的內容可使用四種語句。
5、
BeautifulSoup可提取HTML、XML文件的任意節點的信息,只需要目標信息旁邊或附近有標記。
1、Error
在運行代碼時,經常會出現錯誤,看懂錯誤出現的原因才能解決存在的問題。
2、
在html=urlopen('')中會發生兩種錯誤:網頁在服務器上不存在或服務器不存在
。
3、網頁在服務器上不存在會出現HTTPError,可使用try語句進行處理。
當程序返回HTTPError錯誤代碼時,會顯示錯誤內容。
4、服務器不存在時,urlopen會返回None.
可使用判斷語句進行檢測。
調用的標簽不存在會出現None,調用不存在的標簽下的子標簽,就會出現AttributeError錯誤。
以上是“python如何構建爬蟲”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。