您好,登錄后才能下訂單哦!
下面我就給大家整理了Requests庫的使用方法和細節。
什么是Requests
Requests是Python語言編寫,基于urllib3,采用Apache2 Licensed開源協議的HTTP庫。它比urllib更加方便,可以節約我們大量的工作,完全滿足HTTP測試需求。是Python實現的簡單易用的HTTP庫。
安裝也很簡單:
pip?install?requests
1.實例引入
2.各種請求方式
1.基本GET請求
2.帶參數的GET請求這個我們前面有使用過,也是最常用的方法。運行成功就可以看到網頁的源碼了。
3.解析json傳入參數只需要我們把數據生成一個字典,然后調用params參數,賦值給他就可以,是不是很方便。
可以看出Requests的jaon解析和json的loads方法解析出來的結果是完全一樣的。所以Requests可以很方便的解析json數據。
4.獲取二進制數據
運行成功我們可以看到content方法獲取的圖片頁面源碼是二進制數據,而text獲取的則是字符串代碼。顯然獲取圖片這種二進制數據需要使用content方法。這樣我們就保存了圖片,我們可以在文件夾下看到這張圖片。
5.添加headers
有些網頁如果我們直接去請求的話,他會查看請求的對象是不是瀏覽器,如果沒有瀏覽器信息就會禁止我們爬蟲的訪問,這個時候我們就要給爬蟲加一個headers,加一個瀏覽器的user-agent信息。這樣我們就可以正常訪問了。如果有的伙伴不知道怎么得到User-Agent,可以打開瀏覽器的審查元素,找到network,隨便點擊一個鏈接就可以看到User-Agent的信息了。
6.基本POST請求
一個POST必然是要有一個Form Data的表單提交的,我們只要把信息傳給data參數就可以了。一個POST請求只需要調用post方法,是不是特別方便呢。如果不覺得方便的話,可以去參考urllib的使用方法。
1.response屬性
2.狀態碼判斷獲取這些信息只需要簡單的調用就可以實現了。
好了,這篇文章我們了解了Requests庫的基本語法操作,相信大家對Requests庫的請求和響應已經很清楚了,大家完全可以抓取一些網頁了。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。