亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

用python爬蟲在知乎上提取圖片的示例

發布時間:2020-11-23 09:59:46 來源:億速云 閱讀:169 作者:小新 欄目:編程語言

這篇文章主要介紹用python爬蟲在知乎上提取圖片的示例,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

下面的代碼注釋請仔細閱讀,中間有一個小BUG,需要手動把pic3修改為pic2這個地方目前原因不明確,可能是我本地網絡的原因,還有請在項目根目錄先創建一個 imgs 的文件夾,用來存儲圖片

def download_img(self,data):
        ## 下載圖片
        for item in data["data"]:
            content = item["content"]
            pattern = re.compile('<noscript>(.*?)</noscript>')
            imgs = pattern.findall(content)
            if len(imgs) > 0:
                for img in imgs:
                    match = re.search('<img src="(.*?)"', img)
                    download = match.groups()[0]
                    download = download.replace("pic3", "pic2")  # 小BUG,pic3的下載不到
                    print("正在下載{}".format(download), end="")
                    try:
                        with requests.Session() as s:
                            with s.get(download) as img_down:
                                # 獲取文件名稱
                                file = download[download.rindex("/") + 1:]
                                content = img_down.content
                                with open("imgs/{}".format(file), "wb+") as f:  # 這個地方進行了硬編碼
                                    f.write(content)
                                print("圖片下載完成", end="\n")
                    except Exception as e:
                        print(e.args)
            else:
                Pass

運行結果為

用python爬蟲在知乎上提取圖片的示例

 

以上是用python爬蟲在知乎上提取圖片的示例的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

陕西省| 油尖旺区| 丰台区| 阳高县| 东乌珠穆沁旗| 峨边| 阳春市| 涡阳县| 高青县| 天台县| 松桃| 济阳县| 静乐县| 新晃| 射阳县| 澄城县| 海南省| 青海省| 喜德县| 靖宇县| 通城县| 桃园县| 万荣县| 腾冲县| 隆安县| 天津市| 遂昌县| 崇明县| 龙南县| 德昌县| 石城县| 武宣县| 定远县| 西乡县| 营口市| 吴忠市| 东乡县| 平塘县| 平定县| 昌吉市| 且末县|