亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

通過50行Python代碼獲取公眾號全部文章的方法

發布時間:2021-02-04 10:13:46 來源:億速云 閱讀:814 作者:小新 欄目:開發技術

這篇文章給大家分享的是有關通過50行Python代碼獲取公眾號全部文章的方法的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

前言

我們平時閱讀公眾號的文章會遇到一個問題——閱讀歷史文章體驗不好。

我們知道爬取公眾號的方式常見的有兩種:通過搜狗搜索去獲取,缺點是只能獲取最新的十條推送文章。通過微信公眾號的素材管理,獲取公眾號文章。缺點是需要申請自己的公眾號。

通過50行Python代碼獲取公眾號全部文章的方法

今天介紹一種通過抓包PC端微信的方式去獲取公眾號文章的方法。相比其他的方法非常方便。

通過50行Python代碼獲取公眾號全部文章的方法

通過50行Python代碼獲取公眾號全部文章的方法

如上圖,通過抓包工具獲取微信的網絡信息請求,我們發現每次下拉刷新文章的時候都會請求 mp.weixin.qq.com/mp/xxx (公眾號不讓添加主頁鏈接,xxx表示profile_ext) 這個接口。

經過多次測試分析,用到了以下幾個參數

  • __biz : 用戶和公眾號之間的唯一id

  • uin :用戶的私密id

  • key :請求的秘鑰,一段時候只會就會失效

  • offset :偏移量

  • count :每次請求的條數

數據如下

{
 "ret": 0,
 "errmsg": "ok", # 請求狀態
 "msg_count": 10, # 信息條數
 "can_msg_continue": 1, # 是否還可以繼續獲取,1代表可以。0代表不可以,也就是最后一頁
 "general_msg_list": "{"list":[]}", # 公眾號文本信息
 "next_offset": 20, 
 "video_count": 1,
 "use_video_tab": 1,
 "real_type": 0,
 "home_page_list": []
}

部分代碼如下

 params = {
 '__biz': biz,
 'uin': uin,
 'key': key,
 'offset': offset,
 'count': count,
 'action': 'getmsg',
 'f': 'json'
 }
 headers = {
 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'
 }
 response = requests.get(url=url, params=params, headers=headers)
 resp_json = response.json()
 if resp_json.get('errmsg') == 'ok':
 resp_json = response.json()
 # 是否還有分頁數據, 用于判斷return的值
 can_msg_continue = resp_json['can_msg_continue']
 # 當前分頁文章數
 msg_count = resp_json['msg_count']
 general_msg_list = json.loads(resp_json['general_msg_list'])
 list = general_msg_list.get('list')
 print(list, "**************")

最后打印的list就是公眾號的文章信息詳情。包括標題(titile)、摘要(digest)、文章地址(content_url)、閱讀原文地址(source_url)、封面圖(cover)、作者(author)等等...

輸出結果如下:

[{
 "comm_msg_info": {
 "id": 1000000038,
 "type": 49,
 "datetime": 1560474000,
 "fakeid": "3881067844",
 "status": 2,
 "content": ""
 },
 "app_msg_ext_info": {
 "title": "入門爬蟲,這一篇就夠了!!!",
 "digest": "入門爬蟲,這一篇就夠了!!!",
 "content": "",
 "fileid": 0,
 "content_url": "http:XXXXXX",
 "source_url": "",
 "cover": "I5kME6BVXeLibZDUhsiaEYiaX7zOoibxa9sb4stIwrfuqID5ttmiaoVAFyxKF6IjOCyl22vg8n2NPv98ibow\/0?wx_fmt=jpeg",
 "subtype": 9,
 "is_multi": 0,
 "multi_app_msg_item_list": [],
 "author": "Python3X",
 "copyright_stat": 11,
 "duration": 0,
 "del_flag": 1,
 "item_show_type": 0,
 "audio_fileid": 0,
 "play_url": "",
 "malicious_title_reason_id": 0,
 "malicious_content_type": 0
 }
},{...},{...},{...},{...},{...},{...},{...},{...},{...}]

獲取數據之后,可以保存到數據庫中,也可以將文章保存在PDF中。

1、保存在Mongo中

# Mongo配置
conn = MongoClient('127.0.0.1', 27017)
db = conn.wx #連接wx數據庫,沒有則自動創建
mongo_wx = db.article #使用article集合,沒有則自動創建
for i in list:
 app_msg_ext_info = i['app_msg_ext_info']
 # 標題
 title = app_msg_ext_info['title']
 # 文章地址
 content_url = app_msg_ext_info['content_url']
 # 封面圖
 cover = app_msg_ext_info['cover']
 # 發布時間
 datetime = i['comm_msg_info']['datetime']
 datetime = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(datetime))
 mongo_wx.insert({
 'title': title,
 'content_url': content_url,
 'cover': cover,
 'datetime': datetime
 })

結果如下

通過50行Python代碼獲取公眾號全部文章的方法

2、導入到PDF文件中

Python3中常用的操作PDF的庫有python-pdf和pdfkit。我用了pdfkit這個模塊導出pdf文件。

pdfkit是工具包Wkhtmltopdf的封裝類,因此需要安裝Wkhtmltopdf才能使用。

可以訪問 https://wkhtmltopdf.org/downloads.html 下載和操作系統匹配的工具包。

通過50行Python代碼獲取公眾號全部文章的方法

實現代碼也比較簡單,只需要傳入導入文件的url即可。

安裝pdfkit庫

pip3 install pdfkit -i http://pypi.douban.com/simple --trusted-host pypi.douban.com
 import pdfkit
pdfkit.from_url('公眾號文章地址', 'out.pdf')

運行之后成功導出pdf文件。

通過50行Python代碼獲取公眾號全部文章的方法

完整代碼

import requests
import json
import time
from pymongo import MongoClient
url = 'http://mp.weixin.qq.com/mp/xxx'(公眾號不讓添加主頁鏈接,xxx表示profile_ext)
# Mongo配置
conn = MongoClient('127.0.0.1', 27017)
db = conn.wx #連接wx數據庫,沒有則自動創建
mongo_wx = db.article #使用article集合,沒有則自動創建
def get_wx_article(biz, uin, key, index=0, count=10):
 offset = (index + 1) * count
 params = {
 '__biz': biz,
 'uin': uin,
 'key': key,
 'offset': offset,
 'count': count,
 'action': 'getmsg',
 'f': 'json'
 }
 headers = {
 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'
 }
 response = requests.get(url=url, params=params, headers=headers)
 resp_json = response.json()
 if resp_json.get('errmsg') == 'ok':
 resp_json = response.json()
 # 是否還有分頁數據, 用于判斷return的值
 can_msg_continue = resp_json['can_msg_continue']
 # 當前分頁文章數
 msg_count = resp_json['msg_count']
 general_msg_list = json.loads(resp_json['general_msg_list'])
 list = general_msg_list.get('list')
 print(list, "**************")
 for i in list:
 app_msg_ext_info = i['app_msg_ext_info']
 # 標題
 title = app_msg_ext_info['title']
 # 文章地址
 content_url = app_msg_ext_info['content_url']
 # 封面圖
 cover = app_msg_ext_info['cover']
 # 發布時間
 datetime = i['comm_msg_info']['datetime']
 datetime = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(datetime))
 mongo_wx.insert({
 'title': title,
 'content_url': content_url,
 'cover': cover,
 'datetime': datetime
 })
 if can_msg_continue == 1:
 return True
 return False
 else:
 print('獲取文章異常...')
 return False
if __name__ == '__main__':
 biz = 'Mzg4MTA2Nzg0NA=='
 uin = 'NDIyMTI5NDM1'
 key = '20a680e825f03f1e7f38f326772e54e7dc0fd02ffba17e92730ba3f0a0329c5ed310b0bd55b3c0b1f122e5896c6261df2eaea4036ab5a5d32dbdbcb0a638f5f3605cf1821decf486bb6eb4d92d36c620'
 index = 0
 while 1:
 print(f'開始抓取公眾號第{index + 1} 頁文章.')
 flag = get_wx_article(biz, uin, key, index=index)
 # 防止和諧,暫停8秒
 time.sleep(8)
 index += 1
 if not flag:
 print('公眾號文章已全部抓取完畢,退出程序.')
 break
 print(f'..........準備抓取公眾號第{index + 1} 頁文章.')

感謝各位的閱讀!關于“通過50行Python代碼獲取公眾號全部文章的方法”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

晋江市| 砀山县| 南乐县| 阿鲁科尔沁旗| 渑池县| 日喀则市| 宁津县| 甘孜| 驻马店市| 郯城县| 洛川县| 龙泉市| 永善县| 牡丹江市| 通江县| 新巴尔虎右旗| 什邡市| 略阳县| 白河县| 武定县| 沧州市| 卢龙县| 颍上县| 松阳县| 肃宁县| 景泰县| 宽甸| 同心县| 思茅市| 台江县| 长寿区| 亳州市| 灵寿县| 玉树县| 大埔县| 宣城市| 丹凤县| 通辽市| 江达县| 景谷| 无为县|