您好,登錄后才能下訂單哦!
本篇內容介紹了“怎么用python自動獲取微信公眾號最新文章”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
常用的微信公眾號文章獲取方法有搜狐、微信公眾號主頁獲取和api接口等多個方法。
聽說搜狐最近不怎么好用了,之前用的api接口也頻繁維護,所以用了微信公眾平臺來進行數據爬取。
首先登陸自己的微信公眾平臺,沒有賬號的可以注冊一個。進來之后找“圖文信息”,就是寫公眾號的地方
點進去后就是寫公眾號文章的界面,在界面中找到“超鏈接” 的字段,在這里就可以對其他的公眾號進行檢索。
以“python”為例,輸入要檢索的公眾號名稱,在顯示的公眾號中選擇要采集的公眾號
點開瀏覽器的檢查,找到network中,下圖里的這個鏈接,而右邊的Request URL才是存儲公眾號數據的真實鏈接。說明這是個json網頁。
以公眾號“python”的 鏈接 為例對網址進行分析。
https://mp.weixin.qq.com/cgi-bin/appmsg:微信公眾平臺的鏈接 "token": "163455614", #需要定期修改的token "lang": "zh_CN", #語言 "f": "json", "ajax": "1", #顯示幾天的文章 "action": "list_ex" "begin": "0", #起始頁面 "count": "1", #計數 "query": "", "fakeid": 'MzIwNDA1OTM4NQ==', #公眾號唯一編碼 "type": "9",
既然發現了fakeid是代表公眾號的唯一編碼,那接下來只需要把需要的公眾號的fakeid找到就行,我隨意找了三個公眾號的進行測試。
fakeid=[ 'MzIwNDA1OTM4NQ==','MzkxNzAwMDkwNQ==','MjM5NzI0NTY3Mg=='] #若增加公眾號需要增加fakeid
那接下來就是對網址的請求
首先導入需要的庫
import time import requests from lxml import etree import pandas as pd import json import numpy as np import datetime import urllib3 from urllib3.exceptions import InsecureRequestWarning urllib3.disable_warnings(InsecureRequestWarning)
由于不想重復登錄公眾號平臺,可以使用cookie避開登陸,對文章求情前需要找到網頁的cookie和User-Agent,由于微信公眾號回定期刷新,這個cookie和上面的token都要定期更換。
為避免反扒最好也找個代理ip
headers = { "Cookie": "appmsglist_action_3567997841=card;wxuin=49763073568536;pgv_pvid=6311844914;ua_id=x6Ri8bc9LeaWnjNNAAAAADI-VXURALRxlSurJyxNNvg=;mm_lang=zh_CN;pac_uid=0_3cf43daf28071;eas_sid=11Q6v5b0x484W9i7W0Z7l7m3I8;rewardsn=;wxtokenkey=777;wwapp.vid=;wwapp.cst=;wwapp.deviceid=;uuid=fd43d0b369e634ab667a99eade075932;rand_info=CAESIHgWwDfp3W4M9F3/TGnzHp4kKkrkMiCEvN/tSNhHtNBm;slave_bizuin=3567997841;data_bizuin=3567997841;bizuin=3567997841;data_ticket=IfMEEajZ8UvywUZ1NiIv9eKZkq0cgeS0oP6tTzEwNSjwK6q+u5vLw0XYeFvLL/JA;slave_sid=aVBzSlpYOGt4eTdmbzFRWDc1OUhzR1A1UkwzdUdBaklDaGh3dWY2MUZKTEw1Um1aalZRUXg5aVBMeEJVNklCcGlVN0s5Z3VEMmRtVENHS1ZxNTBDOWRCR0p2V2FyY2daU0hxT09Remd5YmlhRWExZkMwblpweVc3SndUbnJIQk55MGhUeExJa1NJcWZ0QmJS;slave_user=gh_e0f449d4f2b6;xid=7d5dc56bb7bb526c70cfef3f6bdfa18a", "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.75 Safari/537.36", } proxies = {'http': '112.80.248.73'}
接下來就可以對頁面進行爬取,獲取頁面中的文章標題與文章鏈接,以及文章的時間,對網頁的信息進行分析發現網頁的所有信息都保存在’app_msg_list’這個字段中,所以對這個字段中的數據進行提取。
代碼如下:
獲取到的數據包存在df中,這里的數據還不是微信公眾號的最新文章數據,而是微信公眾號這最近一天發出的文章數據。所以還需要對發文的時間進行篩選。注意到這里的時間格式為時間戳,所以需要對時間數據進行轉換
轉換代碼如下:
def time_s(df): def transfer_time(s): #時間處理 aa = time.ctime(s) bb = aa.split(' ') cc = (bb[-1]+"-"+bb[1]+"-"+bb[-3]).replace('Jan','1').replace('Feb','2').replace('Mar','3'). \ replace('Apr','4').replace('May','5').replace('Jun','6').replace('Jul','7').replace('Aug','8') \ .replace('Sep','9').replace('Oct','10').replace('Nov','11').replace('Dec','12') dd = datetime.datetime.strptime(cc,'%Y-%m-%d').date() return dd ti=[] hd=[] for i in range(0,len(df['time'])): timestap= transfer_time(df['time'][i]) ti.append(timestap) #print(ti) d= ti[i] + datetime.timedelta(weeks=0, days=0, hours=0, minutes=0, seconds=0, milliseconds=0, microseconds=0, ) #dc = d.strftime("%Y-%m-%d") hd.append(d) df['time']=hd
這樣就可以把微信公眾號的時間戳數據轉換為時間數據,之后,根據當前天的日期對數據集中的內容進行提取與存儲就OK啦
dat=df[df['time'] == datetime.date.today() + datetime.timedelta(days= -1)] #自動獲取昨天日期,將-1改為-2,則為前天的日期,以此類推 ##改自動化 path = 'C:/Users/gpower/Desktop/work/行業信息/' #根據自己電腦位置更改 import re filename=path+"微信公眾號采集" + re.sub(r'[^0-9]','',datetime.datetime.now().strftime("%Y-%m-%d")) + '.csv' # 對文件進行命名,以“微信公眾號采集+當前日期”命名 dat.to_csv(filename,encoding='utf_8_sig') print("保存成功")
“怎么用python自動獲取微信公眾號最新文章”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。