亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

使用Python怎么實現一個爬蟲刷回復功能

發布時間:2021-04-09 17:21:36 來源:億速云 閱讀:180 作者:Leah 欄目:開發技術

使用Python怎么實現一個爬蟲刷回復功能?針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

'''
獲取cookie
'''
def get_cookie(login_data, url, testurl=None):
  filename = "cookie"
  cookie = cookielib.MozillaCookieJar(filename)
  hadler = urllib2.HTTPCookieProcessor(cookie)
  opener = urllib2.build_opener(hadler)
  post_data = urllib.urlencode(
    {'logname': 123456, "logpass": "123456", "action": "login", })
  url = 'http://*****.me/waplogin.aspx'
  opener.open(url, post_data)
  cookie.save(ignore_discard=True, ignore_expires=True)
  print("獲取成功")
  # print(opener.open(testurl).read())

先要分析該網站登錄地址,登錄需要的參數,如上代碼

獲得cookie之后,分析該論壇的回復參數,該論壇采用的是post提交,需要有帖子id,回復內容等等,分析之后得到如下代碼

代碼先加載文件里面的cookie,然后調用了haha這個笑話api,當然我已經將這個api的json進行了處理,這里只要笑話內容就行。

'''
回復帖子
'''
def post_reply():
  filename = "cookie"
  cookie = cookielib.MozillaCookieJar(filename)
  cookie.load(filename, ignore_discard=True, ignore_expires=True)
  handler = urllib2.HTTPCookieProcessor(cookie)
  opener = urllib2.build_opener(handler)
  num=0
  for i in range(216255, 800000):
    num = num + 1
    huifu = urllib.urlencode(
      {'sendmsg': 0, "content": str(haha(num)), "action": "add", "id": str(i), "classid": 177})
    gradeUrl = 'http://******.me/bbs/book_re.aspx'
    result = opener.open(gradeUrl)
    print result.read()
    print "當前第" + str(num) + "" + "次回帖"
    print("當前帖子id" + str(i))
    sleep(1)

發帖子代碼:

'''
發帖子(普通帖子或者加懸賞分的帖子:并不是懸賞板塊的帖子)
'''
def post_articles(book_title, book_content, classid=177, sendmoney=0):
  filename = "cookie"
  cookie = cookielib.MozillaCookieJar(filename)
  cookie.load(filename, ignore_discard=True, ignore_expires=True)
  handler = urllib2.HTTPCookieProcessor(cookie)
  opener = urllib2.build_opener(handler)
  post_articles = urllib.urlencode(
    {'sendmsg': 0, "book_title": str(book_title), "action": "gomod", "siteid": "1000",
     "book_content": str(book_content), "classid": classid, "sendmoney": sendmoney})
  gradeUrl = 'http://*****.me/bbs/book_view_add.aspx'
  result = opener.open(gradeUrl, post_articles)
  print(result.read())

將這些代碼進行進行調用就可以去刷回復了。

使用Python怎么實現一個爬蟲刷回復功能

關于使用Python怎么實現一個爬蟲刷回復功能問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

绵阳市| 定远县| 边坝县| 任丘市| 三江| 英德市| 南城县| 苗栗市| 金川县| 瓦房店市| 侯马市| 襄樊市| 云南省| 桐城市| 祁东县| 湄潭县| 中超| 龙胜| 永登县| 呼和浩特市| 海宁市| 揭西县| 武夷山市| 定结县| 来凤县| 恩施市| 南城县| 海门市| 太白县| 临武县| 黑山县| 台南县| 峡江县| 府谷县| 廊坊市| 横峰县| 中卫市| 德州市| 甘德县| 西林县| 台湾省|