您好,登錄后才能下訂單哦!
1.先附上沒有用多線程的包圖網爬蟲的代碼
import requests
from lxml import etree
import os
import time
start_time = time.time()#記錄開始時間
for i in range(1,7):
#1.請求包圖網拿到整體數據
response = requests.get("https://ibaotu.com/shipin/7-0-0-0-0-%s.html" %str(i))
#2.抽取 視頻標題、視頻鏈接
html = etree.HTML(response.text)
tit_list = html.xpath('//span[@class="video-title"]/text()')#獲取視頻標題
src_list = html.xpath('//div[@class="video-play"]/video/@src')#獲取視頻鏈接
for tit,src in zip(tit_list,src_list):
#3.下載視頻
response = requests.get("http:" + src)
#給視頻鏈接頭加上http頭,http快但是不一定安全,https安全但是慢
#4.保存視頻
if os.path.exists("video1") == False:#判斷是否有video這個文件夾
os.mkdir("video1")#沒有的話創建video文件夾
fileName = "video1\\" + tit + ".mp4"#保存在video文件夾下,用自己的標題命名,文件格式是mp4
#有特殊字符的話需要用\來注釋它,\是特殊字符所以這里要用2個\\
print("正在保存視頻文件: " +fileName)#打印出來正在保存哪個文件
with open (fileName,"wb") as f:#將視頻寫入fileName命名的文件中
f.write(response.content)
end_time = time.time()#記錄結束時間
print("耗時%d秒"%(end_time-start_time))#輸出用了多少時間
2.將上述代碼套用多線程,先創建多線程
data_list = []#設置一個全局變量的列表
#創建多線程
class MyThread(threading.Thread):
def init(self, q):
threading.Thread.init(self)
self.q = q
#調用get_index()
def run(self) -> None:
self.get_index()
#拿到網址后獲取所需要的數據并存入全局變量data_list中
def get_index(self):
url = self.q.get()
try:
resp = requests.get(url)# 訪問網址
#將返回的數據轉成lxml格式,之后使用xpath進行抓取
html = etree.HTML(resp.content)
tit_list = html.xpath('//span[@class="video-title"]/text()') # 獲取視頻標題
src_list = html.xpath('//div[@class="video-play"]/video/@src') # 獲取視頻鏈接
for tit, src in zip(tit_list, src_list):
data_dict = {}#設置一個存放數據的字典
data_dict['title'] = tit#往字典里添加視頻標題
data_dict['src'] = src#往字典里添加視頻鏈接
#print(data_dict)
data_list.append(data_dict)#將這個字典添加到全局變量的列表中
except Exception as e:
# 如果訪問超時就打印錯誤信息,并將該條url放入隊列,防止出錯的url沒有爬取
self.q.put(url)
print(e)
3.用隊列queue,queue模塊主要是多線程,保證線程安全使用的
def main():
q = queue.Queue()
for i in range(1,6):
# 將url的參數進行編碼后拼接到url
url = 'https://ibaotu.com/shipin/7-0-0-0-0-%s.html'%str(i)
# 將拼接好的url放入隊列中
q.put(url)
#如果隊列不為空,就繼續爬
while not q.empty():
# 創建3個線程
ts = []
for count in range(1,4):
t = MyThread(q)
ts.append(t)
for t in ts:
t.start()
for t in ts:
t.join()
4.創建存儲方法
#提取data_list的數據并保存
def save_index(data_list):
if data_list:
for i in data_list:
response = requests.get("http:" + i['src'])
#給視頻鏈接頭加上http頭,http快但是不安全,https安全但是慢
#保存視頻
if os.path.exists("video") == False: # 判斷是否有video這個文件夾
os.mkdir("video") # 沒有的話創建video文件夾
fileName = "video\\" + i['title'] + ".mp4" # 保存在video文件夾下,用自己的標題命名,文件格式是mp4
#有特殊字符的話需要用\來注釋它,\是特殊字符所以這里要用2個\\
print("正在保存視頻文件: " + fileName) # 打印出來正在保存哪個文件
with open(fileName, "wb") as f: # 將視頻寫入fileName命名的文件中
f.write(response.content)
5.最后就是調用函數了
if name == 'main':
start_time = time.time()
#啟動爬蟲
main()
save_index(data_list)
end_time = time.time()
print("耗時%d"%(end_time-start_time))
6.附上完整的多線程代碼
import requests
from lxml import etree
import os
import queue
import threading
import time
data_list = []#設置一個全局變量的列表
#創建多線程
class MyThread(threading.Thread):
def init(self, q):
threading.Thread.init(self)
self.q = q
#調用get_index()
def run(self) -> None:
self.get_index()
#拿到網址后獲取所需要的數據并存入全局變量data_list中
def get_index(self):
url = self.q.get()
try:
resp = requests.get(url)# 訪問網址
#將返回的數據轉成lxml格式,之后使用xpath進行抓取
html = etree.HTML(resp.content)
tit_list = html.xpath('//span[@class="video-title"]/text()') # 獲取視頻標題
src_list = html.xpath('//div[@class="video-play"]/video/@src') # 獲取視頻鏈接
for tit, src in zip(tit_list, src_list):
data_dict = {}#設置一個存放數據的字典
data_dict['title'] = tit#往字典里添加視頻標題
data_dict['src'] = src#往字典里添加視頻鏈接
#print(data_dict)
data_list.append(data_dict)#將這個字典添加到全局變量的列表中
except Exception as e:
# 如果訪問超時就打印錯誤信息,并將該條url放入隊列,防止出錯的url沒有爬取
self.q.put(url)
print(e)
def main():
q = queue.Queue()
for i in range(1,7):
# 將url的參數進行編碼后拼接到url
url = 'https://ibaotu.com/shipin/7-0-0-0-0-%s.html'%str(i)
# 將拼接好的url放入隊列中
q.put(url)
#如果隊列不為空,就繼續爬
while not q.empty():
# 創建3個線程
ts = []
for count in range(1,4):
t = MyThread(q)
ts.append(t)
for t in ts:
t.start()
for t in ts:
t.join()
#提取data_list的數據并保存
def save_index(data_list):
if data_list:
for i in data_list:
response = requests.get("http:" + i['src'])
#給視頻鏈接頭加上http頭,http快但是不安全,https安全但是慢
#保存視頻
if os.path.exists("video") == False: # 判斷是否有video這個文件夾
os.mkdir("video") # 沒有的話創建video文件夾
fileName = "video\\" + i['title'] + ".mp4" # 保存在video文件夾下,用自己的標題命名,文件格式是mp4
#有特殊字符的話需要用\來注釋它,\是特殊字符所以這里要用2個\\
print("正在保存視頻文件: " + fileName) # 打印出來正在保存哪個文件
with open(fileName, "wb") as f: # 將視頻寫入fileName命名的文件中
f.write(response.content)
if name == 'main':
start_time = time.time()
#啟動爬蟲
main()
save_index(data_list)
end_time = time.time()
print("耗時%d"%(end_time-start_time))
7.這2個爬蟲我都設置了開始時間和結束時間,可以用(結束時間-開始時間)來計算比較兩者的效率。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。