亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

【更新】爬取姓名大全的名字

發布時間:2020-07-12 12:38:19 來源:網絡 閱讀:906 作者:努力的C 欄目:開發技術

接上文,可以不用一個網址一個網址的輸入了,能抓取頁面

http://www.yw11.com/namelist.php

上列出的所有名字大全,不必再像上一個程序一樣一個網址一個網址的輸入了。嘿嘿。


#coding=utf-8
import urllib2
import re
from bs4 import BeautifulSoup
import sys
reload(sys)  
sys.setdefaultencoding('utf-8') 
def getHtml(url):
 	page=urllib2.urlopen(url)
 	html=page.read()
 	return html
def getAllUrl(url):
	html=getHtml(url)
	soup=BeautifulSoup(html,'html.parser')
	ul=soup.find_all('ul',attrs={'class':'e3'})[0]
	a=ul.find_all('a')
	# for i in a:
	# 	urls=i['href']
	# 	print urls
	# print "一共有"+str(len(a))
	return a
url='http://www.yw11.com/namelist.php'
user_agent='Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_4) AppleWebKit/600.7.12 (KHTML, like Gecko) Version/8.0.7 Safari/600.7.12'
headers={"User-Agent":user_agent}
urls=getAllUrl(url)
f=open('name.txt','a')
for index in range(len(urls)):
	lianjie=urls[index]['href']
	mingzi=urls[index].text
	print "正在抓取姓"+mingzi +"的名字......"
	request=urllib2.Request(lianjie,headers=headers)
	html=getHtml(request)
	soup=BeautifulSoup(html,'html.parser')
	divs=soup.find_all('div',attrs={"class":"listbox1_text"})[0]
	ul=divs.find_all('ul')[0]
	lis=ul.find_all('li')
	for index in range(len(lis)):
		name=lis[index].text.lstrip()#左對齊
		f.write(name)
		f.write('\r\n')
	print "抓取了"+(str(index)+1)+"個"+mingzi+"名字"
f.close()
f=open('name.txt','r')
lines=f.readlines()
print "當前一共有"+str(len(lines))
f.close()


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

聂拉木县| 东莞市| 涞源县| 嘉黎县| 九龙坡区| 顺义区| 马关县| 阳新县| 丰顺县| 平阴县| 门头沟区| 黔江区| 顺义区| 阳朔县| 邯郸县| 金堂县| 石景山区| 应城市| 叙永县| 长白| 新泰市| 会理县| 尉犁县| 迭部县| 读书| 游戏| 绥江县| 沙雅县| 兴和县| 阿图什市| 肃北| 长顺县| 衡东县| 青浦区| 临西县| 扶绥县| 永安市| 区。| 临朐县| 罗甸县| 法库县|