亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python jieba中文分詞與詞頻統計的操作案例

發布時間:2021-03-09 13:53:30 來源:億速云 閱讀:237 作者:小新 欄目:開發技術

這篇文章給大家分享的是有關Python jieba中文分詞與詞頻統計的操作案例的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

Python主要用來做什么

Python主要應用于:1、Web開發;2、數據科學研究;3、網絡爬蟲;4、嵌入式應用開發;5、游戲開發;6、桌面應用開發。

直接看代碼吧:

#! python3
# -*- coding: utf-8 -*-
import os, codecs
import jieba
from collections import Counter
 
def get_words(txt):
 seg_list = jieba.cut(txt)
 c = Counter()
 for x in seg_list:
  if len(x)>1 and x != '\r\n':
   c[x] += 1
 print('常用詞頻度統計結果')
 for (k,v) in c.most_common(100):
  print('%s%s %s %d' % (' '*(5-len(k)), k, '*'*int(v/3), v))
 
if __name__ == '__main__':
 with codecs.open('19d.txt', 'r', 'utf8') as f:
  txt = f.read()
 get_words(txt)

樣本:十九大報告全文

常用詞頻度統計結果
  發展 ********************************************************************** 212
  中國 ******************************************************** 168
  人民 **************************************************** 157
  建設 ************************************************* 148
 社會主義 ************************************************ 146
  堅持 ******************************************* 130
  國家 ****************************** 90
  全面 ***************************** 88
  制度 *************************** 83
  實現 *************************** 83
  推進 *************************** 81
  政治 ************************** 80
  社會 ************************** 80
  特色 ************************** 79
  加強 *********************** 71
  體系 ********************** 68
  文化 ********************** 66
  我們 ********************* 64
  時代 ********************* 63
  必須 ******************** 61
  經濟 ******************* 59
  偉大 ******************* 58
  完善 ***************** 51
  我國 **************** 50
  推動 *************** 47
 現代化 *************** 47
  安全 *************** 46
  更加 ************** 44
  民主 ************** 44

補充:jieba讀取txt文檔并進行分詞、詞頻統計,輸出詞云圖

代碼實現

# 庫的引用
import jieba
import matplotlib as mpl
import matplotlib.pyplot as plt
from wordcloud import WordCloud
#定義一個空字符串
final = ""
#文件夾位置
filename = r"D:\python\pra\推薦系統1-500.txt"
 
#打開文件夾,讀取內容,并進行分詞
with open(filename,'r',encoding = 'utf-8') as f:
  for line in f.readlines():
    word = jieba.cut(line)
    for i in word:
      final = final + i +" "

運行結果

Python jieba中文分詞與詞頻統計的操作案例

# 圖云打印
word_pic = WordCloud(font_path = r'C:\Windows\Fonts\simkai.ttf',width = 2000,height = 1000).generate(final)
plt.imshow(word_pic)
#去掉坐標軸
plt.axis('off')
#保存圖片到相應文件夾
plt.savefig(r'D:\python\pra\6.png')

圖云輸出圖

Python jieba中文分詞與詞頻統計的操作案例

感謝各位的閱讀!關于“Python jieba中文分詞與詞頻統計的操作案例”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

田林县| 鹰潭市| 武山县| 电白县| 龙胜| 马山县| 万山特区| 象州县| 武威市| 和平县| 册亨县| 中方县| 门源| 黑龙江省| 鞍山市| 惠安县| 汶川县| 洮南市| 班戈县| 乐亭县| 庆元县| 南昌县| 顺昌县| 昭平县| 社旗县| 福安市| 峡江县| 通辽市| 九龙城区| 台东市| 特克斯县| 且末县| 新龙县| 海盐县| 高尔夫| 东方市| 崇义县| 富蕴县| 潜山县| 山丹县| 邳州市|