亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python jieba庫的基本使用

瀏覽:7日期:2022-06-26 10:53:55
一、jieba庫概述

jieba是優秀的中文分詞第三方庫

中文文本需要通過分詞獲得單個的詞語 jieba是優秀的中文分詞第三方庫,需要額外安裝 jieba庫提供三種分詞模式,最簡單只需要掌握一個函數 二、jieba庫安裝

pip install jieba三、jieba分詞的原理

jieba分詞依靠中文詞庫

利用一個中文詞庫,確定漢字之間的關聯概率 漢字間概率大的組成詞組,形成分詞結果 四、jieba分詞的3種模式 精確模式:把文本精確地切分開,不存在冗余單詞(最常用) 全模式:把文本中所有可能的詞語都掃描出來,有冗余 搜索引擎模式:在精確模式的基礎上,對長詞再次切分 五、jieba庫常用函數

函數 描述 jieba.lcut(s) 精確模式,返回一個列表類型的分詞結果 jieba.lcut(s,cut_all=True) 全模式,返回一個列表類型的分詞結果,存在冗余 jieba.lcut_for_search(s) 搜索引擎模式,返回一個列表類型的分詞結果,存在冗余 jieba.lcut(s) 精確模式,返回一個列表類型的分詞結果 jieba.add_word(s) 向分詞詞典增加新詞w

例子:

>>> jieba.lcut('中國是一個偉大的國家')[’中國’, ’是’, ’一個’, ’偉大’, ’的’, ’國家’]>>> jieba.lcut('中國是一個偉大的國家', cut_all=True)[’中國’, ’國是’, ’一個’, ’偉大’, ’的’, ’國家’]>>> jieba.lcut_for_search('中華人民共和國是偉大的')[’中華’, ’華人’, ’人民’, ’共和’, ’共和國’, ’中華人民共和國’, ’是’, ’偉大’, ’的’]六、文本詞頻示例

問題分析

英文文本: Hamlet 分析詞頻

https://python123.io/resources/pye/hamlet.txt

中文文本: 《三國演義》 分析人物

https://python123.io/resources/pye/threekingdoms.txt

代碼如下:

def getText(): # 打開 hamlet.txt 這個文件 txt = open('hamlet.txt', 'r').read() # 避免大小寫對詞頻統計的干擾,將所有單詞轉換為小寫 txt = txt.lower() # 將文中出現的所有特殊字符替換為空格 for ch in ’|'#$%^&*()_+-=`~{}[];:<>?/’: txt = txt.replace(ch, ' ') # 返回一個所以后單詞都是小寫的,單詞間以空格間隔的文本 return txthamletTxt = getText()# split() 默認使用空格作為分隔符words = hamletTxt.split()counts = {}for word in words: counts[word] = counts.get(word,0) + 1items = list(counts.items())items.sort(key=lambda x:x[1], reverse=True)for i in range(10): word, count = items[i] print('{0:<10}{1:>5}'.format(word,count))

上面代碼中的

items.sort(key=lambda x:x[1], reverse=True)

是根據單詞出現的次數進行排序,其中使用了 lambda 函數。更多解釋請看:https://www.runoob.com/python/att-list-sort.html

下面使用 jieba 庫來統計《三國演義》中任務出場的次數:

import jiebatxt = open('threekingdoms.txt','r',encoding='utf-8').read()words = jieba.lcut(txt)counts = {}for word in words: if len(word) == 1: continue else: counts[word] = counts.get(word, 0) + 1items = list(counts.items())items.sort(key=lambda x:x[1], reverse=True)for i in range(15): word, count = items[i] print('{0:<10}{1:>5}'.format(word,count))

運行結果:

曹操 953孔明 836將軍 772卻說 656玄德 585關公 510丞相 491二人 469不可 440荊州 425玄德曰 390孔明曰 390不能 384如此 378張飛 358

我們可以看到得出的結果與我們想象的有些差異,比如

“卻說”、“二人”等與人名無關 “諸葛亮”、“孔明”都是同一個人 “孔明”和“孔明曰”分詞不符合我們的需求

所以我們需要對上面代碼進行優化,在詞頻統計的基礎上,面向問題改造我們的程序。

下面是《三國演義》人物數量統計代碼的升級版,升級版中對于某些確定不是人名的詞,即使做了詞頻統計,也要將它刪除掉。使用寄一個集合excludes來接收一些確定不是人名但是又排序比較靠前的單詞列進去。

import jiebatxt = open('threekingdoms.txt','r',encoding='utf-8').read()excludes = {'將軍','卻說','荊州','二人','不可','不能','如此'}words = jieba.lcut(txt)counts = {}for word in words: if len(word) == 1: continue elif word == '諸葛亮' or word == '孔明曰': rword == '孔明' elif word == '關公' or word == '云長': rword == '關羽' elif word == '玄德' or word == '玄德曰': rword == '劉備' elif word == '孟德' or word == '丞相': rword == '曹操' else: rword = word counts[rword] = counts.get(rword, 0) + 1items = list(counts.items())items.sort(key=lambda x:x[1], reverse=True)for i in range(15): word, count = items[i] print('{0:<10}{1:>5}'.format(word,count))

運行結果:

曹操 963孔明 847張飛 366商議 359如何 352主公 340軍士 320呂布 303左右 298軍馬 297趙云 283劉備 282引兵 279次日 278大喜 274

可以看出還是有像“商議”、“如何”等不是人物的詞出現在統計結果,我們將這些詞加入到 excludes 中,多次運行程序后最后得到《三國演義》任務出場順序前20:

七、文本詞頻統計問題舉一反三

應用問題擴展

《紅樓夢》、《西游記》、《水滸傳》...等名著都可以統計它的任務出場次數 政府工作報告、科研論文、新聞報道...中出現的大量的詞頻進行分析,進而找到每篇文章的重點內容 進一步,對文本的詞語或詞匯繪制成詞云,使其展示的效果更加直觀

以上內容資料均來源于中國大學MOOC網-北京理工大學Python語言程序設計課程課程地址:https://www.icourse163.org/course/BIT-268001

以上就是python jieba庫的基本使用的詳細內容,更多關于python jieba庫的資料請關注好吧啦網其它相關文章!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 亚洲欧美日韩一区二区 | 黄色一级视频免费观看 | 美女综合网 | 亚洲精品久久久久午夜 | 国产精品不卡片视频免费观看 | 日韩一级视频 | 国产hd高清freexxxx| 一级毛片在线直接观看 | a级午夜 | 女人牲交一级毛片 | 国产码欧美日韩高清综合一区 | 综合色吧 | 在线精品国内视频秒播 | a级毛片无码免费真人 | 正在播放国产夫妻 | 欧美激情毛片 | 亚洲午夜精品在线 | 黄色一级录像 | 无耻三级在线观看 | 国产美女挤奶水在线观看 | 日韩免费在线播放 | 久久天堂夜夜一本婷婷麻豆 | 中文字幕在亚洲第一在线 | 免费精品视频 | 久草在线视频网站 | 麻豆国产96在线 | 中国 | 一级毛片免费观看不卡视频 | 小明免费 | 黄色片网站在线免费观看 | 麻豆果冻传媒精品二三区 | 久热中文字幕在线观看 | 91av视频在线观看 | 97色涩 | 欧美在线一区视频 | 日韩日b| 国产一区二区三区四区在线污 | 亚洲 欧美 另类 综合 日韩 | 欧美毛片性视频区 | 国产精品视频自拍 | 美国一级毛片免费看成人 | 国产视频999|