Python中Jieba進行詞頻統(tǒng)計與關鍵詞提取
1 詞頻統(tǒng)計
1.1 簡單詞頻統(tǒng)計
1.導入jieba庫并定義文本
import jieba text = "Python是一種高級編程語言,廣泛應用于人工智能、數(shù)據(jù)分析、Web開發(fā)等領域。"
2.對文本進行分詞
words = jieba.cut(text)
這一步會將文本分成若干個詞語,并返回一個生成器對象words,可以使用for循環(huán)遍歷所有的詞語。
3. 統(tǒng)計詞頻
word_count = {}
for word in words:
if len(word) > 1:
word_count[word] = word_count.get(word, 0) + 1這一步通過遍歷所有的詞語,統(tǒng)計每個詞語出現(xiàn)的次數(shù),并保存到一個字典word_count中。在統(tǒng)計詞頻時,可以通過去除停用詞等方式進行優(yōu)化,這里只是簡單地過濾了長度小于2的詞語。
4. 結果輸出
for word, count in word_count.items():
print(word, count)

1.2 加入停用詞
為了更準確地統(tǒng)計詞頻,我們可以在詞頻統(tǒng)計中加入停用詞,以去除一些常見但無實際意義的詞語。具體步驟如下:
定義停用詞列表
import jieba # 停用詞列表 stopwords = ['是', '一種', '等']
對文本進行分詞,并過濾停用詞
text = "Python是一種高級編程語言,廣泛應用于人工智能、數(shù)據(jù)分析、Web開發(fā)等領域。" words = jieba.cut(text) words_filtered = [word for word in words if word not in stopwords and len(word) > 1]
統(tǒng)計詞頻并輸出結果
word_count = {}
for word in words_filtered:
word_count[word] = word_count.get(word, 0) + 1
for word, count in word_count.items():
print(word, count)加入停用詞后,輸出的結果是:

可以看到,被停用的一種這個詞并沒有顯示出來。
2 關鍵詞提取
2.1 關鍵詞提取原理
與對詞語進行單純計數(shù)的詞頻統(tǒng)計不同,jieba提取關鍵字的原理是基于TF-IDF(Term Frequency-Inverse Document Frequency)算法。TF-IDF算法是一種常用的文本特征提取方法,可以衡量一個詞語在文本中的重要程度。
具體來說,TF-IDF算法包含兩個部分:
- Term Frequency(詞頻):指一個詞在文本中出現(xiàn)的次數(shù),通常用一個簡單的統(tǒng)計值表示,例如詞頻、二元詞頻等。詞頻反映了一個詞在文本中的重要程度,但是忽略了這個詞在整個語料庫中的普遍程度。
- Inverse Document Frequency(逆文檔頻率):指一個詞在所有文檔中出現(xiàn)的頻率的倒數(shù),用于衡量一個詞的普遍程度。逆文檔頻率越大,表示一個詞越普遍,重要程度越低;逆文檔頻率越小,表示一個詞越獨特,重要程度越高。
TF-IDF算法通過綜合考慮詞頻和逆文檔頻率,計算出每個詞在文本中的重要程度,從而提取關鍵字。在jieba中,關鍵字提取的具體實現(xiàn)包括以下步驟:
- 對文本進行分詞,得到分詞結果。
- 統(tǒng)計每個詞在文本中出現(xiàn)的次數(shù),計算出詞頻。
- 統(tǒng)計每個詞在所有文檔中出現(xiàn)的次數(shù),計算出逆文檔頻率。
- 綜合考慮詞頻和逆文檔頻率,計算出每個詞在文本中的TF-IDF值。
- 對TF-IDF值進行排序,選取得分最高的若干個詞作為關鍵字。
舉個例子:
F(Term Frequency)指的是某個單詞在一篇文檔中出現(xiàn)的頻率。計算公式如下:
T F = ( 單詞在文檔中出現(xiàn)的次數(shù) ) / ( 文檔中的總單詞數(shù) )
例如,在一篇包含100個單詞的文檔中,某個單詞出現(xiàn)了10次,則該單詞的TF為
10 / 100 = 0.1
IDF(Inverse Document Frequency)指的是在文檔集合中出現(xiàn)某個單詞的文檔數(shù)的倒數(shù)。計算公式如下:
I D F = l o g ( 文檔集合中的文檔總數(shù) / 包含該單詞的文檔數(shù) )
例如,在一個包含1000篇文檔的文檔集合中,某個單詞在100篇文檔中出現(xiàn)過,則該單詞的IDF為 l o g ( 1000 / 100 ) = 1.0
TFIDF是將TF和IDF相乘得到的結果,計算公式如下:
T F I D F = T F ∗ I D F
需要注意的是,TF-IDF算法只考慮了詞語在文本中的出現(xiàn)情況,而忽略了詞語之間的關聯(lián)性。因此,在一些特定的應用場景中,需要使用其他的文本特征提取方法,例如詞向量、主題模型等。
2.2 關鍵詞提取代碼
import jieba.analyse
# 待提取關鍵字的文本
text = "Python是一種高級編程語言,廣泛應用于人工智能、數(shù)據(jù)分析、Web開發(fā)等領域。"
# 使用jieba提取關鍵字
keywords = jieba.analyse.extract_tags(text, topK=5, withWeight=True)
# 輸出關鍵字和對應的權重
for keyword, weight in keywords:
print(keyword, weight)
在這個示例中,我們首先導入了jieba.analyse模塊,然后定義了一個待提取關鍵字的文本text。接著,我們使用jieba.analyse.extract_tags()函數(shù)提取關鍵字,其中topK參數(shù)表示需要提取的關鍵字個數(shù),withWeight參數(shù)表示是否返回關鍵字的權重值。最后,我們遍歷關鍵字列表,輸出每個關鍵字和對應的權重值。
這段函數(shù)的輸出結果為:

可以看到,jieba根據(jù)TF-IDF算法提取出了輸入文本中的若干個關鍵字,并返回了每個關鍵字的權重值。
到此這篇關于Python中Jieba進行詞頻統(tǒng)計與關鍵詞提取的文章就介紹到這了,更多相關Python Jieba詞頻統(tǒng)計與關鍵詞提取內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
Python中cv2.Canny() 函數(shù)使用方法
cv2.Canny() 函數(shù)是 OpenCV 中的邊緣檢測函數(shù)之一,用于檢測圖像的邊緣,它的基本原理是通過計算圖像中每個像素點的梯度值來檢測邊緣,本文通過示例代碼介紹Python中cv2.Canny() 函數(shù)用法,需要的朋友參考下吧2023-07-07
Python實現(xiàn)計算長方形面積(帶參數(shù)函數(shù)demo)
今天小編就為大家分享一篇Python實現(xiàn)計算長方形面積(帶參數(shù)函數(shù)demo),具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-01-01
python基于exchange函數(shù)發(fā)送郵件過程詳解
這篇文章主要介紹了python基于exchange函數(shù)發(fā)送郵件過程詳解,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-11-11

