用Python給文本創(chuàng)立向量空間模型的教程
我們需要開始思考如何將文本集合轉(zhuǎn)化為可量化的東西。最簡(jiǎn)單的方法是考慮詞頻。
我將盡量嘗試不使用NLTK和Scikits-Learn包。我們首先使用Python講解一些基本概念。
基本詞頻
首先,我們回顧一下如何得到每篇文檔中的詞的個(gè)數(shù):一個(gè)詞頻向量。
#examples taken from here: http://stackoverflow.com/a/1750187 mydoclist = ['Julie loves me more than Linda loves me', 'Jane likes me more than Julie loves me', 'He likes basketball more than baseball'] #mydoclist = ['sun sky bright', 'sun sun bright'] from collections import Counter for doc in mydoclist: tf = Counter() for word in doc.split(): tf[word] +=1 print tf.items() [('me', 2), ('Julie', 1), ('loves', 2), ('Linda', 1), ('than', 1), ('more', 1)] [('me', 2), ('Julie', 1), ('likes', 1), ('loves', 1), ('Jane', 1), ('than', 1), ('more', 1)] [('basketball', 1), ('baseball', 1), ('likes', 1), ('He', 1), ('than', 1), ('more', 1)]
這里我們引入了一個(gè)新的Python對(duì)象,被稱作為Counter。該對(duì)象只在Python2.7及更高的版本中有效。Counters非常的靈活,利用它們你可以完成這樣的功能:在一個(gè)循環(huán)中進(jìn)行計(jì)數(shù)。
根據(jù)每篇文檔中詞的個(gè)數(shù),我們進(jìn)行了文檔量化的第一個(gè)嘗試。但對(duì)于那些已經(jīng)學(xué)過向量空間模型中“向量”概念的人來說,第一次嘗試量化的結(jié)果不能進(jìn)行比較。這是因?yàn)樗鼈儾辉谕辉~匯空間中。
我們真正想要的是,每一篇文件的量化結(jié)果都有相同的長(zhǎng)度,而這里的長(zhǎng)度是由我們語(yǔ)料庫(kù)的詞匯總量決定的。
import string #allows for format() def build_lexicon(corpus): lexicon = set() for doc in corpus: lexicon.update([word for word in doc.split()]) return lexicon def tf(term, document): return freq(term, document) def freq(term, document): return document.split().count(term) vocabulary = build_lexicon(mydoclist) doc_term_matrix = [] print 'Our vocabulary vector is [' + ', '.join(list(vocabulary)) + ']' for doc in mydoclist: print 'The doc is "' + doc + '"' tf_vector = [tf(word, doc) for word in vocabulary] tf_vector_string = ', '.join(format(freq, 'd') for freq in tf_vector) print 'The tf vector for Document %d is [%s]' % ((mydoclist.index(doc)+1), tf_vector_string) doc_term_matrix.append(tf_vector) # here's a test: why did I wrap mydoclist.index(doc)+1 in parens? it returns an int... # try it! type(mydoclist.index(doc) + 1) print 'All combined, here is our master document term matrix: ' print doc_term_matrix
我們的詞向量為[me, basketball, Julie, baseball, likes, loves, Jane, Linda, He, than, more]
文檔”Julie loves me more than Linda loves me”的詞頻向量為:[2, 0, 1, 0, 0, 2, 0, 1, 0, 1, 1]
文檔”Jane likes me more than Julie loves me”的詞頻向量為:[2, 0, 1, 0, 1, 1, 1, 0, 0, 1, 1]
文檔”He likes basketball more than baseball”的詞頻向量為:[0, 1, 0, 1, 1, 0, 0, 0, 1, 1, 1]
合在一起,就是我們主文檔的詞矩陣:
[[2, 0, 1, 0, 0, 2, 0, 1, 0, 1, 1], [2, 0, 1, 0, 1, 1, 1, 0, 0, 1, 1], [0, 1, 0, 1, 1, 0, 0, 0, 1, 1, 1]]
好吧,這看起來似乎很合理。如果你有任何機(jī)器學(xué)習(xí)的經(jīng)驗(yàn),你剛剛看到的是建立一個(gè)特征空間?,F(xiàn)在每篇文檔都在相同的特征空間中,這意味著我們可以在同樣維數(shù)的空間中表示整個(gè)語(yǔ)料庫(kù),而不會(huì)丟失太多信息。
標(biāo)準(zhǔn)化向量,使其L2范數(shù)為1
一旦你在同一個(gè)特征空間中得到了數(shù)據(jù),你就可以開始應(yīng)用一些機(jī)器學(xué)習(xí)方法:分類、聚類等等。但實(shí)際上,我們同樣遇到一些問題。單詞并不都包含相同的信息。
如果有些單詞在一個(gè)單一的文件中過于頻繁地出現(xiàn),它們將擾亂我們的分析。我們想要對(duì)每一個(gè)詞頻向量進(jìn)行比例縮放,使其變得更具有代表性。換句話說,我們需要進(jìn)行向量標(biāo)準(zhǔn)化。
我們真的沒有時(shí)間過多地討論關(guān)于這方面的數(shù)學(xué)知識(shí)?,F(xiàn)在僅僅接受這樣一個(gè)事實(shí):我們需要確保每個(gè)向量的L2范數(shù)等于1。這里有一些代碼,展示這是如何實(shí)現(xiàn)的。
import math def l2_normalizer(vec): denom = np.sum([el**2 for el in vec]) return [(el / math.sqrt(denom)) for el in vec] doc_term_matrix_l2 = [] for vec in doc_term_matrix: doc_term_matrix_l2.append(l2_normalizer(vec)) print 'A regular old document term matrix: ' print np.matrix(doc_term_matrix) print '\nA document term matrix with row-wise L2 norms of 1:' print np.matrix(doc_term_matrix_l2) # if you want to check this math, perform the following: # from numpy import linalg as la # la.norm(doc_term_matrix[0]) # la.norm(doc_term_matrix_l2[0])
格式化后的舊的文檔詞矩陣:
[[2 0 1 0 0 2 0 1 0 1 1] [2 0 1 0 1 1 1 0 0 1 1] [0 1 0 1 1 0 0 0 1 1 1]]
按行計(jì)算的L2范數(shù)為1的文檔詞矩陣:
[[ 0.57735027 0. 0.28867513 0. 0. 0.57735027 0. 0.28867513 0. 0.28867513 0.28867513] [ 0.63245553 0. 0.31622777 0. 0.31622777 0.31622777 0.31622777 0. 0. 0.31622777 0.31622777] [ 0. 0.40824829 0. 0.40824829 0.40824829 0. 0. 0. 0.40824829 0.40824829 0.40824829]]
還不錯(cuò),沒有太深究線性代數(shù)的知識(shí),你就可以馬上看到我們按比例縮小了各個(gè)向量,使它們的每一個(gè)元素都在0到1之間,并且不會(huì)丟失太多有價(jià)值的信息。你看到了,一個(gè)計(jì)數(shù)為1的詞在一個(gè)向量中的值和其在另一個(gè)向量中的值不再相同。
為什么我們關(guān)心這種標(biāo)準(zhǔn)化嗎?考慮這種情況,如果你想讓一個(gè)文檔看起來比它實(shí)際上和一個(gè)特定主題更相關(guān),你可能會(huì)通過不斷重復(fù)同一個(gè)詞,來增加它包含到一個(gè)主題的可能性。坦率地說,在某種程度上,我們得到了一個(gè)在該詞的信息價(jià)值上衰減的結(jié)果。所以我們需要按比例縮小那些在一篇文檔中頻繁出現(xiàn)的單詞的值。
IDF頻率加權(quán)
我們現(xiàn)在還沒有得到想要的結(jié)果。就像一篇文檔中的所有單詞不具有相同的價(jià)值一樣,也不是全部文檔中的所有單詞都有價(jià)值。我們嘗試?yán)梅次臋n詞頻(IDF)調(diào)整每一個(gè)單詞權(quán)重。我們看看這包含了些什么:
def numDocsContaining(word, doclist): doccount = 0 for doc in doclist: if freq(word, doc) > 0: doccount +=1 return doccount def idf(word, doclist): n_samples = len(doclist) df = numDocsContaining(word, doclist) return np.log(n_samples / 1+df) my_idf_vector = [idf(word, mydoclist) for word in vocabulary] print 'Our vocabulary vector is [' + ', '.join(list(vocabulary)) + ']' print 'The inverse document frequency vector is [' + ', '.join(format(freq, 'f') for freq in my_idf_vector) + ']'
我們的詞向量為[me, basketball, Julie, baseball, likes, loves, Jane, Linda, He, than, more]
反文檔詞頻向量為[1.609438, 1.386294, 1.609438, 1.386294, 1.609438, 1.609438, 1.386294, 1.386294, 1.386294, 1.791759, 1.791759]
現(xiàn)在,對(duì)于詞匯中的每一個(gè)詞,我們都有一個(gè)常規(guī)意義上的信息值,用于解釋他們?cè)谡麄€(gè)語(yǔ)料庫(kù)中的相對(duì)頻率?;叵胍幌拢@個(gè)信息值是一個(gè)“逆”!即信息值越小的詞,它在語(yǔ)料庫(kù)中出現(xiàn)的越頻繁。
我們快得到想要的結(jié)果了。為了得到TF-IDF加權(quán)詞向量,你必須做一個(gè)簡(jiǎn)單的計(jì)算:tf * idf。
現(xiàn)在讓我們退一步想想?;叵胂戮€性代數(shù):如果你用一個(gè)AxB的向量乘以另一個(gè)AxB的向量,你將得到一個(gè)大小為AxA的向量,或者一個(gè)標(biāo)量。我們不會(huì)那么做,因?yàn)槲覀兿胍氖且粋€(gè)具有相同維度(1 x詞數(shù)量)的詞向量,向量中的每個(gè)元素都已經(jīng)被自己的idf權(quán)重加權(quán)了。我們?nèi)绾卧赑ython中實(shí)現(xiàn)這樣的計(jì)算呢?
在這里我們可以編寫完整的函數(shù),但我們不那么做,我們將要對(duì)numpy做一個(gè)簡(jiǎn)介。
import numpy as np def build_idf_matrix(idf_vector): idf_mat = np.zeros((len(idf_vector), len(idf_vector))) np.fill_diagonal(idf_mat, idf_vector) return idf_mat my_idf_matrix = build_idf_matrix(my_idf_vector) #print my_idf_matrix
太棒了!現(xiàn)在我們已經(jīng)將IDF向量轉(zhuǎn)化為BxB的矩陣了,矩陣的對(duì)角線就是IDF向量。這意味著我們現(xiàn)在可以用反文檔詞頻矩陣乘以每一個(gè)詞頻向量了。接著,為了確保我們也考慮那些過于頻繁地出現(xiàn)在文檔中的詞,我們將對(duì)每篇文檔的向量進(jìn)行標(biāo)準(zhǔn)化,使其L2范數(shù)等于1。
doc_term_matrix_tfidf = [] #performing tf-idf matrix multiplication for tf_vector in doc_term_matrix: doc_term_matrix_tfidf.append(np.dot(tf_vector, my_idf_matrix)) #normalizing doc_term_matrix_tfidf_l2 = [] for tf_vector in doc_term_matrix_tfidf: doc_term_matrix_tfidf_l2.append(l2_normalizer(tf_vector)) print vocabulary print np.matrix(doc_term_matrix_tfidf_l2) # np.matrix() just to make it easier to look at set(['me', 'basketball', 'Julie', 'baseball', 'likes', 'loves', 'Jane', 'Linda', 'He', 'than', 'more']) [[ 0.57211257 0. 0.28605628 0. 0. 0.57211257 0. 0.24639547 0. 0.31846153 0.31846153] [ 0.62558902 0. 0.31279451 0. 0.31279451 0.31279451 0.26942653 0. 0. 0.34822873 0.34822873] [ 0. 0.36063612 0. 0.36063612 0.41868557 0. 0. 0. 0.36063612 0.46611542 0.46611542]]
太棒了!你剛看到了一個(gè)展示如何繁瑣地建立一個(gè)TF-IDF加權(quán)的文檔詞矩陣的例子。
最好的部分來了:你甚至不需要手動(dòng)計(jì)算上述變量,使用scikit-learn即可。
記住,Python中的一切都是一個(gè)對(duì)象,對(duì)象本身占用內(nèi)存,同時(shí)對(duì)象執(zhí)行操作占用時(shí)間。使用scikit-learn包,以確保你不必?fù)?dān)心前面所有步驟的效率問題。
注意:你從TfidfVectorizer/TfidfTransformer得到的值將和我們手動(dòng)計(jì)算的值不同。這是因?yàn)閟cikit-learn使用一個(gè)Tfidf的改進(jìn)版本處理除零的錯(cuò)誤。這里有一個(gè)更深入的討論。
from sklearn.feature_extraction.text import CountVectorizer count_vectorizer = CountVectorizer(min_df=1) term_freq_matrix = count_vectorizer.fit_transform(mydoclist) print "Vocabulary:", count_vectorizer.vocabulary_ from sklearn.feature_extraction.text import TfidfTransformer tfidf = TfidfTransformer(norm="l2") tfidf.fit(term_freq_matrix) tf_idf_matrix = tfidf.transform(term_freq_matrix) print tf_idf_matrix.todense() Vocabulary: {u'me': 8, u'basketball': 1, u'julie': 4, u'baseball': 0, u'likes': 5, u'loves': 7, u'jane': 3, u'linda': 6, u'more': 9, u'than': 10, u'he': 2} [[ 0. 0. 0. 0. 0.28945906 0. 0.38060387 0.57891811 0.57891811 0.22479078 0.22479078] [ 0. 0. 0. 0.41715759 0.3172591 0.3172591 0. 0.3172591 0.6345182 0.24637999 0.24637999] [ 0.48359121 0.48359121 0.48359121 0. 0. 0.36778358 0. 0. 0. 0.28561676 0.28561676]]
實(shí)際上,你可以用一個(gè)函數(shù)完成所有的步驟:TfidfVectorizer
from sklearn.feature_extraction.text import TfidfVectorizer tfidf_vectorizer = TfidfVectorizer(min_df = 1) tfidf_matrix = tfidf_vectorizer.fit_transform(mydoclist) print tfidf_matrix.todense()
[[ 0. 0. 0. 0. 0.28945906 0. 0.38060387 0.57891811 0.57891811 0.22479078 0.22479078] [ 0. 0. 0. 0.41715759 0.3172591 0.3172591 0. 0.3172591 0.6345182 0.24637999 0.24637999] [ 0.48359121 0.48359121 0.48359121 0. 0. 0.36778358 0. 0. 0. 0.28561676 0.28561676]]
并且我們可以利用這個(gè)詞匯空間處理新的觀測(cè)文檔,就像這樣:
new_docs = ['He watches basketball and baseball', 'Julie likes to play basketball', 'Jane loves to play baseball'] new_term_freq_matrix = tfidf_vectorizer.transform(new_docs) print tfidf_vectorizer.vocabulary_ print new_term_freq_matrix.todense()
{u'me': 8, u'basketball': 1, u'julie': 4, u'baseball': 0, u'likes': 5, u'loves': 7, u'jane': 3, u'linda': 6, u'more': 9, u'than': 10, u'he': 2} [[ 0.57735027 0.57735027 0.57735027 0. 0. 0. 0. 0. 0. 0. 0. ] [ 0. 0.68091856 0. 0. 0.51785612 0.51785612 0. 0. 0. 0. 0. ] [ 0.62276601 0. 0. 0.62276601 0. 0. 0. 0.4736296 0. 0. 0. ]]
請(qǐng)注意,在new_term_freq_matrix中并沒有“watches”這樣的單詞。這是因?yàn)槲覀冇糜谟?xùn)練的文檔是mydoclist中的文檔,這個(gè)詞并不會(huì)出現(xiàn)在那個(gè)語(yǔ)料庫(kù)的詞匯中。換句話說,它在我們的詞匯詞典之外。
回到Amazon評(píng)論文本
練習(xí)2
現(xiàn)在是時(shí)候嘗試使用你學(xué)過的東西了。利用TfidfVectorizer,你可以在Amazon評(píng)論文本的字符串列表上嘗試建立一個(gè)TF-IDF加權(quán)文檔詞矩。
import os import csv #os.chdir('/Users/rweiss/Dropbox/presentations/IRiSS2013/text1/fileformats/') with open('amazon/sociology_2010.csv', 'rb') as csvfile: amazon_reader = csv.DictReader(csvfile, delimiter=',') amazon_reviews = [row['review_text'] for row in amazon_reader] #your code here!!!
相關(guān)文章
python實(shí)現(xiàn)分析apache和nginx日志文件并輸出訪客ip列表的方法
這篇文章主要介紹了python實(shí)現(xiàn)分析apache和nginx日志文件并輸出訪客ip列表的方法,涉及Python操作日志文件的技巧,非常具有實(shí)用價(jià)值,需要的朋友可以參考下2015-04-04Python操作數(shù)據(jù)庫(kù)之?dāng)?shù)據(jù)庫(kù)編程接口
這篇文章主要介紹了Python操作數(shù)據(jù)庫(kù)之?dāng)?shù)據(jù)庫(kù)編程接口,文章圍繞主題展開詳細(xì)的內(nèi)容介紹,具有一定的參考價(jià)值,感興趣的小伙伴可以參考一下2022-06-06Python實(shí)現(xiàn)的遠(yuǎn)程文件自動(dòng)打包并下載功能示例
這篇文章主要介紹了Python實(shí)現(xiàn)的遠(yuǎn)程文件自動(dòng)打包并下載功能,結(jié)合實(shí)例形式分析了Python使用spawn()方法執(zhí)行ssh、scp 命令實(shí)現(xiàn)遠(yuǎn)程文件的相關(guān)操作技巧,需要的朋友可以參考下2019-07-07python使用dataframe_image將dataframe表格轉(zhuǎn)為圖片
本文主要介紹了python使用dataframe_image將dataframe表格轉(zhuǎn)為圖片,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2024-01-01詳解Python如何實(shí)現(xiàn)發(fā)送帶附件的電子郵件
SMTP(Simple Mail Transfer Protocol)即簡(jiǎn)單郵件傳輸協(xié)議,它是一組用于由源地址到目的地址傳送郵件的規(guī)則,由它來控制信件的中轉(zhuǎn)方式。本文將利用SMTP實(shí)現(xiàn)發(fā)送帶附件的電子郵件,感興趣的可以了解一下2023-04-04python DataFrame獲取行數(shù)、列數(shù)、索引及第幾行第幾列的值方法
下面小編就為大家分享一篇python DataFrame獲取行數(shù)、列數(shù)、索引及第幾行第幾列的值方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2018-04-04代碼總結(jié)Python2 和 Python3 字符串的區(qū)別
在本篇文章里小編給大家整理的是一篇關(guān)于Python2 和 Python3 字符串的區(qū)別以及實(shí)例代碼,需要的朋友們學(xué)習(xí)下。2020-01-01