Python深度學(xué)習(xí)之FastText實(shí)現(xiàn)文本分類詳解
FastText是一個(gè)三層的神經(jīng)網(wǎng)絡(luò),輸入層、隱含層和輸出層。
FastText的優(yōu)點(diǎn):
使用淺層的神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了word2vec以及文本分類功能,效果與深層網(wǎng)絡(luò)差不多,節(jié)約資源,且有百倍的速度提升
深度學(xué)習(xí)和機(jī)器學(xué)習(xí)的區(qū)別:
與傳統(tǒng)機(jī)器學(xué)習(xí)不同,深度學(xué)習(xí)既提供特征提取功能,也可以完成分類的功能。機(jī)器學(xué)習(xí)需要再根據(jù)提取到的特征再進(jìn)行分類。
安裝FastText
使用pip安裝
pip install fasttext
因?yàn)镕astText依賴C++的環(huán)境,安裝的時(shí)候可能會(huì)報(bào)錯(cuò),有的是C++ 11
有的是C++14看報(bào)錯(cuò)里面缺少那個(gè)版本的C++環(huán)境就安裝那個(gè)版本的環(huán)境就可以了
使用FastText進(jìn)行文本分類的一般步驟
數(shù)據(jù)格式的要求:
__label__標(biāo)簽 文本內(nèi)容 或 文本內(nèi)容 __label__標(biāo)簽
__label__標(biāo)簽\t文本內(nèi)容 或 文本內(nèi)容\t__label__標(biāo)簽
文本內(nèi)容和標(biāo)簽之間用\t或空格都可以
目前這幾種形式都支持
數(shù)據(jù)預(yù)處理:
將原數(shù)據(jù)處理為數(shù)據(jù)要求的格式,分詞以后詞于詞之間用空格連接
這個(gè)根據(jù)自己數(shù)據(jù)的情況自己進(jìn)行處理
訓(xùn)練模型
import fasttext model = fasttext.train_supervised('train.csv', lr=1.0, wordNgrams=2, verbose=2, minCount=1, epoch=25, loss="hs") # 訓(xùn)練模型 # train.csv 文件路徑,也可以是txt文件,里面的參數(shù)根據(jù)需要調(diào) """ 訓(xùn)練一個(gè)監(jiān)督模型, 返回一個(gè)模型對(duì)象 input: 訓(xùn)練數(shù)據(jù)文件路徑 lr: 學(xué)習(xí)率 dim: 向量維度 ws: cbow模型時(shí)使用 epoch: 次數(shù) minCount: 詞頻閾值, 小于該值在初始化時(shí)會(huì)過(guò)濾掉 minCountLabel: 類別閾值,類別小于該值初始化時(shí)會(huì)過(guò)濾掉 minn: 構(gòu)造subword時(shí)最小char個(gè)數(shù) maxn: 構(gòu)造subword時(shí)最大char個(gè)數(shù) neg: 負(fù)采樣 wordNgrams: n-gram個(gè)數(shù) loss: 損失函數(shù)類型, softmax, ns: 負(fù)采樣, hs: 分層softmax bucket: 詞擴(kuò)充大小, [A, B]: A語(yǔ)料中包含的詞向量, B不在語(yǔ)料中的詞向量 thread: 線程個(gè)數(shù), 每個(gè)線程處理輸入數(shù)據(jù)的一段, 0號(hào)線程負(fù)責(zé)loss輸出 lrUpdateRate: 學(xué)習(xí)率更新 t: 負(fù)采樣閾值 label: 類別前綴 verbose: ?? pretrainedVectors: 預(yù)訓(xùn)練的詞向量文件路徑, 如果word出現(xiàn)在文件夾中初始化不再隨機(jī) model object """
預(yù)測(cè)數(shù)據(jù)
使用predict
預(yù)測(cè)數(shù)據(jù),預(yù)測(cè)一段文本屬于的類別
model.predict(x) # x文本內(nèi)容 返回的數(shù)據(jù)格式(('__label__4',), array([0.99441689])) # 可能性最大的標(biāo)簽和準(zhǔn)確率
使用test
驗(yàn)證模型的準(zhǔn)確率,傳入的是一個(gè)文件,文件的格式和訓(xùn)練集一樣
返回一個(gè)元組(樣本數(shù),精確率,找回率)
模型的保存
model.save_model("model_cooking.bin") # 文件路徑
模型讀取
fasttext.load_model("model_cooking.bin") # 讀取模型
模型的優(yōu)化
直接使用默認(rèn)參數(shù)去訓(xùn)練模型一般都得不到特別好的結(jié)果,可以通過(guò)一些手段來(lái)優(yōu)化模型。第一種可以采取的手段是去掉語(yǔ)料庫(kù)當(dāng)中的停止詞,對(duì)于英文的語(yǔ)料庫(kù)來(lái)說(shuō),還可以把所有的大寫字母都轉(zhuǎn)化成小寫字母。另一種可以采取的手段是調(diào)整超參數(shù),比如說(shuō)修改學(xué)習(xí)速率、修改epoch等,大家可以參照著fastTest的文檔去進(jìn)行相應(yīng)的調(diào)整,fastText的文檔中介紹了一種更加方便的自動(dòng)調(diào)參方法,只要我們同時(shí)提供訓(xùn)練集和測(cè)試集就可以了,帶來(lái)的精確度提升還是非常顯著的:
model = fasttext.train_supervised(input='train.csv', autotuneValidationFile='test.csv', autotuneDuration=600) """ autotuneValidationFile='test.csv', 測(cè)試集數(shù)據(jù)集 autotuneDuration=600 時(shí)間限制,單位為秒,默認(rèn)為5分鐘 """ # 如果想查看對(duì)應(yīng)的參數(shù),可以使用 對(duì)象.屬性的方式進(jìn)行查看
舉例:
使用FastText進(jìn)行文本分類的基本操作就是這些內(nèi)容,關(guān)于深層次的學(xué)習(xí)大家可以參考
到此這篇關(guān)于Python深度學(xué)習(xí)之FastText實(shí)現(xiàn)文本分類詳解的文章就介紹到這了,更多相關(guān)Python FastText內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Python腳本完成post接口測(cè)試的實(shí)例
今天小編就為大家分享一篇Python腳本完成post接口測(cè)試的實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-12-12從入門到精通:玩轉(zhuǎn)Python?Fire庫(kù)
想快速打造屬于你的Python?GUI應(yīng)用嗎?拋開復(fù)雜的代碼,用Python?Fire庫(kù)就能輕松實(shí)現(xiàn)!本指南將引領(lǐng)你從零起步,駕馭Python?Fire的強(qiáng)大功能,讓編程既簡(jiǎn)單又高效,準(zhǔn)備好了嗎?讓我們開始玩轉(zhuǎn)Python?Fire,開啟你的編程冒險(xiǎn)吧!2024-02-02Python實(shí)現(xiàn)讀取txt文件并畫三維圖簡(jiǎn)單代碼示例
這篇文章主要介紹了Python實(shí)現(xiàn)讀取txt文件并畫三維圖簡(jiǎn)單代碼示例,具有一定借鑒價(jià)值,需要的朋友可以參考下。2017-12-12淺談numpy 函數(shù)里面的axis參數(shù)的含義
這篇文章主要介紹了numpy 函數(shù)里面的axis參數(shù)的含義,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2021-05-05對(duì)tf.reduce_sum tensorflow維度上的操作詳解
今天小編就為大家分享一篇對(duì)tf.reduce_sum tensorflow維度上的操作詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-07-07