關(guān)于Pytorch的MLP模塊實(shí)現(xiàn)方式
MLP分類效果一般好于線性分類器,即將特征輸入MLP中再經(jīng)過(guò)softmax來(lái)進(jìn)行分類。
具體實(shí)現(xiàn)為將原先線性分類模塊:
self.classifier = nn.Linear(config.hidden_size, num_labels)
替換為:
self.classifier = MLP(config.hidden_size, num_labels)
并且添加MLP模塊:
class MLP(nn.Module): def __init__(self, input_size, common_size): super(MLP, self).__init__() self.linear = nn.Sequential( nn.Linear(input_size, input_size // 2), nn.ReLU(inplace=True), nn.Linear(input_size // 2, input_size // 4), nn.ReLU(inplace=True), nn.Linear(input_size // 4, common_size) ) def forward(self, x): out = self.linear(x) return out
看一下模塊結(jié)構(gòu):
mlp = MLP(1000,3) print(mlp)
以上這篇關(guān)于Pytorch的MLP模塊實(shí)現(xiàn)方式就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
PyTorch 中的 torch.utils.data 解析(推薦)
這篇文章主要介紹了PyTorch?torch.utils.data.Dataset概述案例詳解,主要介紹對(duì)?torch.utils.data.Dataset?的理解,需要的朋友可以參考下2023-02-02Python實(shí)現(xiàn)8個(gè)概率分布公式的方法詳解
在本文中,我們將介紹一些常見(jiàn)的分布(均勻分布、高斯分布、對(duì)數(shù)正態(tài)分布等)并通過(guò)Python代碼進(jìn)行可視化以直觀地顯示它們,感興趣的可以學(xué)習(xí)一下2022-05-05python實(shí)現(xiàn)微信自動(dòng)回復(fù)功能
這篇文章主要為大家詳細(xì)介紹了使用python實(shí)現(xiàn)微信自動(dòng)回復(fù)功能,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-04-04PyQt5實(shí)現(xiàn)數(shù)據(jù)的增刪改查功能詳解
這篇文章主要為大家介紹了如何使用Python中的PyQt5模塊來(lái)實(shí)現(xiàn)數(shù)據(jù)的增、刪、改、查功能,文中示例代碼講解詳細(xì),感興趣的小伙伴可以了解一下2022-03-03如何使用五行Python代碼輕松實(shí)現(xiàn)批量摳圖
簡(jiǎn)單來(lái)說(shuō),摳圖就是將照片的主體人或物品從圖片中摳出來(lái),以便貼到別處使用,下面這篇文章主要給大家介紹了關(guān)于如何使用五行Python代碼輕松實(shí)現(xiàn)批量摳圖的相關(guān)資料,文中通過(guò)示例代碼介紹的非常詳細(xì),需要的朋友可以參考下2022-04-04