欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Pytorch+PyG實現(xiàn)EdgeCNN過程示例詳解

 更新時間:2023年04月21日 09:46:01   作者:實力  
這篇文章主要為大家介紹了Pytorch+PyG實現(xiàn)EdgeCNN過程示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪

1.EdgeCNN簡介

EdgeCNN是一種用于圖像點云處理的卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)模型。與傳統(tǒng)的CNN僅能處理圖片二維數(shù)據(jù)不同,EdgeCNN可以對三維點云中每個點周圍的局部鄰域進行操作,并適用于物體識別、深度估計、自動駕駛等多項任務。

2. 實現(xiàn)步驟

2.1 數(shù)據(jù)準備

在本實驗中,我們使用了一個包含4萬個點云的數(shù)據(jù)集ModelNet10,作為示例。與其它標準圖像數(shù)據(jù)集不同的是,這個數(shù)據(jù)集中圖形的構成量非常大,而且各圖之間結構差異很大,因此需要進行大量的預處理工作。

# 導入模型數(shù)據(jù)集
from torch_geometric.datasets import ModelNet
# 加載ModelNet數(shù)據(jù)集
dataset = ModelNet(root='./modelnet', name='10')
data = dataset[0]
# 定義超級參數(shù)
num_points = 1024
batch_size = 32
train_dataset_size = 8000
# 將數(shù)據(jù)集分割成訓練、驗證及測試三個數(shù)據(jù)集
train_dataset = data[0:train_dataset_size]
val_dataset = data[train_dataset_size: 9000]
test_dataset = data[9000:]
# 定義數(shù)據(jù)加載批處理器
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
val_loader = DataLoader(val_dataset, batch_size=batch_size, shuffle=False)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)

通過上述代碼,我們先是導入ModelNet數(shù)據(jù)集并將其分割成訓練、驗證及測試三個數(shù)據(jù)集,并創(chuàng)建了數(shù)據(jù)加載批處理器,以便于在訓練過程中對這些數(shù)據(jù)進行有效的處理。

2.2 實現(xiàn)模型

在定義EdgeCNN模型時,我們需要根據(jù)圖像點云經(jīng)常使用的架構定義網(wǎng)絡結構。同時,在實現(xiàn)卷積操作時應引入相應的鄰域信息,來使得網(wǎng)絡能夠學習到系統(tǒng)中附近點之間的關系。

from torch.nn import Sequential as Seq, Linear as Lin, ReLU
from torch_geometric.nn import EdgeConv, global_max_pool
class EdgeCNN(torch.nn.Module):
    def __init__(self, dataset):
        super(EdgeCNN, self).__init__()
        # 定義基礎參數(shù)
        self.input_dim = dataset.num_features
        self.output_dim = dataset.num_classes
        self.num_points = num_points
        # 定義模型結構
        self.conv1 = EdgeConv(Seq(Lin(self.input_dim, 32), ReLU()))
        self.conv2 = EdgeConv(Seq(Lin(32, 64), ReLU()))
        self.conv3 = EdgeConv(Seq(Lin(64, 128), ReLU()))
        self.conv4 = EdgeConv(Seq(Lin(128, 256), ReLU()))
        self.fc1 = torch.nn.Linear(256, 1024)
        self.fc2 = torch.nn.Linear(1024, self.output_dim)
    def forward(self, pos, batch):
        # 構造圖
        edge_index = radius_graph(pos, r=0.6, batch=batch, loop=False)
        # 第一層CNN模型的卷積 + 池化處理
        x = F.relu(self.conv1(x=pos, edge_index=edge_index))
        x = global_max_pool(x, batch)
        # 第二層CNN模型的卷積 + 池化處理
        edge_index = radius_graph(x, r=0.9, batch=batch, loop=False)
        x = F.relu(self.conv2(x=x, edge_index=edge_index))
        x = global_max_pool(x, batch)
        # 第三層CNN模型的卷積 + 池化處理
        edge_index = radius_graph(x, r=1.2, batch=batch, loop=False)
        x = F.relu(self.conv3(x=x, edge_index=edge_index))
        x = global_max_pool(x, batch)
        # 第四層CNN模型的卷積 + 池化處理
        edge_index = radius_graph(x, r=1.5, batch=batch, loop=False)
        x = F.relu(self.conv4(x=x, edge_index=edge_index))
        # 定義全連接網(wǎng)絡
        x = global_max_pool(x, batch)
        x = F.relu(self.fc1(x))
        x = self.fc2(x)
        return F.log_softmax(x, dim=-1)

在上述代碼中,實現(xiàn)了基于EdgeCNN的模型的各個卷積層和全連接層,并使用radius_graph等函數(shù)將局部區(qū)域問題歸約到定義的卷積核檢測范圍之內,以便更好地對點進行分析和特征提取。最后結合全連接層輸出一個維度為類別數(shù)的向量,并通過softmax函數(shù)來計算損失。

2.3 模型訓練

在定義好EdgeCNN網(wǎng)絡結構之后,我們還需要指定合適的優(yōu)化器、損失函數(shù),并控制訓練輪數(shù)、批大小與學習率等超參數(shù)。同時也需要記錄大量日志信息,方便后期跟蹤及管理。

# 定義訓練計劃,包括損失函數(shù)、優(yōu)化器及迭代次數(shù)等
train_epochs = 50
learning_rate = 0.01
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(edge_cnn.parameters(), lr=learning_rate)
losses_per_epoch = []
accuracies_per_epoch = []
for epoch in range(train_epochs):
    running_loss = 0.0
    running_corrects = 0.0
    count = 0.0
    for samples in train_loader:
        optimizer.zero_grad()
        pos, batch, label = samples.pos, samples.batch, samples.y.to(torch.long)
        out = edge_cnn(pos, batch)
        loss = criterion(out, label)
        loss.backward()
        optimizer.step()
        running_loss += loss.item() / len(train_dataset)
        running_corrects += torch.sum(torch.argmax(out, dim=1) == label).item() / len(train_dataset)
        count += 1
    losses_per_epoch.append(running_loss)
    accuracies_per_epoch.append(running_corrects)
    if (epoch + 1) % 5 == 0:
        print("Train Epoch {}/{} Loss {:.4f} Accuracy {:.4f}".format(
            epoch + 1, train_epochs, running_loss, running_corrects))

在訓練過程中,我們遍歷每個batch,通過反向傳播算法進行優(yōu)化,并更新loss及accuracy輸出。同時,為了方便可視化與記錄,需要將訓練過程中的loss和accuracy輸出到相應的容器中,以便后期進行分析和處理。

以上就是Pytorch+PyG實現(xiàn)EdgeCNN過程示例詳解的詳細內容,更多關于Pytorch PyG實現(xiàn)EdgeCNN的資料請關注腳本之家其它相關文章!

相關文章

最新評論