校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > Pytorch實現全連接層的操作

Pytorch實現全連接層的操作

熱門標簽:陜西金融外呼系統 唐山智能外呼系統一般多少錢 白銀外呼系統 公司電話機器人 激戰2地圖標注 海南400電話如何申請 騰訊外呼線路 哈爾濱ai外呼系統定制 廣告地圖標注app

全連接神經網絡(FC)

全連接神經網絡是一種最基本的神經網絡結構,英文為Full Connection,所以一般簡稱FC。

FC的準則很簡單:神經網絡中除輸入層之外的每個節點都和上一層的所有節點有連接。

以上一次的MNIST為例

import torch
import torch.utils.data
from torch import optim
from torchvision import datasets
from torchvision.transforms import transforms
import torch.nn.functional as F
batch_size = 200
learning_rate = 0.001
epochs = 20
train_loader = torch.utils.data.DataLoader(
    datasets.MNIST('mnistdata', train=True, download=False,
                   transform=transforms.Compose([
                       transforms.ToTensor(),
                       transforms.Normalize((0.1307,), (0.3081,))
                   ])),
    batch_size=batch_size, shuffle=True)
test_loader = torch.utils.data.DataLoader(
    datasets.MNIST('mnistdata', train=False, download=False,
                   transform=transforms.Compose([
                       transforms.ToTensor(),
                       transforms.Normalize((0.1307,), (0.3081,))
                   ])),
    batch_size=batch_size, shuffle=True)
w1, b1 = torch.randn(200, 784, requires_grad=True), torch.zeros(200, requires_grad=True)
w2, b2 = torch.randn(200, 200, requires_grad=True), torch.zeros(200, requires_grad=True)
w3, b3 = torch.randn(10, 200, requires_grad=True), torch.zeros(10, requires_grad=True)
torch.nn.init.kaiming_normal_(w1)
torch.nn.init.kaiming_normal_(w2)
torch.nn.init.kaiming_normal_(w3)
def forward(x):
    x = x@w1.t() + b1
    x = F.relu(x)
    x = x@w2.t() + b2
    x = F.relu(x)
    x = x@w3.t() + b3
    x = F.relu(x)
    return x
optimizer = optim.Adam([w1, b1, w2, b2, w3, b3], lr=learning_rate)
criteon = torch.nn.CrossEntropyLoss()
for epoch in range(epochs):
    for batch_idx, (data, target) in enumerate(train_loader):
        data = data.view(-1, 28*28)
        logits = forward(data)
        loss = criteon(logits, target)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        if batch_idx % 100 == 0:
            print('Train Epoch : {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(
                epoch, batch_idx*len(data), len(train_loader.dataset),
                100.*batch_idx/len(train_loader), loss.item()
            ))
    test_loss = 0
    correct = 0
    for data, target in test_loader:
        data = data.view(-1, 28*28)
        logits = forward(data)
        test_loss += criteon(logits, target).item()
        pred = logits.data.max(1)[1]
        correct += pred.eq(target.data).sum()
    test_loss /= len(test_loader.dataset)
    print('\nTest set : Averge loss: {:.4f}, Accurancy: {}/{}({:.3f}%)'.format(
        test_loss, correct, len(test_loader.dataset),
        100.*correct/len(test_loader.dataset)
        ))

我們將每個w和b都進行了定義,并且自己寫了一個forward函數。如果我們采用了全連接層,那么整個代碼也會更加簡介明了。

首先,我們定義自己的網絡結構的類:

class MLP(nn.Module):
    def __init__(self):
        super(MLP, self).__init__()
        self.model = nn.Sequential(
            nn.Linear(784, 200),
            nn.LeakyReLU(inplace=True),
            nn.Linear(200, 200),
            nn.LeakyReLU(inplace=True),
            nn.Linear(200, 10),
            nn.LeakyReLU(inplace=True)
        )
    def forward(self, x):
        x = self.model(x)
        return x

它繼承于nn.Moudle,并且自己定義里整個網絡結構。

其中inplace的作用是直接復用存儲空間,減少新開辟存儲空間。

除此之外,它可以直接進行運算,不需要手動定義參數和寫出運算語句,更加簡便。

同時我們還可以發現,它自動完成了初試化,不需要像之前一樣再手動寫一個初始化了。

區分nn.Relu和F.relu()

前者是一個類的接口,后者是一個函數式接口。

前者都是大寫的,并且調用的的時候需要先實例化才能使用,而后者是小寫的可以直接使用。

最重要的是后者的自由度更高,更適合做一些自己定義的操作。

完整代碼

import torch
import torch.utils.data
from torch import optim, nn
from torchvision import datasets
from torchvision.transforms import transforms
import torch.nn.functional as F
batch_size = 200
learning_rate = 0.001
epochs = 20
train_loader = torch.utils.data.DataLoader(
    datasets.MNIST('mnistdata', train=True, download=False,
                   transform=transforms.Compose([
                       transforms.ToTensor(),
                       transforms.Normalize((0.1307,), (0.3081,))
                   ])),
    batch_size=batch_size, shuffle=True)
test_loader = torch.utils.data.DataLoader(
    datasets.MNIST('mnistdata', train=False, download=False,
                   transform=transforms.Compose([
                       transforms.ToTensor(),
                       transforms.Normalize((0.1307,), (0.3081,))
                   ])),
    batch_size=batch_size, shuffle=True)
class MLP(nn.Module):
    def __init__(self):
        super(MLP, self).__init__()
        self.model = nn.Sequential(
            nn.Linear(784, 200),
            nn.LeakyReLU(inplace=True),
            nn.Linear(200, 200),
            nn.LeakyReLU(inplace=True),
            nn.Linear(200, 10),
            nn.LeakyReLU(inplace=True)
        )
    def forward(self, x):
        x = self.model(x)
        return x
device = torch.device('cuda:0')
net = MLP().to(device)
optimizer = optim.Adam(net.parameters(), lr=learning_rate)
criteon = nn.CrossEntropyLoss().to(device)
for epoch in range(epochs):
    for batch_idx, (data, target) in enumerate(train_loader):
        data = data.view(-1, 28*28)
        data, target = data.to(device), target.to(device)
        logits = net(data)
        loss = criteon(logits, target)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        if batch_idx % 100 == 0:
            print('Train Epoch : {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(
                epoch, batch_idx*len(data), len(train_loader.dataset),
                100.*batch_idx/len(train_loader), loss.item()
            ))
    test_loss = 0
    correct = 0
    for data, target in test_loader:
        data = data.view(-1, 28*28)
        data, target = data.to(device), target.to(device)
        logits = net(data)
        test_loss += criteon(logits, target).item()
        pred = logits.data.max(1)[1]
        correct += pred.eq(target.data).sum()
    test_loss /= len(test_loader.dataset)
    print('\nTest set : Averge loss: {:.4f}, Accurancy: {}/{}({:.3f}%)'.format(
        test_loss, correct, len(test_loader.dataset),
        100.*correct/len(test_loader.dataset)
        ))

補充:pytorch 實現一個隱層的全連接神經網絡

torch.nn 實現 模型的定義,網絡層的定義,損失函數的定義。

import torch
# N is batch size; D_in is input dimension;
# H is hidden dimension; D_out is output dimension.
N, D_in, H, D_out = 64, 1000, 100, 10
# Create random Tensors to hold inputs and outputs
x = torch.randn(N, D_in)
y = torch.randn(N, D_out)
# Use the nn package to define our model as a sequence of layers. nn.Sequential
# is a Module which contains other Modules, and applies them in sequence to
# produce its output. Each Linear Module computes output from input using a
# linear function, and holds internal Tensors for its weight and bias.
model = torch.nn.Sequential(
    torch.nn.Linear(D_in, H),
    torch.nn.ReLU(),
    torch.nn.Linear(H, D_out),
)
# The nn package also contains definitions of popular loss functions; in this
# case we will use Mean Squared Error (MSE) as our loss function.
loss_fn = torch.nn.MSELoss(reduction='sum')
learning_rate = 1e-4
for t in range(500):
    # Forward pass: compute predicted y by passing x to the model. Module objects
    # override the __call__ operator so you can call them like functions. When
    # doing so you pass a Tensor of input data to the Module and it produces
    # a Tensor of output data.
    y_pred = model(x)
    # Compute and print loss. We pass Tensors containing the predicted and true
    # values of y, and the loss function returns a Tensor containing the
    # loss.
    loss = loss_fn(y_pred, y)
    print(t, loss.item())
    # Zero the gradients before running the backward pass.
    model.zero_grad()
    # Backward pass: compute gradient of the loss with respect to all the learnable
    # parameters of the model. Internally, the parameters of each Module are stored
    # in Tensors with requires_grad=True, so this call will compute gradients for
    # all learnable parameters in the model.
    loss.backward()
    # Update the weights using gradient descent. Each parameter is a Tensor, so
    # we can access its gradients like we did before.
    with torch.no_grad():
        for param in model.parameters():
            param -= learning_rate * param.grad

上面,我們使用parem= -= learning_rate* param.grad 手動更新參數。

使用torch.optim 自動優化參數。optim這個package提供了各種不同的模型優化方法,包括SGD+momentum, RMSProp, Adam等等。

optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)
for t in range(500):
    y_pred = model(x)
    loss = loss_fn(y_pred, y)
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • pytorch_detach 切斷網絡反傳方式
  • pytorch 禁止/允許計算局部梯度的操作
  • 如何利用Pytorch計算三角函數
  • 聊聊PyTorch中eval和no_grad的關系
  • Pytorch實現圖像識別之數字識別(附詳細注釋)
  • pytorch 優化器(optim)不同參數組,不同學習率設置的操作
  • PyTorch 如何將CIFAR100數據按類標歸類保存
  • PyTorch的Debug指南
  • Python深度學習之使用Pytorch搭建ShuffleNetv2
  • win10系統配置GPU版本Pytorch的詳細教程
  • 淺談pytorch中的nn.Sequential(*net[3: 5])是啥意思
  • pytorch visdom安裝開啟及使用方法
  • PyTorch CUDA環境配置及安裝的步驟(圖文教程)
  • pytorch中的nn.ZeroPad2d()零填充函數實例詳解
  • 使用pytorch實現線性回歸
  • pytorch實現線性回歸以及多元回歸
  • PyTorch學習之軟件準備與基本操作總結

標簽:常德 惠州 益陽 鷹潭 黑龍江 黔西 四川 上海

巨人網絡通訊聲明:本文標題《Pytorch實現全連接層的操作》,本文關鍵詞  Pytorch,實現,全,連接,層,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Pytorch實現全連接層的操作》相關的同類信息!
  • 本頁收集關于Pytorch實現全連接層的操作的相關信息資訊供網民參考!
  • 推薦文章
    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    国产在线播放一区三区四| 首页欧美精品中文字幕| 在线电影国产精品| av爱爱亚洲一区| 美女网站视频久久| 亚洲国产一区视频| 亚洲欧洲一区二区在线播放| 日韩免费成人网| 欧美色男人天堂| 6080亚洲精品一区二区| av激情综合网| 国产精品正在播放| 老色鬼精品视频在线观看播放| 亚洲综合免费观看高清完整版| 国产精品无圣光一区二区| 精品国产一区二区三区四区四| 欧美视频一区二区| 日本韩国欧美三级| 91浏览器打开| av不卡在线播放| 国产成人av在线影院| 国产在线看一区| 人妖欧美一区二区| 午夜成人免费电影| 亚洲成人先锋电影| 亚洲成国产人片在线观看| 亚洲激情校园春色| 亚洲精品菠萝久久久久久久| 亚洲欧美日韩在线不卡| 国产精品精品国产色婷婷| 亚洲国产激情av| 中文字幕欧美三区| 国产精品三级在线观看| 欧美国产精品一区二区三区| 国产日韩精品一区| 国产欧美一区二区精品性色 | 26uuu精品一区二区在线观看| 欧美一二三区在线| 日韩一级黄色片| 日韩视频在线观看一区二区| 日韩一区二区三区视频在线| 在线不卡的av| 精品日韩一区二区| 久久久精品影视| 国产精品视频第一区| 亚洲欧美怡红院| 亚洲男人天堂av网| 亚洲福利视频一区| 麻豆国产精品777777在线| 日韩va亚洲va欧美va久久| 美国精品在线观看| 国产电影精品久久禁18| av欧美精品.com| 国产成人免费在线观看不卡| 国产在线看一区| 国产成人av影院| 91麻豆福利精品推荐| 一本久久综合亚洲鲁鲁五月天 | 亚洲欧美国产毛片在线| 亚洲午夜精品在线| 麻豆中文一区二区| 成人深夜在线观看| 欧美丝袜丝交足nylons| 日韩视频在线一区二区| 一区二区三区中文字幕精品精品| 午夜激情一区二区三区| 黄色日韩三级电影| 一本久道中文字幕精品亚洲嫩| 欧美视频在线观看一区二区| 欧美成人艳星乳罩| 亚洲女与黑人做爰| 免费av网站大全久久| av一区二区三区四区| 欧美日韩精品久久久| 久久99精品国产麻豆婷婷| 美女精品自拍一二三四| 国产精品1024| 欧美色图激情小说| 久久女同性恋中文字幕| 一区二区三区日韩在线观看| 黄色成人免费在线| 欧美无砖砖区免费| 久久午夜色播影院免费高清| 亚洲综合成人网| 国产91丝袜在线播放九色| 欧美日韩视频在线观看一区二区三区 | 蜜臀久久99精品久久久久久9| 国产精品99久久久久| 欧美欧美欧美欧美首页| 国产精品久久久久四虎| 麻豆视频观看网址久久| 在线精品亚洲一区二区不卡| 久久先锋资源网| 亚洲永久精品国产| 成人爱爱电影网址| 日韩免费视频线观看| 一区二区三区在线高清| 国产综合久久久久久鬼色 | 精品亚洲国产成人av制服丝袜| 91在线一区二区三区| 久久久精品黄色| 日韩电影免费一区| 91传媒视频在线播放| 日本一区二区动态图| 开心九九激情九九欧美日韩精美视频电影 | 一区二区在线观看免费视频播放| 国产一区二区三区日韩| 欧美妇女性影城| 亚洲精品欧美激情| eeuss鲁一区二区三区| 久久久无码精品亚洲日韩按摩| 亚洲www啪成人一区二区麻豆| 色综合天天综合| 欧美激情一区在线| 国产盗摄女厕一区二区三区| 精品国产a毛片| 日本91福利区| 国产精品欧美久久久久无广告| 麻豆精品视频在线| 3d动漫精品啪啪一区二区竹菊| 亚洲国产精品自拍| 欧美图片一区二区三区| 一区二区三区欧美| 在线观看91视频| 一区二区三区四区高清精品免费观看 | 一个色综合av| 一本大道久久a久久精二百| 亚洲三级在线免费| 一本一道综合狠狠老| 亚洲精品免费在线观看| 在线视频欧美区| 亚洲二区在线观看| 欧美日韩精品专区| 日日摸夜夜添夜夜添精品视频| 69堂精品视频| 麻豆精品视频在线| 26uuu另类欧美| 丁香婷婷深情五月亚洲| 中文字幕一区二区日韩精品绯色| 99久久99久久精品免费观看| 亚洲伦在线观看| 欧美视频在线观看一区二区| 三级欧美在线一区| 日韩欧美www| 国产高清不卡二三区| 国产精品久久久久久久第一福利| 99精品欧美一区二区三区小说| 一区二区在线观看视频在线观看| 欧美日韩一区二区三区在线看| 青青草97国产精品免费观看无弹窗版| 日韩免费观看高清完整版| 国产精品1区2区| 中文字幕一区二区视频| 欧美亚洲一区二区在线观看| 日韩vs国产vs欧美| 久久久亚洲午夜电影| 91亚洲国产成人精品一区二区三| 亚洲一区欧美一区| 精品久久一二三区| 成人看片黄a免费看在线| 亚洲人成网站色在线观看| 欧美挠脚心视频网站| 国产麻豆精品95视频| 亚洲女女做受ⅹxx高潮| 91精品国产入口| 国产丶欧美丶日本不卡视频| 亚洲自拍与偷拍| 精品精品国产高清a毛片牛牛| 99麻豆久久久国产精品免费优播| 亚洲一区二区偷拍精品| 精品国产乱码久久久久久浪潮| 波多野结衣欧美| 日韩成人伦理电影在线观看| 国产精品久久午夜夜伦鲁鲁| 欧美精品v国产精品v日韩精品| 高清国产午夜精品久久久久久| 亚洲国产视频a| 欧美国产精品劲爆| 欧美一区二区三区免费大片| 成人精品免费网站| 蜜臀av性久久久久蜜臀av麻豆 | 亚洲视频一二三区| 日韩欧美国产一区二区在线播放| 91麻豆.com| 国产一区二区三区美女| 亚洲高清久久久| 亚洲国产岛国毛片在线| 欧美一卡二卡在线| 91在线观看美女| 国产一区二区三区最好精华液| 国产在线视视频有精品| 亚洲午夜久久久久| 国产精品久久久久久久裸模| 欧美mv日韩mv亚洲| 欧美日韩高清一区二区三区| 91在线精品一区二区三区| 国产一区二区三区在线看麻豆| 婷婷中文字幕综合| 一区二区三区精品| 国产精品国产成人国产三级|