校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > pytorch 實現變分自動編碼器的操作

pytorch 實現變分自動編碼器的操作

熱門標簽:電銷機器人的風險 應電話機器人打電話違法嗎 開封語音外呼系統代理商 手機網頁嵌入地圖標注位置 400電話辦理哪種 河北防封卡電銷卡 天津電話機器人公司 地圖標注線上如何操作 開封自動外呼系統怎么收費

本來以為自動編碼器是很簡單的東西,但是也是看了好多資料仍然不太懂它的原理。先把代碼記錄下來,有時間好好研究。

這個例子是用MNIST數據集生成為例子

# -*- coding: utf-8 -*-
"""
Created on Fri Oct 12 11:42:19 2018
@author: www
""" 
import os 
import torch
from torch.autograd import Variable
import torch.nn.functional as F
from torch import nn
from torch.utils.data import DataLoader
 
from torchvision.datasets import MNIST
from torchvision import transforms as tfs
from torchvision.utils import save_image 
im_tfs = tfs.Compose([
    tfs.ToTensor(),
    tfs.Normalize([0.5, 0.5, 0.5], [0.5, 0.5, 0.5]) # 標準化
])
 
train_set = MNIST('E:\data', transform=im_tfs)
train_data = DataLoader(train_set, batch_size=128, shuffle=True)
 
class VAE(nn.Module):
    def __init__(self):
        super(VAE, self).__init__()
 
        self.fc1 = nn.Linear(784, 400)
        self.fc21 = nn.Linear(400, 20) # mean
        self.fc22 = nn.Linear(400, 20) # var
        self.fc3 = nn.Linear(20, 400)
        self.fc4 = nn.Linear(400, 784)
 
    def encode(self, x):
        h1 = F.relu(self.fc1(x))
        return self.fc21(h1), self.fc22(h1)
 
    def reparametrize(self, mu, logvar):
        std = logvar.mul(0.5).exp_()
        eps = torch.FloatTensor(std.size()).normal_()
        if torch.cuda.is_available():
            eps = Variable(eps.cuda())
        else:
            eps = Variable(eps)
        return eps.mul(std).add_(mu)
 
    def decode(self, z):
        h3 = F.relu(self.fc3(z))
        return F.tanh(self.fc4(h3))
 
    def forward(self, x):
        mu, logvar = self.encode(x) # 編碼
        z = self.reparametrize(mu, logvar) # 重新參數化成正態分布
        return self.decode(z), mu, logvar # 解碼,同時輸出均值方差 
 
net = VAE() # 實例化網絡
if torch.cuda.is_available():
    net = net.cuda()
    
x, _ = train_set[0]
x = x.view(x.shape[0], -1)
if torch.cuda.is_available():
    x = x.cuda()
x = Variable(x)
_, mu, var = net(x) 
print(mu)
 
#可以看到,對于輸入,網絡可以輸出隱含變量的均值和方差,這里的均值方差還沒有訓練
 
#下面開始訓練 
reconstruction_function = nn.MSELoss(size_average=False) 
def loss_function(recon_x, x, mu, logvar):
    """
    recon_x: generating images
    x: origin images
    mu: latent mean
    logvar: latent log variance
    """
    MSE = reconstruction_function(recon_x, x)
    # loss = 0.5 * sum(1 + log(sigma^2) - mu^2 - sigma^2)
    KLD_element = mu.pow(2).add_(logvar.exp()).mul_(-1).add_(1).add_(logvar)
    KLD = torch.sum(KLD_element).mul_(-0.5)
    # KL divergence
    return MSE + KLD 
optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
 
def to_img(x):
    '''
    定義一個函數將最后的結果轉換回圖片
    '''
    x = 0.5 * (x + 1.)
    x = x.clamp(0, 1)
    x = x.view(x.shape[0], 1, 28, 28)
    return x
 
for e in range(100):
    for im, _ in train_data:
        im = im.view(im.shape[0], -1)
        im = Variable(im)
        if torch.cuda.is_available():
            im = im.cuda()
        recon_im, mu, logvar = net(im)
        loss = loss_function(recon_im, im, mu, logvar) / im.shape[0] # 將 loss 平均
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
 
    if (e + 1) % 20 == 0:
        print('epoch: {}, Loss: {:.4f}'.format(e + 1, loss.item()))
        save = to_img(recon_im.cpu().data)
        if not os.path.exists('./vae_img'):
            os.mkdir('./vae_img')
        save_image(save, './vae_img/image_{}.png'.format(e + 1))                    
          

補充:PyTorch 深度學習快速入門——變分自動編碼器

變分編碼器是自動編碼器的升級版本,其結構跟自動編碼器是類似的,也由編碼器和解碼器構成。

回憶一下,自動編碼器有個問題,就是并不能任意生成圖片,因為我們沒有辦法自己去構造隱藏向量,需要通過一張圖片輸入編碼我們才知道得到的隱含向量是什么,這時我們就可以通過變分自動編碼器來解決這個問題。

其實原理特別簡單,只需要在編碼過程給它增加一些限制,迫使其生成的隱含向量能夠粗略的遵循一個標準正態分布,這就是其與一般的自動編碼器最大的不同。

這樣我們生成一張新圖片就很簡單了,我們只需要給它一個標準正態分布的隨機隱含向量,這樣通過解碼器就能夠生成我們想要的圖片,而不需要給它一張原始圖片先編碼。

一般來講,我們通過 encoder 得到的隱含向量并不是一個標準的正態分布,為了衡量兩種分布的相似程度,我們使用 KL divergence,利用其來表示隱含向量與標準正態分布之間差異的 loss,另外一個 loss 仍然使用生成圖片與原圖片的均方誤差來表示。

KL divergence 的公式如下

重參數 為了避免計算 KL divergence 中的積分,我們使用重參數的技巧,不是每次產生一個隱含向量,而是生成兩個向量,一個表示均值,一個表示標準差,這里我們默認編碼之后的隱含向量服從一個正態分布的之后,就可以用一個標準正態分布先乘上標準差再加上均值來合成這個正態分布,最后 loss 就是希望這個生成的正態分布能夠符合一個標準正態分布,也就是希望均值為 0,方差為 1

所以最后我們可以將我們的 loss 定義為下面的函數,由均方誤差和 KL divergence 求和得到一個總的 loss

def loss_function(recon_x, x, mu, logvar):
    """
    recon_x: generating images
    x: origin images
    mu: latent mean
    logvar: latent log variance
    """
    MSE = reconstruction_function(recon_x, x)
    # loss = 0.5 * sum(1 + log(sigma^2) - mu^2 - sigma^2)
    KLD_element = mu.pow(2).add_(logvar.exp()).mul_(-1).add_(1).add_(logvar)
    KLD = torch.sum(KLD_element).mul_(-0.5)
    # KL divergence
    return MSE + KLD

用 mnist 數據集來簡單說明一下變分自動編碼器

import os 
import torch
from torch.autograd import Variable
import torch.nn.functional as F
from torch import nn
from torch.utils.data import DataLoader
 
from torchvision.datasets import MNIST
from torchvision import transforms as tfs
from torchvision.utils import save_image
 
im_tfs = tfs.Compose([
    tfs.ToTensor(),
    tfs.Normalize([0.5, 0.5, 0.5], [0.5, 0.5, 0.5]) # 標準化
])
 
train_set = MNIST('./mnist', transform=im_tfs)
train_data = DataLoader(train_set, batch_size=128, shuffle=True)
 
class VAE(nn.Module):
    def __init__(self):
        super(VAE, self).__init__()
 
        self.fc1 = nn.Linear(784, 400)
        self.fc21 = nn.Linear(400, 20) # mean
        self.fc22 = nn.Linear(400, 20) # var
        self.fc3 = nn.Linear(20, 400)
        self.fc4 = nn.Linear(400, 784)
 
    def encode(self, x):
        h1 = F.relu(self.fc1(x))
        return self.fc21(h1), self.fc22(h1)
 
    def reparametrize(self, mu, logvar):
        std = logvar.mul(0.5).exp_()
        eps = torch.FloatTensor(std.size()).normal_()
        if torch.cuda.is_available():
            eps = Variable(eps.cuda())
        else:
            eps = Variable(eps)
        return eps.mul(std).add_(mu)
 
    def decode(self, z):
        h3 = F.relu(self.fc3(z))
        return F.tanh(self.fc4(h3))
 
    def forward(self, x):
        mu, logvar = self.encode(x) # 編碼
        z = self.reparametrize(mu, logvar) # 重新參數化成正態分布
        return self.decode(z), mu, logvar # 解碼,同時輸出均值方差
 
net = VAE() # 實例化網絡
if torch.cuda.is_available():
    net = net.cuda()
x, _ = train_set[0]
x = x.view(x.shape[0], -1)
if torch.cuda.is_available():
    x = x.cuda()
x = Variable(x)
_, mu, var = net(x) 
print(mu) 
 
Variable containing:  Columns 0 to 9  -0.0307 -0.1439 -0.0435  0.3472  0.0368 -0.0339  0.0274 -0.5608  0.0280  0.2742  Columns 10 to 19  -0.6221 -0.0894 -0.0933  0.4241  0.1611  0.3267  0.5755 -0.0237  0.2714 -0.2806 [torch.cuda.FloatTensor of size 1x20 (GPU 0)]

可以看到,對于輸入,網絡可以輸出隱含變量的均值和方差,這里的均值方差還沒有訓練 下面開始訓練

reconstruction_function = nn.MSELoss(size_average=False) 
def loss_function(recon_x, x, mu, logvar):
    """
    recon_x: generating images
    x: origin images
    mu: latent mean
    logvar: latent log variance
    """
    MSE = reconstruction_function(recon_x, x)
    # loss = 0.5 * sum(1 + log(sigma^2) - mu^2 - sigma^2)
    KLD_element = mu.pow(2).add_(logvar.exp()).mul_(-1).add_(1).add_(logvar)
    KLD = torch.sum(KLD_element).mul_(-0.5)
    # KL divergence
    return MSE + KLD 
optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
 
def to_img(x):
    '''
    定義一個函數將最后的結果轉換回圖片
    '''
    x = 0.5 * (x + 1.)
    x = x.clamp(0, 1)
    x = x.view(x.shape[0], 1, 28, 28)
    return x
 
for e in range(100):
    for im, _ in train_data:
        im = im.view(im.shape[0], -1)
        im = Variable(im)
        if torch.cuda.is_available():
            im = im.cuda()
        recon_im, mu, logvar = net(im)
        loss = loss_function(recon_im, im, mu, logvar) / im.shape[0] # 將 loss 平均
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
 
    if (e + 1) % 20 == 0:
        print('epoch: {}, Loss: {:.4f}'.format(e + 1, loss.data[0]))
        save = to_img(recon_im.cpu().data)
        if not os.path.exists('./vae_img'):
            os.mkdir('./vae_img')
        save_image(save, './vae_img/image_{}.png'.format(e + 1))
  
epoch: 20, Loss: 61.5803 epoch: 40, Loss: 62.9573 epoch: 60, Loss: 63.4285 epoch: 80, Loss: 64.7138 epoch: 100, Loss: 63.3343

變分自動編碼器雖然比一般的自動編碼器效果要好,而且也限制了其輸出的編碼 (code) 的概率分布,但是它仍然是通過直接計算生成圖片和原始圖片的均方誤差來生成 loss,這個方式并不好,生成對抗網絡中,我們會講一講這種方式計算 loss 的局限性,然后會介紹一種新的訓練辦法,就是通過生成對抗的訓練方式來訓練網絡而不是直接比較兩張圖片的每個像素點的均方誤差

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 超詳細PyTorch實現手寫數字識別器的示例代碼
  • Pytorch 實現自定義參數層的例子
  • 關于PyTorch 自動求導機制詳解
  • pytorch實現onehot編碼轉為普通label標簽

標簽:宿遷 常州 駐馬店 六盤水 蘭州 山東 成都 江蘇

巨人網絡通訊聲明:本文標題《pytorch 實現變分自動編碼器的操作》,本文關鍵詞  pytorch,實現,變,分,自動,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pytorch 實現變分自動編碼器的操作》相關的同類信息!
  • 本頁收集關于pytorch 實現變分自動編碼器的操作的相關信息資訊供網民參考!
  • 推薦文章
    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    久久婷婷国产综合国色天香| 在线播放中文一区| 视频一区视频二区中文| 日本一区二区不卡视频| 91精品国产综合久久久久久久久久 | 国产激情偷乱视频一区二区三区| 亚洲欧美日韩国产综合在线| 久久综合视频网| 欧美日韩你懂的| www.欧美.com| 国产精品自拍av| 蜜桃精品在线观看| 亚洲午夜三级在线| 一二三区精品视频| 国产精品久久久久影院老司| 久久一夜天堂av一区二区三区| 正在播放亚洲一区| 欧美视频一区二区三区| av福利精品导航| 成人午夜又粗又硬又大| 国产精品资源网| 精品在线一区二区三区| 午夜成人在线视频| 亚洲第一久久影院| 亚洲自拍偷拍欧美| 亚洲欧美视频在线观看| 国产精品网曝门| 久久综合久久综合久久| 在线综合亚洲欧美在线视频| 欧美三级电影一区| 99re亚洲国产精品| 精品国产免费一区二区三区四区 | 精品国产亚洲在线| 日韩三级av在线播放| 欧美日韩国产天堂| 欧美绝品在线观看成人午夜影视| 日本高清不卡aⅴ免费网站| 色综合久久99| 97超碰欧美中文字幕| 成人av午夜电影| www.在线成人| 色综合视频在线观看| 91蜜桃传媒精品久久久一区二区| 成人美女视频在线看| 成人国产亚洲欧美成人综合网| 国产成人精品综合在线观看| 成人综合在线观看| 99这里只有精品| 色婷婷亚洲一区二区三区| 色琪琪一区二区三区亚洲区| 欧美色网站导航| 欧美日韩久久一区| 日韩一区二区在线观看| 日韩一区二区在线播放| 精品国产乱码久久久久久夜甘婷婷 | 色婷婷av一区二区三区gif | 成人午夜私人影院| 色婷婷亚洲精品| 337p亚洲精品色噜噜| 精品久久久久久综合日本欧美| 久久蜜桃av一区二区天堂| 国产日产欧美一区二区三区| 亚洲人成网站精品片在线观看| 亚洲国产美国国产综合一区二区| 日韩av成人高清| 国产伦精品一区二区三区免费迷 | 亚洲日本在线天堂| 亚洲成a人片综合在线| 蜜桃久久久久久| 成人美女在线观看| 欧美日韩精品欧美日韩精品一 | 日韩一级黄色片| 国产日韩三级在线| 亚洲一区二区三区四区在线免费观看| 日韩精品一二三| 高清成人免费视频| 欧美性感一区二区三区| 欧美精品一区二区三区很污很色的 | 国产成人在线观看免费网站| 一本大道久久a久久精二百| 欧美精品在线一区二区三区| 久久久久久久久一| 亚洲最色的网站| 经典三级视频一区| 欧美色综合天天久久综合精品| 久久视频一区二区| 一区二区三区小说| 国产黄色91视频| 欧美亚洲综合网| 久久久精品tv| 婷婷国产在线综合| 成人小视频免费在线观看| 欧美午夜电影在线播放| 国产日韩欧美在线一区| 五月婷婷激情综合网| 91在线小视频| 久久亚洲精华国产精华液| 亚洲成人一区二区| 成人高清视频免费观看| 日韩精品中文字幕一区| 一区二区三区欧美亚洲| 成人一区二区三区视频在线观看| 欧美日本视频在线| 亚洲精品乱码久久久久久黑人| 极品少妇一区二区三区精品视频| 91高清在线观看| 国产精品毛片久久久久久久| 久久精品国产99久久6| 91精彩视频在线| 亚洲国产成人一区二区三区| 男女激情视频一区| 欧美影院一区二区| 亚洲三级免费电影| 国产精品系列在线播放| 欧美一区二视频| 亚洲成人免费在线观看| 91久久线看在观草草青青| 日本一区二区免费在线观看视频 | 国产成人在线看| 久久综合丝袜日本网| 蜜臀av性久久久久av蜜臀妖精| 在线观看视频一区二区 | 国产乱码精品一区二区三| 欧美一卡二卡在线| 亚洲6080在线| av在线播放不卡| 久久精品视频免费| 老司机午夜精品99久久| 欧美绝品在线观看成人午夜影视| 性做久久久久久| 精品视频免费看| 婷婷夜色潮精品综合在线| 欧美日本精品一区二区三区| 午夜精品成人在线视频| 欧美少妇一区二区| 天天亚洲美女在线视频| 欧美精品在线视频| 天天综合色天天综合色h| 91麻豆精品国产91久久久资源速度 | 另类小说一区二区三区| 欧美r级电影在线观看| 九九精品一区二区| 日本一区二区三区高清不卡 | 欧美成人a∨高清免费观看| 久久国产三级精品| 久久久噜噜噜久噜久久综合| 国产盗摄精品一区二区三区在线 | 中文字幕一区二区三区不卡| 99re成人精品视频| 亚洲电影一区二区三区| 6080午夜不卡| 久久成人麻豆午夜电影| 久久久精品中文字幕麻豆发布| 成人免费高清视频在线观看| 中文字幕一区二区三区不卡| 在线精品亚洲一区二区不卡| 午夜欧美一区二区三区在线播放| 91精品国产麻豆国产自产在线| 六月婷婷色综合| 国产精品全国免费观看高清| 色综合久久中文字幕| 奇米亚洲午夜久久精品| 日本一区二区免费在线观看视频 | 免费成人在线观看| 久久女同精品一区二区| av成人动漫在线观看| 亚洲一区二区中文在线| 日韩欧美成人一区二区| zzijzzij亚洲日本少妇熟睡| 亚洲国产一二三| 国产日韩高清在线| 欧美中文字幕一区二区三区| 美女视频黄久久| 中文字幕欧美激情| 777精品伊人久久久久大香线蕉| 国产美女久久久久| 亚洲一区二区三区四区五区中文| 日韩精品在线一区二区| 99在线热播精品免费| 日本成人在线一区| 国产精品久久久久婷婷| 欧美一个色资源| 91在线精品一区二区| 日韩av电影免费观看高清完整版 | 图片区日韩欧美亚洲| 久久久久久电影| 欧美另类videos死尸| 波多野结衣中文字幕一区二区三区| 婷婷综合久久一区二区三区| 国产精品污www在线观看| 欧美日韩电影一区| 99精品视频一区二区三区| 久久99国产精品成人| 亚洲综合久久av| 中文字幕中文在线不卡住| 欧美v亚洲v综合ⅴ国产v| 欧美在线观看一区| 成人性视频网站| 久久99久久精品| 午夜国产不卡在线观看视频|