校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > tensorflow2 自定義損失函數使用的隱藏坑

tensorflow2 自定義損失函數使用的隱藏坑

熱門標簽:宿州電話機器人哪家好 西青語音電銷機器人哪家好 成都呼叫中心外呼系統哪家強 旅游廁所地圖標注怎么弄 南昌地圖標注 電梯新時達系統外呼顯示e 地圖標注與注銷 無錫智能外呼系統好用嗎 百應電話機器人總部

Keras的核心原則是逐步揭示復雜性,可以在保持相應的高級便利性的同時,對操作細節進行更多控制。當我們要自定義fit中的訓練算法時,可以重寫模型中的train_step方法,然后調用fit來訓練模型。

這里以tensorflow2官網中的例子來說明:

import numpy as np
import tensorflow as tf
from tensorflow import keras
x = np.random.random((1000, 32))
y = np.random.random((1000, 1))
class CustomModel(keras.Model):
    tf.random.set_seed(100)
    def train_step(self, data):
        # Unpack the data. Its structure depends on your model and
        # on what you pass to `fit()`.
        x, y = data

        with tf.GradientTape() as tape:
            y_pred = self(x, training=True)  # Forward pass
            # Compute the loss value
            # (the loss function is configured in `compile()`)
            loss = self.compiled_loss(y, y_pred, regularization_losses=self.losses)

        # Compute gradients
        trainable_vars = self.trainable_variables
        gradients = tape.gradient(loss, trainable_vars)
        # Update weights
        self.optimizer.apply_gradients(zip(gradients, trainable_vars))
        # Update metrics (includes the metric that tracks the loss)
        self.compiled_metrics.update_state(y, y_pred)
        # Return a dict mapping metric names to current value
        return {m.name: m.result() for m in self.metrics}
    


# Construct and compile an instance of CustomModel
inputs = keras.Input(shape=(32,))
outputs = keras.layers.Dense(1)(inputs)
model = CustomModel(inputs, outputs)
model.compile(optimizer="adam", loss=tf.losses.MSE, metrics=["mae"])

# Just use `fit` as usual

model.fit(x, y, epochs=1, shuffle=False)
32/32 [==============================] - 0s 1ms/step - loss: 0.2783 - mae: 0.4257

 
tensorflow.python.keras.callbacks.History at 0x7ff7edf6dfd0>

這里的loss是tensorflow庫中實現了的損失函數,如果想自定義損失函數,然后將損失函數傳入model.compile中,能正常按我們預想的work嗎?

答案竟然是否定的,而且沒有錯誤提示,只是loss計算不會符合我們的預期。

def custom_mse(y_true, y_pred):
    return tf.reduce_mean((y_true - y_pred)**2, axis=-1)
a_true = tf.constant([1., 1.5, 1.2])
a_pred = tf.constant([1., 2, 1.5])
custom_mse(a_true, a_pred)
tf.Tensor: shape=(), dtype=float32, numpy=0.11333332>
tf.losses.MSE(a_true, a_pred)
tf.Tensor: shape=(), dtype=float32, numpy=0.11333332>

以上結果證實了我們自定義loss的正確性,下面我們直接將自定義的loss置入compile中的loss參數中,看看會發生什么。

my_model = CustomModel(inputs, outputs)
my_model.compile(optimizer="adam", loss=custom_mse, metrics=["mae"])
my_model.fit(x, y, epochs=1, shuffle=False)
32/32 [==============================] - 0s 820us/step - loss: 0.1628 - mae: 0.3257

tensorflow.python.keras.callbacks.History at 0x7ff7edeb7810>

我們看到,這里的loss與我們與標準的tf.losses.MSE明顯不同。這說明我們自定義的loss以這種方式直接傳遞進model.compile中,是完全錯誤的操作。

正確運用自定義loss的姿勢是什么呢?下面揭曉。

loss_tracker = keras.metrics.Mean(name="loss")
mae_metric = keras.metrics.MeanAbsoluteError(name="mae")

class MyCustomModel(keras.Model):
    tf.random.set_seed(100)
    def train_step(self, data):
        # Unpack the data. Its structure depends on your model and
        # on what you pass to `fit()`.
        x, y = data

        with tf.GradientTape() as tape:
            y_pred = self(x, training=True)  # Forward pass
            # Compute the loss value
            # (the loss function is configured in `compile()`)
            loss = custom_mse(y, y_pred)
            # loss += self.losses

        # Compute gradients
        trainable_vars = self.trainable_variables
        gradients = tape.gradient(loss, trainable_vars)
        # Update weights
        self.optimizer.apply_gradients(zip(gradients, trainable_vars))
        
        # Compute our own metrics
        loss_tracker.update_state(loss)
        mae_metric.update_state(y, y_pred)
        return {"loss": loss_tracker.result(), "mae": mae_metric.result()}
    
    @property
    def metrics(self):
        # We list our `Metric` objects here so that `reset_states()` can be
        # called automatically at the start of each epoch
        # or at the start of `evaluate()`.
        # If you don't implement this property, you have to call
        # `reset_states()` yourself at the time of your choosing.
        return [loss_tracker, mae_metric]
    
# Construct and compile an instance of CustomModel
inputs = keras.Input(shape=(32,))
outputs = keras.layers.Dense(1)(inputs)
my_model_beta = MyCustomModel(inputs, outputs)
my_model_beta.compile(optimizer="adam")

# Just use `fit` as usual

my_model_beta.fit(x, y, epochs=1, shuffle=False)
32/32 [==============================] - 0s 960us/step - loss: 0.2783 - mae: 0.4257

tensorflow.python.keras.callbacks.History at 0x7ff7eda3d810>

終于,通過跳過在 compile() 中傳遞損失函數,而在 train_step 中手動完成所有計算內容,我們獲得了與之前默認tf.losses.MSE完全一致的輸出,這才是我們想要的結果。

總結一下,當我們在模型中想用自定義的損失函數,不能直接傳入fit函數,而是需要在train_step中手動傳入,完成計算過程。

到此這篇關于tensorflow2 自定義損失函數使用的隱藏坑的文章就介紹到這了,更多相關tensorflow2 自定義損失函數內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • 一小時學會TensorFlow2之基本操作1實例代碼
  • 詳解TensorFlow2實現前向傳播
  • 詳解TensorFlow2實現線性回歸
  • tensorflow2.0實現復雜神經網絡(多輸入多輸出nn,Resnet)
  • tensorflow2.0教程之Keras快速入門
  • 一小時學會TensorFlow2基本操作之合并分割與統計

標簽:辛集 西安 許昌 濰坊 渭南 贛州 七臺河 雅安

巨人網絡通訊聲明:本文標題《tensorflow2 自定義損失函數使用的隱藏坑》,本文關鍵詞  tensorflow2,自定義,損失,函數,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《tensorflow2 自定義損失函數使用的隱藏坑》相關的同類信息!
  • 本頁收集關于tensorflow2 自定義損失函數使用的隱藏坑的相關信息資訊供網民參考!
  • 推薦文章
    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    国产91在线观看| 另类的小说在线视频另类成人小视频在线| 欧美日本韩国一区二区三区视频| 99久精品国产| 成人国产精品视频| 成人成人成人在线视频| 风间由美性色一区二区三区| 成人久久18免费网站麻豆| 国产精品白丝jk白祙喷水网站| 理论电影国产精品| 国产激情精品久久久第一区二区 | 成人免费视频一区二区| 国产91精品欧美| www.欧美.com| 色哟哟亚洲精品| 欧美午夜在线观看| 91精品久久久久久蜜臀| 日韩欧美中文字幕一区| 精品国产sm最大网站免费看| 亚洲精品一区二区三区99| 日本一区二区三区久久久久久久久不| 久久久久久97三级| 亚洲视频你懂的| 亚洲综合免费观看高清完整版| 亚洲成av人片在线观看| 日韩成人一区二区三区在线观看| 久久国产剧场电影| 丁香网亚洲国际| 91国内精品野花午夜精品 | 免费成人av在线播放| 激情综合色播激情啊| 丰满放荡岳乱妇91ww| 在线免费观看成人短视频| 日韩午夜精品电影| 亚洲丝袜制服诱惑| 日本v片在线高清不卡在线观看| 国精品**一区二区三区在线蜜桃| 国产盗摄一区二区| 欧美日韩黄色影视| 久久精品免费在线观看| 午夜精品久久久久久久久| 国产麻豆欧美日韩一区| 欧美亚洲国产一区二区三区| 精品粉嫩超白一线天av| 亚洲最大色网站| 国产综合色在线视频区| 在线观看国产91| 欧美—级在线免费片| 三级精品在线观看| 91啪亚洲精品| 国产视频911| 日日夜夜精品视频免费| 91美女片黄在线观看| 日韩免费视频一区二区| 亚洲综合另类小说| 成人免费视频国产在线观看| 欧美一卡在线观看| 亚洲男人天堂av网| 成人污视频在线观看| 欧美一卡二卡三卡| 一区二区三区在线观看视频| www.性欧美| 国产免费观看久久| 激情欧美一区二区| 日韩免费在线观看| 奇米精品一区二区三区四区| 欧美视频自拍偷拍| 亚洲人亚洲人成电影网站色| 国产精品一二二区| 精品国精品国产| 日韩电影免费一区| 欧美日韩的一区二区| 亚洲国产日韩精品| 欧美在线影院一区二区| 亚洲日韩欧美一区二区在线| 成人高清免费观看| 1区2区3区国产精品| 国产盗摄一区二区| 国产精品无码永久免费888| 国产一区二区剧情av在线| 欧美mv日韩mv亚洲| 狠狠色综合播放一区二区| 日韩欧美久久一区| 麻豆精品一区二区| ww亚洲ww在线观看国产| 国产精一区二区三区| 国产午夜亚洲精品不卡| 国产高清在线精品| 国产精品国产三级国产三级人妇| 国产一区二区三区黄视频 | 精品国产乱码久久久久久蜜臀 | av成人老司机| 一区二区三区在线影院| 欧美日韩一区小说| 麻豆专区一区二区三区四区五区| 精品动漫一区二区三区在线观看| 国产在线播放一区| 中文一区二区在线观看| 色综合视频在线观看| 亚洲一区二区三区激情| 777亚洲妇女| 狠狠色丁香久久婷婷综合_中| 精品国产乱码久久久久久久久| 国产精品66部| 国产精品色在线观看| 91社区在线播放| 午夜久久久影院| 精品精品国产高清一毛片一天堂| 国产精品中文有码| 日韩理论电影院| 欧美一级高清大全免费观看| 国内外成人在线| 亚洲久草在线视频| 日韩欧美一二三四区| 成人美女视频在线看| 视频精品一区二区| 欧美国产乱子伦| 欧美一区二区三区喷汁尤物| 国产a区久久久| 视频一区中文字幕国产| 国产欧美一区二区精品性| 欧美视频一区在线| 国产福利精品一区二区| 香蕉影视欧美成人| 1区2区3区国产精品| 精品美女一区二区| 欧美性猛交xxxx乱大交退制版| 国产精品996| 日本不卡的三区四区五区| 亚洲精品v日韩精品| 国产欧美一区二区精品久导航| 在线观看精品一区| eeuss鲁片一区二区三区在线看| 日韩在线a电影| 一区二区三区在线视频播放| 欧美国产日韩精品免费观看| 日韩欧美国产综合在线一区二区三区| 99国产精品一区| 国产成人综合亚洲91猫咪| 午夜a成v人精品| 亚洲激情五月婷婷| 国产精品每日更新在线播放网址| 欧美电影免费提供在线观看| 91成人在线观看喷潮| 成人av资源站| 成人动漫一区二区在线| 高清成人在线观看| 国产精选一区二区三区| 精品一区二区三区免费视频| 亚洲成人激情av| 亚洲国产精品一区二区www| 中文字幕亚洲电影| 国产精品女主播在线观看| 国产女人aaa级久久久级| 久久尤物电影视频在线观看| 欧美精品一区二区三区很污很色的| 91麻豆精品国产自产在线| 欧美三级日韩在线| 在线综合+亚洲+欧美中文字幕| 欧美久久久久久蜜桃| 欧美久久久久久蜜桃| 欧美精品 日韩| 欧美精品色综合| 欧美一区二区国产| 337p粉嫩大胆色噜噜噜噜亚洲 | av一区二区三区四区| 粉嫩高潮美女一区二区三区| 成人午夜私人影院| 91小宝寻花一区二区三区| 色哟哟日韩精品| 正在播放一区二区| 久久男人中文字幕资源站| 国产女主播一区| 亚洲一区在线电影| 日本vs亚洲vs韩国一区三区| 国内成人精品2018免费看| 国产成人精品一区二| 91免费观看在线| 欧美福利一区二区| 国产三级精品视频| 一区二区三国产精华液| 日本午夜精品一区二区三区电影| 蜜桃视频一区二区三区在线观看| 激情五月播播久久久精品| 成人国产精品免费网站| 欧美视频完全免费看| 精品国产青草久久久久福利| 国产精品国产自产拍高清av| 天天影视色香欲综合网老头| 国产在线不卡视频| 欧美色图天堂网| 久久久99久久| 亚洲自拍另类综合| 国产精品1区2区3区在线观看| 99精品国产91久久久久久| 91精品国产色综合久久| 国产精品久久久久久久久晋中 | 日韩欧美中文字幕精品| 亚洲图片另类小说| 精品一区二区影视|