国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Pytorch之finetune使用詳解

2020-02-15 21:29:23
字體:
來源:轉載
供稿:網友

finetune分為全局finetune和局部finetune。首先介紹一下局部finetune步驟:

1.固定參數

  for name, child in model.named_children():    for param in child.parameters():      param.requires_grad = False

后,只傳入 需要反傳的參數,否則會報錯

filter(lambda param: param.requires_grad, model.parameters())

2.調低學習率,加快衰減

finetune是在預訓練模型上進行微調,學習速率不能太大。

目前不清楚:學習速率降低的幅度可以更快一些。這樣以來,在使用step的策略時,stepsize可以更小一些。

直接從原始數據訓練的base_lr一般為0.01,微調要比0.01小,置為0.001

要比直接訓練的小一些,直接訓練的stepsize為100000,finetune的stepsize: 50000

3. 固定bn或取消dropout:

batchnorm會影響訓練的效果,隨著每個batch,追蹤樣本的均值和方差。對于固定的網絡,bn應該使用全局的數值

def freeze_bn(self):  for layer in self.modules():    if isinstance(layer, nn.BatchNorm2d):      layer.eval()

訓練時,model.train()會修改模式,freeze_zn()應該在這里后面

4.過濾參數

訓練時,對于優化器,應該只傳入需要改變的參數,否則會報錯

filter(lambda p: p.requires_grad, model.parameters())

以上這篇Pytorch之finetune使用詳解就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持武林站長站。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 灯塔市| 安吉县| 泽库县| 永登县| 铜梁县| 壶关县| 马龙县| 康平县| 全南县| 四会市| 曲沃县| 嘉定区| 溧阳市| 弋阳县| 诏安县| 垫江县| 咸丰县| 汕头市| 湖南省| 陵水| 黎平县| 建瓯市| 洛浦县| 宁强县| 福鼎市| 新余市| 信阳市| 崇文区| 平原县| 宜宾县| 乃东县| 多伦县| 乌拉特中旗| 巧家县| 临汾市| 获嘉县| 新源县| 邹平县| 东源县| 临颍县| 肇东市|