不知道有沒有小伙伴遇到過這樣的情況:有時(shí)候使用Pytorch訓(xùn)練完模型,在測(cè)試數(shù)據(jù)上面得到的結(jié)果并不盡如人意。到底是什么原因?qū)е聀ytorch訓(xùn)練結(jié)果不準(zhǔn)確的呢?閱讀這篇文章,你或許會(huì)找到答案。
當(dāng)我們遇到訓(xùn)練結(jié)果不準(zhǔn)確的情況的時(shí)候,可能需要檢查一下定義的Model類中有沒有 BN 或 Dropout 層,如果有任何一個(gè)存在
那么在測(cè)試之前需要加入一行代碼:
#model是實(shí)例化的模型對(duì)象
model = model.eval()
表示將模型轉(zhuǎn)變?yōu)閑valuation(測(cè)試)模式,這樣就可以排除BN和Dropout對(duì)測(cè)試的干擾。
因?yàn)锽N和Dropout在訓(xùn)練和測(cè)試時(shí)是不同的:
對(duì)于BN,訓(xùn)練時(shí)通常采用mini-batch,所以每一批中的mean和std大致是相同的;而測(cè)試階段往往是單個(gè)圖像的輸入,不存在mini-batch的概念。所以將model改為eval模式后,BN的參數(shù)固定,并采用之前訓(xùn)練好的全局的mean和std;
對(duì)于Dropout,訓(xùn)練階段,隱含層神經(jīng)元先乘概率P,再進(jìn)行激活;而測(cè)試階段,神經(jīng)元先激活,每個(gè)隱含層神經(jīng)元的輸出再乘概率P。
如下圖所示:
補(bǔ)充:pytorch中model.eval之后是否還需要model.train的問題
答案是:需要的
正確的寫法是
for循環(huán)之后再開啟train,
循環(huán)之后的評(píng)估m(xù)odel.eval之后就會(huì)再次回到model.train。
小結(jié)
以上就是pytorch訓(xùn)練結(jié)果不準(zhǔn)確的可能的解決方案了,希望能給大家一個(gè)參考,也希望大家多多支持W3Cschool。