簡(jiǎn)介:此段代碼是LeNet5中截取的。
def train_model(model,train_loader): optimizer = torch.optim.Adam(model.parameters()) loss_func = nn.CrossEntropyLoss() EPOCHS = 5 for epoch in range(EPOCHS): correct = 0 for batch_idx,(X_batch,y_batch) in enumerate(train_loader): optimizer.zero_grad() #這里是只取訓(xùn)練數(shù)據(jù)的意思嗎,X_batch和y_batch是怎么分開的? #答:X_batch和y_batch是一一對(duì)應(yīng)的,只不過順序打亂了,參考torch.utils.data.ipynb output = model(X_batch.float()) #X_batch.float()是什么意思 loss = loss_func(output,y_batch) loss.backward() optimizer.step() # Total correct predictions #第一個(gè)1代表取每行的最大值,第二個(gè)1代表只取最大值的索引 #這兩行代碼是求準(zhǔn)確率的地方 predicted = torch.max(output.data,1)[1] correct += (predicted == y_batch).sum() #print(correct) if batch_idx % 100 == 0: print('Epoch :{}[{}/{}({:.0f}%)]\t Loss:{:.6f}\t Accuracy:{:.3f}'.format(epoch,batch_idx * len(X_batch),len(train_loader.dataset),100.*batch_idx / len(train_loader),loss.data.item(),float(correct*100)/float(BATCH_SIZE)*(batch_idx+1))) if __name__ == '__main__': myModel = LeNet5() print(myModel) train_model(myModel,train_loader) evaluate(myModel,test_loader,BATCH_SIZE)
簡(jiǎn)介:此段代碼是對(duì)Titanic(泰坦尼克號(hào))數(shù)據(jù)分析截取。
epochs = 10 log_step_freq = 30 dfhistory = pd.DataFrame(columns = ['epoch','loss',metric_name,'val_loss','val_'+metric_name]) print('Start Training...') nowtime = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S') print('========='*8 + '%s'%nowtime) for epoch in range(1,epochs+1): #1.訓(xùn)練循環(huán) net.train() loss_sum = 0.0 metric_sum = 0.0 step = 1 for step,(features,labels) in enumerate(dl_train,1): #梯度清零 optimizer.zero_grad() #正向傳播求損失 predictions = net(features) loss = loss_func(predictions,labels) metric = metric_func(predictions,labels) #反向傳播求梯度 loss.backward() optimizer.step() #打印batch級(jí)別日志 loss_sum += loss.item() metric_sum += metric.item() if step%log_step_freq == 0: print(('[Step = %d] loss: %.3f,' + metric_name+': %.3f %%')%(step,loss_sum/step,100*metric_sum/step)) #2,驗(yàn)證循環(huán) net.eval() val_loss_sum = 0.0 val_metric_sum = 0.0 val_step =1 for val_step,(features,labels) in enumerate(dl_valid,1): #關(guān)閉梯度計(jì)算 with torch.no_grad(): pred = net(features) val_loss = loss_func(pred,labels) val_metric = metric_func(labels,pred) val_loss_sum += val_loss.item() val_metric_sum += val_metric.item() #3,記錄日志 info = (epoch,loss_sum/step,100*metric_sum/step, val_loss_sum/val_step,100*val_metric_sum/val_step) dfhistory.loc[epoch-1] = info #打印epoch級(jí)別日志 print(('\nEPOCH = %d,loss = %.3f,' + metric_name+\ '=%.3f %%,val_loss = %.3f'+' val_'+metric_name+'= %.3f %%')%info) nowtime = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S') print('\n'+'=========='*8 + '%s'%nowtime) print('Finishing Training...')
補(bǔ)充:Pytorch實(shí)現(xiàn)Top1準(zhǔn)確率和Top5準(zhǔn)確率
之前一直不清楚Top1和Top5是什么,其實(shí)搞清楚了很簡(jiǎn)單,就是兩種衡量指標(biāo),其中,Top1就是普通的Accuracy,Top5比Top1衡量標(biāo)準(zhǔn)更“嚴(yán)格”,
具體來講,比如一共需要分10類,每次分類器的輸出結(jié)果都是10個(gè)相加為1的概率值,Top1就是這十個(gè)值中最大的那個(gè)概率值對(duì)應(yīng)的分類恰好正確的頻率,而Top5則是在十個(gè)概率值中從大到小排序出前五個(gè),然后看看這前五個(gè)分類中是否存在那個(gè)正確分類,再計(jì)算頻率。
def evaluteTop1(model, loader): model.eval() correct = 0 total = len(loader.dataset) for x,y in loader: x,y = x.to(device), y.to(device) with torch.no_grad(): logits = model(x) pred = logits.argmax(dim=1) correct += torch.eq(pred, y).sum().float().item() #correct += torch.eq(pred, y).sum().item() return correct / total def evaluteTop5(model, loader): model.eval() correct = 0 total = len(loader.dataset) for x, y in loader: x,y = x.to(device),y.to(device) with torch.no_grad(): logits = model(x) maxk = max((1,5)) y_resize = y.view(-1,1) _, pred = logits.topk(maxk, 1, True, True) correct += torch.eq(pred, y_resize).sum().float().item() return correct / total
注意:
y_resize = y.view(-1,1)是非常關(guān)鍵的一步,在correct的運(yùn)算中,關(guān)鍵就是要pred和y_resize維度匹配,而原來的y是[128],128是batch大??;
pred的維度則是[128,10],假設(shè)這里是CIFAR10十分類;因此必須把y轉(zhuǎn)化成[128,1]這種維度,但是不能直接是y.view(128,1),因?yàn)楸闅v整個(gè)數(shù)據(jù)集的時(shí)候,
最后一個(gè)batch大小并不是128,所以view()里面第一個(gè)size就設(shè)為-1未知,而確保第二個(gè)size是1就行
補(bǔ)充:topk函數(shù)的具體用法
torch.topk(input, k, dim=None, largest=True, sorted=True, out=None) -> (Tensor, LongTensor)
沿給定dim維度返回輸入張量input中 k 個(gè)最大值。
如果不指定dim,則默認(rèn)為input的最后一維。
如果為largest為 False ,則返回最小的 k 個(gè)值。
返回一個(gè)元組 (values,indices),其中indices是原始輸入張量input中測(cè)元素下標(biāo)。
如果設(shè)定布爾值sorted 為_True_,將會(huì)確保返回的 k 個(gè)值被排序。
input (Tensor) – 輸入張量
k (int) – “top-k”中的k
dim (int, optional) – 排序的維
largest (bool, optional) – 布爾值,控制返回最大或最小值
sorted (bool, optional) – 布爾值,控制返回值是否排序
out (tuple, optional) – 可選輸出張量 (Tensor, LongTensor) output buffer
假設(shè)神經(jīng)網(wǎng)絡(luò)的輸出如下,為二分類。batch_size=4
import torch output = torch.tensor([[-5.4783, 0.2298], [-4.2573, -0.4794], [-0.1070, -5.1511], [-0.1785, -4.3339]])
得到其top1值操作如下:
maxk = max((1,)) # 取top1準(zhǔn)確率,若取top1和top5準(zhǔn)確率改為max((1,5)) _, pred = output.topk(maxk, 1, True, True)
topk參數(shù)中,maxk取得是top1準(zhǔn)確率,dim=1是按行取值, largest=1是取最大值
結(jié)果如下,
_ tensor([[ 0.2298], [-0.4794], [-0.1070], [-0.1785]])
pred tensor([[1], [1], [0], [0]])
_是top1的值,pred是最大值的索引(size=4*1),一般會(huì)進(jìn)行轉(zhuǎn)置處理同真實(shí)值對(duì)比
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
標(biāo)簽:黑龍江 惠州 常德 上海 四川 益陽 黔西 鷹潭
巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Pytorch中求模型準(zhǔn)確率的兩種方法小結(jié)》,本文關(guān)鍵詞 Pytorch,中求,模型,準(zhǔn)確率,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。