App下載
最新 最熱

pytorch怎么使用交叉熵?fù)p失函數(shù)?weight參數(shù)的使用介紹!

在pytorch的交叉熵?fù)p失函數(shù)的學(xué)習(xí)中,weight慘啊作為交叉熵函數(shù)對應(yīng)參數(shù)的輸入值,它的使用并不是想象中的那么簡單。接下來的這篇文章小編就來詳細(xì)的介紹一下交叉熵?fù)p失函數(shù)的weight參數(shù)怎么使用吧。

2021-07-16
4347

Pycharm安裝paddleX安裝報(bào)錯(cuò)怎么辦?如何解決?

paddleX作為百度推出的一個(gè)機(jī)器學(xué)習(xí)的框架,是國內(nèi)少有的開源而且比較成熟的框架,所以很多學(xué)習(xí)機(jī)器學(xué)習(xí)的小伙伴可能會有了解這個(gè)框架的想法。但是在安裝paddleX的時(shí)候可能會出現(xiàn)一些錯(cuò)誤。那么paddleX安裝報(bào)錯(cuò)有哪些呢?如何解決paddleX安裝報(bào)錯(cuò)呢?接下來這篇文章告訴你。

2021-07-16
5012

pytorch中Schedule與warmup_steps如何使用?

在機(jī)器學(xué)習(xí)中,schedule的使用是相當(dāng)重要的,用來進(jìn)行學(xué)習(xí)率的調(diào)節(jié),而warmup_steps作為耐心系數(shù)也參與了schedule的使用,接下來的這篇文章我們就來了解一下pytorch怎么使用schedule吧。

2021-07-15
7382

python如何讀取文件指定行?三種方法介紹!

文件讀寫這項(xiàng)功能是每個(gè)編程語言基本都會實(shí)現(xiàn)的一個(gè)重要的基礎(chǔ)功能,python也不例外,今天小編就python如何讀取文件,來向各位介紹python的三種文件讀取方式。

2021-07-15
11248

PyTorch梯度裁剪怎么避免訓(xùn)練loss nan?

不知道小伙伴們在訓(xùn)練檢測網(wǎng)絡(luò)的時(shí)候有沒有出現(xiàn)loss為nan的情況。當(dāng)出現(xiàn)這種情況的時(shí)候需要中斷重新訓(xùn)練,會很麻煩。接下來小編介紹一種pytorch避免訓(xùn)練loss nan的方法,就是使用pytorch梯度裁剪來進(jìn)行限制,我們可以選擇使用PyTorch提供的梯度裁剪庫來對模型訓(xùn)練過程中的梯度范圍進(jìn)行限制。修改之后,不再出現(xiàn)loss為nan的情況。

2021-07-15
4823

Python如何讀取Excel文件?python辦公自動(dòng)化介紹!

很多讀者在聽到辦公自動(dòng)化的時(shí)候很難想象到底什么是辦公自動(dòng)化,它能自動(dòng)化到什么地步。其實(shí)辦公自動(dòng)化也就只是幫你進(jìn)行一些重復(fù)的操作罷了,一些關(guān)鍵操作和內(nèi)容產(chǎn)出還是得靠用戶自行處理。以python辦公自動(dòng)化為例,office三大軟件中自動(dòng)化可操作性最高的應(yīng)該是excel了,excel很多情況下操作都是可重復(fù)的,比如批量的數(shù)據(jù)錄入,數(shù)據(jù)的操作等。今天小編就以python操作excel為例,來介紹一下python辦公自動(dòng)化。

2021-07-15
1950

Pytorch半精度網(wǎng)絡(luò)訓(xùn)練需要注意哪些問題?

為了提高pytorch的模型訓(xùn)練的效率,我們有時(shí)候會選擇放棄部分精度來換取運(yùn)算耗時(shí)的縮減。也就是說,在對精度要求不是那么高的情況下我們可以使用pytorch半精度網(wǎng)絡(luò)訓(xùn)練。但是在使用pytorch進(jìn)行半精度網(wǎng)絡(luò)訓(xùn)練的時(shí)候可能會出現(xiàn)一些問題,小編將這些問題進(jìn)行了一個(gè)總結(jié),各位小伙伴可以進(jìn)行參考。

2021-07-15
4003

pytorch怎么部署半精度模型?如何操作?

在進(jìn)行深度學(xué)習(xí)的模型訓(xùn)練的時(shí)候,很多小伙伴的電腦的配置可能不是那么優(yōu)秀,在該階段要花費(fèi)很多的運(yùn)行時(shí)間。但在學(xué)習(xí)深度學(xué)習(xí)的過程中,有時(shí)候我們其實(shí)并不需要模型擁有太高的精度,這時(shí)候我們就可以設(shè)置通過降低精度的方法減少運(yùn)算量,這就是pytorch加速模型訓(xùn)練的辦法,那么pytorch如何設(shè)置精度呢?通過下文的學(xué)習(xí),你將學(xué)會pytorch怎么部署半精度模型。

2021-07-15
4099

pytorch為什么要使用float64訓(xùn)練?怎么使用?

在神經(jīng)網(wǎng)絡(luò)的推理過程中,我們默認(rèn)是將pytorch的tensor的精度指定為單精度的float32,但是在有些時(shí)候不管是float16還是float32,在訓(xùn)練模型的時(shí)候都會導(dǎo)致精度丟失,從而引發(fā)訓(xùn)練效果的損失。那么pytorch怎么使用float64訓(xùn)練呢?接下來這篇文章告訴你。

2021-07-15
5967

python如何提高計(jì)算速度?一行代碼解決!

很多小伙伴或多或少都曾經(jīng)聽過這樣的一些言論:python運(yùn)算速度特別慢,java在運(yùn)算數(shù)度上碾壓python等。這令部分小伙伴覺得python既然運(yùn)算速度這么慢,那效率也低,不學(xué)也罷。實(shí)際上從一開始的言論就錯(cuò)了,python的運(yùn)算速度其實(shí)還是很不錯(cuò)的,只不過很多用戶不會優(yōu)化罷了,那么python如何提高運(yùn)算速度呢?看完這篇文章你會得到答案。

2021-07-15
6010