在數(shù)據(jù)處理的過程中,我們經(jīng)常會遇到數(shù)據(jù)有缺失值的情況,今天我們就來介紹一下在python中如何用Pandas處理數(shù)據(jù)中的缺失值。
不管哪個(gè)行業(yè),都能找到 python 的用武之地,能把學(xué)到的東西用到現(xiàn)實(shí)工作中的人一定能比別人省出更多的自由時(shí)間,去做自己喜歡的、更有意義的事。
在python中,用pandas處理數(shù)據(jù)非常方便。特別是當(dāng)數(shù)據(jù)里有異常值的時(shí)候,pandas異常值處理的方式就是將NaN的數(shù)據(jù)轉(zhuǎn)化為None,那么pandas怎么將NaN轉(zhuǎn)化為None呢?接下來的這篇文章帶你了解。
在神經(jīng)網(wǎng)絡(luò)的推理過程中,如果全都默認(rèn)使用相同的一個(gè)比較高的數(shù)據(jù)精度的話,對于計(jì)算機(jī)硬件的顯存具有一定的要求,運(yùn)算量也會增大,對應(yīng)的運(yùn)算時(shí)間就會降低,宏觀的講就是運(yùn)算速度變慢了。但實(shí)際上,針對不同的層我們可以采用不同的數(shù)據(jù)精度進(jìn)行計(jì)算以達(dá)到節(jié)省內(nèi)存和加快速度的目的。這種方法叫做自動混合精度(amp),那么pytorch怎么使用amp呢?接下來我們就來介紹一下pytorch怎么進(jìn)行混合精度訓(xùn)練吧。
不知道小伙伴們在訓(xùn)練檢測網(wǎng)絡(luò)的時(shí)候有沒有出現(xiàn)loss為nan的情況。當(dāng)出現(xiàn)這種情況的時(shí)候需要中斷重新訓(xùn)練,會很麻煩。接下來小編介紹一種pytorch避免訓(xùn)練loss nan的方法,就是使用pytorch梯度裁剪來進(jìn)行限制,我們可以選擇使用PyTorch提供的梯度裁剪庫來對模型訓(xùn)練過程中的梯度范圍進(jìn)行限制。修改之后,不再出現(xiàn)loss為nan的情況。
在線性代數(shù)中,矩陣是可以相乘的,在pytorch中矩陣也可以相乘。今天小編就帶來一篇pytorch乘法介紹,里面介紹了pytorch中的matmul與mm和bmm的區(qū)別說明。讓我們來了解pytorch中是怎么實(shí)現(xiàn)矩陣乘法的吧。
很多小伙伴在學(xué)習(xí)pytorch的時(shí)候會遇到x[...,0]這樣的寫法,但并不了解這樣的寫法有什么用,小編經(jīng)過實(shí)驗(yàn)得出了這個(gè)寫法的功能為pytorch抽取tensor的行。接下來就來看看x[...,0]怎么使用吧。
機(jī)器學(xué)習(xí)的經(jīng)典案例就是鳶尾花分類,這個(gè)分類可以使用很多優(yōu)秀的機(jī)器學(xué)習(xí)算法去進(jìn)行分類。今天我們介紹一種分類算法——bp神經(jīng)網(wǎng)絡(luò)。通過TensorFlow進(jìn)行實(shí)現(xiàn),接下來就讓我們開始學(xué)習(xí)這個(gè)分類算法吧。