本篇內(nèi)容主要講解“pytorch梯度裁剪的原理是什么”,感興趣的朋友不妨來(lái)看看。本文介紹的方法操作簡(jiǎn)單快捷,實(shí)用性強(qiáng)。下面就讓小編來(lái)帶大家學(xué)習(xí)“pytorch梯度裁剪的原理是什么”吧!
創(chuàng)新互聯(lián)公司公司2013年成立,是專業(yè)互聯(lián)網(wǎng)技術(shù)服務(wù)公司,擁有項(xiàng)目成都網(wǎng)站設(shè)計(jì)、成都網(wǎng)站制作網(wǎng)站策劃,項(xiàng)目實(shí)施與項(xiàng)目整合能力。我們以讓每一個(gè)夢(mèng)想脫穎而出為使命,1280元寶安做網(wǎng)站,已為上家服務(wù),為寶安各地企業(yè)和個(gè)人服務(wù),聯(lián)系電話:18982081108
既然在BP過(guò)程中會(huì)產(chǎn)生梯度消失/爆炸(就是偏導(dǎo)無(wú)限接近0,導(dǎo)致長(zhǎng)時(shí)記憶無(wú)法更新),那么最簡(jiǎn)單粗暴的方法,設(shè)定閾值,當(dāng)梯度小于/大于閾值時(shí),更新的梯度為閾值,如下圖所示:
1、梯度裁剪原理
優(yōu)點(diǎn):簡(jiǎn)單粗暴
缺點(diǎn):很難找到滿意的閾值
2、nn.utils.clip_grad_norm(parameters, max_norm, norm_type=2)
這個(gè)函數(shù)是根據(jù)參數(shù)的范數(shù)來(lái)衡量的
Parameters:
parameters(Iterable[Variable]) – 一個(gè)基于變量的迭代器,會(huì)進(jìn)行歸一化(原文:an iterable of Variables that will have gradients normalized)
max_norm(float or int) – 梯度的最大范數(shù)
norm_type(float or int) – 規(guī)定范數(shù)的類型,默認(rèn)為L(zhǎng)2
Returns:參數(shù)的總體范數(shù)(作為單個(gè)向量來(lái)看)
到此,相信大家對(duì)“pytorch梯度裁剪的原理是什么”有了更深的了解,不妨來(lái)實(shí)際操作一番吧!這里是創(chuàng)新互聯(lián)網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!
文章標(biāo)題:pytorch梯度裁剪的原理是什么
網(wǎng)站鏈接:http://aaarwkj.com/article4/pcdsoe.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供外貿(mào)網(wǎng)站建設(shè)、做網(wǎng)站、小程序開發(fā)、靜態(tài)網(wǎng)站、移動(dòng)網(wǎng)站建設(shè)、手機(jī)網(wǎng)站建設(shè)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)