人工智能學習Pytorch梯度下降優(yōu)化示例詳解
一、激活函數
1.Sigmoid函數
函數圖像以及表達式如下:

通過該函數,可以將輸入的負無窮到正無窮的輸入壓縮到0-1之間。在x=0的時候,輸出0.5
通過PyTorch實現方式如下:

2.Tanh函數
在RNN中比較常用,由sigmoid函數變化而來。表達式以及圖像如下圖所示:

該函數的取值是-1到1,導數是:1-Tanh**2。
通過PyTorch的實現方式如下:

3.ReLU函數
該函數可以將輸入小于0的值截斷為0,大于0的值保持不變。因此在小于0的地方導數為0,大于0的地方導數為1,因此求導計算非常方便。

通過PyTorch的實現方式如下:

二、損失函數及求導
通常,我們使用mean squared error也就是均方誤差來作為損失函數。
1.autograd.grad
torch.autograd.grad(loss, [w1,w2,...])
輸入的第一個是損失函數,第二個是參數的列表,即使只有一個,也需要加上中括號。


我們可以直接通過mse_loss的方法,來直接創(chuàng)建損失函數。
在torch.autograd.grad中輸入損失函數mse,以及希望求導的對象[w],可以直接求導。

注意:我們需要在創(chuàng)建w的時候,需要添加requires_grad=True,我們才能對它求導。
也可以通過w.requires_grad_()的方法,為其添加可以求導的屬性。


2.loss.backward()
該方法是直接在損失函數上面調用的

這個方法不會返回梯度信息,而是將梯度信息保存到了參數中,直接用w.grad就可以查看。
3.softmax及其求導
該函數將差距較大的輸入,轉換成處于0-1之間的概率,并且所有概率和為1。

對softmax函數的求導:
設輸入是a,通過了softmax輸出的是p

注意:當i=j時,偏導是正的,i != j時,偏導是負的。
通過PyTorch實現方式如下:

三、鏈式法則
1.單層感知機梯度
單層感知機其實就是只有一個節(jié)點,數據*權重,輸入這個節(jié)點,經過sigmoid函數轉換,得到輸出值。根據鏈式法則可以求得梯度。

通過PyTorch可以輕松實現函數轉換以及求導。

2. 多輸出感知機梯度
輸出值變多了,因此節(jié)點變多了。但求導方式其實是一樣的。

通過PyTorch實現求導的方式如下:

3. 中間有隱藏層的求導
中間加了隱藏層,只是調節(jié)了輸出節(jié)點的輸入內容。原本是數據直接輸給輸出節(jié)點,現在是中間層的輸出作為輸入,給了輸出節(jié)點。使用PyTorch實現方式如下:

4.多層感知機的反向傳播
依舊是通過鏈式法則,每一個結點的輸出sigmoid(x)都是下一個結點的輸入,因此我們通過前向傳播得到每一個結點的sigmoid函數,以及最終的輸出結果,算出損失函數后,即可通過后向傳播依次推算出每一個結點每一個參數的梯度。
下面的DELTA(k)只是將一部分內容統(tǒng)一寫作一個字母來表示,具體推導不再詳述。

四、優(yōu)化舉例
通過以下函數進行優(yōu)化。

優(yōu)化流程:初始化參數→前向傳播算出預測值→得到損失函數→反向傳播得到梯度→對參數更新→再次前向傳播→......
在此案例中,優(yōu)化流程有一些不同:
優(yōu)化之前先選擇優(yōu)化器,并直接把參數,以及梯度輸入進去。
①pred = f(x)根據函數給出預測值,用以后面計算梯度。
②optimizer.zero_grad()梯度歸零。因為反向傳播之后,梯度會自動帶到參數上去(上面有展示,可以調用查看)。
③pred.backward()用預測值計算梯度。
④pred.step()更新參數。
以上步驟循環(huán)即可。

以上就是人工智能學習Pytorch梯度下降優(yōu)化示例詳解的詳細內容,更多關于Pytorch梯度下降優(yōu)化的資料請關注本站其它相關文章!
版權聲明:本站文章來源標注為YINGSOO的內容版權均為本站所有,歡迎引用、轉載,請保持原文完整并注明來源及原文鏈接。禁止復制或仿造本網站,禁止在非maisonbaluchon.cn所屬的服務器上建立鏡像,否則將依法追究法律責任。本站部分內容來源于網友推薦、互聯(lián)網收集整理而來,僅供學習參考,不代表本站立場,如有內容涉嫌侵權,請聯(lián)系alex-e#qq.com處理。
關注官方微信