欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

神經(jīng)網(wǎng)絡(luò)原來這么簡單,機器學習入門貼送給你|干貨

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

下城網(wǎng)站制作公司哪家好,找創(chuàng)新互聯(lián)建站!從網(wǎng)頁設(shè)計、網(wǎng)站建設(shè)、微信開發(fā)、APP開發(fā)、響應(yīng)式網(wǎng)站建設(shè)等網(wǎng)站項目制作,到程序開發(fā),運營維護。創(chuàng)新互聯(lián)建站2013年至今到現(xiàn)在10年的時間,我們擁有了豐富的建站經(jīng)驗和運維經(jīng)驗,來保證我們的工作的順利進行。專注于網(wǎng)站建設(shè)就選創(chuàng)新互聯(lián)建站。

你想學機器學習嗎?這里有一個入門貼適合你。

什么神經(jīng)網(wǎng)絡(luò)、隨機森林、計算機視覺通通一網(wǎng)打盡。

這個Facebook軟件工程師做了一個入門貼。

專為基礎(chǔ)為零的初學者打造。

有基礎(chǔ)的同學,也可以來看看加深一下理解。

我們就以神經(jīng)網(wǎng)絡(luò)為例先來一睹為快吧!

神經(jīng)網(wǎng)絡(luò)概論

作者說,神經(jīng)網(wǎng)絡(luò)并不復雜!

“神經(jīng)網(wǎng)絡(luò)”一詞很流行,人們通常認為它很難,但其實要簡單得多。

是不是這樣呢?先看再說。

神經(jīng)網(wǎng)絡(luò)的理解主要分為三個部分,神經(jīng)元、神經(jīng)網(wǎng)絡(luò)的構(gòu)建、訓練神經(jīng)網(wǎng)絡(luò)。

神經(jīng)元——神經(jīng)網(wǎng)絡(luò)的基本單元

這是2-input神經(jīng)元的樣子。

首先神經(jīng)元接受輸入x1、x2,進行一些數(shù)學運算以后,然后產(chǎn)生一個輸出y。

在神經(jīng)元里,通常會發(fā)生三件事:

1、每個輸入乘以相應(yīng)的權(quán)重;

2、將所有加權(quán)輸入加在一起,在加上一個偏差b;

3、導入一個激活函數(shù),得到輸出y。

通常來說,激活函數(shù)使用Sigmoid函數(shù),也就是常說的S型函數(shù),輸入任意值(-∞,+∞),最后輸出都能停留在0-1之間。

對此,他還舉了一個簡單的例子。

以激活函數(shù)是S型函數(shù)、2輸入神經(jīng)元為例,設(shè)置參數(shù) w=[0,1] (w1=0,w2=1),b=4。

input:x=[2,3]

output:y=0.999

這也就是最為樸素的神經(jīng)網(wǎng)絡(luò)——前饋神經(jīng)網(wǎng)絡(luò)。

對此,作者還用Python實現(xiàn)了整個過程。

importnumpyasnpdefsigmoid(x):#Ouractivationfunction:f(x)=1/(1+e^(-x))return1/(1+np.exp(-x))classNeuron:def__init__(self,weights,bias):self.weights=weightsself.bias=biasdeffeedforward(self,inputs):#Weightinputs,addbias,thenusetheactivationfunctiontotal=np.dot(self.weights,inputs)+self.biasreturnsigmoid(total)weights=np.array([0,1])#w1=0,w2=1bias=4#b=4n=Neuron(weights,bias)x=np.array([2,3])#x1=2,x2=3print(n.feedforward(x))#0.9990889488055994 構(gòu)建神經(jīng)網(wǎng)絡(luò)

神經(jīng)元連接在一起就是神經(jīng)網(wǎng)絡(luò)。

兩個輸入,一個含有兩個神經(jīng)元的隱藏層,一個含有1個神經(jīng)元的輸出層就構(gòu)建了一個神經(jīng)網(wǎng)絡(luò)。

需要注意的是,可以用多層隱藏層。就比如,像這樣:

我們?nèi)砸陨蟼€示例的條件為例。

一個神經(jīng)網(wǎng)絡(luò)可以包含任意數(shù)量的層和任意數(shù)量的神經(jīng)元。

以Python代碼示例如下:

importnumpyasnp#...codefromprevioussectionhereclassOurNeuralNetwork:\'\'\'Aneuralnetworkwith:-2inputs-ahiddenlayerwith2neurons(h1,h2)-anoutputlayerwith1neuron(o1)Eachneuronhasthesameweightsandbias:-w=[0,1]-b=0\'\'\'def__init__(self):weights=np.array([0,1])bias=0#TheNeuronclasshereisfromtheprevioussectionself.h1=Neuron(weights,bias)self.h2=Neuron(weights,bias)self.o1=Neuron(weights,bias)deffeedforward(self,x):out_h1=self.h1.feedforward(x)out_h2=self.h2.feedforward(x)#Theinputsforo1aretheoutputsfromh1andh2out_o1=self.o1.feedforward(np.array([out_h1,out_h2]))returnout_o1network=OurNeuralNetwork()x=np.array([2,3])print(network.feedforward(x))#0.7216325609518421 訓練神經(jīng)網(wǎng)路——計算損失函數(shù)

假設(shè),我們正在處理以下這個項目。通過人員的體重和身高來判斷性別。

以weight、height作為輸入,以gender作為輸出。

將Male設(shè)置為0,F(xiàn)emale設(shè)置為1,還對其余數(shù)據(jù)進行了簡化。

在訓練神經(jīng)網(wǎng)絡(luò)之前,首先需要一個方法來量化它做得有多“好”,是否能夠做得“更好”,那就是損失函數(shù)(loss)。

這里,我們將使用損失函數(shù)的一種——均方誤差來計算。

預(yù)測結(jié)果越好,說明損失也就會越低。而訓練神經(jīng)網(wǎng)絡(luò)的目的,就在于盡可能的減少損失。

如果我們確信所有的人都是Male,也就是說預(yù)測值為0,會出現(xiàn)什么樣的結(jié)果?

Python示例:

importnumpyasnpdefmse_loss(y_true,y_pred):#y_trueandy_predarenumpyarraysofthesamelength.return((y_true-y_pred)**2).mean()y_true=np.array([1,0,0,1])y_pred=np.array([0,0,0,0])print(mse_loss(y_true,y_pred))#0.5 訓練神經(jīng)網(wǎng)絡(luò)——最小化損失

計算了損失函數(shù)之后,就需要將損失最小化,這也是訓練神經(jīng)網(wǎng)絡(luò)的最終目的所在。

接下來帖子有一段多變量演算,涉及微積分。

作者表示,

如果對微積分不滿意,可隨時跳過。

簡單起見,我們就假設(shè)這個數(shù)據(jù)集中只有Alice。

那么,它的損失函數(shù)就是這樣。

那么它的權(quán)重w跟偏差b,在圖上標示,那么就有6個權(quán)重變量,3個偏差變量。

于是,便將損失函數(shù)寫為多變量函數(shù)。

想象一下,我們只要調(diào)整w1,就可能導致L的變化。那具體是如何變化的呢?這就需要計算偏導數(shù)了。

利用鏈式求導法則進行反向求導,而這一過程就叫做反向傳播。

詳細計算過程就不放在這里了,大家去他個人網(wǎng)站去看哦~(鏈接已附文末)

作者溫馨提示,看這個過程的時候不要著急,拿出手中的筆和紙,能夠幫助你理解。

接下來,使用隨機梯度下降的優(yōu)化算法,公式表示如下(以w1為例):

其中的“學習速率”控制著訓練速度,過大或者過小都不合適。

如果我們將所有的變量都進行這樣的優(yōu)化,那么損失函數(shù)將逐漸減少,神經(jīng)網(wǎng)絡(luò)就能夠得到改善。

簡單來說,整個訓練過程是這樣的:

1、數(shù)據(jù)集中選擇一個樣本,就如Alice。

2、利用反向傳播計算所有變量的偏導數(shù)。

3、使用隨機梯度下降來訓練神經(jīng)網(wǎng)絡(luò),更新變量。

4、返回步驟1。

神經(jīng)網(wǎng)絡(luò)的部分就介紹到這里,怎么樣?看完之后,有什么感想?

是不是覺得神經(jīng)網(wǎng)絡(luò)也還好了。還有其他概念等著你來學習呢!

當前文章:神經(jīng)網(wǎng)絡(luò)原來這么簡單,機器學習入門貼送給你|干貨
網(wǎng)頁鏈接:http://aaarwkj.com/article20/chcoco.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站導航電子商務(wù)、外貿(mào)網(wǎng)站建設(shè)企業(yè)建站、搜索引擎優(yōu)化、網(wǎng)頁設(shè)計公司

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

網(wǎng)站建設(shè)網(wǎng)站維護公司
中文字幕av不卡一区| 亚洲欧美日韩伦理一区| 最新天堂av资源在线观看| 亚洲综合色日本日b网| 色婷婷av一区二区三区张| 五月婷婷六月丁香在线观看| 国产精品美女露脸av毛片| 亚洲成人久久久久久久| 国产日韩欧美另类专区| 国产91香蕉在线精品| 一本色道久久亚洲综合精品蜜桃 | 日韩欧美二区三区在线| 成人大片在线免费观看视频| 91精品国产高清久久福利| 中文字幕欧美精品日韩人妻| 在线国产精品中文字幕| 国产日韩手机在线不卡视频| 成人激情视频在线观看| 亚洲精品女同专区视频| 亚洲成综合人在线播放| 人妻熟妇av在线一区二区三区| 国产视频一区二区三区网| 亚洲毛片免费视频久久| 日本一区二区三区高清在线| 欧美一区二区三区一级| 亚洲国产欲色有一二欲色| 亚洲激情在线观看一区| av欧美激情在线观看| 视频一区中文字幕在线| 国产91日韩欧美在线| 成人福利午夜一区二区| 国产极品美女高潮抽搐| 精品国产一区二区三区性色av| 草草在线成年免费视频| 欧美性极品少妇精品网站| 亚洲国产精品福利在线| 99热这里只有精品三区| 激情亚洲综合一区二区| 成人久久精品一区二区| 日韩中文不卡人成在线视频| 国产婷婷成人久久av免费高清 |