機(jī)器學(xué)習(xí)的意義在于代替人工完成重復(fù)性工作,識(shí)別出統(tǒng)一的規(guī)則(模式)。但是對(duì)于傳統(tǒng)的機(jī)器學(xué)習(xí)來(lái)說(shuō),特征提取的難度不小(特征可以是像素、位置、方向等)。特征的準(zhǔn)確性將在很大程度上決定大多數(shù)機(jī)器學(xué)習(xí)算法的性能。為了使特征準(zhǔn)確,在特征工程部分需要大量的人力來(lái)調(diào)整和改進(jìn)特征。完成這一系列工作的前提是,數(shù)據(jù)集中所包含的信息量是充分的,并且易于識(shí)別。如果不滿足這一前提,傳統(tǒng)的機(jī)器學(xué)習(xí)算法將在信息的雜亂中失去其性能。深度學(xué)習(xí)的應(yīng)用正是基于這個(gè)問(wèn)題。它的深層神經(jīng)網(wǎng)絡(luò)使它能夠在雜波中學(xué)習(xí),自動(dòng)發(fā)現(xiàn)與任務(wù)相關(guān)的特征(可以看作是自發(fā)學(xué)習(xí)的特征工程),并提取高級(jí)特征,從而大大減少了特征工程部分任務(wù)所花費(fèi)的時(shí)間。
另一個(gè)明顯的區(qū)別是他們對(duì)數(shù)據(jù)集大小的偏好。傳統(tǒng)的機(jī)器學(xué)習(xí)在處理規(guī)則完備的小規(guī)模數(shù)據(jù)時(shí)表現(xiàn)出良好的性能,而深度學(xué)習(xí)則表現(xiàn)不好。隨著數(shù)據(jù)集規(guī)模的不斷擴(kuò)大,深度學(xué)習(xí)的效果會(huì)逐漸顯現(xiàn)出來(lái),并變得越來(lái)越好。對(duì)比如下圖所示。
深度學(xué)習(xí)是什么意思?近年來(lái),隨著信息社會(huì)、學(xué)習(xí)科學(xué)和課程改革的發(fā)展,深度學(xué)習(xí)是一種新的學(xué)習(xí)形式。
目前,對(duì)深度學(xué)習(xí)的概念有很多答案,很多專家學(xué)者的解釋是本質(zhì)意義一致的表述略有不同。
李嘉厚教授認(rèn)為,深度學(xué)習(xí)是建立在理解的基礎(chǔ)上的。學(xué)習(xí)者可以批判性地學(xué)習(xí)新的想法和事實(shí),將它們?nèi)谌朐械恼J(rèn)知結(jié)構(gòu),將許多想法聯(lián)系起來(lái),并將現(xiàn)有的知識(shí)轉(zhuǎn)移到新的情境中,從而做出決策和解決問(wèn)題。
郭華教授認(rèn)為,深度學(xué)習(xí)是在教師指導(dǎo)下的一個(gè)有意義的學(xué)習(xí)過(guò)程,學(xué)生圍繞挑戰(zhàn)性的學(xué)習(xí)主題,全心投入,體驗(yàn)成功,獲得發(fā)展。它具有批判性理解、有機(jī)整合、建設(shè)性反思和遷移應(yīng)用的特點(diǎn)。
深度學(xué)習(xí)有幾個(gè)特點(diǎn)。一是觸動(dòng)人心的學(xué)習(xí)。第二,體驗(yàn)式學(xué)習(xí)。三是深入認(rèn)識(shí)和實(shí)踐創(chuàng)新的研究。
人工智能神經(jīng)網(wǎng)絡(luò)中的基礎(chǔ)概念有哪些?通過(guò)人體系統(tǒng)建模,實(shí)現(xiàn)了人工智能技術(shù)的重大突破。盡管人工神經(jīng)網(wǎng)絡(luò)(anns)只是與人類神經(jīng)元實(shí)際功能松散耦合的數(shù)學(xué)模型,但其在解決復(fù)雜模糊的現(xiàn)實(shí)問(wèn)題中的應(yīng)用卻意義深遠(yuǎn)。此外,在神經(jīng)網(wǎng)絡(luò)中建立大腦結(jié)構(gòu)深度的模型為學(xué)習(xí)更有意義的數(shù)據(jù)表示開(kāi)辟了廣泛的可能性。在圖像識(shí)別和處理方面,CNN視覺(jué)系統(tǒng)復(fù)雜的、空間不變的細(xì)胞的啟發(fā)也極大地改善了我們的技術(shù)。
只要人類的感知能力超過(guò)機(jī)器,我們就能從理解人類系統(tǒng)的原理中獲益。人類對(duì)感知任務(wù)非常精通,人類理解與人工智能現(xiàn)狀的反差在機(jī)器聽(tīng)覺(jué)領(lǐng)域尤為明顯??紤]到人類系統(tǒng)在視覺(jué)處理上的優(yōu)勢(shì),我們借鑒了神經(jīng)網(wǎng)絡(luò)機(jī)器聽(tīng)覺(jué)的相似過(guò)程。也許最抽象的聲場(chǎng)是我們?nèi)绾慰创祟?。盡管信號(hào)處理問(wèn)題的解決方案必須在強(qiáng)度、頻譜和時(shí)間屬性等參數(shù)的較低水平上進(jìn)行操作,但最終目標(biāo)往往是認(rèn)知問(wèn)題:以我們感知聲音的方式轉(zhuǎn)換信號(hào),包括改變。例如,如果您想以編程方式更改錄制的語(yǔ)音的性別,在定義其較低級(jí)別的特征之前,有必要使用更有意義的術(shù)語(yǔ)來(lái)描述問(wèn)題。說(shuō)話人的性別可以看作是一種認(rèn)知屬性,它由許多因素組成:聲音的一般音調(diào)和音色、發(fā)音的差異、詞語(yǔ)和語(yǔ)言選擇的差異以及對(duì)這些屬性與性別關(guān)系的共同理解。
網(wǎng)站名稱:神經(jīng)網(wǎng)絡(luò)特征自動(dòng)提取深度學(xué)習(xí)和普通的機(jī)器學(xué)習(xí)有什么區(qū)別?-創(chuàng)新互聯(lián)
轉(zhuǎn)載來(lái)源:http://aaarwkj.com/article14/jddde.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供微信小程序、網(wǎng)站建設(shè)、服務(wù)器托管、營(yíng)銷(xiāo)型網(wǎng)站建設(shè)、建站公司、網(wǎng)站改版
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容