




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
人工神經網絡設計01緒論目錄人工神經網絡010203人工神經網絡的發展人工神經網絡的未來前景01人工神經網絡
人腦是人類神經系統的主要組成部分,負責控制和調節各種生理和心理活動,是智慧和行為的源泉。人腦約由101l至1012個神經元相互連接組成,這些神經元通過突觸相互連接,形成了規模龐大、錯綜復雜的生物神經網絡。
人工神經網絡
從模擬人腦生物神經網絡的結構特征和信息處理機制著手,設計出人工神經網絡。經過幾十年的發展,人工神經網絡的研究取得了長足的進步,成為解決復雜問題的重要智能工具,被廣泛應用于信號處理、智能控制、圖像識別、自然語言處理等領域。301人工神經網絡
人工神經網絡特點人工神經網絡是由多個人工神經元組成的并行分布式存儲和信息處理系統,旨在模擬人腦結構特征和功能特性的。神經網絡具有并行分布處理、非線性、容錯性、自適應等特點,展現出強大的信息處理能力。1并行分布處理在神經網絡中,神經元通過相互連接形成了并行分布式結構。每個神經元作為獨立計算單元,能夠并行處理輸入信號。401人工神經網絡4自學習當信息發生改變后,神經網絡能夠基于新的信息對網絡進行訓練,即通過調整自身結構和參數學習新信息,使得網絡輸出接近期望輸出。52非線性神經元通過激活函數對輸入信號進行處理,常用的激活函數多為非線性函數,多個神經元的廣泛連接必然使網絡呈現出高度的非線性特性。3容錯性神經網絡特有的結構使其對信息采用分布式存儲,某一神經元或者連接權值出現問題時,不會影響整個網絡的性能,從而使神經網絡具有較高的容錯性和魯棒性。01人工神經網絡65自組織自組織是指神經網絡能夠通過自生長、自刪減、自學習、自復制、自修復、自更新等過程來適應外界環境的變化。這一特性使得神經網絡具備解決各種復雜和不確定性問題的能力。01人工神經網絡
人工神經網絡功能神經網絡通過模擬生物神經網絡結構特征和功能特性,構建的信息處理系統,其主要功能包括聯想記憶、非線性映射、分類與識別、特征提取以及數據生成等。自聯想記憶:網絡預先存儲多種模式信息,當輸入某個模式的部分信息或帶有噪聲干擾的信息時,網絡能夠回憶該模式的全部信息。異聯想記憶:網絡預先存儲多個信息模式對,每一對模式均由兩個部分信息組成,當輸入某個模式對的一部分時,即使輸入信息殘缺或疊加了噪聲,網絡也能回憶起與其對應的另一部分信息。1聯想記憶701人工神經網絡2非線性映射神經網絡的非線性映射功能是指其能夠通過信息處理能力和學習機制,建立輸入和輸出之間的非線性映射關系。通過設計合理的網絡結構對輸入輸出樣本進行學習,神經網絡可以以任意精度逼近任意復雜的非線性映射。這一能力使得神經網絡成為強大的非線性函數逼近器,能夠有效處理復雜的建模和預測問題。801人工神經網絡3分類與識別神經網絡具有較好的分類與識別能力。通過學習輸入和輸出樣本的特征,神經網絡可以在樣本空間中根據分類要求將空間分割成各個區域,每個區域對應一個類別。在訓練階段,神經網絡通過大量帶有標簽的樣本學習如何將輸入映射到相應的類別。訓練完成后,網絡能夠根據新的輸入特征,準確識別其所屬的類別。901人工神經網絡4特征提取神經網絡的特征提取功能使其在處理復雜任務時具有顯著優勢,能夠自動從輸入數據中提取與待處理任務相關的特征。主要是通過神經網絡的層級結構逐步實現。神經網絡輸入層接收原始數據,經由隱含層逐步提取出更抽象、更高層次的特征表示。1001人工神經網絡5數據生成神經網絡的數據生成功能是指利用神經網絡生成新的數據樣本,其核心在于神經網絡通過學習已有數據的分布模式,生成與已有數據相似或符合特定規則的新數據。11神經網絡的數據生成功能在自然語言等領域中發揮著重要作用。例如,基于神經網絡開發出的智能聊天機器人(如ChatGPT),通過學習海量對話數據中的模式和上下文關系,生成與用戶提問相關且連貫的回答,并能進行自然的對話互動。原始數據生成數據02人工神經網絡的發展
人工神經網絡的產生人工神經網絡的基礎性工作最早可追溯至19世紀中后期。多位生理學家、神經學家、心理學家的研究為理解神經系統的功能和信息傳遞機制奠定了基礎,并啟發了后來的神經網絡的設計。對人工神經網絡的產生具有里程碑意義的事件有:1943年,WarrenMcCulloch和WalterPitts模擬生物神經元工作原理,提出了第一個人工神經元模型,簡稱MP模型,McCulloch和Pitts證明了MP模型可以解決任何算術或邏輯運算,從而奠定了神經網絡作為一種通用計算模型的理論基礎。1949年,加拿大心理學家DonaldHebb對20余年的研究工作進行總結,出版了著作《TheOrganizationofBehavior:ANeuropsychologicalTheory》(《行為的組織》),提出了著名的Hebb學習假說,這也是最早的神經網絡學習規則之一。1202人工神經網絡的發展
人工神經網絡的發展人工神經網絡從產生到萌芽期,經歷低潮期,再進入復興期,并在21世紀隨著深度學習的興起而蓬勃發展,如圖2-1所示。其發展道路曲折但意義深遠。圖2-1神經網絡發展歷程。1302人工神經網絡的發展
人工神經網絡的發展(1)萌芽期1952年,英國神經科學家WilliamRossAshby提出了“自組織”(Self-Organizing)這一概念,指出大腦中的神經元通過相互連接和自我調整來適應環境的變化,并認為這一自適應行為是通過后天學習獲得的。1957年,美國計算機學家FrankRosenblatt和他的同事提出了感知器網絡以及相應的學習算法,并展示了該網絡解決分類問題的能力。1960年,美國電機工程師BernardWidrow和他的學生MarcianHoff發明了自適應線性單元,即ADALINE網絡。此外,Widrow和Hoff還提出了Widrow-Hoff學習規則用于訓練ADALINE網絡。1402人工神經網絡的發展(2)低潮期盡管如此,仍有一些學者堅持在神經網絡領域進行研究,并取得了一些重要突破。1976年,StephenGrossberg和GailA.Carpenter提出了著名的自適應共振理論。1981年,芬蘭計算機科學家TeuvoKohonen模擬大腦神經系統自組織映射的功能,提出了自組織映射(Self-OrganizingMap,SOM)網絡。1980年,日本學者KunihikoFukushima提出了神經認知機,能夠正確識別手寫的0~9這十個數字。1969年,MarvinMinsky和SeymourPapert指出單層感知器無法解決線性不可分問題。盡管多層感知器理論上能夠解決非線性問題,但當時缺乏有效的學習算法,實用價值有限。由于Minsky和Papert在人工智能領域的地位和影響,他們的觀點導致許多學者放棄了神經網絡相關研究,使得神經網絡進入了10年低潮期。1502人工神經網絡的發展(3)復蘇期1982年,美國加州理工學院物理學家JohnJ.Hopfield提出了離散Hopfield網絡,并借用Lyapunov能量函數的原理,給出了網絡的穩定性判據。1984年,Hopfield又擴展了網絡模型,提出了連續Hopfield網絡。1986年,美國貝爾實驗室利用Hopfield網絡理論在硅片上制成了神經網絡計算機。20世紀80年代,新型網絡結構和多層網絡學習算法的提出對神經網絡研究的復蘇起到了重要的推動作用。16電路實現Hopfield神經網絡02人工神經網絡的發展(3)復蘇期美國認知神經科學家DavidE.Rumelhart和JamesL.McCelland提出了用于多層感知器訓練的誤差反向傳播(BackPropagation,BP)算法,解決了MarvinMinsky等人認為無法解決的多層感知器的學習問題。該算法迅速成為神經網絡學習中最核心和最廣泛使用的方法之一,為神經網絡的廣泛應用奠定了基礎。1702人工神經網絡的發展1987年6月,首屆國際神經網絡學術會議在美國加州圣地亞哥成功召開,推動了國際神經網絡學會的成立,同年,全球首份神經網絡期刊NeuralNetworks創刊。神經網絡研究正式進入了高潮期,各種新模型和新算法層出不窮。1802人工神經網絡的發展19(4)高潮期1988年,DavidS.Broomhead和DavidLowe提出了徑向基函數神經網絡。1991年,YannLeCun提出了卷積神經網絡,在圖像處理和計算機視覺任務中取得了顯著效果。1997年,針對長序列建模難題,德國科學家SeppHochreiter和JürgenSchmidhuber提出了長短期記憶網絡,成為自然語言處理等領域的重要工具。1997年,奧地利計算機科學家WolfgangMaass提出了脈沖神經網絡,被視為類腦神經網絡的基礎。2001年,德國科學家HerbertJaeger提出了回聲狀態網絡,提高了網絡的非線性處理能力和計算效率。02人工神經網絡的發展
人工神經網絡的發展2006年,神經網絡之父GeoffreyHinton提出了深度信念網絡,為深度學習的發展開辟了新的方向。2012年,加拿大計算機科學家AlexKrizhevsky等人設計了AlexNet網絡,在計算機視覺領域取得了重大突破。2014年3月,Facebook的DeepFace項目基于深度學習使得人臉識別的準確率達到了97.25%。隨著大數據時代的來臨,隱層淺層神經網絡在實際應用中難以滿足需求,深度神經網絡開始逐漸受到關注。2002人工神經網絡的發展2015年,中國科學家何愷明提出了殘差網絡,解決了深層神經網絡訓練中的梯度消失問題。2017年,美國計算機科學家AshishVaswani等人提出了自注意力機制(Transformer),在機器翻譯任務中取得了突破性成果。2018年,Google旗下的DeepMind公司開發出了AlphaGo和AlphaZero人工智能機器人,展現了神經網絡在策略問題上的強大能力。212022年,美國OpenAI團隊推出了ChatGPT,能夠生成流暢的對話和文本,進行語言翻譯,并具備上下文理解和連續對話能力。ChatGPT生成對話文本03人工神經網絡的未來前景展望未來,神經網絡的理論探索和實際應用將愈加引人注目,必然成為全球科技創新與產業變革的重要推動力。
在理論方面,網絡結構和學習算法的探索依然是神經網絡研究的主要方向。未來有望催生出更加接近生物神經網絡的神經網絡模型,展現出更高的智能和更強的信息處理能力。盡管有關神經網絡結構設計的工作層出不窮,形成完善的結構設計理論體系仍是研究者們亟待攻克的難題。如何開發出更高效的學習算法,以加速神經網絡的訓練過程,也是未來研究的重要方向之一。隨著人工智能倫理日益受到關注,神經網絡的可解釋研究將成為未來的重點領域。2203人工神經網絡的未來前景
在應用方面,神經網絡已在多個領域取得了顯著突破。在交通領域,特斯拉利用神經網絡實現自適應巡航控制和自動變道,推動了自動駕駛技術的發展。在航空航天領域,神經網絡的應用涵蓋了飛行器設計與控制、故障診斷與數據分析多個方面。2303人工神經網絡的未來前景在醫療領域,神經網絡不僅廣泛用于醫學影像的自動診斷,還在疾病預測、藥物開發等方面嶄露頭角。在制造領域,神經網絡被用于生產過程建模、控制、優化等方面。在環保領域,神經網絡被用于污染物智能檢測和污染治理過程動態調控,助力美麗中國建設。24人工神經網絡設計02人工神經網絡構成目錄神經元模型01020304神經元學習規則神經網絡結構神經網絡學習算法05神經網絡性能分析01人工神經元模型神經細胞是構成神經系統的基本單元,稱之為生物神經元,簡稱神經元。生物神經系統中神經信息的運動,包括傳導、整合、興奮或抑制等,都是神經元機能的表現。細胞體:細胞核、細胞質和細胞膜樹突:胞體短而多分枝的突起。相當于神經元的輸入端軸突:胞體上最長枝的突起,也稱神經纖維端部有很多神經末稍傳出神經沖動突觸:神經元間的連接接口,每個神經元約有1萬10萬個突觸細胞膜電位:神經細胞在受到電的、化學的、機械的刺激后,能產生興奮與抑制
生物神經元3神經元通過其軸突的神經末稍,經突觸與另神經元的樹突聯接,實現信息的傳遞。由于突觸的信息傳遞特性是可變的,形成了神經元間聯接的柔性,稱為結構的可塑性。
生物神經元圖2-1生物神經元結構01人工神經元模型4
生物神經元功能興奮與抑制:當傳入神經元沖動,經整和使細胞膜電位升高,超過動作電位閾值時,為興奮狀態,產生神經沖動,由軸突經神經末稍傳出。當傳入神經元沖動,經整和使細胞膜電位降低,低于動作電位閾值時,為抑制狀態,不產生神經沖動。2.學習與遺忘:由于神經元結構的可塑性,突觸的傳遞作用可增強與減弱,因此,神經元具有學習與遺忘的功能。01人工神經元模型5
MP模型1943年,美國心理學家WarrenMcCulloch和數理邏輯學家WalterPitts模擬生物神經元工作原理,提出了第一個人工神經元模型,稱為MP模型,為神經網絡的研究和發展奠定了基礎。如圖2-2所示,MP神經元模型是一個多輸入/單輸出的非線性信息處理單元。圖中:x1,x2
,…,xn代表神經元的n個輸入。w1,w2
,…,wn代表神經元的連接權值。01人工神經元模型圖2-2MP模型6第i
個神經元的輸出:其中f(u)為激活函數,也稱為作用函數。設,則yi=f(ui)MP神經元模型中激活函數為單位階躍函數,如圖2-3所示:10uf(u)表達式為:
MP模型01人工神經元模型圖2-3單位階躍函數7例如圖所示,有一個兩輸入的MP神經元模型,輸入為x1=2,x2=3,權值為w1=-1,w2=1,閾值θ=2時,試計算神經元輸出。01人工神經元模型圖2-4兩輸入MP神經元模型8解:01人工神經元模型根據MP神經元工作原理,將輸入、神經元權值和閾值帶入式(2-1)中,神經元輸出計算如下:又由于激活函數為單位階躍函數,可得神經元輸出為:W.McCulloch和W.Pitts在其發表的論文中指出,MP神經元模型可以計算任何算數或邏輯函數。9
激活函數類型和作用神經元的激活函數是關于凈輸入的線性或非線性函數,不同的激活函數具有不同的信息處理特性,以下是幾種常用的激活函數。01人工神經元模型(1)對稱型階躍函數階躍函數是最簡單的非線性函數之一,處理離散信號的神經元常常采用階躍函數作為激活函數。階躍函數在簡單的二分類問題中十分有效。對稱型階躍函數與之性質相似,其函數圖像如圖2-5,可以表示為圖2-5對稱型階躍函數1001人工神經元模型(2)線性函數當激活函數為線性函數時,神經元計算效率較高,但由于線性函數無法引入非線性特性,在一定程度上會限制神經網絡處理復雜和非線性問題的能力。線性函數圖像如圖2-6。(3)飽和線性函數飽和線性函數在特定的輸入范圍內表現出線性關系,超出范圍時則趨于飽和,這種特性使得其能夠有效控制輸出范圍。飽和線性函數特性如圖2-7所示,可表示為圖2-6線性函數圖2-7飽和線性函數1101人工神經元模型(4)對稱飽和線性函數
對稱飽和線性函數特性與飽和線性函數特性相似,但在正負方向上具有對稱性,函數圖像如圖2-8所示,可表示為(5)徑向基函數
徑向基函數是一種沿徑向對稱的標量函數,具有對稱性和平滑性,可以表示為其中,c為函數的中心,σ為函數的寬度。圖2-9為徑向基函數的特性。圖2-8對稱飽和線性函數圖2-9徑向基函數1201人工神經元模型(6)Sigmoid函數Sigmoid函數,也稱對數S型函數,可以將輸入壓縮到0和1之間。Sigmoid函數本身及其導數在定義域內都是連續可導的,引入非線性的同時計算相對簡單。Sigmoid函數如圖10a)所示,可以表示為Sigmoid函數也可表達為a)b)β控制曲線的斜率,當β=2時,其函數特性曲線如圖10b)所示。圖2-10Sigmoid函數1301人工神經元模型(7)雙曲正切函數雙曲正切函數,也稱對稱型S函數,可以將輸入壓縮到-1和1之間。雙曲正切函數能夠在一定程度上緩解梯度消失問題。雙曲正切函數可以表示為圖2-11a)為雙曲正切函數的特性。有時為了需要,雙曲正切函數也可表達為a)b)β控制取值決定了函數非飽和段的斜率。當β=2時,其函數特性曲線如圖2-11b)。圖2-11雙曲正切函數1401人工神經元模型(8)ReLU函數ReLU(RectifiedLinearUnit)函數,也稱為整流線性單元函數或斜坡函數。相較于Sigmoid函數,ReLU函數不僅計算相對簡單,還具有更強的仿生物學原理和稀疏激活特性。ReLU函數可表示為ReLU函數的特性如圖12所示。圖2-12.Relu函數激活函數的選取取決于神經網絡結構及解決的問題,合適的激活函數能夠顯著提升神經網絡性能。1502神經元學習規則
Hebb學習規則1949年,DonaldHebb提出“Hebb假說”:當神經元的突出前膜電位與后膜電位同時為正時,突觸連接的強度會增強;當前膜電位與后膜電位極性相反時,突觸連接的強度會減弱。式中,為被稱為學習率的正常數,
為神經元輸出,為神經元輸入。可以看出,權值的變化與輸入輸出的乘積成正比。16因此,如果一個正輸入能夠產生一個正輸出,那么輸入與輸出之間的連接權值就應該增加,權值調整公式可表達為:02神經元學習規則例題當采用Hebb學習規則調整權值時,應預先設置權值飽和值,以防止輸入和輸出始終正負一致情況下出現權值無約束增長。此外,在學習開始前,需要對權值進行初始化處理,通常是賦予接近零的隨機數。假設有一個3輸入單輸出的神經元模型,激活函數為線性函數,閾值
,學習率
。當3個輸入樣本分別為
,,,初始權值向量為
時,試采用Hebb學習規則更新神經元權值。1702神經元學習規則解:神經元權值調整步驟如下(1)輸入第一個樣本
,計算神經元凈輸入,并調整權值(2)輸入第二個樣本
,計算神經元凈輸入,并調整權值1802神經元學習規則(3)輸入第三個樣本
,計算神經元凈輸入,并調整權值1902神經元學習規則
Widrow-Hoff學習規則1960年,BernardWidrow和MarcianHoff提出了自適應線性單元(ADALINE),并設計了相應的Widrow-Hoff學習規則。Widrow-Hoff學習規則通過調整神經元的權值和閾值來最小化均方誤差,因此也被稱為最小均方(Leastmeansquare,LMS)學習算法。該算法是一個以均方誤差為性能指標的近似最速下降算法,屬于有監督學習范疇,依賴于期望輸出進行訓練。均方誤差定義為式中,為神經元的期望輸出。2002神經元學習規則神經元的調整與均方誤差的梯度有關,調整方法為式中,為學習率。例題假設有一個3輸入單輸出的神經元模型,激活函數為線性函數,閾值
,學習率
。當3個輸入樣本分別為
,,,初始權值向量為
,期望輸出,,,試采用Widrow-Hoff學習規則更新神經元權值和閾值。2102神經元學習規則解:為了簡化計算,可以將閾值看作權值的一部分,則有,,輸入向量和初始權值為,,,。權值調整步驟如下:(1)輸入第一個樣本
,計算神經元凈輸入,并調整權值(2)輸入第二個樣本
,計算神經元凈輸入,并調整權值2202神經元學習規則(3)輸入第三個樣本
,計算神經元凈輸入,并調整權值2303神經網絡結構
前饋神經網絡前饋神經網絡(FeedforwardNeuralNetwork,FNN)是一種由多個神經元層次組成的網絡結構,其中信息從輸入層逐層傳遞到各隱含層,最終到達輸出層。該網絡的處理過程具有明確的方向性,在這種結構中,除輸出層外,每一層的輸出都會作為下一層的輸入。圖2-13分別給出了三層前饋神經網絡和四層前饋神經網絡,二者主要區別在于隱含層數目不同。圖2-13.前饋神經網絡結構2403神經網絡結構
遞歸神經網絡遞歸神經網絡(RecurrentNeuralNetworks,RNN),也稱反饋神經網絡或循環神經網絡。與前饋神經網絡不同,遞歸神經網絡中至少存在一個反饋環路。代表性的遞歸神經網絡包括Hopfield神經網絡、回聲狀態網絡和長短期記憶網絡等。圖2-14所示是Hopfield神經網絡。圖14.遞歸神經網絡結構2504神經網絡學習算法
最速下降法最速下降法,又稱梯度下降法,是求解無約束優化問題中最常用的一階優化算法之一。該算法通過沿著目標函數或者損失函數梯度的反方向更新參數,逐步減小函數值,可表示如下:式中,
表示學習率,為目標函數在第k次迭代時的梯度,計算如下:例題試使用最速下降法優化以下函數:令初始值為,學習率為,給出兩次迭代的計算過程與結果。2604神經網絡學習算法解:計算梯度為:可以得到
在處的梯度為:應用最速下降法的第一次迭代為:可以得到
在處的梯度為:應用最速下降法的第二次迭代為:2704神經網絡學習算法
牛頓法區別于最速下降法,牛頓法通過目標函數的二階泰勒多項式,在極小點附近對目標函數進行近似,具體可表示為:式中,
為目標函數在處的梯度向量,為目標函數在處的Hessian矩陣,即。為求的極小點,令二次近似對的梯度為0。則有:若可逆,則可得牛頓法的迭代公式如下:式中,
為的逆矩陣。2804神經網絡學習算法例題試使用牛頓法優化以下函數:令初始值為。2904神經網絡學習算法解:計算梯度為:計算Hessian矩陣為:可
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 樓市活動策劃方案
- 每月環保活動方案
- 畢業活動接龍活動方案
- 模擬教室活動方案
- 樓盤密室尋寶活動方案
- 沙灘雕塑活動方案
- 水活動創新活動方案
- 湯圓營銷活動方案
- 每月寫一篇文章活動方案
- 法國紅酒活動方案
- GB/T 42046-2022載人航天器載荷運輸要求
- JJF 1059.1-2012測量不確定度評定與表示
- GB/T 12668.501-2013調速電氣傳動系統第5-1部分:安全要求電氣、熱和能量
- 水泥窯協同處置固體廢物技術規范
- 工程管理辦法實施細則
- 《心肌灌注顯像》課件
- 2023年中國美術學院輔導員招聘考試筆試題庫及答案解析
- 鋼筋桁架式樓板施工方案鋼筋混凝土
- 碾壓式土石壩構造設計
- 利樂灌裝保養執行
- (高清版)JGJ340-2015建筑地基檢測技術規范
評論
0/150
提交評論