人工神經元網絡控制論網絡模型_第1頁
人工神經元網絡控制論網絡模型_第2頁
人工神經元網絡控制論網絡模型_第3頁
人工神經元網絡控制論網絡模型_第4頁
人工神經元網絡控制論網絡模型_第5頁
已閱讀5頁,還剩97頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

人工神經元網絡控制論網絡模型1第一頁,共一百零二頁,編輯于2023年,星期五4.1引言4.2前向神經網絡模型4.6神經網絡控制基礎4.7非線性動態系統的神經網絡辨識4.8神經網絡控制的學習機制4.9神經網絡控制器的設計4.3動態神經網絡模型4.10單一神經元控制法目錄2第二頁,共一百零二頁,編輯于2023年,星期五4.1引言人工神經網絡就是模擬人腦細胞的分布式工作特點和自組織功能,且能實現并行處理、自學習和非線性映射等能力的一種系統模型。3第三頁,共一百零二頁,編輯于2023年,星期五發展歷史1943年,心理學家McCmloch和數學家Pitts合作提出形式神經元數學模型(MP),揭開了神經科學理論的新時代。1944年Hebb提出了改變神經元連接強度的Hebb規則。1957年Rosenblatt首次引進了感知器概念(Perceptron)。。1976年,Grossberg提出了自適應共振理論。1982年,美國加州工學院物理學家Hopfield提出了HNN模型,他引入了“計算能量函數”的概念,給出了網絡的穩定性判據。1986年,Rumelhart等PDP研究小組提出了多層前向傳播網絡的BP學習算法。4第四頁,共一百零二頁,編輯于2023年,星期五主要內容5第五頁,共一百零二頁,編輯于2023年,星期五4.1引言4.1.1神經元模型4.1.2神經網絡的模型分類4.1.3神經網絡的學習算法4.1.4神經網絡的泛化能力6第六頁,共一百零二頁,編輯于2023年,星期五4.1.1神經元模型神經元模型是生物神經元的抽象和模擬。可看作多輸入/單輸出的非線性器件。ui

神經元的內部狀態,θi

閥值,

xi輸入信號,j=1,2,…,n;wij表示從單元uj

到單元ui

的連接權值;si外部輸入信號7第七頁,共一百零二頁,編輯于2023年,星期五數學模型通常直接假設

yi=f(Neti)

f為激勵函數,有4種類型。8第八頁,共一百零二頁,編輯于2023年,星期五激勵函數類型1閾值型9第九頁,共一百零二頁,編輯于2023年,星期五激勵函數類型2分段線性型10第十頁,共一百零二頁,編輯于2023年,星期五激勵函數類型3Sigmoid函數型11第十一頁,共一百零二頁,編輯于2023年,星期五激勵函數類型4Tan函數型12第十二頁,共一百零二頁,編輯于2023年,星期五4.1引言4.1.1神經元模型4.1.2神經網絡的模型分類4.1.3神經網絡的學習算法4.1.4神經網絡的泛化能力13第十三頁,共一百零二頁,編輯于2023年,星期五4.1.2神經網絡的模型分類123414第十四頁,共一百零二頁,編輯于2023年,星期五網絡結構圖15第十五頁,共一百零二頁,編輯于2023年,星期五4.1引言4.1.1神經元模型4.1.2神經網絡的模型分類4.1.3神經網絡的學習算法4.1.4神經網絡的泛化能力16第十六頁,共一百零二頁,編輯于2023年,星期五4.1.3神經網絡的學習算法ab17第十七頁,共一百零二頁,編輯于2023年,星期五學習規則18第十八頁,共一百零二頁,編輯于2023年,星期五相關學習僅僅根據連接間的激活水平改變權系數。它常用于自聯想網絡。最常見的學習算法是Hebb規則。η表示學習步長19第十九頁,共一百零二頁,編輯于2023年,星期五糾錯學習有導師學習方法,依賴關于輸出節點的外部反饋改變權系數。它常用于感知器網絡、多層前向傳播網絡和Boltzmann機網絡。其學習的方法是梯度下降法。最常見的學習算法有δ規則、模擬退火學習規則。20第二十頁,共一百零二頁,編輯于2023年,星期五無導師學習學習表現為自適應實現輸入空間的檢測規則。它常用于ART、Kohonen自組織網絡。在這類學習規則中,關鍵不在于實際節點的輸出怎樣與外部的期望輸出相一致,而在于調整參數以反映觀察事件的分布。例如Winner-Take-All學習規則。21第二十一頁,共一百零二頁,編輯于2023年,星期五4.1引言4.1.1神經元模型4.1.2神經網絡的模型分類4.1.3神經網絡的學習算法4.1.4神經網絡的泛化能力22第二十二頁,共一百零二頁,編輯于2023年,星期五4.1.4神經網絡的泛化能力當輸入矢量與樣本輸入矢量存在差異時,其神經網絡的輸出同樣能夠準確地呈現出應有的輸出。這種能力就稱為神經網絡的泛化能力。在有導師指導下的學習中,泛化能力可以定義為訓練誤差和測試誤差之差。與輸入矢量的個數、網絡的節點數和權值與訓練樣本集數目之間存在密切的關系。23第二十三頁,共一百零二頁,編輯于2023年,星期五4.1引言4.2前向神經網絡模型4.6神經網絡控制基礎4.7非線性動態系統的神經網絡辨識4.8神經網絡控制的學習機制4.9神經網絡控制器的設計4.3動態神經網絡模型4.10單一神經元控制法目錄24第二十四頁,共一百零二頁,編輯于2023年,星期五4.2前向神經網絡模型4.2.1網絡結構4.2.2多層傳播網絡的BP學習算法4.2.3快速的BP改進算法25第二十五頁,共一百零二頁,編輯于2023年,星期五4.2.1網絡結構單一神經元12326第二十六頁,共一百零二頁,編輯于2023年,星期五單一神經元w0

為閾值,

wj

決定第j個輸入的突觸權系數。27第二十七頁,共一百零二頁,編輯于2023年,星期五單層神經網絡結構x0=128第二十八頁,共一百零二頁,編輯于2023年,星期五多層神經網絡結構以單隱含層網絡為例:Oj為隱含層的激勵29第二十九頁,共一百零二頁,編輯于2023年,星期五4.2前向神經網絡模型4.2.1網絡結構4.2.2多層傳播網絡的BP學習算法4.2.3快速的BP改進算法30第三十頁,共一百零二頁,編輯于2023年,星期五4.2.2多層傳播網絡的BP學習算法基本思想單層網絡的學習算法多層前向網絡學習算法31第三十一頁,共一百零二頁,編輯于2023年,星期五1.有導師學習的基本思想性能指標為φ(·)是一個正定的、可微的凸函數,常取32第三十二頁,共一百零二頁,編輯于2023年,星期五2.單層網絡的學習算法激勵函數為線性函數時,可通過最小二乘法來學習。

激勵函數為非線性函數時,可采用Delta規則,即梯度法,有α是學習因子

33第三十三頁,共一百零二頁,編輯于2023年,星期五4.多層前向網絡學習算法針對多層前向網絡有導師學習34第三十四頁,共一百零二頁,編輯于2023年,星期五網絡模型第r+1個隱含層:輸出層35第三十五頁,共一百零二頁,編輯于2023年,星期五采用梯度法:其中:定義廣義誤差:可得:BP學習算法36第三十六頁,共一百零二頁,編輯于2023年,星期五反向誤差傳播輸出層時,有:隱含層時,有:37第三十七頁,共一百零二頁,編輯于2023年,星期五例3-1假設對于期望的輸入。

網絡權系數的初始值見圖。試用BP算法訓練此網絡(本例中只給出一步迭代學習過程)。這里,取神經元激勵函數:

學習步長為38第三十八頁,共一百零二頁,編輯于2023年,星期五圖3-1539第三十九頁,共一百零二頁,編輯于2023年,星期五當前輸出40第四十頁,共一百零二頁,編輯于2023年,星期五計算廣義誤差41第四十一頁,共一百零二頁,編輯于2023年,星期五連接權系數更新42第四十二頁,共一百零二頁,編輯于2023年,星期五學習流程43第四十三頁,共一百零二頁,編輯于2023年,星期五(1)初始化設置學習因子η>0。較大時,收斂快,但易振蕩。較小時,反之。最大容許誤差Emax。 用于判斷學習是否結束。隨機賦網絡初始權值。 一般選擇比較小的隨機數。44第四十四頁,共一百零二頁,編輯于2023年,星期五增量型學習累積型學習(2)學習方式45第四十五頁,共一百零二頁,編輯于2023年,星期五收斂性46第四十六頁,共一百零二頁,編輯于2023年,星期五(3)學習速率激勵函數,如用Sigmoid函數,應增大斜率,減少飽和的情況。調節學習因子增加Momentum項47第四十七頁,共一百零二頁,編輯于2023年,星期五例3-2:非線性函數逼近目標函數:48第四十八頁,共一百零二頁,編輯于2023年,星期五學習設置采用傳統的BP學習算法激勵函數都為Sigmoid函數。初始權系數陣由(0,1)之間的隨機數組成。學習步長η=0.09。學習樣本取20點,即:

校驗樣本取30點,即:49第四十九頁,共一百零二頁,編輯于2023年,星期五兩種MLP模型的學習效果50第五十頁,共一百零二頁,編輯于2023年,星期五4.2前向神經網絡模型4.2.1網絡結構4.2.2多層傳播網絡的BP學習算法4.2.3快速的BP改進算法51第五十一頁,共一百零二頁,編輯于2023年,星期五1.快速BP算法Fahlman在1988年首先提出當問題滿足以下條件時:誤差表面呈拋物面、極值點附近凹面向上;某一權系數的梯度變化與其它權系數變化無關。可采取如下的更新公式52第五十二頁,共一百零二頁,編輯于2023年,星期五2.共軛梯度學習算法共軛梯度算法是一種經典優化方法共軛梯度學習算法 特點:使用二階導數信息,但不計算Hessian矩陣53第五十三頁,共一百零二頁,編輯于2023年,星期五目標函數的二階近似目標函數:Taylor展開:其中:54第五十四頁,共一百零二頁,編輯于2023年,星期五最佳權系數求取函數取極小值時,最佳權系數可求解

獲得。由最優化理論可知,解決H逆矩陣的計算問題方法之一是利用共軛梯度來間接地構成H的逆矩陣值。55第五十五頁,共一百零二頁,編輯于2023年,星期五共軛方向如果diHdjT=0對于所有的i≠j,i,j,=1,2,...,n。 則稱d1,d2,...,dn是H共軛的。可見d1,d2,...,dn是線性無關的,因此可作為一組基。56第五十六頁,共一百零二頁,編輯于2023年,星期五最優矩陣的間接求解記W*是極值點的權系數矢量,則有:令Wk=Wk-1+αkdk

,則n次迭代后可得W*。57第五十七頁,共一百零二頁,編輯于2023年,星期五共軛梯度學習算法注意到則58第五十八頁,共一百零二頁,編輯于2023年,星期五共軛矢量的遞推求取定義第一個矢量d1為初始點的負梯度矢量,即d1=-g1。根據gTk+1dk=0(線性無關),可得

dk+1=-gk+1+βkdk

βk=gk+1HdkT/(dkHdkT)注意到 (gk+1-gk)T=H(Wk+1-Wk)T=αkHdkT

所以βk=gk+1(gk+1-gk)T/[dk(gk+1-gk)T]

αk

可通過一維步長最優搜索得到59第五十九頁,共一百零二頁,編輯于2023年,星期五4.1引言4.2前向神經網絡模型4.6神經網絡控制基礎4.7非線性動態系統的神經網絡辨識4.8神經網絡控制的學習機制4.9神經網絡控制器的設計4.3動態神經網絡模型4.10單一神經元控制法目錄60第六十頁,共一百零二頁,編輯于2023年,星期五4.3動態神經網絡模型動態神經網絡帶時滯的多層感知器網絡Hopfield網絡回歸神經網絡61第六十一頁,共一百零二頁,編輯于2023年,星期五4.4.1帶時滯的多層感知器網絡有兩種實現:無輸出反饋有輸出反饋62第六十二頁,共一百零二頁,編輯于2023年,星期五帶時滯的多層感知器網絡1圖3-20時滯神經網絡結構63第六十三頁,共一百零二頁,編輯于2023年,星期五帶時滯的多層感知器網絡2圖3-21帶反饋時滯神經網絡結構64第六十四頁,共一百零二頁,編輯于2023年,星期五4.4.2Hopfield神經網絡具有相互連接的反饋型神經網絡模型將其定義的“能量函數”概念引入到神經網絡研究中,給出了網絡的穩定性判據。用模擬電子線路實現了所提出的模型,并成功地用神經網絡方法實現了4位A/D轉換。65第六十五頁,共一百零二頁,編輯于2023年,星期五類型1266第六十六頁,共一百零二頁,編輯于2023年,星期五1.二值型的Hopfield網絡全連接單層網絡神經元模型yi取值通常為0和1或-1和1

67第六十七頁,共一百零二頁,編輯于2023年,星期五例3-4:狀態轉移關系假設一個3節點的離散Hopfield神經網絡,已知網絡權值與閾值如圖3-23(a)所示。采取隨機異步更新策略,求計算狀態轉移關系。68第六十八頁,共一百零二頁,編輯于2023年,星期五狀態轉移圖69第六十九頁,共一百零二頁,編輯于2023年,星期五動力學特征:能量井能量函數能量井:能量極小狀態(與網絡的穩定狀態一一對應)用途:聯想記憶、優化70第七十頁,共一百零二頁,編輯于2023年,星期五能量井設計能量井的分布是由連接權值決定的。一是根據求解問題的要求直接計算出所需要的連接權值。這種方法為靜態產生方法,一旦權值確定下來就不再改變;二是通過提供一種學習機制來訓練網絡,使其能夠自動調整連接權值,產生期望的能量井。這種方法為動態產生方法。71第七十一頁,共一百零二頁,編輯于2023年,星期五(1)權值的靜態設計方法:例3-6如下圖3節點DHNN模型為例要求設計的能量井為狀態y1y2y3=010和111。權值和閾值可在[-1,1]區間取值,確定網絡權值和閾值。72第七十二頁,共一百零二頁,編輯于2023年,星期五解對于狀態A,當系統處于穩態時,有

W12+θ1<0 θ2>0W23+θ3<0對于狀態B,當系統處于穩態時,有

W12+W13+θ1>0W12+W23+θ2>0W23+W13+θ3>073第七十三頁,共一百零二頁,編輯于2023年,星期五特解W12=0.5,W13=0.4,W23=0.1,θ1=-0.7,θ2=0.2,θ3=-0.4.W12=-0.5,W13=0.5,W23=0.4,θ1=0.1,θ2=0.2,θ3=-0.7.出現了假能量井10074第七十四頁,共一百零二頁,編輯于2023年,星期五(2)基于學習規則的設計方法Hebb學習規則(主要方法)δ學習規則

75第七十五頁,共一百零二頁,編輯于2023年,星期五Hebb學習規則原則為:若i與j兩個神經元同時處于興奮狀態,則它們之間的連接應加強,即:

.

76第七十六頁,共一百零二頁,編輯于2023年,星期五外積規則對于一給定的需記憶的樣本向量{t1,t2,...,tN},如果初始權值為0,tk的狀態值為+1或-1,則其連接權系數的學習可以利用“外積規則”,即:標量形式:活躍值為1或0時:77第七十七頁,共一百零二頁,編輯于2023年,星期五2.網絡的穩定性定理3-2:令S=(W,θ)代表神經網絡,W為一對稱矩陣。則有:如果S工作在串行模式,W的對角元素非負(包括對角元為0的情況),則網絡總是收斂于穩定狀態。(即在狀態空間沒有極限環存在);如果S工作在并行模式時,網絡總是收斂于穩定狀態或Hamming距離小于2的極限環。78第七十八頁,共一百零二頁,編輯于2023年,星期五證明定義能量函數為:

將E(k)在Y(k)展開Talyor級數,有:其中,

79第七十九頁,共一百零二頁,編輯于2023年,星期五不失一般性,假設閾值函數f(·)為符號函數sgn(·)。則

其中:80第八十頁,共一百零二頁,編輯于2023年,星期五顯然在串行工作方式下,81第八十一頁,共一百零二頁,編輯于2023年,星期五例3-7:

假設神經元的閾值矢量θ=0,網絡輸出只取兩值{0,1}。要求Hopfield網絡記憶如下穩定狀態,t1=(1010)T。設采取并行更新,并對以下三種初始狀態下的網絡行為作出評價。y1(0)=(1001)T,y2(0)=(1000)T,y3(0)=(0001)T。82第八十二頁,共一百零二頁,編輯于2023年,星期五步驟1:權值設計根據得83第八十三頁,共一百零二頁,編輯于2023年,星期五步驟2:穩定性分析對于y1(0)有: [1,0,0,1]T→[0,0,0,0]T→[0,0,0,0]T,

因此y1=[0,0,0,0]T,是一個穩定態。對于y2(0)有: [1,0,0,0]T→[0,0,1,0]T→[1,0,0,0]T,

所以初始狀態2不屬于此Hopfield網絡記憶范圍。無法實現聯想。對于y3(0)有: [0,0,0,1]T→[0,1,0,0]T→[0,0,0,1]T,

也不屬于此Hopfield區的記憶范圍。84第八十四頁,共一百零二頁,編輯于2023年,星期五4.應用:聯想記憶功能必須具備兩個基本條件:能夠收斂于穩定狀態,利用此穩態來記憶樣本信息;具有回憶能力,能夠從某一局部輸入信息回憶起與其相關的其它記憶,或者由某一殘缺的信息回憶起比較完整的記憶。85第八十五頁,共一百零二頁,編輯于2023年,星期五舉例:數字識別X=[x1,x2,...,xN]T

、X∈{-1,1}N

,N=10×12=12086第八十六頁,共一百零二頁,編輯于2023年,星期五存在的問題假能量井現象并非任何一組樣本經訓練都可構成一組穩定的狀態。給定一個偏離樣本的初始狀態,最終不一定收斂到與其Hamming距離最近的標準樣本狀態。各樣本之間的Hamming距離分布對聯想記憶功能的正確實現有重要影響。若樣本之間相互正交(dH=N/2)效果最好。反之,若樣本特征相近則易出現錯誤識別。樣本數M越小,聯想記憶功能出現的錯誤的可能性越小。仿真研究表明,取M=0.15N時,聯想的正確率較高。87第八十七頁,共一百零二頁,編輯于2023年,星期五4.連續型的Hopfield網絡與二值型的Hopfield網絡模型具有相同的拓撲結構神經元的狀態oj滿足:

N為網絡中神經元的個數;

oj

為神經元j的狀態;

cj

為常數且大于0;

Rj

為正數;

xj

為外部輸入;

yi

為神經元i的輸出,滿足yi=f(oi)。88第八十八頁,共一百零二頁,編輯于2023年,星期五穩定性引入一個能量函數E:定理3-3:若f-1

為單調遞增且連續, ,則沿系統軌道有:且當且僅當時,89第八十九頁,共一百零二頁,編輯于2023年,星期五證明因為且當時,90第九十頁,共一百零二頁,編輯于2023年,星期五5.優化問題的應用:TSP問題旅行商最優路徑問題(TravellingSalesmanProblem,簡稱TSP)91第九十一頁,共一百零二頁,編輯于2023年

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論