第10章神經網絡控制及其應用課件_第1頁
第10章神經網絡控制及其應用課件_第2頁
第10章神經網絡控制及其應用課件_第3頁
第10章神經網絡控制及其應用課件_第4頁
第10章神經網絡控制及其應用課件_第5頁
已閱讀5頁,還剩47頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1.神經網絡控制產生的背景

自動控制面臨著兩個方面的技術問題(1)控制對象越來越復雜,存在著多種不確定(隨機性)和難以確切描述的非線性。(2)對控制系統的要求越來越高,迫切要求提高控制系統的智能化水平,即系統具有邏輯思維和推理判斷的能力。

神經網絡為處理和解決上述問題提供了一條新的途徑

(1)神經網絡源于對腦神經的模擬,所以具有很強的適應于復雜環境和多目標控制要求的自學習能力。(2)具有以任意精度逼近任意非線性連續函數的特性。

2.神經網絡的應用航空:高性能飛行器自動駕駛、飛行路徑模擬、飛行部件模擬、飛行部件故障檢測…汽車:汽車自動導航儀…

國防:武器操縱、目標跟蹤、面部識別、雷達和圖像信號處理、新型傳感器、聲納…

制造:生產流程控制、過程和機器診斷、機器性能分析、化工流程動態建模、項目投標…

機器人:軌道控制、操作手控制、視覺系統…

語音:語音識別、語音壓縮…

還有金融、保險、銀行、醫療、交通、電訊、電子、石油天然氣、有價證券、娛樂等行業。3.生物學的啟示

4.人工神經元

輸入

輸出

j=1,2…mi=1,2…nyjQjXnX2f∑X1圖2單神經元結構圖

軸突細胞體樹突樹突軸突突觸細胞體樹突圖1生物神經元的簡圖

(發射)(接收)(連接)為簡便起見,也可把網絡的閾值以連接數值的形式表示出來,即令,則

式中

—為其它神經元傳至本神經元的輸入信號,

—神經元j的閾值,此閾值決定了該神經元的興奮與否;

—表示從神經元i到神經元j的連接權值;

—稱為激勵函數(也有稱為響應函數或傳輸函數)。權值表示相鄰的神經元相互連接的程度閾值即決定神經元的興奮與否,決定興奮與抑制激勵函數可為線性函數也可為非線性函數。它是用來實現輸入對輸出函數關系的靜態映射,它決定了神經元的單元特性。

常用的神經元非線性函數x10f(x)圖3階躍函數f(x)x1-1圖4sgn函數

1β=1f(x)0xβ=0.2β=5圖5S狀函數(1)階躍函數

(2)Sgn函數

(3)S狀函數

5.神經網絡模型的組成

5.1.神經網絡連接的結構形式

輸出層輸入層隱含層神經元yny2y1XnX2X1圖6前向網絡

神經元網絡中神經元是分層排列,每個神經元只與前一層的神經元相連接,分為輸入層,隱含層(一層或多層)和輸出層。

(1)前向網絡(2)反饋前向網絡

網絡本身是前向型,但從輸出到輸入有反饋。

yny2y1XnX2X1圖7反饋前向網絡

圖8互連網絡

(3)互連網絡

任意兩個神經元之間都可能有連接,因此輸入信號要在神經元之間反復往返傳遞。

5.2.BP網絡的結構

BP網絡是一單向傳播的多層前向網絡,其結構圖如圖6所示BP網絡可看成是一從輸入到輸出的高度非線性映射網絡。

(1)輸入層神經元數

(2)隱含層神經元數

(3)隱含層數的確定

(4)輸出層神經元數的確定

BP網絡各層的神經元數(即節點數)及隱含層層數的確定如下:

6.神經網絡的學習

當神經網絡的結構確定之后,關鍵問題是設計一個學習速度快,收斂性好的學習算法。

要求網絡本身必須具有學習功能,即能夠從示教模式的學習中逐漸調整權值和閾值,使網絡整體具有近似函數或處理信息的功能。

(1)有教師學習

(2)無教師學習

6.1.網絡學習方式廣泛應用的有教師學習的算法——BP(BackPropagation)算法

BP算法即是誤差反向傳播算法,該方法已成為神經網絡學習中最常用的方法之一。BP算法一般是應用梯度下降原理,樣本輸入信號在神經網絡中正向傳播,應用了多層前向神經網絡具有的以任意精度逼近非線性函數的能力。而網絡輸出與樣本給定輸出值之差(誤差)在網絡中是反向傳播,用于網絡的權值的訓練。

輸出層LC隱含層LB輸入層LAWpqWiqWijW1qW1jVnpVniVn1VhpVhiVh1V1pV1iW11V11a1ahanb1bibpc1cjcq圖9基本BP網絡的拓撲結構

5.2.網絡的計算

對BP控制網絡進行訓練時,首先要提供訓練樣本,樣本可以形式化為樣本對或稱模式對

()其中Ak為第k個樣本的輸入模式

()

Ck為希望輸出模式

()它們分別對應于LA層的n個神經元和Lc層的q個神經元。

當網絡的實際輸出與希望輸出一致時,學習過程結束。否則學習系統將根據實際輸出和希望輸出之間的誤差,通過調整連接權值使網絡的實際輸出趨向于希望輸出。BP網絡樣本輸入學習算法程序框圖如圖10所示。并以圖11三層(LA,LB,LC)BP神經網絡為例進行學習過程的演示。

結束輸入學習樣本求隱含層、輸出層神經元的輸出計算實際輸出值與目標值的誤差誤差滿足要求?反向計算調整權值和閾值YN初始化

三層BP神經網絡拓撲結構

W11V11b1W12W32W31W22W21V23V22V21V13V12U2=1U1=1a1a2b2b3c1c200圖11三層BP神經網絡拓撲結構

BP三層神經網絡學習算法各種參數及計算公式見表1。

層名12345678910符號及公式參數名神經元數初始權值矩陣初始閾值矩陣第k個樣本對值輸入值輸出值誤差學習率閾值調整權值調整輸入層隱含層輸出層學習訓練步驟如下:

第1步:網絡初始化

輸入層LA的權值U=1,閾值=0

輸入層LA到隱含層LB的權值矩陣為

隱含層LB到輸出層LC權值矩陣為

隱含層LB各神經元閾值為

輸出層LC-各神經元閾值為以一個樣本對即k=1為例,樣本輸入,樣本輸出。

圖12三層BP神經網絡拓撲結構第2步:樣本正向輸入,進行前向計算

輸入樣本為,其輸入層的輸出為a1和a2。對于輸入層,給定每個神經元的權值為1,閾值為0,其激勵函數為S型函數,則第1個神經元的輸出值為

層神經元的加權輸入,根據為

層的實際輸出值,根據式和式計算,則根據式求激勵函數為S型情況下的b值為

根據式計算第k=1樣本對LC層神經元的加權輸入為

根據式求LC層神經元的實際輸出值

第3步:進行誤差計算根據式和樣本期量值進行輸出層LC誤差計算

通過給定的精度系數可判斷輸出層LC的誤差值d是否滿足要求,如果不滿足,則需進行反向傳播計算,通過修正權值和閾值使其逼近給定精度系數。

第4步:反向傳播計算(1)隱含層LB一般化誤差的計算根據式計算隱含層LB一般化誤差為

(2)隱含層Lb和輸出層Lc權值的調整

根據式調整其LB至LC權值,則按學習步長(也稱學習率)的范圍:給定。

(3)根據式調整LA至LB權值,則

按步長范圍:,給定

(4)網絡輸出層Lc和隱含層Lb閾值的調整值計算根據式調整Lc層閾值

(5)根據式調整LB層閾值為

(6)計算調整后的權值和閾值隱含層LB至輸出層LC的權值,得

輸入層LA至隱含層LB的權值,由式得輸出層LC閾值根據式得

隱含層LB閾值,根據式得

經過上述計算在輸出層LC的誤差值d未滿足精度要求的情況下,完成了第1次權值和閾值的調整訓練。經反向計算調整后需按程序框圖12的流程和上述計算方法再計算輸出層LC誤差值d,其運算過程不再全部列出,只是直接給出將調整后LB層和LC層的輸出值和誤差值。

LB層的輸出值

LB層的誤差值

LC層的輸出值

LC層的誤差值

在此根據LC層的誤差值d判斷是否滿足給定的精度系數,如果不滿足再進行第2次的循環調整,再從第2步開始運行,以后為了簡化只給出調整結果。

·第2次循環調整

LC層至LB層的權值調整

LB層至LA層的權值調整

LC層閾值的調整

LB層閾值的調整

LB層的輸出值

LB層的誤差值

Lc層的輸出值Lc層的誤差值

第3次循環調整

LC層至LB層的權值調整

LB層至LA層的權值調整

LC層閾值的調整

LB層閾值的調整

LB層的輸出值

LB層的誤差值

LC層的輸出值

LC層的誤差值

第999次循環調整

LC層至LB層的權值調整

LB層至LA層的權值調整

LC層的閾值為

LB層的閾值為

LB層的輸出值

LB層的誤差值

LC層的輸出值

LC層的誤差值

BP神經網絡樣本輸入信號正向傳播和誤差反向傳播的過程,就是在不斷地調整權值和閾值的過程,可以使網絡以任意精度逼近任意非線性函數,也就是隨著循環調整次數的增加,其輸出層的誤差值d在不斷地減小,直至趨近于零,這是總的趨勢,但不排除在訓練過程中出現d值增大的現象,特別是前些次調整,本例的最初幾次調整,d值可能有所增大。產生這種現象的原因是網絡學習訓練過程中出現振蕩現象。這與學習率和的取值有關,和的值取的過大就會出現振蕩現象。

電火花線切割加工是用直徑為0.02--0.3mm不斷移動的銅絲或鎢絲等作為電極,根據被加工工件的形狀要求,編制數字程序控制工作臺的運動,對安裝在工作臺上的工件實現電火花線切割加工。對于在線切割機床上加工工件,經常被人們關注的影響表面質量和生產率的主要技術指標是:被加工工件的表面粗糙度Ra(μm)和在一定厚度下的表面切割速度(mm2/min)。而影響這兩項指標的加工工藝參數分別是工件厚度、脈沖電流的脈寬、脈間、幅值及平均加工電流。而這5項工藝參數均以不同的程度、錯綜復雜地影響著這兩項技術指標,而且難以用數學模型進行綜合性表達。但從生產需要出發,還必須了解并掌握它們之間的影響規律,故采用神經網絡的技術手段通過以下步驟來實現這一目的。現以BP神經網絡的學習算法實現對線切割加工質量及效率的控制。

6基于BP神經網絡的線切割加工質量及效率控制10.6.1線切割加工BP神經網絡的設計

1.BP網絡的結構確定

BP網絡為前向網絡結構,各層的神經元數和隱含層數的確定是要根據所研究對象和內容來確定。

(1)輸入層神經元數(節點數)的確定

輸入層神經元數的確定是根據線切割加工時輸入的工件厚度、脈沖電流的脈寬、脈間、脈沖峰值電流和平均加工電流等5項工藝參數來確定的,故輸入層節點數為5。

(2)隱含層神經元數及層數的確定

①隱含層神經元數的確定

隱含層目前還沒有一個很好的計算方法,而是要根據經驗來定,數目太少,網絡擬合誤差曲線的能力差。如果數目太多,網絡會出現過擬合現象,即擬合精度很高,但對樣本的均方差(均方差的計算方法與表10.1誤差的計算方法不同)此處并不反而增大。此例分別選定神經元數為13和18進行對比實驗,最終選擇較為合適的一種。

②隱含層層數的確定

隱含層層數的確定也沒有一個很好的計算方法,和隱含層神經元數一樣,可以利用經驗或是試錯法,先設置一層隱含層,計算其輸出層均方差,逐漸增加層數,如果出現變壞,則停止,選擇出現均方差最小時的層數。此例選定一層和二層隱含層進行對比實驗,最終選擇較為合適的一種。

(3)輸出層神經元數的確定

輸出層神經元數的確定根據實際需要,在線切割機上主要是兩項技術指標,一是加工零件的表面粗糙度,另一項就是表面切割速度。

線切割加工質量及效率控制BP神經網絡三層和四層拓撲結構分別如圖13和圖14所示。

基于BP神經網絡線切割加工質量及效率控制

工件厚度脈沖電流脈寬切割速度脈沖電流脈間表面粗糙度脈沖電流幅值平均電流圖13線切割加工質量及效率控制神經網絡拓撲結構

圖14BP神經網絡四層拓撲結構圖

3.學習(訓練)樣本的確定及激勵函數的選擇學習樣本的個數為25個,樣本各項輸入數據()、輸出數據(c1,c2),和希望值以及最后達到的期望誤差(反映網絡收斂誤差的大小,在此即為均方差)等的確定見表14.2。

2.網絡的初始化

在BP神經網絡模型的訓練中,所有神經元之間的連接初始權值、和以及各層神經元的初始閾值可分別選擇變化區間為[-1,1]或[0,1]的隨機值。并在網絡訓練中進行比較,觀察其不同,最終選取較為合適的變化區間。在此選擇S狀函數,即Sigmoid函數作為激勵函數。4.樣本的正向輸入及反向傳播計算

樣本輸入之后,按所編制的計算機程序,進行前向輸入層、隱含層和輸出層輸出值的計算以及誤差值和反向計算等。其最終的結果見表14.4。線切割加工質量及效率控制BP神經網絡的訓練1.神經網絡預測程序的編寫用MATLAB軟件編寫神經網絡預測程序,預測程序包括:輸入的歸一化和輸出的反歸一化、函數的調用、網絡初始化參數和網絡結構參數的確定等。2.采用不同網絡訓練方案BP神經網絡采用不同訓練方案其結果如表14.2所示。

通過不同訓練方案見表14.3:由方案1和方案2可見,初始權值和閾值的取值范圍為[-1~1]比取值范圍為[0~1]時收斂次數少(收斂次數定義為:當均方差小于給定的期望誤差時,程序停止運行,此時的疊代次數為收斂次數),而收斂速度快;由方案1和方案3可見,隱含層神經元數為13時比神經元數為18時的收斂次數少,收斂速度更快;由方案1和方案4可見,神經元數相同,隱含層為二層的收斂速度比隱含層為一層的收斂次數少,收斂速度快。

當采用不同網絡訓練方案時,其訓練次數為78次時,均方差與收斂后的均方差的對比見

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論