人工智能及其應用 課件5 機器學習_第1頁
人工智能及其應用 課件5 機器學習_第2頁
人工智能及其應用 課件5 機器學習_第3頁
人工智能及其應用 課件5 機器學習_第4頁
人工智能及其應用 課件5 機器學習_第5頁
已閱讀5頁,還剩101頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

第五章機器學習5.1概述5.2記憶學習5.3歸納學習5.4解釋學習5.5神經學習5.1概述什么是機器學習?機器學習(MachineLearning)是一門研究計算機如何模擬人類學習活動、自動獲取知識的一門學科。機器學習是知識工程的三個分支(獲取知識、表示知識、使用知識)之一,也是人工智能的一個重要研究領域。為什么要進行機器學習?人工智能主要是為了研究人的智能,模仿其機理將其應用于工程的科學。在這個過程中必然會問道:“人類怎樣才能獲取這種特殊技能(或知識)?”

現在的人工智能系統還沒有或僅有有限的學習能力,系統中的知識由人工編程送入系統,知識中的錯誤也不能自動改正。也就是說,現有的人工智能系統不能自動獲取和生成知識。

未來的計算機將有自動獲取知識的能力,它們直接由書報學習,通過與人談話學習,通過觀察學習。一、機器學習的概念機器學習就是讓機器(計算機)來模擬和實現人類的學習功能。主要研究內容:(1)認知模擬通過對人類學習機理的研究和模擬,從根本上解決機器學習方面存在的種種問題。(2)理論性分析從理論上探索各種可能的學習方法,并建立起獨立于具體應用領域的學習算法。(3)面向任務的研究根據特定任務的要求,建立相應的學習系統。二、機器學習的發展過程神經元模型研究(20世紀50年代中期到60年代初期)機器學習的熱烈時期,具有代表性的工作是羅森勃拉特1957年提出的感知器模型。符號概念獲取(20世紀60年代中期到70年代初期)主要研究目標是模擬人類的概念學習過程。這一階段神經網絡模型研究落入低谷,是機器學習的冷靜時期。知識強化學習(20世紀70年代中期到80年代初期)人們開始把機器學習與各種實際應用相結合,尤其是專家系統在知識獲取方面的需求,是機器學習的復興時期。連接學習和混合型學習(20世紀70年代中期至今)把符號學習和連接學習結合起來的混合型學習系統研究已經機器學習研究的一個新的熱點。三、學習系統四、機器學習的主要策略5.2記憶學習5.3歸納學習一、示例學習二、決策樹學習5.4解釋學習一、解釋學習概述二、解釋學習的基本原理三、解釋學習的基本過程5.5神經學習神經元模型是生物神經元的抽象和模擬。可看作多輸入/單輸出的非線性器件。ui

神經元的內部狀態,θi

閾值,

xi

輸入信號,j=1,2,…,n;wij

表示從單元uj到單元ui的連接權值;si

外部輸入信號數學模型

ui=f(Neti)

yi=g(ui)通常可以假設

g(ui)=ui,則:

yi=f(Neti)

f為激勵函數,通常有4種類型。19:13491、閾值型2、分段線性型

19:13503、Sigmoid函數型4、Tan函數型19:1351

神經網絡模型的種類相當豐富,已有近40余種各式各樣的神經網絡模型。根據連接方式的不同,神經網絡的結構類型主要分4類:前向網絡反饋網絡相互結合型網絡混合型網絡前向網絡(a)、反饋網絡(b)、相互結合型網絡(c)、

混合型網絡(d)

19:1353神經網絡的學習算法有導師學習:就是在訓練過程中,始終存在一個期望的網絡輸出。期望輸出和實際輸出之間的距離作為誤差度量并用于調整權值。無導師學習:無導師學習指的是網絡不存在一個期望的輸出值,需建立一個間接的評價函數。神經網絡學習規則根據連接權系數的改變方式不同又可分為如下三類:相關學習糾錯學習無導師學習

相關學習:僅僅根據連接間的激活水平改變權系數。它常用于自聯想網絡。最常見的學習算法是Hebb規則:如果單元ui接受來自另一單元uj的輸出,那么,如果兩個單元都高度興奮,則從uj到ui的權值wij便得到加強。用數學形式可以表示為:

Δwij=ηyioj

η表示學習步長19:1356糾錯學習:有導師學習方法,依賴關于輸出節點的外部反饋改變權系數。它常用于感知器網絡、多層前向傳播網絡和Boltzmann機網絡。其學習的方法是梯度下降法。最常見的學習算法有δ規則、模擬退火學習規則。δ規則學習信號就是網絡的期望輸出t與網絡實際輸出y的偏差δj=tj-yj。連接權陣的更新規則為:

Δwji=ηδjyi

19:1357無導師學習表現為自適應實現輸入空間的檢測規則。它常用于ART、Kohonen自組織網絡。例如Winner-Take-All學習規則假設輸出層共有no個輸出神經元,且當輸入為x時,第m個神經元輸出值最大,則稱此神經元為勝者。并將與此勝者神經元相連的權系數Wm

進行更新。其更新公式為:

Δwmj=η(xj-wmj),j=1,2,...ni式中η>0,為小常數二、前向神經網絡模型

前向神經網絡是由一層或多層非線性處理單元組成。相鄰層之間通過突觸權系數連接起來。由于每一層的輸出傳播到下一層的輸入,因此稱此類網絡結構為前向神經網絡,有三種結構:單一神經元單層神經網絡結構多層神經網絡結構單一神經元:每一神經元的激勵輸出是由一組連續輸入信號xi

i=1,2,...,ni決定的,而這些輸入信號代表著從另外神經元傳遞過來的神經脈沖的瞬間激勵。設y代表神經元的連續輸出狀態值。19:13

0

為閾值,

wj

決定第j個輸入的突觸權系數。60二、前向神經網絡模型單層神經網絡結構:由ni個輸入單元和no的輸出單元組成。系統ni個輸入變量用xjj=1,2,...,ni表示,no個輸出變量用yi;i=1,2,...,no表示。19:13i=1,2,...,no

61二、前向神經網絡模型

多層神經網絡結構:是在輸入層和輸出層之間嵌入一層或多層隱含層的網絡結構。隱含單元既可以與輸入輸出單元相連,也可以與其它隱含單元相連。

以單隱含層網絡為例:19:13Oj為隱含層的激勵i=1,2,...,no

j=1,2,...,nh

62二、前向神經網絡模型假設每一層的神經元激勵函數相同,則對于L+1層前向傳播網絡,其網絡輸出的數學表示關系方程式一律采用:

其中:Γl為各層神經元的激勵函數,

層到

層的連接權矩陣,

層的閥值矢量19:1363二、前向神經網絡模型有導師學習的基本思想前向傳播網絡實質上表示的是一種從輸入空間到輸出空間的映射。對于給定的輸入矢量X,其網絡的響應可以由方程

Y=T(X)給出,其中T(·)一般取為與網絡結構相關的非線性算子。神經網絡可以通過對合適樣本集,即輸入輸出矢量對(Xp,Tp)p=1,2,...,N來進行訓練。網絡的訓練實質上是突觸權陣的調整,以滿足當輸入為Xp時其輸出應為Tp。對于某一特定的任務,訓練樣本集是由外部的導師決定的。這種訓練的方法就稱為有導師學習。19:13二、前向神經網絡模型64有導師學習的思路:

對于給定的一組初始權系數,網絡對當前輸入Xp的響應為:Yp=T(Xp)。權系數的調整是通過迭代計算逐步趨向最優值的過程,調整數值大小是根據對所有樣本p=1,2,...,N的誤差指標Ep=d(Tp,Yp)達到極小的方法來實現的。其中:Tp

表示期望的輸出,

Yp

表示當前網絡的實際輸出,

d(·)表示距離函數。19:13二、前向神經網絡模型65BP網絡學習過程分成兩部分:(1)工作信號正向傳播:輸入信號從輸入層經隱層,傳向輸出層,在輸出端產生輸出信號,這是信號的正向傳播。在信號向前傳遞過程中網絡的權值是固定不變的,每一層神經元的狀態只影響下一層神經元的狀態。如果在輸出層不能得到期望的輸出,則轉入誤差信號反向傳播。(2)誤差信號反向傳播:網絡的實際輸出與期望輸出之間差值即為誤差信號,誤差信號由輸出端開始逐層向前傳播,這是誤差信號的反向傳播。在誤差信號反向傳播的過程中,網絡權值由誤差反饋進行調節,通過權值的不斷修正使網絡的實際輸出更接近期望輸出。19:13二、前向神經網絡模型66BP學習算法的推導:對于N個樣本集,性能指標為φ(·)是一個正定的、可微的凸函數,常取前向神經網絡是通過期望輸出與實際輸出之間誤差平方的極小來進行權陣學習和訓練19:13二、前向神經網絡模型67

學習算法是一個迭代過程,從輸入模式Xp出發,依靠初始權系數,計算:第一個隱含層的輸出為:第r+1個隱含層:輸出層19:13二、前向神經網絡模型68誤差反向傳播學習算法推導:由性能指標函數Ep可得:其中:定義廣義誤差:19:13二、前向神經網絡模型69則:上標變量r表示第r個隱含層,r=1,2,...,L,

為第r-1層第i單元到第r層的第j單元的連接系數。r=L為輸出單元層:19:13二、前向神經網絡模型70隱含層時,有:19:13二、前向神經網絡模型71BP學習算法

給定p組樣本(x1,t1;x2,t2;...;xP,tP)。這里xi為ni維輸入矢量,ti為no維期望的輸出矢量,i=1,2,...,P。假設矢量y和o分別表示網絡的輸出層輸出和隱含層輸出矢量10:選η>0,Emax作為最大容許誤差,并將權系數Wl

,θll=1,2,...,L初始化成小的隨機值。p←1,E←020

:訓練開始,

o(0)p←xp,t←tp19:13二、前向神經網絡模型72BP學習算法30

:計算誤差

E←(tk-yk)2/2+E,k=1,2,...,no40

:計算廣義誤差50

:調整權陣系數60

:若p<P,p←p+1轉20,否則轉70。

70

:若E<Emax,結束,否則E←0,p←1轉20

二、前向神經網絡模型73作業:假設對于期望的輸入[x1,x2]T=[1,3]T,[t1,t2]T=[0.95,0.05]T。網絡權系數的初始值見圖。試用BP算法訓練此網絡。這里,取神經元激勵函數:

學習步長為η=1。計算當前各層的輸出二、前向神經網絡模型*76計算廣義誤差二、前向神經網絡模型*77連接權系數更新二、前向神經網絡模型*78BP算法的不足:(1)訓練時間較長。對于某些特殊的問題,運行時間可能需要幾個小時甚至更長,這主要是因為學習率太小所致,可以采用自適應的學習率加以改進。(2)完全不能訓練。訓練時由于權值調整過大使激活函數達到飽和,從而使網絡權值的調節幾乎停滯。為避免這種情況,一是選取較小的初始權值,二是采用較小的學習率。(3)易陷入局部極小值。BP算法可以使網絡權值收斂到一個最終解,但它并不能保證所求為誤差超平面的全局最優解,也可能是一個局部極小值。這主要是因為BP算法所采用的是梯度下降法,訓練是從某一起始點開始沿誤差函數的斜面逐漸達到誤差的最小值,故不同的起始點可能導致不同的極小值產生,即得到不同的最優解。如果訓練結果未達到預定精度,常常采用多層網絡和較多的神經元,以使訓練結果的精度進一步提高,但與此同時也增加了網絡的復雜性與訓練時問。(4)“喜新厭舊”。訓練過程中,學習新樣本時有遺忘舊樣本的趨勢。二、前向神經網絡模型BP學習算法的注意事項:權系數的初值:

一般情況下,權系數通常初始化成一個比較小的隨機數,并盡量可能覆蓋整個權陣的空間域。避免出現初始權陣系數相同的情況學習方式:增量型學習和累積型學習激勵函數:由于常規Sigmoid函數在輸入趨于1時其導數接近0,從而會大大影響其訓練速度,容易產生飽和現象。因此,可以通過調節Sigmoid函數的斜率或采用其它激勵單元來改善網絡性能學習速率:

一般說來,學習速率越大,收斂越快,但容易產生振蕩;而學習速率越小,收斂越慢19:13二、前向神經網絡模型80前向傳播網絡,從學習觀點看,它是一種強有力的學習系統;從系統觀點看,它是一種靜態非線性映射反饋型神經網絡具備非線性動力學系統所特有的豐富動力學特性,如穩定性、極限環、奇異吸引子(即渾沌現象)等。一個耗散動力學系統的最終行為是由它的吸引子決定的,吸引子可以是穩定的,也可以是不穩定的。--動態神經網絡19:13三、動態神經網絡模型81

簡單非線性神經元互連而成的反饋動力學神經網絡系統具有兩個重要的特征:(1)系統有若干個穩定狀態。如果從某一初始狀態開始運動,系統總可以進入某一穩定狀態;(2)系統的穩定狀態可以通過改變相連單元的權值而產生。19:13三、動態神經網絡模型82

如果將神經網絡的穩定狀態當作記憶,那么神經網絡由任一初始狀態向穩態的演化過程,實質上是尋找記憶。穩態的存在是實現聯想記憶的基礎。能量函數是判定網絡穩定性的基本概念。下面我們先給出穩定性定義。定義5-1:神經網絡從任一初態X(0)開始運動,若存在某一有限的時刻ts,從ts以后神經網絡的狀態不再發生變化,即:

X(ts+Δt)=X(ts),Δt>0則稱網絡是穩定的。處于穩定時刻的網絡狀態叫穩定狀態,又稱定點吸引子。19:13三、動態神經網絡模型83

動態神經網絡模型的實質是其節點方程用微分方程或差分方程來表示而不是簡單地用非線性代數方程來表達,主要介紹三種:帶時滯的多層感知器網絡Hopfield網絡回歸神經網絡19:13三、動態神經網絡模型84帶時滯的多層感知器網絡:多層前向傳播網絡是如何來處理動態序列問題的。利用靜態網絡來描述動態時間序列可以簡單地將輸入信號按時間座標展開,并將展開后的所有信息作為靜態網絡的輸入模式。1、輸出是有限維獨立的輸入序列函數的動態系統y(k)=f[x(k),x(k-1),...x(k-n)]19:13三、動態神經網絡模型852、帶反饋的動態網絡系統y(k)=F(x(k),x(k-1),...x(k-n),y(k-1),y(k-2),...y(k-m))19:13三、動態神經網絡模型以上2種神經網絡的學習問題完全可以利用靜態前向傳播神經網絡的BP算法來解決。86Hopfield神經網絡:提出一種相互連接的反饋型神經網絡模型將其定義的“能量函數”概念引入到神經網絡研究中,給出了網絡的穩定性判據。用模擬電子線路實現了所提出的模型,并成功地用神經網絡方法實現了4位A/D轉換。19:13三、動態神經網絡模型87二值型的Hopfield網絡:又稱離散型Hopfield網絡。這種網絡結構只有一個神經元層次。每個處理單元均有一個活躍值,即抑制和興奮神經元網絡結構:19:13k表示時間變量;θi

表示外部輸入;yi

表示神經元輸出,通常為0和1或-1和1三、動態神經網絡模型88

對于n個節點的離散Hopfield網絡有2n個可能的狀態,網絡狀態可以用一個包含0和1的矢量來表示,如Y=(y1y2...yn)。每一時刻整個網絡處于某一狀態。狀態變化采用隨機性異步更新策略,即隨機地選擇下一個要更新的神經元,且允許所有神經元節點具有相同的平均變化概率。節點狀態更新包括三種情況:0→1、1→0、或狀態保持。19:13三、動態神經網絡模型89舉例:假設一個3節點的離散Hopfield神經網絡,已知網絡權值與閾值如下圖所示。求:計算狀態轉移關系。19:13三、動態神經網絡模型90以初始狀態y1y2y3=000為例假設首先選擇節點V1,激勵函數為:節點V1處于興奮狀態并且狀態y1由0→1。網絡狀態由000→100,轉移概率為1/3同樣其它兩個節點也可以以等概率發生狀態變化。19:13三、動態神經網絡模型91狀態轉移圖19:1392

系統狀態y1y2y3=011是一個網絡的穩定狀態;該網絡能從任意一個初始狀態開始經幾次的狀態更新后都將到達此穩態。仔細觀察上圖狀態轉移關系,就會發現Hopfield網絡的神經元狀態要么在同一“高度”上變化,要么從上向下轉移。這樣的一種狀態變化有著它必然的規律。Hopfield網絡狀態變化的核心是每個狀態定義一個能量E,任意一個神經元節點狀態變化時,能量E都將減小。這也是Hopfield網絡系統穩定的重要標記。19:13三、動態神經網絡模型93

Hopfield利用非線性動力學系統理論中的能量函數方法(或Lyapunov函數)研究反饋神經網絡的穩定性,并引入了如下能量函數:定理5-1離散Hopfield神經網絡的穩定狀態與能量函數E在狀態空間的局部極小狀態是一一對應的。19:13三、動態神經網絡模型94

神經網絡的能量極小狀態又稱為能量井。能量井的存在為信息的分布存貯記憶、神經優化計算提供了基礎。如果將記憶的樣本信息存貯于不同的能量井。當輸入某一模式時,神經網絡就能回想起于其相關記憶的樣本實現聯想記憶。一旦神經網絡的能量井可以由用戶選擇或產生時,Hopfield網絡所具有的能力才能得到充分的發揮。能量井的分布是由連接權值決定的。因此,設計能量井的核心是如何獲得一組合適的權值。19:13三、動態神經網絡模型95舉例:如下圖3節點DHNN模型為例要求設計的能量井為狀態y1y2y3=010和111。權值和閾值可在[-1,1]區間取值,確定網絡權值和閾值。19:13三、動態神經網絡模型96解:對于狀態A,當系統處于穩態時,有

W12+θ1<0(1)

θ2>0(2)W23+θ3<0(3)對于狀態B,當系統處于穩態時,有

W12+W13+θ1>0(4)

W12+W23+θ2>0(5)

W23+W13+θ3>0(6)19:13三、動態神經網絡模型97取W12=0.5,則:

由(1)式,-1<θ1≤-0.5取θ1=-0.7;由(4)式,0.2<W13≤1.取W13=0.4;由(2)式,0<θ2≤1.取θ2=0.2;由(5)式,-0.7<W23≤1.取W23=0.1;由(6)式,-1≤W13<0.5取

W13=0.4;由(3)式,-1≤θ3<-0.1取θ3=-0.4.19:13三、動態神經網絡模型98

由于網絡權值和閾值的選擇可以在某一個范圍內進行。因此,它的解并不是唯一的。而且在某種情況下,所選擇的一組參數雖然能滿足能量井的設計要求,但同時也會產生我們不期望的能量井。這種穩定狀態點稱為假能量井。針對上例,如果選擇的權值和閾值為

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論