基于時延Q學習的機器人動態規劃方法_第1頁
基于時延Q學習的機器人動態規劃方法_第2頁
基于時延Q學習的機器人動態規劃方法_第3頁
基于時延Q學習的機器人動態規劃方法_第4頁
全文預覽已結束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、 莊夏 條從初始狀態 Initial_Position 到目標狀態 Goal 的路徑如圖 2 所示。 為了驗證文中算法的優越性,將文中方法與經典的 Q-Learning 算法以及文獻11中基于蛙跳算法的 方法進行比較,得到的三種方法的收斂情況如圖 3 所示。 從圖 3 中可以看出,文中方法不僅具有較快的收斂速度,同時具有最好的收斂解,這表現在文中方 法在第 50 個情節處就開始收斂,收斂的解為 13。文獻11所示的蛙跳算法從算法運行開始,收斂速度一 直較另外兩種方法更慢,在情節數為 90 時趨于收斂,但收斂的解為局部最優解 22 步。文獻11采用基于 Q 學習的方法進行最優策略獲取,其算法在運

2、行過程中收斂速度較文中方法更慢,但其在情節為 70 時收 斂,收斂的時間步為 23,仍然為局部最優解。顯然,文中方法具有最快的收斂速度和最好的收斂解。文 中方法沒有陷入局部最優解是因為在算法中采用了 RMAX 方法來增加探索能力, 使得初始狀態處所有狀 態動作處都具有較大的 Q 值,從而使得那些沒有訪問過的狀態動作對能有較大的概率被訪問到。文中收 斂速度快是因為狀態動作對的更新需要根據狀態動作對訪問的次數來確定,從而使得狀態動作更新的效 率更高,最終加快了算法的收斂速度。 Initial_Position Goal Figure 2. The robot plans the optimal path 圖 2. 機器人規劃最優路徑 110 100 90 80 70 文獻 11方 法 文獻 12方 法 文中方法 時間步 60 50 40 30 20 10 0 10 20 30 40 50 情節數 60 70 80 90 100 Figure 3. Three methods convergent per

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論