English
| 正體中文 |
简体中文
|
全文筆數/總筆數 : 64178/96951 (66%)
造訪人次 : 10192355 線上人數 : 18201
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by
NTU Library & TKU Library IR team.
搜尋範圍
全部機構典藏
工學院
電機工程學系暨研究所
--會議論文
查詢小技巧:
您可在西文檢索詞彙前後加上"雙引號",以獲取較精準的檢索結果
若欲以作者姓名搜尋,建議至進階搜尋限定作者欄位,可獲得較完整資料
進階搜尋
主頁
‧
登入
‧
上傳
‧
說明
‧
關於機構典藏
‧
管理
淡江大學機構典藏
>
工學院
>
電機工程學系暨研究所
>
會議論文
>
Item 987654321/127130
資料載入中.....
書目資料匯出
Endnote RIS 格式資料匯出
Bibtex 格式資料匯出
引文資訊
請使用永久網址來引用或連結此文件:
https://tkuir.lib.tku.edu.tw/dspace/handle/987654321/127130
題名:
基於深度強化學習之無人載具對未知環境的路徑規劃
作者:
劉智誠
;
林怡仲
;
李柏陞
;
周品甄
關鍵詞:
深度強化學習
;
路徑規劃
;
Gazebo模擬器
;
機器人操作系統
日期:
2024-08-22
上傳時間:
2025-03-20 12:11:20 (UTC+8)
摘要:
本論文應用深度強化學習於模擬環境中的無人載具,嘗試透過深度強化學習解決傳統路徑規劃方法所遇到的瓶頸。主要分為兩個部分:(1)已知環境資訊的Q學習、(2)未知環境資訊的深度Q學習。在已知環境資訊的Q學習,將代理人於模擬環境中的座標作為狀態,經過Q學習的模擬後,建立Q表並找出最佳路徑。在未知環境資訊的深度Q學習透過PyTorch建立神經網路,將代理人的影像作為狀態經過簡單的CNN神經網路與Q網路的計算得出最佳動作,在一定次數的訓練疊代後找出能達成最佳路徑的價值函數。深度Q學習在訓練過程中利用經驗回放(Experience Replay)隨機抽取以前的經驗並進行學習。除了經驗回放外,深度Q學習透過建立兩個結構相同但參數不同的神經網路,修正Q值的目標值(Fixed Q-targets),此兩種方法可以打亂訓練的相關性,使神經網路更新更有效率。實驗結果上,本論文分別測試在模擬環境與實際場域的實用性,利用在模擬環境執行深度學習(Reinforcement Learning)能夠減少大量的人力資源並驗證在實際場域上,證明無人載具可以依靠模擬軟體中訓練出來的權重檔,在實際場域上能自動避障並且獲得與模擬相同的控制成果,最終成功到達目的地。
DOI:
10.6846/tku202300539
顯示於類別:
[電機工程學系暨研究所] 會議論文
文件中的檔案:
檔案
描述
大小
格式
瀏覽次數
index.html
0Kb
HTML
22
檢視/開啟
在機構典藏中所有的資料項目都受到原著作權保護.
TAIR相關文章
DSpace Software
Copyright © 2002-2004
MIT
&
Hewlett-Packard
/
Enhanced by
NTU Library & TKU Library IR teams.
Copyright ©
-
回饋