English  |  正體中文  |  简体中文  |  全文筆數/總筆數 : 64178/96951 (66%)
造訪人次 : 10192355      線上人數 : 18201
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library & TKU Library IR team.
搜尋範圍 查詢小技巧:
  • 您可在西文檢索詞彙前後加上"雙引號",以獲取較精準的檢索結果
  • 若欲以作者姓名搜尋,建議至進階搜尋限定作者欄位,可獲得較完整資料
  • 進階搜尋
    請使用永久網址來引用或連結此文件: https://tkuir.lib.tku.edu.tw/dspace/handle/987654321/127130


    題名: 基於深度強化學習之無人載具對未知環境的路徑規劃
    作者: 劉智誠;林怡仲;李柏陞;周品甄
    關鍵詞: 深度強化學習;路徑規劃;Gazebo模擬器;機器人操作系統
    日期: 2024-08-22
    上傳時間: 2025-03-20 12:11:20 (UTC+8)
    摘要: 本論文應用深度強化學習於模擬環境中的無人載具,嘗試透過深度強化學習解決傳統路徑規劃方法所遇到的瓶頸。主要分為兩個部分:(1)已知環境資訊的Q學習、(2)未知環境資訊的深度Q學習。在已知環境資訊的Q學習,將代理人於模擬環境中的座標作為狀態,經過Q學習的模擬後,建立Q表並找出最佳路徑。在未知環境資訊的深度Q學習透過PyTorch建立神經網路,將代理人的影像作為狀態經過簡單的CNN神經網路與Q網路的計算得出最佳動作,在一定次數的訓練疊代後找出能達成最佳路徑的價值函數。深度Q學習在訓練過程中利用經驗回放(Experience Replay)隨機抽取以前的經驗並進行學習。除了經驗回放外,深度Q學習透過建立兩個結構相同但參數不同的神經網路,修正Q值的目標值(Fixed Q-targets),此兩種方法可以打亂訓練的相關性,使神經網路更新更有效率。實驗結果上,本論文分別測試在模擬環境與實際場域的實用性,利用在模擬環境執行深度學習(Reinforcement Learning)能夠減少大量的人力資源並驗證在實際場域上,證明無人載具可以依靠模擬軟體中訓練出來的權重檔,在實際場域上能自動避障並且獲得與模擬相同的控制成果,最終成功到達目的地。
    DOI: 10.6846/tku202300539
    顯示於類別:[電機工程學系暨研究所] 會議論文

    文件中的檔案:

    檔案 描述 大小格式瀏覽次數
    index.html0KbHTML22檢視/開啟

    在機構典藏中所有的資料項目都受到原著作權保護.

    TAIR相關文章

    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library & TKU Library IR teams. Copyright ©   - 回饋