English  |  正體中文  |  简体中文  |  全文筆數/總筆數 : 62822/95882 (66%)
造訪人次 : 4019582      線上人數 : 1037
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library & TKU Library IR team.
搜尋範圍 查詢小技巧:
  • 您可在西文檢索詞彙前後加上"雙引號",以獲取較精準的檢索結果
  • 若欲以作者姓名搜尋,建議至進階搜尋限定作者欄位,可獲得較完整資料
  • 進階搜尋
    請使用永久網址來引用或連結此文件: https://tkuir.lib.tku.edu.tw/dspace/handle/987654321/111367


    題名: 具重建力與鑑別力之混合子空間應用於人臉驗證技術
    其他題名: Face verification by exploiting reconstructive and discriminative coupled subspaces
    作者: 林孟穎;Lin, Meng-Ying
    貢獻者: 淡江大學資訊工程學系碩士班
    凃瀞珽;Tu, Ching-Ting
    關鍵詞: 主成分分析;自適應增強;支持向量機;線性識別分析;Principal component analysis;Eigenface;Support Vector Machine;Adaboost;Linear Discriminant Analysis
    日期: 2016
    上傳時間: 2017-08-24 23:51:00 (UTC+8)
    摘要: 本篇論文提出整合重建性與鑑別性之人臉驗證系統,系統輸入一對灰階人臉影像;輸出這對人臉影像為相同人或不同人。在真實情況下,通常監視系統所拍攝到的人臉影像會是低解析或遮蔽等,各種問題的人臉影像,而在辨識資料庫的人臉影像大多為高解析且非遮蔽的人臉影像,所以我們很難直接比對兩種不同屬性的人臉影像。
    為了解決這個問題,本篇論文提出整合重建性與鑑別性的人臉特徵,能夠有效的辨識兩種不同屬性的人臉影像。實作上,我們將兩種不同情境(如:遮蔽與非遮蔽、低解析與高解析)下之相同人的配對人臉影像與不同人的配對人臉影像分別訓練兩個PCA(Principal Components Analysis)子空間;其中,相同人臉配對建立的子空間用建立在不同情境下的樣貌關聯性,不同人配對所建立的子空間為人與情境等多種樣貌變異之關聯性。於兩種不同屬性的PCA子空間之特徵軸中,以Adaboost的架構挑選相對有鑑別相同人或不同人的能力的特徵軸。
    除此之外,我們也利用PCA的重建特性來解決遮蔽情境或是解析度不足狀況下的人臉驗證問題。實際的作法是,我們採用Adaboot挑選到的特徵軸所重組的子空間,以及原來兩種不同屬性的PCA子空間來重建更多樣性樣貌的成對人臉影像,當成人臉驗證的SVM分類器所使用的特徵。
    我們提出的演算法架構驗證於低解析、圍巾遮蔽或是戴太陽眼鏡的情境之下。特別是於遮蔽情境下,人臉具有嚴重的樣貌破壞,本文所提出的方法於這樣的情境下具有顯著的驗證率提升。
    Face verification has been widely studied due to its importance in surveillance and forensics applications. In practice, gallery images in the database are high-quality while probe images are usually low-resolution or with heavy occlusion. This study, we proposed a regression-based approach for face verification in the low-quality scenario. We adopt principal component analysis (PCA) approach to construct the correlation between pairwise samples, where each sample contains heterogeneous pairwise facial image captured in terms of different modalities or features (e.g., low-resolution vs. high-resolution, or occluded facial image vs. non-occluded one). Three common feature spaces are reconstructed by cross-domain pairwise samples, with the goal of eliminating appearance variations and maximizing discrimination between different subjects. Such derived subspaces are then used to represent the subjects of interest, and achieve satisfactory verification performance. Experiments on a variety of synthesis-based verification tasks under low-resolution and occlusion cases would verify the effectiveness of our proposed learning framework.
    顯示於類別:[資訊工程學系暨研究所] 學位論文

    文件中的檔案:

    檔案 描述 大小格式瀏覽次數
    index.html0KbHTML60檢視/開啟

    在機構典藏中所有的資料項目都受到原著作權保護.

    TAIR相關文章

    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library & TKU Library IR teams. Copyright ©   - 回饋