淡江大學機構典藏:Item 987654321/111367
English  |  正體中文  |  简体中文  |  全文笔数/总笔数 : 64178/96951 (66%)
造访人次 : 10885439      在线人数 : 20830
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library & TKU Library IR team.
搜寻范围 查询小技巧:
  • 您可在西文检索词汇前后加上"双引号",以获取较精准的检索结果
  • 若欲以作者姓名搜寻,建议至进阶搜寻限定作者字段,可获得较完整数据
  • 进阶搜寻


    jsp.display-item.identifier=請使用永久網址來引用或連結此文件: https://tkuir.lib.tku.edu.tw/dspace/handle/987654321/111367


    题名: 具重建力與鑑別力之混合子空間應用於人臉驗證技術
    其它题名: Face verification by exploiting reconstructive and discriminative coupled subspaces
    作者: 林孟穎;Lin, Meng-Ying
    贡献者: 淡江大學資訊工程學系碩士班
    凃瀞珽;Tu, Ching-Ting
    关键词: 主成分分析;自適應增強;支持向量機;線性識別分析;Principal component analysis;Eigenface;Support Vector Machine;Adaboost;Linear Discriminant Analysis
    日期: 2016
    上传时间: 2017-08-24 23:51:00 (UTC+8)
    摘要: 本篇論文提出整合重建性與鑑別性之人臉驗證系統,系統輸入一對灰階人臉影像;輸出這對人臉影像為相同人或不同人。在真實情況下,通常監視系統所拍攝到的人臉影像會是低解析或遮蔽等,各種問題的人臉影像,而在辨識資料庫的人臉影像大多為高解析且非遮蔽的人臉影像,所以我們很難直接比對兩種不同屬性的人臉影像。
    為了解決這個問題,本篇論文提出整合重建性與鑑別性的人臉特徵,能夠有效的辨識兩種不同屬性的人臉影像。實作上,我們將兩種不同情境(如:遮蔽與非遮蔽、低解析與高解析)下之相同人的配對人臉影像與不同人的配對人臉影像分別訓練兩個PCA(Principal Components Analysis)子空間;其中,相同人臉配對建立的子空間用建立在不同情境下的樣貌關聯性,不同人配對所建立的子空間為人與情境等多種樣貌變異之關聯性。於兩種不同屬性的PCA子空間之特徵軸中,以Adaboost的架構挑選相對有鑑別相同人或不同人的能力的特徵軸。
    除此之外,我們也利用PCA的重建特性來解決遮蔽情境或是解析度不足狀況下的人臉驗證問題。實際的作法是,我們採用Adaboot挑選到的特徵軸所重組的子空間,以及原來兩種不同屬性的PCA子空間來重建更多樣性樣貌的成對人臉影像,當成人臉驗證的SVM分類器所使用的特徵。
    我們提出的演算法架構驗證於低解析、圍巾遮蔽或是戴太陽眼鏡的情境之下。特別是於遮蔽情境下,人臉具有嚴重的樣貌破壞,本文所提出的方法於這樣的情境下具有顯著的驗證率提升。
    Face verification has been widely studied due to its importance in surveillance and forensics applications. In practice, gallery images in the database are high-quality while probe images are usually low-resolution or with heavy occlusion. This study, we proposed a regression-based approach for face verification in the low-quality scenario. We adopt principal component analysis (PCA) approach to construct the correlation between pairwise samples, where each sample contains heterogeneous pairwise facial image captured in terms of different modalities or features (e.g., low-resolution vs. high-resolution, or occluded facial image vs. non-occluded one). Three common feature spaces are reconstructed by cross-domain pairwise samples, with the goal of eliminating appearance variations and maximizing discrimination between different subjects. Such derived subspaces are then used to represent the subjects of interest, and achieve satisfactory verification performance. Experiments on a variety of synthesis-based verification tasks under low-resolution and occlusion cases would verify the effectiveness of our proposed learning framework.
    显示于类别:[資訊工程學系暨研究所] 學位論文

    文件中的档案:

    档案 描述 大小格式浏览次数
    index.html0KbHTML94检视/开启

    在機構典藏中所有的数据项都受到原著作权保护.

    TAIR相关文章

    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library & TKU Library IR teams. Copyright ©   - 回馈