English  |  正體中文  |  简体中文  |  全文笔数/总笔数 : 62805/95882 (66%)
造访人次 : 3982659      在线人数 : 562
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library & TKU Library IR team.
搜寻范围 查询小技巧:
  • 您可在西文检索词汇前后加上"双引号",以获取较精准的检索结果
  • 若欲以作者姓名搜寻,建议至进阶搜寻限定作者字段,可获得较完整数据
  • 进阶搜寻


    jsp.display-item.identifier=請使用永久網址來引用或連結此文件: https://tkuir.lib.tku.edu.tw/dspace/handle/987654321/114723


    题名: 人臉重建技術應用於遮蔽情境下之人臉驗證系統
    其它题名: Learning-based approach for occluded face verification
    作者: 蕭士勛;Hsiao, Shih-Hsun
    贡献者: 淡江大學資訊工程學系碩士班
    凃瀞珽
    关键词: Direct Combined Model(DCM);Domain-transferring learning;triplet loss
    日期: 2017
    上传时间: 2018-08-03 15:01:54 (UTC+8)
    摘要: 人臉驗證技術之所以被廣泛研究,來自於這項技術應用在監視與取證上,它是非常重要的技術之一。本篇論文中,我們的目的是驗證兩張不同情境下拍攝的人臉影像是否為同一個人(如遮蔽的人臉與非遮蔽人臉)。本篇提出的架構中,我們介紹一種基於人臉重建為主的人臉驗證方法;在進行驗證方法前,先將遮蔽的人臉影像進行重建,再將結果進行驗證,重建與驗證的模組均是以樣本學習為主的方法。在重建模組中,我們利用樣本學習機制建立多樣的轉換式,這些轉換式提供了先驗知識能重建任一一張未見過的人臉遮蔽影像。為了確保重建結果能夠保留個人的臉部特徵,我們整合驗證模組於重建器中,對重建的結果進行驗證以這提供更可靠人臉外貌。實驗證明,我們提出的學習架構在遮蔽情境下的人臉驗證有不錯的效果。
    In this study, our goal is to verify identity of two facial images that captured under different scenarios (e.g., occluded facial image vs. non-occluded one). We introduce an example-based approach for face verification, i.e. the occluded facial image is recovered first, and then used for face verification process. In the synthesis module, training examples are used to provide a prior knowledge for the unseen occluded image reconstruction. In order to make sure the quality of recovered results, a verification step is embedded. Such discriminative-driven synthesis framework provides more reliable facial appearance for both face reconstruction and verification. According to the experimental results, the proposed system makes the synthesis results preserve the personal characteristics of system input.
    显示于类别:[資訊工程學系暨研究所] 學位論文

    文件中的档案:

    档案 描述 大小格式浏览次数
    index.html0KbHTML179检视/开启

    在機構典藏中所有的数据项都受到原著作权保护.

    TAIR相关文章

    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library & TKU Library IR teams. Copyright ©   - 回馈