English  |  正體中文  |  简体中文  |  全文笔数/总笔数 : 49064/83170 (59%)
造访人次 : 6964342      在线人数 : 74
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library & TKU Library IR team.
搜寻范围 查询小技巧:
  • 您可在西文检索词汇前后加上"双引号",以获取较精准的检索结果
  • 若欲以作者姓名搜寻,建议至进阶搜寻限定作者字段,可获得较完整数据
  • 进阶搜寻


    jsp.display-item.identifier=請使用永久網址來引用或連結此文件: http://tkuir.lib.tku.edu.tw:8080/dspace/handle/987654321/22266


    题名: 視覺化行人穿越活動偵知
    作者: 范俊海;梁志彬
    贡献者: 淡江大學運輸管理學系
    日期: 1997-10-01
    上传时间: 2009-11-30 14:00:00 (UTC+8)
    出版者: 臺北市 : 中國土木水利工程學會
    摘要: 國內有關影像處理技術在行人交通偵測方面仍屬一片空白,因此,為了研究行人的交通參數,本研究以行人穿越道路情形做為研究的主要對象,其中包括穿越前的停等以及穿越道路兩種狀況,前者是在行人停等區內, 利用偵測到的總人數減掉移動人數,求出偵測區內停等的人數;後者以行人追蹤為目的,採離線研究的方式觀察行人的運動軌跡;由本文的研究成果可以看出,對
    於多變、複雜的行人的運動狀態已可順利的求出其交通參數, 這也使得行人流模式的發展因為速度、方向、位置等參數的取得而較易於研究;此外,即時的行人計數系統則可與現行的行人號誌系統結合, 改善行人與車輛的運行績效。
    In this study, we try to use image processing technique to count pedestrians which are stationary in the image and track their trajectories when they are walking. In the pedestrian counting system, since the pixels which pedestrian possesses in the image are directly proportional to number of pedestrians, so we use background differencing method to establish regression model and calculate all people in the image. On the other hand, we use interframe differencing method to establish another regression model which is used to calculate moving pedestrians in the image. The difference between total number of pedestrians and number of moving pedestrians at the same time is considered to be the number of stationary pedestrians in the image. About pedestrian's trajectory detection, we adopt template matching method based on image feature invariants to track each pedestrian's template in sequence images. After linking every coordinates, we obtain pedestrians' trajectory lines.
    關聯: 八十六年電子計算機於土木水利工程應用論文研討會論文集 (V.1),頁283-294
    显示于类别:[運輸管理學系暨研究所] 會議論文

    文件中的档案:

    档案 大小格式浏览次数
    index.html0KbHTML104检视/开启

    在機構典藏中所有的数据项都受到原著作权保护.

    TAIR相关文章

    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library & TKU Library IR teams. Copyright ©   - 回馈