淡江大學機構典藏:Item 987654321/32862
English  |  正體中文  |  简体中文  |  全文笔数/总笔数 : 64176/96941 (66%)
造访人次 : 9106206      在线人数 : 12608
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library & TKU Library IR team.
搜寻范围 查询小技巧:
  • 您可在西文检索词汇前后加上"双引号",以获取较精准的检索结果
  • 若欲以作者姓名搜寻,建议至进阶搜寻限定作者字段,可获得较完整数据
  • 进阶搜寻


    jsp.display-item.identifier=請使用永久網址來引用或連結此文件: https://tkuir.lib.tku.edu.tw/dspace/handle/987654321/32862


    题名: 線性及機率模式中解釋變數有測量誤差時不使用額外訊息的估計方法
    其它题名: Estimating methods in linear and probit models with measurement errors and without extra information
    作者: 魏鈺方;Wei, Yu-fang
    贡献者: 淡江大學數學學系碩士班
    黃逸輝;Huang, Yih-huei
    关键词: 測量誤差;不可辨認性;線性模式;probit 模式;額外訊息;校正分數函數;不偏估計方程式;measurement error;unidentifiability;linear model;probit model;corrected score;unbiased estimating equation
    日期: 2005
    上传时间: 2010-01-11 02:52:28 (UTC+8)
    摘要: 在測量誤差模式中,當解釋變數與測量誤差皆為常態分配時,線性與 probit 模式皆是不可辨認的,因此過去文獻所提出的分析方法幾乎都要求有額外的訊息或假設,以避免模式的不可辨認性方能進行分析。但我們認為模式的不可辨認性應屬少數的特例,在大多數的情形即使沒有額外訊息還是可以發展具有一致性的分析方法。在無額外的訊息之下, 本文提出使用過量參數的估計方法,並從理論上驗證參數何時會具有一致性的估計量。另外電腦的模擬結果也與理論上的期望相吻合。
    When measurement errors are present, the linear model and probit model are unidentifiable if the covariate is normally distributed. Thus, one usually requires extra information or assumptions to proceed the analysis. However, we think that the unidentifiability are special cases and will not happen for other distributions of the covariate. When there is no extra information, we propose an overparameterization method to estimate the regression parameters and the variance of the measurement error. We provide a theoretical verification and a conjecture for when the model can be analyzed consistently by the proposed method. A simulation study was conducted and seems to be coincided with the theoretical results.
    显示于类别:[應用數學與數據科學學系] 學位論文

    文件中的档案:

    档案 大小格式浏览次数
    0KbUnknown311检视/开启

    在機構典藏中所有的数据项都受到原著作权保护.

    TAIR相关文章

    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library & TKU Library IR teams. Copyright ©   - 回馈