$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

차원축소 방법을 이용한 평균처리효과 추정에 대한 개요
Overview of estimating the average treatment effect using dimension reduction methods 원문보기

응용통계연구 = The Korean journal of applied statistics, v.36 no.4, 2023년, pp.323 - 335  

김미정 (이화여자대학교 통계학과)

초록
AI-Helper 아이콘AI-Helper

고차원 데이터의 인과 추론에서 고차원 공변량의 차원을 축소하고 적절히 변형하여 처리와 잠재 결과에 영향을 줄 수 있는 교란을 통제하는 것은 중요한 문제이다. 평균 처리 효과(average treatment effect; ATE) 추정에 있어서, 성향점수와 결과 모형 추정을 이용한 확장된 역확률 가중치 방법이 주로 사용된다. 고차원 데이터의 분석시 모든 공변량을 포함한 모수 모형을 이용하여 성향 점수와 결과 모형 추정을 할 경우, ATE 추정량이 일치성을 갖지 않거나 추정량의 분산이 큰 값을 가질 수 있다. 이런 이유로 고차원 데이터에 대한 적절한 차원 축소 방법과 준모수 모형을 이용한 ATE 방법이 주목 받고 있다. 이와 관련된 연구로는 차원 축소부분에 준모수 모형과 희소 충분 차원 축소 방법을 활용한 연구가 있다. 최근에는 성향점수와 결과 모형을 추정하지 않고, 차원 축소 후 매칭을 활용한 ATE 추정 방법도 제시되었다. 고차원 데이터의 ATE 추정 방법연구 중 최근에 제시된 네 가지 연구에 대해 소개하고, 추정치 해석시 유의할 점에 대하여 논하기로 한다.

Abstract AI-Helper 아이콘AI-Helper

In causal analysis of high dimensional data, it is important to reduce the dimension of covariates and transform them appropriately to control confounders that affect treatment and potential outcomes. The augmented inverse probability weighting (AIPW) method is mainly used for estimation of average ...

주제어

참고문헌 (31)

  1. Abadie A and Imbens GW (2006). Large sample properties of matching estimators for average treatment effects,?Econometrica, 74, 235-267.? 

  2. Aronszajn N (1950). Theory of reproducing kernels, Transactions of the American Mathematical Society, 68,?337-404.? 

  3. Carpenter JR, Kenward MG, and Vansteelandt S (2006). A comparison of multiple imputation and doubly robust?estimation for analyses with missing data, Journal of the Royal Statistical Society: Series A (Statistics in?Society), 169, 571-584.? 

  4. Cheng D, Li J, Liu L, Le TD, Liu J, and Yu K (2022). Sufficient dimension reduction for average causal effect?estimation, Data Mining and Knowledge Discovery, 36, 1174-1196.? 

  5. Cook RD (1996). Graphics for regressions with a binary response, Journal of the American Statistical Association, 91, 983-992. 

  6. Cook RD (2009). Regression Graphics: Ideas for Studying Regressions through Graphics, John Wiley & Sons,?New York.? 

  7. Cook RD and Weisberg S (1991). Sliced inverse regression for dimension reduction: Comment, Journal of the?American Statistical Association, 86, 328-332.? 

  8. De Luna X, Waernbaum I, and Richardson TS (2011). Covariate selection for the nonparametric estimation of an?average treatment effect, Biometrika, 98, 861-875.? 

  9. Dong Y and Li B (2010). Dimension reduction for non-elliptically distributed predictors: Second-order methods,?Biometrika, 97, 279-294.? 

  10. Fukumizu K, Bach FR, and Jordan MI (2004). Dimensionality reduction for supervised learning with reproducing?kernel Hilbert spaces, Journal of Machine Learning Research, 5, 73-99.? 

  11. Ghasempour M and de Luna X (2021). SDRcausal: An R package for causal inference based on sufficient dimension reduction, Available from: arXiv preprint arXiv:2105.02499? 

  12. Ghosh T, Ma Y, and De Luna X (2021). Sufficient dimension reduction for feasible and robust estimation of average causal effect, Statistica Sinica, 31, 821-842.? 

  13. Glymour M, Pearl J, and Jewell NP (2016). Causal Inference in Statistics: A Primer, John Wiley & Sons, United?Kingdom.? 

  14. Glynn AN and Quinn KM (2010). An introduction to the augmented inverse propensity weighted estimator,?Political Analysis, 18, 36-56.? 

  15. Hahn J (1998). On the role of the propensity score in efficient semiparametric estimation of average treatment?effects, Econometrica, 66, 315-331.? 

  16. Kang JD and Schafer JL (2007). Demystifying double robust-ness: A comparison of alternative strategies for?estimating a population mean from incomplete data, Statistical Science, 22, 523-539.? 

  17. Li B and Dong Y (2009). Dimension reduction for nonelliptically distributed predictors, The Annals of Statistics,?37, 1272-1298.? 

  18. Li B and Wang S (2007). On directional regression for dimension reduction, Journal of the American Statistical?Association, 102, 997-1008.? 

  19. Li KC (1991). Sliced inverse regression for dimension reduction, Journal of the American Statistical Association,?86, 316-327.? 

  20. Liu J, Ma Y, and Wang L (2018). An alternative robust estimator of average treatment effect in causal inference,?Biometrics, 74, 910-923.? 

  21. Ma Y and Zhu L (2012). A semiparametric approach to dimension reduction, Journal of the American Statistical?Association, 107, 168-179.? 

  22. Ma Y and Zhu L (2014). On estimation efficiency of the central mean subspace, Journal of the Royal Statistical?Society: Series B: Statistical Methodology, 76, 885-901.? 

  23. Ma S, Zhu L, Zhang Z, Tsai CL, and Carroll RJ (2019). A robust and efficient approach to causal inference based?on sparse sufficient dimension reduction, Annals of Statistics, 47, 1505-1535.? 

  24. Mukherjee B and Chatterjee N (2008). Exploiting gene-environment independence for analysis of case-control?studies: An empirical Bayes-type shrinkage estimator to trade-off between bias and efficiency, Biometrics,?64, 685-694.? 

  25. Robins JM, Rotnitzky A, and Zhao LP (1994). Estimation of regression coefficients when some regressors are?not always observed, Journal of the American Statistical Association, 89, 846-866.? 

  26. Robins JM, Rotnitzky A, and Zhao LP (1995). Analysis of semiparametric regression models for repeated outcomes in the presence of missing data, Journal of the American Statistical Association, 90, 106-121.? 

  27. Rubin DB (1973). Matching to remove bias in observational studies, Biometrics, 29, 159-183.? 

  28. Vansteelandt S, Bekaert M, and Claeskens G (2012). On model selection and model misspecification in causal?inference, Statistical Methods in Medical Research, 21, 7-30.? 

  29. Wager S and Athey S (2018). Estimation and inference of heterogeneous treatment effects using random forests,?Journal of the American Statistical Association, 113, 1228-1242.? 

  30. Ye Z and Weiss RE (2003). Using the bootstrap to select one of a new class of dimension reduction methods,?Journal of the American Statistical Association, 98, 968-979.? 

  31. Yuan M and Lin Y (2006). Model selection and estimation in regression with grouped variables, Journal of the?Royal Statistical Society: Series B (Statistical Methodology), 68, 49-67.? 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로