$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

약물유전체학에서 약물반응 예측모형과 변수선택 방법
Feature selection and prediction modeling of drug responsiveness in Pharmacogenomics 원문보기

응용통계연구 = The Korean journal of applied statistics, v.34 no.2, 2021년, pp.153 - 166  

김규환 (중앙대학교 통계학과) ,  김원국 (중앙대학교 응용통계학과)

초록
AI-Helper 아이콘AI-Helper

약물유전체학 연구의 주요 목표는 고차원의 유전 변수를 기반으로 개인의 약물 반응성을 예측하는 것이다. 변수의 개수가 많기 때문에 변수의 개수를 줄이기 위해서는 변수 선택이 필요하며, 선택된 변수들은 머신러닝 알고리즘을 사용하여 예측 모델을 구축하는데 사용된다. 본 연구에서는 400명의 뇌전증 환자의 차세대 염기서열 분석 데이터에 로지스틱 회귀, ReliefF, TurF, 랜덤 포레스트, LASSO의 조합과 같은 여러 가지 혼합 변수 선택 방법을 적용하였다. 선택된 변수들에 랜덤포레스트, 그래디언트 부스팅, 서포트벡터머신을 포함한 머신러닝 방법들을 적용했고 스태킹을 통해 앙상블 모형을 구축하였다. 본 연구의 결과는 랜덤포레스트와 ReliefF의 혼합 변수 선택 방법을 이용한 스태킹 모형이 다른 모형보다 더 좋은 성능을 보인다는 것을 보여주었다. 5-폴드 교차 검증을 기반으로 하여 적합한 최적 모형의 평균 검증 정확도는 0.727이고 평균 검증 AUC 값은 0.761로 나타났다. 또한, 동일한 변수를 사용할 때 스태킹 모델이 단일 머신러닝 예측 모델보다 성능이 우수한 것으로 나타났다.

Abstract AI-Helper 아이콘AI-Helper

A main goal of pharmacogenomics studies is to predict individual's drug responsiveness based on high dimensional genetic variables. Due to a large number of variables, feature selection is required in order to reduce the number of variables. The selected features are used to construct a predictive m...

주제어

표/그림 (5)

참고문헌 (30)

  1. Abraham G, Tye-Din JA, Bhalala OG, Kowalczyk A, Zobel J, and Inouye M (2014). Accurate and robust genomic prediction of celiac disease using statistical learning, PLoS Genetics, 10, e1004137. 

  2. Austin PC, Tu JV, Ho JE, Levy D, and Lee DS (2013). Using methods from the data-mining and machinelearning literature for disease classification and prediction: a case study examining classification of heart failure subtypes, Journal of Clinical Epidemiology, 66, 398-407. 

  3. Boulesteix AL, Janitza S, Kruppa J, and Konig IR (2012). Overview of random forest methodology and practical guidance with emphasis on computational biology and bioinformatics, Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 2, 493-507. 

  4. Bommert A, Sun X, Bischl B, Rahnenfuhrer J, and Lang M (2020). Benchmark for filter methods for feature selection in high-dimensional classification data, Computational Statistics and Data Analysis, 143, 106839. 

  5. Breiman L (1996). Stacked regressions, Machine Learning, 24, 49-64. 

  6. Breiman L (2001). Random forests, Machine Learning, 45, 5-32. 

  7. Chen X and Ishwaran H (2012). Random forests for genomic data analysis, Genomics, 99, 323-329. 

  8. D'iaz-Uriarte R (2007). GeneSrF and varSelRF: a web-based tool and R package for gene selection and classification using random forest, BMC Bioinformatics, 8, 328. 

  9. Fisher RS, Acevedo C, Arzimanoglou A, et al (2014). Ilae official report: a practical clinical definition of epilepsy, Epilepsia, 55, 475-482. 

  10. Genuer R, Poggi JM, and Tuleau-Malot C (2015). VSURF: an R package for variable selection using random forests, The R Journal, 7, 19-33. 

  11. Ho DSW, Schierding W, Wake M, Saffery R, and O'Sullivan J (2019). Machine learning SNP based prediction for precision medicine, Frontiers in genetics, 10, 267. 

  12. Jovic A, Brkic K, and Bogunovic N (2015). A review of feature selection methods with applications, ' In 2015 38th international convention on information and communication technology, electronics and microelectronics (MIPRO), 1200-1205. 

  13. Kang KW, Kim W, Cho YW, et al (2019). Genetic characteristics of non-familial epilepsy, PeerJ, 7, e8278. 

  14. Kim MK, Moore JH, Kim, and Shin MH (2011). Evidence for epistatic interactions in antiepileptic drug resistance, Journal of Human Genetics, 56, 71-76. 

  15. Kira K, and Rendell LA (1992). The feature selection problem: Traditional methods and a new algorithm. In Aaai Press. 

  16. Kononenko I (1994). Estimating attributes: analysis and extensions of RELIEF. In European conference on machine learning, 171-182, Springer, Berlin, Heidelberg. 

  17. Lee JY, Kim MK, and Kim W (2020). Robust linear trend test for low-coverage next-generation sequence data controlling for covariates, Mathematics, 8, 217. 

  18. Li J, Cheng K, Wang S, Morstatter F, Trevino RP, Tang J, and Liu H (2017). Feature selection: a data perspective, ACM Computing Surveys (CSUR), 50, 1-45. 

  19. Lopez B, Torrent-Fontbona F, Vin as R, and Ferna ndez-Real JM (2017). Single nucleotide polymorphism relevance learning with random forests for type 2 diabetes risk prediction, Artificial Intelligence in Medicine, 85, 43-49. 

  20. Mieth B, Kloft M, Rodr'iguez JA, et al (2016). Combining multiple hypothesis testing with machine learning increases the statistical power of genome-wide association studies, Scientific Reports, 6, 36671. 

  21. Montanez CAC, Fergus P, Montaez AC, Hussain A, Al-Jumeily D, and Chalmers C (2018). Deep learning classification of polygenic obesity using genome wide association study snps, In 2018 International Joint Conference on Neural Networks (IJCNN), IEEE. 

  22. Moore JH and White BC (2007). Tuning relieff for genome-wide genetic analysis. In European Conference on Evolutionary Computation, Machine Learning and Data Mining in Bioinformatics, Springer. 

  23. Mustra M, Grgic M, and Delac K (2012). Breast density classification using multiple feature selection, Automatika, 53, 1289-1305. 

  24. Nguyen TT, Huang JZ, Wu Q, Nguyen TT, and Li MJ (2015). Genome-wide association data classification and snps selection using two-stage quality-based random forests, BMC Genomics, Springer. 

  25. Romagnoni A, J egou S, Van Steen K, Wainrib G, and Hugot JP (2019). Comparative performances of machine learning methods for classifying crohn disease patients using genome-wide genotyping data, Scientific Reports, 9, 1-18. 

  26. Tibshirani R (1996). Regression shrinkage and selection via the lasso, Journal of the Royal Statistical Society: Series B (Methodological), 58, 267-288. 

  27. Van der Laan MJ, Polley EC, and Hubbard AE (2007). Super learner, Journal of Clinical Epidemiology, 6. 

  28. Wei Z, Wang W, Bradfield J, et al (2013). Large sample size, wide variant spectrum, and advanced machinelearning technique boost risk prediction for inflammatory bowel disease, The American Journal of Human Genetics, 92, 1008-1012. 

  29. Wolpert DH (1992). Stacked generalization, Neural Networks, 5, 241-259. 

  30. Zou H and Hastie T (2005). Regularization and variable selection via the elastic net, Journal of the Royal Statistical Society: Series B (Statistical Methodology), 67, 301-320. 

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로