최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기Journal of the Korean Data & Information Science Society = 한국데이터정보과학회지, v.24 no.5, 2013년, pp.989 - 998
최호식 (호서대학교 정보통계학과) , 박혜원 (서울시립대학교 통계학과) , 박창이 (서울시립대학교 통계학과)
We cannot analyze big data, which attracts recent attentions in industry and academy, by batch processing algorithms developed in data mining because big data, by definition, cannot be uploaded and processed in the memory of a single system. So an imminent issue is to develop various leaning algorit...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
빅 데이터 분석을 위한 주요 접근법으로 무엇이 있는가? | 빅 데이터 분석을 위한 주요 접근법은 훈련자료 (train data)의 일부를 표본 추출한 후 일괄처리 알고리즘을 적용하는 방법, 일괄처리 알고리즘을 병렬로 구현하는 방법, 그리고 훈련자료를 하나씩 (혹은 몇 개씩 묶음으로) 학습하는 온라인 알고리즘 (online algorithm) 등으로 구분할 수 있다. 이러한 여러 접근법들중 병렬처리 (parallel processing) 혹은 온라인 학습 알고리즘 등이 실질적으로 빅 데이터 분석에 의미있는 접근법으로 여겨진다. | |
훈련자료를 선형적으로 분리가능한 경우 어떠한 문제가 있는가? | 우선 선형적으로 분리가능한 경우에 대하여 살펴보자. 이 경우에는 모든 훈련자료점을 완벽히 분리하는 선형 분류함수가 무수히 많이 존재하므로 최적화 관점에서 해가 무수히 많이 존재하는 문제점이 있다. 따라서 해의 유일성을 보장하고 좋은 분류함수를 구하기 위하여, 다음과 같이 분류경계와의 거리인 소위 마진 (margin) 을 최대화하는 분류함수를 추구하게 된다. | |
빅 데이터에 기존의 데이터마이닝 시대에 개발된 일괄처리 방식의 알고리즘을 적용할 수 없는 이유는? | 최근 빅 데이터 (big data)에 대한 관심이 고조되고 있는데, 통계적 관점에서 빅 데이터와 관련된 주요 사안들로는 빅 데이터에 적용될 수 있는 분석 알고리즘의 개발과 사회망 (social network) 등의 새로운 형태의 자료의 분석 방법론의 개발 등을 들 수 있다. 특히 빅 데이터는 이름에서 내포하듯이 자료를 한번에 메모리에 올려 분석할 수 없기 때문에 기존의 데이터마이닝 시대에 개발된 일괄처리 (batch processing) 방식의 알고리즘을 적용할 수 없게 된다. 따라서 가장 시급히 해결해야 하는 문제는 기존의 여러 가지 기계학습방법을 빅 데이터에 적용할 수 있도록 분산처리 (distributed processing)를 수행하는 적절한 알고리즘을 개발하는 것이라 볼 수 있다. |
Bordes, A., Bottou, L. and Gallinari, P. (2008). SGD-QN: Careful quasi-Newton stochastic gradient descent. Journal of Machine Learning Research, 10, 1737-1754.
Bottou, L. and Bousquet, O. (2008). The tradeoffs of large scale learning. In Advances in Neural Information Processing Systems, 20, 161-168.
Boyd, S., Parikh, N., Chu, E., Peleato, B. and Eckstein, J. (2010). Distributed optimization and statistical learning via the alternating direction method of multipliers. Foundations and Trendsr in Machine Learning, 3, 1-122.
Cortes, C. and Vapnik, V. (1995). Support vector networks. Machine Learning, 20, 273-297.
Duchi, J. and Singer, Y. (2009). Efficient online and batch learning using forward-backward splitting. Journal of Machine Learning Research, 10, 2873-2898.
Fan, R.-E., Chen, P.-H. and Lin, C.-J. (2005). Working set selection using second order information for training SVM. Journal of Machine Learning Research, 6, 1889-1918.
Forero, P. A., Cano, A. and Giannakis, G. B. (2010). Consensus-based distributed support vector machines. Journal of Machine Learning Research, 11, 1663-1707.
Franc, V. and Sonnenburg, S. (2008). Optimized cutting plane algorithm for support vector machines. In Proceedings of the 25th International Conference on Machine Learning, ACM, 320-327.
Hsieh, C.-J., and Chang, K.-W., Lin, C.-J., Keerthi, S. S and Sundararajan, S. (2008). A dual coordinate descent method for large-scale linear SVM. In Proceedings of the 25th International Conference on Machine Learning, ACM, 408-415.
Park, C., Kim, Y., Kim, J., Song, J. and Choi, H. (2013). Data mining using R, 2nd Edition, Kyowoo Publisher, Seoul.
Park, H.-J. (2011). Online abnormal events detection with online support vector machine. Journal of the Korean Data & Information Science Society, 22, 197-206.
Pi, S.-Y., Park, H.-J. and Ryu, K.-H. (2011) An analysis of satisfaction index on computer education of university using kernel machine. Journal of the Korean Data & Information Science Society, 22, 921-929.
Platt, J. C. (1999). Fast training of support vector machines using sequential minimal optimization. In Advances in Kernal Methods - Support Vector Learning, MIT Press, 185-208.
Shalev-Shwartz, S., Singer, Y., Srebro, N. and Cotter, A. (2011). Pegasos: Primal estimated sub-gradient solver for SVM. Mathematical Programming B, 127, 3-30.
Smola, A. J., Vishwanathan, S. V. N. and Le, Q. V. (2007). Bundle methods for machine learning. In Advances in Neural Information Processing Systems, 20, MIT Press, 1377-1384.
Zou, H. and Hastie, T. (2005). Regularization and variable selection via the elastic net. Journal of the Royal Statistical Society B, 67, 301-320.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.