최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기정보와 통신 : 한국통신학회지 = Information & communications magazine, v.31 no.11, 2014년, pp.27 - 34
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
최근접 이웃 정보에 대한 이론적 연구는 어떤 연구를 기반으로 시작되었나? | 최근접 이웃 정보에 대한 이론적 연구는 최근점 이웃 정보를 모분포에 연결시켜 베이즈 에러와의 관계를 밝힌 T. Cover의 연구를 기반으로 시작되었다[2]. 이 연구는 데이터가 많아 데이터 공간을 충분히 메울 만한 밀도가 보장되는 가정 하의 결과였고, 결과적으로 알고자 하는 데이터 위치에서의 확률 밀도와 이 위치에서 가장 가까운 k개의 최근접 이웃들 위치에서의 확률 밀도 차이가 없게 되는 상황을 가정하였다. | |
k-최근접 방법은 어디에 사용되는가? | 하지만 많은 경우, 실제 문제를 푸는 과정에서는 일반적으로 k-최근접 이웃 분류법이 다른 많은 알고리즘들 보다 좋은 성능을 내지 못해 왔다. 따라서 k-최근접 방법은 초벌 분석(preliminary analysis)을 위한 도구로 사용되거나 다른 알고리즘이 상대적으로 얼마나 잘 하는지를 나타낼 때 쓰이는 최소 기준을 제공하는 베이스라인 분류기(baseline classifier)로 많이 사용되어 왔다. | |
최근접 이웃들까지의 거리들이 특정 확률 분포를 따르는데 이 확률분포의 성질은? | 본 논문은 한걸음 더 나아가 최근접 이웃들까지의 거리들이 특정 확률 분포를 따른다는 데 주목한다. 이 확률 분포는 k번째의 최근접 거리를 반지름으로 하는 초구(hyper-shpere)의 체적(volume)을 확률변수(random variable)로 삼았을 때, 이 체적이 감마 분포(Gamma distribution)를 따르는 성질을 띈다[5]. 이 논문에서는 이러한 감마 분포를 통해 어떻게 k개의 최근접 이웃을 통한 단순한 다수결 방법이 최대 우도 추정법의 결과로 설명되는지 소개하고 여기에 더해서 베이지안 추론을 통해 더 좋은 전략을 고안해 낼 수 있을지를 고찰해 본다. |
Bogacz,R.,Brown,E.,Moehlis,J.,Holmes,P.,& Cohen,J. D. (2006) The physics of optimal decision making: A formal analysis of models of performance in two-alternative forced-choice tasks. Psychological Review, 113(4), 700-765
Cover, T. (1967) Estimation by the nearest neighbor rule. IEEE Transactions on Information Theory, 14 (1), 50-55.
Cover, T., & Hart, P. (1967) Nearest neighbor pattern classification. IEEE Transactions on Information Theory, 13 (1), 21-27.
Dragalin, V. P., Tertakovsky, A. G., & Veeravalli, V. V. (1999) Multihypothesis sequential probability ratio tests. part i: asymptotic optimality. IEEE Transactions on Information Technology, 45, 2448-61.
Leonenko,N.,Pronzato,L.,& Savani,V. (2008) A class of Renyi information estimators for multidimensional densities. Annals of Statistics, 36, 2153-2182.
Noh, Y.K., Park, F.C., & Lee, D.D. (2012) Diffusion Decision Making for Adaptive k-Nearest Neighbor Classification, Advances in Neural Information Processing Systems 25
Noh, Y.K., Park, F.C., & Lee, D.D. (2013) k-Nearest Neighbor Classification Algorithm for Multiple Choice Sequential Sampling, Proceedings of the Thirty-Fifth Annual Conference of the Cognitive Science Society
Ougiaroglou, S., Nanopoulos, A., Papadopoulos, A. N., Manolopoulos, Y., & Welzer-Druzovec, T. (2007) Adaptive k-nearest-neighbor classification using a dynamic number of nearest neighbors. In Proceedings of the 11th east European conference on advances in databases and information systems (pp. 66-82).
Smith, P. L., & Vickers, D. (1988) The accumulator model of two-choice discrimination. Journal of Mathematical Psychology, 32, 135-168.
Usher, M., & McClelland, J.L. (2001) The time course of perceptual choice: the leaky, competing accumulator model. Psychological review, 108 (3), 550-592.
Vickers, D. (1970) Evidence for an accumulator model of psychophysical discrimination. Ergonomics, 13, 37-58.
Wald, A., & Wolfowitz, J. (1948) Optimum character of the sequential probability ratio test. Annals of Mathematical Statistics, 19, 326-339.
Wang, J., Neskovic, P., & Cooper, L. N. (2006) Neighborhood size selection in the k-nearestneighbor rule using statistical confidence. Pattern Recognition, 39 (3):417-423.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.