최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기정보처리학회논문지. KIPS transactions on software and data engineering. 소프트웨어 및 데이터 공학, v.2 no.1, 2013년, pp.43 - 48
곽주현 (건국대학교 컴퓨터공학과) , 원일용 (호서서울전문학교 사이버해킹보안과) , 이창훈 (건국대학교 컴퓨터공학과)
Adaboost is widely used for Haar-like feature boosting algorithm in Face Detection. It shows very effective performance on single distribution model. But when detecting front and side face images at same time, Adaboost shows it's limitation on multiple distribution data because it uses linear combin...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
결정 트리 방식은 어떤 방식인가? | 결정 트리(Decision Tree)는 classification분야에서 널리 사용되는 방식으로 Fig. 3과 같이 각각의 feature들을 결정 트리 형태로 구성하여 입력 값에 대한 판단을 수행하는 방식이다. 학습 과정 중에 <수식 1>의 엔트로피 공식을 이용하여 [6] 더 효율적인 분류를 가능케 하는 feature 값을 상위 노드에 배치함으로써 작은 트리 구조로도 효율적으로 입력 값을 분류하는 분류기를 생성할 수 있다[5]. | |
Adaboost 알고리즘의 장점은 무엇인가? | Adaboost 알고리즘은 얼굴인식을 위한 Haar-like feature들을 이용하기 위해 가장 널리 쓰이고 있는 알고리즘이다. 매우 빠르며 효율적인 성능을 보이고 있으며 하나의 모델이미지가 존재하는 단일분포 데이터에 대해 매우 효율적이다. 그러나 정면 얼굴과 측면 얼굴을 혼합한 인식 등 둘 이상의 모델이미지를 가진 다중 분포모델에 대해서는 그 성능이 저하된다. | |
Haar-like feature은 어떤점 때문에 널리 사용되고 있는가? | 이미지의 인식, 학습, 분류(classification) 등에 사용되는 Haar-like feature는 사각형의 집합으로 구성된 특징 (feature) 이미지의 집합으로써 이미지영역 누적테이블을 이용해 매우 빠른 시간에 feature의 적합도를 구할 수 있다는 점에서 널리 사용되고 있다[2]. |
Y. Amit, D. Geman, and K. Wilder. Joint induction of shape features and tree classifiers, 1997.
P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. In Proc. CVPR, pp.511-518, 2001.
Carbonell, J.G., Michalski, R.S., & Mitchell, T.M. (1983). An overview of machine learning, In R.S. Michalski, J.G. Carbonell and T.M. Mitchell, (Eds.), Machine learning: An artificial intelligence approach. Palo Alto: Tioga Publishing Company.
Pearl, J. (1978a). Entropy, information and rational decisions (Technical report). Cognitive Systems Laboratory, University of California, Los Angeles.
Quinlan, J.R. (1985b). Decision trees and multi-valued attributes. In J.E. Hayes & D. Michie (Eds.), Machine intelligence 11. Oxford University Press(in press).
T Kolsch, Diplomarbeit Im Fach Informatik, Lehrstuhl Fur Informatik Vi, Rheinisch-westfalische Technische, Hochschule Aachen, Prof Dr. -ing, Prof Dr. -ing, H. Ney, H. Ney, Prof Dr, E. Vidal, Dipl Inform, D. Keysers, Tobias Gabriel, Tobias Gabriel, Benedikt Kolsch, Benedikt Kolsch, Local Features for Image Classification. 2003.
Quinlan, J.R. (1993). Program for machine learning, Morgan Kaufmann Publisher, Inc.
Quinlan, J.R. (1979). Discovering rules by induction from large collections of examples. In D. Michie(Ed.), Expert systems in the micro electronic age. Edinburgh University Press.
J. R. Quinlan. Improved use of continuous attributes in c4.5. Journal of Artificial Intelligence Research, 4:77-90, 1996.
Quinlan, J.R. (1983a). Learning efficient classification procedures and their application to chess endgames. In R.S. Michalski, J.G. Carbonell & T.M. Mitchell, (Eds.), Machine learning: An artificialintelligence approach. Palo Alto: Tioga Publishing Company.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.