최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기사전 학습된 시각-언어 모델(VLM)은 대규모 학습된 지식을 활용하여 다 양한 하위 작업에서 우수한 성능을 보여준다. 일반적으로 시각-언어 모델의 성능은 입력 이미지 또는 텍스트에 컨택스트를 더해주는 프롬프트 조정 방식 을 통해 향상될 수 있다. 최근 하위 작업의 데이터를 이용하기 위해 다양한 프롬프트 조정 방법이 연구되었다. 프롬프트 조정의 핵심은 모델 파라미터를 고정시키고 학습 가능한 ...
Pre-trained vision-language models (VLMs) have shown impressive performance on various downstream tasks by utilizing knowledge learned from large data. In general, the performance of VLMs on target tasks can be further improved by prompt tuning, which adds context to the input image or text. By leve...
저자 | Eulrang Cho |
---|---|
학위수여기관 | 고려대학교 대학원 |
학위구분 | 국내석사 |
학과 | 컴퓨터학과(정보대학) 소프트웨어전공 |
지도교수 | 김현우 |
발행연도 | 2024 |
총페이지 | 50 p |
키워드 | Vision-Language Models Prompt Tuning Generalization |
언어 | eng |
원문 URL | http://www.riss.kr/link?id=T16955212&outLink=K |
정보원 | 한국교육학술정보원 |
※ AI-Helper는 부적절한 답변을 할 수 있습니다.