$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[해외논문] Differentiable Architecture Search Based on Coordinate Descent 원문보기

IEEE access : practical research, open solutions, v.9, 2021년, pp.48544 - 48554  

Ahn, Pyunghwan (Korea Advanced Institute of Science and Technology, School of Electrical Engineering, Daejeon, South Korea) ,  Hong, Hyeong Gwon (Korea Advanced Institute of Science and Technology, Graduate School of AI, Daejeon, South Korea) ,  Kim, Junmo (Korea Advanced Institute of Science and Technology, School of Electrical Engineering, Daejeon, South Korea)

Abstract AI-Helper 아이콘AI-Helper

Neural architecture search (NAS) is an automated method searching for the optimal network architecture by optimizing the combinations of edges and operations. For efficiency, recent differentiable architecture search methods adopt a one-shot network, containing all the candidate operations in each e...

참고문헌 (32)

  1. arXiv 1412 6980 Adam: A method for stochastic optimization kingma 2015 

  2. J Mach Learn Res Adaptive subgradient methods for online learning and stochastic optimization duchi 2011 12 2121 

  3. arXiv 2004 08996 Local search is a remarkably strong baseline for neural architecture search den ottelander 2020 

  4. 10.1109/ICCV.2015.178 

  5. Chen, Liang-Chieh, Papandreou, George, Kokkinos, Iasonas, Murphy, Kevin, Yuille, Alan L.. DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs. IEEE transactions on pattern analysis and machine intelligence, vol.40, no.4, 834-848.

  6. 10.1109/CVPR.2018.00907 

  7. Real, Esteban, Aggarwal, Alok, Huang, Yanping, Le, Quoc V.. Regularized Evolution for Image Classifier Architecture Search. Proceedings of the ... aaai conference on artificial intelligence, vol.33, 4780-4789.

  8. Proc Int Conf Learn Represent Darts: Differentiable architecture search liu 2019 1 

  9. Proc Int Conf Mach Learn Understanding and simplifying one-shot architecture search bender 2018 549 

  10. Proc Uncertainty Artif Intell Random search and reproducibility for neural architecture search li 2020 367 

  11. Nesterov, Y.. Efficiency of Coordinate Descent Methods on Huge-Scale Optimization Problems. SIAM journal on optimization : a publication of the Society for Industrial and Applied Mathematics, vol.22, no.2, 341-362.

  12. arXiv 1909 00918 Efficiency of coordinate descent methods for structured nonconvex optimization deng 2019 

  13. Patrascu, Andrei, Necoara, Ion. Efficient random coordinate descent algorithms for large-scale structured nonconvex optimization. Journal of global optimization : an international journal dealing with theoretical and computational aspects of seeking global optima and their applications in science, management and engineering, vol.61, no.1, 19-46.

  14. 10.1007/978-3-030-01246-5_2 

  15. 10.1109/CVPR.2016.90 

  16. Proc Int Conf Learn Represent Hierarchical representations for efficient architecture search liu 2018 1 

  17. 10.1109/CVPR.2015.7298594 

  18. 10.1109/CVPR.2014.81 

  19. arXiv 2005 02960 Local search is state of the art for neural architecture search benchmarks white 2020 

  20. 10.1109/CVPR.2017.243 

  21. 10.1109/CVPR.2016.91 

  22. Proc Adv Neural Inf Process Syst Faster R-CNN: Towards real-time object detection with region proposal networks ren 2015 91 

  23. Proc Int Conf Learn Represent Very deep convolutional networks for large-scale image recognition simonyan 2015 1 

  24. 10.1109/CVPR.2015.7298965 

  25. Proc Adv Neural Inf Process Syst Imagenet classification with deep convolutional neural networks krizhevsky 2012 1097 

  26. Proc 13th AAAI Conf Artif Intell Fast lasso algorithm via selective coordinate descent fujiwara 2016 1561 

  27. arXiv 1605 07146 Wide residual networks zagoruyko 2016 

  28. Proc Int Conf Learn Represent SNAS: Stochastic neural architecture search xie 2019 1 

  29. 10.1109/ICCV.2019.00138 

  30. Proc Int Conf Mach Learn Efficient neural architecture search via parameters sharing pham 2018 4095 

  31. arXiv 1708 04552 Improved regularization of convolutional neural networks with cutout devries 2017 

  32. Proc Int Conf Learn Represent Proxylessnas: Direct neural architecture search on target task and hardware cai 2018 1 

LOADING...

활용도 분석정보

상세보기
다운로드
내보내기

활용도 Top5 논문

해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다.
더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

유발과제정보 저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로