$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

작업 준비비용 최소화를 고려한 강화학습 기반의 실시간 일정계획 수립기법
Real-Time Scheduling Scheme based on Reinforcement Learning Considering Minimizing Setup Cost 원문보기

한국전자거래학회지 = The Journal of Society for e-Business Studies, v.25 no.2, 2020년, pp.15 - 27  

유우식 (Dept. of Industrial and Management Engineering, Incheon National University) ,  김성재 (Dept. of Industrial and Management Engineering, Incheon National University) ,  김관호 (Dept. of Industrial and Management Engineering, Incheon National University)

초록
AI-Helper 아이콘AI-Helper

본 연구는 일정계획을 위한 간트 차트(Gantt Chart) 생성과정을 세로로 세우면 일자형만 존재하는 테트리스(Tetris) 게임과 유사하다는 아이디어에서 출발하였다. 테트리스 게임에서 X축은 M개의 설비(Machine)들이 되고 Y축은 시간이 된다. 모든 설비에서 모든 종류(Type)의 주문은 분리 없이 작업 가능하나 작업물 종류가 다를 경우에는 시간지체 없이 작업 준비비용(SetupCost)이 발생한다는 가정이다. 본 연구에서는 앞에서 설명한 게임을 간트리스(Gantris)라 명명하고 게임환경을 구현 하였으며, 심층 강화학습을 통해서 학습한 인공지능이 실시간 스케줄링한 일정계획과 인간이 실시간으로 게임을 통해 수립한 일정계획을 비교하였다. 비교연구에서 학습환경은 단일 주문목록 학습환경과 임의 주문목록 학습환경에서 학습하였다. 본 연구에서 수행한 비교대상 시스템은 두 가지로 4개의 머신(Machine)-2개의 주문 종류(Type)가 있는 시스템(4M2T)과 10개의 머신-6개의 주문종류가 있는 시스템(10M6T)이다. 생성된 일정계획의 성능지표로는 100개의 주문을 처리하는데 발생하는 Setup Cost, 총 소요 생산시간(makespan)과 유휴가공시간(idle time)의 가중합이 활용되었다. 비교연구 결과 4M2T 시스템에서는 학습환경에 관계없이 학습된 시스템이 실험자보다 성능지표가 우수한 일정계획을 생성하였다. 10M6T 시스템의 경우 제안한 시스템이 단일 학습환경에서는 실험자보다 우수한 성능 지표의 일정계획을 생성하였으나 임의 학습환경에서는 실험자보다 부진한 성능지표를 보였다. 그러나 job Change 횟수 비교에서는 학습시스템이 4M2T, 10M6T 모두 사람보다 적은 결과를 나타내어 우수한 스케줄링 성능을 보였다.

Abstract AI-Helper 아이콘AI-Helper

This study starts with the idea that the process of creating a Gantt Chart for schedule planning is similar to Tetris game with only a straight line. In Tetris games, the X axis is M machines and the Y axis is time. It is assumed that all types of orders can be worked without separation in all machi...

주제어

표/그림 (12)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 구글 Deepmind社의 인공지능 기반 머신 러닝을 활용하여 장비 4대와 10대에서 주문량과 주문 종류가 한 쌍으로 구성된 100개의 주문이 동적으로 할당되는 환경을 구축하였다.
  • 본 논문에서는 주문이 동적으로 할당될 때단일 주문 목록 모델과 임의 주문 목록 모델에 대하여 인공지능 기법을 통해 수행한 결과와 동일한 환경에서 실험자가 수행한 결과를 비교하였다.
  • 본 연구는 Tetris 게임 환경을 실시간 일정계획이라고 생각하고 게임에서 합성곱 신경망을 활용해 일정계획을 학습시켜 피실험자와의 비교연구를 수행하였다.
  • 본 연구는 셋업 코스트가 있는 병렬기계에서 머신 러닝을 활용하여 실시간 일정계획 모델을 개발하였다. 모두 가공할 수 있는 장비의 숫자가 정해져 있고 주문의 량, 주문의 종류가 있는 환경에서 실시간으로 주문이 발생할 때 Tetris와 같은 게임 환경에서 사람이 일정계획을 배치하는 것과 학습된 시스템이 하는 상황을 비교 연구하였다.
  • 본 연구에서는 장비 제약이 없는 가정으로 즉, 모든 장비에서 모든 주문을 처리할 수 있는 경우의 연구를 수행하였다. 셋업 코스트가 있는 병렬기계에서 총 생산시간과 작업물 변경을 최소화 하는 문제의 실시간 일정계획모델 환경을 구현하고 간트리스 게임 환경에서 학습 모델을 구현하여 피실험자 군과 비교 연구하였다.
  • 본 연구의 목적은 숫자가 정해진 장비에서 실시간으로 주문량과 주문 종류가 주어졌을 때 실시간으로 일정계획 테이블을 작성하는 인공지능을 학습시키는 것이다. 학습방법은 테트리스 게임 환경에서 합성곱신경망과 심층강화학습을 통하여 학습시키며 학습환경은 단일주문 목록 학습환경과 임의 주문 목록 학습환경에서 학습하였다.
  • 본 연구의 목적은 작업물 변경 보상과 총 소요 생산시간 보상 그리고 유휴시간 보상을 최대화하는 일정 계획을 생성하는 모델을 개발하는 것으로 보상 점수(Reward)는 식은 다음과 같이 정의된다. 아래 idle Points 설명식에서 BoardWidth는 설비기계 숫자를 의미하며 4M2T에서는 4, 10M6T에서는 10이다.

가설 설정

  • 주문 분포는 임의로 난수를 생성하여 발생시켰으며, 각 주문은 작업 순서에 독립적으로 다른 작업과의 선후 관계에 관계없이 작업시간이 동일하다는 의미이다. 각각의 주문은 장비 제약이 없이 모든 기계에서 모든 작업이 가능하며, 한 주문은 분리되지 않고 한 장비에서만 작업되어야 한다는 가정이다. 또한 이때 장비 별 생산성도 동일한 것으로 가정 하였다.
  • 각각의 주문은 장비 제약이 없이 모든 기계에서 모든 작업이 가능하며, 한 주문은 분리되지 않고 한 장비에서만 작업되어야 한다는 가정이다. 또한 이때 장비 별 생산성도 동일한 것으로 가정 하였다.
  • 본 연구에서는 N = 5로 가정하여 모든 주문은 길이가 1~5의 길이를 갖는 ‘I’ 블록이 생성된다.
  • 25를 사용하였다. 시간의 단위는 Hour로 가정하였다.
본문요약 정보가 도움이 되었나요?

참고문헌 (15)

  1. Beck, J. E. and Woolf, B. P., High-Level Student Modeling with Machine Learning, In: Gauthier, G., Frasson, C., VanLehn, K.(eds) Intelligent Tutoring Systems, ITS 2000, Lecture Notes in Computer Science, Vol, 1839, 2000, Springer, Berlin, Heidelberg. 

  2. Jeong et al., "An Neural Network Approach to Job-shop Scheduling based on Reinforcement Learning," Proceedings of the Korean Society of Computer Information Conference, pp. 47-48, 2018. 

  3. Kaplan, R., Sauer, C., and Sosa, A., "Beating atari with natural language guided reinforcement learning," arXiv preprint arXiv:1704.05539, 2017. 

  4. Kim, A., "Ensemble-based Quality Classification and Deep Reinforcement Learning-based Production Scheduling: Ensemble-based Quality Classification and Deep Reinforcement Learning-based Production Scheduling," KyungHee University, Ph.D. Thesis, 2018. 

  5. Kim, J., "Packet scheduling algorithm using deep Q-Network in wireless network", Yonsei University, M.S Thesis, 2018. 

  6. Lee, S.-H., "Reinforcement Learning based AGV Scheduling," The Korean Society of Computer And Information, Proceedings of the Korean Society of Computer Information Conference, pp. 23-24, 2018. 

  7. Lin, C.-C., Deng, D.-J., Chih, Y.-L., and Chiu, H.-T., "Smart Manufacturing Scheduling with Edge Computing Using Multi-Class Deep q Network", IEEE Transactions on Industrial Informatics, 2019. 

  8. Mnih et al., "Human-level control through deep reinforcement learning", Nature, Vol. 518, No. 7540, pp. 529-533, 2015. 

  9. Mnih et al., "Playing Atari with Deep Reinforcement Learning", Proceedings of the NIPS Deep Learning Workshop, 2013. 

  10. Park, I.-B., Huh, J., Kim, J., and Park, J., "A reinforcement learning approach to robust scheduling of semiconductor manufacturing facilities," IEEE Transactions on Automation Science and Engineering, 2019. 

  11. Schrum, J., Evolving Indirectly Encoded Convolutional Neural Networks to Play Tetris With Low-Level Features, Proceedings of the Genetic and Evolutionary Computation Conference, (GECCO), 2018. 

  12. Shahrabi, J., Adibi, M. A., and Mahootchi, M., "A reinforcement learning approach to parameter estimation in dynamicjob shop scheduling," Computers & Industrial Engineering, Vol. 110, pp. 75-82, 2017. 

  13. Silver et al., "Mastering the game of Go with deep neural networks and tree search," Nature, Vol. 529, pp. 484-489, 2016. 

  14. Waschneck et al., "Deep reinforcement learning for semiconductor production scheduling", Proc. 29th. Annu. SEMI Adv. Semicond. Manuf. Conf, 2018. 

  15. Yoo, W., Seo, J., Kim, D., and Kim, K., "Machine scheduling models based on reinforcement learning for minimizing due date violation and setup change," The Journal of Society for e-Business Studies, Vol. 24, No. 3, pp. 19-33, 2019. 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로