최근 비대면 산업의 활성화로 인해 모바일 매니퓰레이터(mobile manipulator) 의 수요가 증가하고 있으며, 이와 관련된 연구 또한 활발히 이루어지고 있다. 모바일 매니퓰레이터는 LiDAR(light detection and ranging) 또는 카메라 등의 센서를 사용하여 인간의 개입 없이 자율 주행으로 목적지까지 물체를 운반하 며, 파지 작업을 통한 pick-and-place 동작을 수행하는 로봇이다. 이러한 로봇 은 ...
최근 비대면 산업의 활성화로 인해 모바일 매니퓰레이터(mobile manipulator) 의 수요가 증가하고 있으며, 이와 관련된 연구 또한 활발히 이루어지고 있다. 모바일 매니퓰레이터는 LiDAR(light detection and ranging) 또는 카메라 등의 센서를 사용하여 인간의 개입 없이 자율 주행으로 목적지까지 물체를 운반하 며, 파지 작업을 통한 pick-and-place 동작을 수행하는 로봇이다. 이러한 로봇 은 위치 인식 방법에 따라 AGV(autonomous guided vehicle) 및 AMR(autonomous mobile robot)로 나누어지며, AMR과 매니퓰레이터 (manipulator)를 결합한 로봇을 모바일 매니퓰레이터라고 한다. 마그네틱 센서 및 QR(quick response) 코드를 사용하는 AGV의 경우 작업 공간이 한정되어 있어 자율성이 낮지만, LiDAR 또는 카메라를 사용하는 AMR의 경우 SLAM(simultaneous localization and mapping) 및 네비게이션(navigation) 알고리즘을 통해 지도 생성 및 자율주행이 가능하다. 본 논문에서는 ROS(robot operating system) 기반 모바일 매니퓰레이터 플랫 폼을 설계 및 구현하였다. 이를 위해 센서부, 전원부, 메인부, 제어부, 구동부 총 5개의 모듈로 이루어진 ROS 기반 모듈형 AMR을 설계 및 구현하였으며, 매니퓰레이터의 pick-and-place 동작을 수행하기 위해 YOLOv3를 통한 파지 알고 리즘을 통합하였다. 또한, 두 개의 2D LiDAR를 사용하여 전방위(360°) 장애물 감지 및 회피 기능을 구현하였으며, UWB(ultra-wide band) 센서를 사용하여 모바일 매니퓰레이터가 작업자를 추종 가능하도록 하였다. 본 논문에서 제안하는 ROS 기반 모바일 매니퓰레이터 플랫폼은 실사용 환경 에서 구동하였으며, 네비게이션 기능 및 매니퓰레이터를 활용한 파지가 정상 동작하는 것을 확인하였다.
최근 비대면 산업의 활성화로 인해 모바일 매니퓰레이터(mobile manipulator) 의 수요가 증가하고 있으며, 이와 관련된 연구 또한 활발히 이루어지고 있다. 모바일 매니퓰레이터는 LiDAR(light detection and ranging) 또는 카메라 등의 센서를 사용하여 인간의 개입 없이 자율 주행으로 목적지까지 물체를 운반하 며, 파지 작업을 통한 pick-and-place 동작을 수행하는 로봇이다. 이러한 로봇 은 위치 인식 방법에 따라 AGV(autonomous guided vehicle) 및 AMR(autonomous mobile robot)로 나누어지며, AMR과 매니퓰레이터 (manipulator)를 결합한 로봇을 모바일 매니퓰레이터라고 한다. 마그네틱 센서 및 QR(quick response) 코드를 사용하는 AGV의 경우 작업 공간이 한정되어 있어 자율성이 낮지만, LiDAR 또는 카메라를 사용하는 AMR의 경우 SLAM(simultaneous localization and mapping) 및 네비게이션(navigation) 알고리즘을 통해 지도 생성 및 자율주행이 가능하다. 본 논문에서는 ROS(robot operating system) 기반 모바일 매니퓰레이터 플랫 폼을 설계 및 구현하였다. 이를 위해 센서부, 전원부, 메인부, 제어부, 구동부 총 5개의 모듈로 이루어진 ROS 기반 모듈형 AMR을 설계 및 구현하였으며, 매니퓰레이터의 pick-and-place 동작을 수행하기 위해 YOLOv3를 통한 파지 알고 리즘을 통합하였다. 또한, 두 개의 2D LiDAR를 사용하여 전방위(360°) 장애물 감지 및 회피 기능을 구현하였으며, UWB(ultra-wide band) 센서를 사용하여 모바일 매니퓰레이터가 작업자를 추종 가능하도록 하였다. 본 논문에서 제안하는 ROS 기반 모바일 매니퓰레이터 플랫폼은 실사용 환경 에서 구동하였으며, 네비게이션 기능 및 매니퓰레이터를 활용한 파지가 정상 동작하는 것을 확인하였다.
Due to the recent revitalization of the non-face-to-face industry, the demand for mobilemanipulatorsis increasing, andrelatedresearchis also being actively conducted. A mobile manipulator is a robot that uses a sensor such as LiDAR or a camera to transport an object to its destination by autonomous ...
Due to the recent revitalization of the non-face-to-face industry, the demand for mobilemanipulatorsis increasing, andrelatedresearchis also being actively conducted. A mobile manipulator is a robot that uses a sensor such as LiDAR or a camera to transport an object to its destination by autonomous driving without human intervention and performs the pick-and-place operation through a gripping operation. These robots are divided into an AGV(autonomous guided vehicle) and an AMR(autonomous mobile robot) according to a location recognition method, and a robot combining AMR and a manipulator is called a mobile manipulator. In the case of AGVs using magnetic sensors and QR (quick response) codes, there is less autonomy due to limited working space, but in the case of AMRs using LiDAR or cameras, maps through SLAM(simultaneous localization and mapping) and navigation algorithms canbecreatedand autonomously driven. This paper designed and implemented a ROS(robot operating system) based mobile manipulator platform. To this end, we designed and implemented a ROS-based modular AMR consisting of 5 modules: sensor unit, power supply unit, main unit, control unit, and driving unit, and integrated the gripping algorithm through YOLOv3 to perform the pick-and-place operation of the manipulator. In addition, omnidirectional(360°) obstacle detection and avoidance functions were implemented using two 2D LiDARs, and UWB(ultra-wideband) sensors were used to enable themobilemanipulatortofollowtheoperator. The ROS-based mobile manipulator platform proposed in this paper was operated in an actual use environment, and it was confirmed that thenavigationfunctionandgrip usingthemanipulatoroperatenormally.
Due to the recent revitalization of the non-face-to-face industry, the demand for mobilemanipulatorsis increasing, andrelatedresearchis also being actively conducted. A mobile manipulator is a robot that uses a sensor such as LiDAR or a camera to transport an object to its destination by autonomous driving without human intervention and performs the pick-and-place operation through a gripping operation. These robots are divided into an AGV(autonomous guided vehicle) and an AMR(autonomous mobile robot) according to a location recognition method, and a robot combining AMR and a manipulator is called a mobile manipulator. In the case of AGVs using magnetic sensors and QR (quick response) codes, there is less autonomy due to limited working space, but in the case of AMRs using LiDAR or cameras, maps through SLAM(simultaneous localization and mapping) and navigation algorithms canbecreatedand autonomously driven. This paper designed and implemented a ROS(robot operating system) based mobile manipulator platform. To this end, we designed and implemented a ROS-based modular AMR consisting of 5 modules: sensor unit, power supply unit, main unit, control unit, and driving unit, and integrated the gripping algorithm through YOLOv3 to perform the pick-and-place operation of the manipulator. In addition, omnidirectional(360°) obstacle detection and avoidance functions were implemented using two 2D LiDARs, and UWB(ultra-wideband) sensors were used to enable themobilemanipulatortofollowtheoperator. The ROS-based mobile manipulator platform proposed in this paper was operated in an actual use environment, and it was confirmed that thenavigationfunctionandgrip usingthemanipulatoroperatenormally.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.