PX4 Gazebo시뮬레이션 환경 구성 알고리즘 테스트할때마다 밖에 나가서하기 귀찮기도하고 마다할 이유가 없어서 구성하고 알고리즘 테스트용으로 사용하시면 좋을듯 합니다. 저도 검색하면서 자료찾아가며 테스트를 진행했는데요. 옛날 펌웨어기준으로 작성된 자료들이 많았습니다. Jetson이나 임베디드 보드 환경에서는 어떻게 될지 잘 모르겠습니다만(Jetson으로 최신버전 구버전 다 테스트해보았지만 결국 막혔습니다.) desktop or laptop 환경에서는 잘 되었습니다. 결국 아키텍쳐 호환문제가 아닐까 생각이드네요. ros_melodic으로 진행을 했고 설치가 되었다는 가정하에 쓰겠습니다. PX4 시뮬레이션 통신환경 1.mavros 설치 sudo apt-get update sudo apt-get instal..
임피던스 제어가 원시적이어도 간단한 임피던스 컨트롤은 안정성 문제를 해결하는 데 크게 도움이 된다. 또한 내재한 로봇의 임피던스가 줄어들 경우 컨트롤러의 성능 또한 좋아진다. 임피던스 컨트롤 적용은 몇몇 환경에서 잘 작동하지만 분명히 한계점은 존재한다. discrete-time 컨트롤러 구현과 모델링 되지 않은 actuator와 sensor들의 관계 같은 요소들이 컨트롤러의임피던스를 능동적으로 만든다. 이런 복잡한 기하학적 구조에서 안정성은 보장될 수 없다. 하지만 임피던스 컨트롤은 back-drivable design과 같이 사용 됐을 때 성공적인 성능을 보여주었다. https://www.youtube.com/watch?v=IxRg7iSvkkc Back Drivable에 대한 참고자료 Dircet Im..
최근 인텔이 리얼센스 사업을 접는다는 이야기가 나왔다. 개인적으로 Perception에 흥미가 있어서 (실력은 없다.) 포인트 클라우드를 공부하던 나에게는 아쉬운 소식이었고 그렇다면 리얼센스 대신 사용할 수 있는 카메라가 뭐가 있는지 찾던 중 페북에서 표박사님이 걸어둔 링크를 보게 됐다. https://discourse.ros.org/t/intel-cancelling-its-realsense-business-alternatives/21881 Intel Cancelling its Realsense business: Alternatives? Today it was let out that Intel is closing up shop in supporting robotics sensing with the Rea..
ROS 패키지, 스택은 어떻게 구조화하는 것이 좋을까? 요약 mobilerobot 패키지를 만든다면, mobilerobot_ros (repo) mobilerobot (metapackage) mobilerobot_bringup mobilerobot_description mobilerobot__naviagation mobilerobot__slam mobilerobot__teleop mobilerobot_simulation (repo) mobilerobot_simlation (metapackage) mobilerobot_gazebo mobilerobot_msgs (repo) 이런 식으로 작성한다. -끝- 도입 로봇 구동 ROS 스택(패키지 묶음)을 제작할 때, 항상 고민인 부분이 ROS 패키지의 디렉터리들을 ..
참고자료 : https://www.youtube.com/watch?v=xQ79ysnrzUk&t=9s 매우 간단한건데 어떻게 쉽게 할 수 있을까 하다가 찾은 자료. 알고있는 행렬 : Base와 end-effector 간의 transform / camera와 target 간의 transform 찾으려는 행렬 : Camera와 end-effector 간의 transform 알기 어려운 행렬 : Base와 target 간의 거리 base부터 target 거리만 잘 측정할 수 있다면 쉽게 찾으려는 행렬을 구할 수 있다. 단 정확하게 측정하기가 어렵다. 대신 저 좋은 방법으로, 다양한 pose에서 target을 측정한 후 행렬들을 사용해서 원하는 행렬을 구하는 방식이다. A행렬과 B행렬을 여러 pose로 측정하여 ..
작성자 : 한양대학원 융합로봇시스템학과 유승환 석사과정 (CAI LAB) 안녕하세요~!! 오늘은 오프라인 강화학습 알고리즘 중 하나인 CQL : Conservative Q-Learning의 논문 리뷰를 진행하겠습니다! 'Conservative'의 뜻은 '보수적'이라는 뜻을 지니고 있는데요~ 이 의미가 어떻게 CQL 알고리즘에 표현되는지를 보겠습니다!! 실제 다관절 로봇에 강화학습을 적용하려는 저와 같은 연구자분들은 기존의 강화학습(ex : Off-Policy RL)을 사용하려면 Experience Replay Buffer에 수많은 데이터를 쌓아야해서, 데이터 수집 비용이 비싸다는 한계점이 있었는데, 이를 어떻게 극복했는지를 한번 알아보겠습니다~! 1. 원문 링크 : https://arxiv.org/abs..