Improving Low-Impedance Performance 사람이랑 같이 협동하는 로봇을 만들 경우 당연히 낮은 기계적 임피던스를 가져야 한다. 가장 쉬운 방법은 낮은 임피던스 하드웨어로 간단한 임피던스 컨트롤 알고리즘을 접목시키는 것이다. 하지만 낮은 기계적 임피던스를 갖는 하드웨어를 만들기란 쉽지 않다. 특히 복잡한 구조와 큰 힘과 파워를 낼 경우 더욱 더 쉽지 않다. 또한 마찰과 이노시아도 고려해야하는 상황이 많은데 간단한 임피던스 컨트롤의 경우 이런 부분을 고려하지 않는다. Force Feedback 힘 피드백은 존재하는 임피던스를 줄이는 방법중 하나이다. 위와 같은 1차원 시스템에 간단한 임피던스 컨트롤이 적용되며 이때 비선형 마찰력이 발생하고 있다고 해보자. 또한 비례적인 힘 피드백 컨트..
간단한 Null space control 문제를 풀어보자. Task space가 2차원으로 주어진 경우에서 3자유도를 가진 로봇을 움직일 때를 생각해보자. 로봇팔의 자유도보다 Task space가 작기 때문에 redundant라고 볼 수 있으며, 여자유도가 남아 Null space control이 가능해진다. 간단하게 1번,2번 조인트를 최소로 움직이도록 하는 Target function을 정해보자. 앞선 글에서 말한 Target function이 추가된 pseudo inverse 식은 아래와 같아진다. 위 식을 풀어서 로봇 팔을 움직이게 되면 Target function을 optimal하게 풀게 되며, 이는 일반적인 pseudo inverse kinematic을 풀어서 움직인 로봇 팔과 비교했을 때 확..
Null space and Redundant 일반적으로 Redundant robot 이라고 하면 Task space에 비해 여자유도를 가진 로봇을 말한다. 쉽게 생각했을 때 6자유도가 아닌 7자유도 로봇 팔이라고 볼 수 있겠지만 이것은 틀린 표현이다. Task space와 비교했을 때 robot의 자유도가 큰 경우를 redundant한 상황이다 라고 표현하는 것이 맞다. 일반적으로 로봇 팔의 Task가 6자유도라고 생각할 수 있지만, 많은 경우 (단순한 페인팅, 그라인딩, peg in hole 등)들이 5자유도(x,y,z,r,p)만 필요하다. Optimization for redundant robot 여자유도가 있는 경우에는 torque, joint limits, manipulability, obstac..
임피던스 제어가 원시적이어도 간단한 임피던스 컨트롤은 안정성 문제를 해결하는 데 크게 도움이 된다. 또한 내재한 로봇의 임피던스가 줄어들 경우 컨트롤러의 성능 또한 좋아진다. 임피던스 컨트롤 적용은 몇몇 환경에서 잘 작동하지만 분명히 한계점은 존재한다. discrete-time 컨트롤러 구현과 모델링 되지 않은 actuator와 sensor들의 관계 같은 요소들이 컨트롤러의임피던스를 능동적으로 만든다. 이런 복잡한 기하학적 구조에서 안정성은 보장될 수 없다. 하지만 임피던스 컨트롤은 back-drivable design과 같이 사용 됐을 때 성공적인 성능을 보여주었다. https://www.youtube.com/watch?v=IxRg7iSvkkc Back Drivable에 대한 참고자료 Dircet Im..
최근 인텔이 리얼센스 사업을 접는다는 이야기가 나왔다. 개인적으로 Perception에 흥미가 있어서 (실력은 없다.) 포인트 클라우드를 공부하던 나에게는 아쉬운 소식이었고 그렇다면 리얼센스 대신 사용할 수 있는 카메라가 뭐가 있는지 찾던 중 페북에서 표박사님이 걸어둔 링크를 보게 됐다. https://discourse.ros.org/t/intel-cancelling-its-realsense-business-alternatives/21881 Intel Cancelling its Realsense business: Alternatives? Today it was let out that Intel is closing up shop in supporting robotics sensing with the Rea..
참고자료 : https://www.youtube.com/watch?v=xQ79ysnrzUk&t=9s 매우 간단한건데 어떻게 쉽게 할 수 있을까 하다가 찾은 자료. 알고있는 행렬 : Base와 end-effector 간의 transform / camera와 target 간의 transform 찾으려는 행렬 : Camera와 end-effector 간의 transform 알기 어려운 행렬 : Base와 target 간의 거리 base부터 target 거리만 잘 측정할 수 있다면 쉽게 찾으려는 행렬을 구할 수 있다. 단 정확하게 측정하기가 어렵다. 대신 저 좋은 방법으로, 다양한 pose에서 target을 측정한 후 행렬들을 사용해서 원하는 행렬을 구하는 방식이다. A행렬과 B행렬을 여러 pose로 측정하여 ..
논문 링크 : https://www.i-support-project.eu/web/wp-content/uploads/2018/08/3_Multiobjective-optimization-for-stiffness-and-position-control-in-a-soft-robot-arm-module_SSSA_CL.pdf 배경지식 : distance metric : https://joonable.tistory.com/14 absorbing state : https://en.wikipedia.org/wiki/Absorbing_Markov_chain hypersphere : https://cumulu-s.tistory.com/9 [Abstract] 이 논문의 주된 목적은 노인을 위한 입욕을 도와줄 로봇 팔을 연구..
강화학습 Tips and Tricks(2) Author: Benthebear93[이해구] Reference: https://medium.com/@BonsaiAI/deep-reinforcement-learning-models-tips-tricks-for-writing-reward-functions-a84fe525e8e0 https://stable-baselines3.readthedocs.io/en/master/guide/rl_tips.html 본 글은 reference 내용의 번역본입니다. 이번 글에서는 RL모델을 학습 시키는데 필요한 reward function(보상함수)를 효과적으로 작성하는 방법에 대해서 다루려고 한다. The Cobra Effect RL모델을 학습 시키는데 필요한 reward fun..