
editor, Junyeob Baek Robotics Software Engineer /RL, Motion Planning and Control, SLAM, Vision original repo : github.com/CUN-bjy/rl-paper-review CUN-bjy/rl-paper-review road-map & paper review for Reinforcement Learning - CUN-bjy/rl-paper-review github.com 관련 페이지: [whitebot/강화학습이야기] - DDPG 리뷰 : Continuous control with deep reinforcement learning [whitebot/강화학습이야기] - TRPO 리뷰 : Trust region polic..

작성자 1 : 한양대학원 융합로봇시스템학과 유승환 석사과정 (CAI LAB)작성자 2 : 한양대학교 로봇공학과 정석훈 학부생 오늘은 Pixel 단위로 물체를 localize하는 Segmentation 모델인 Mask R-CNN 논문 리뷰를 하겠습니다~! 논문 스터디 스타트~!!링크 0 (승환 논문 리뷰 링크 모음) : github.com/RobotMobile/cv-deep-learning-paper-review/blob/master/README.md RobotMobile/cv-deep-learning-paper-reviewContribute to RobotMobile/cv-deep-learning-paper-review development by creating an account on GitHub.g..

작성자 : 한양대학원 융합로봇시스템학과 유승환 석사과정 (CAI LAB) 오늘은 강화학습 논문 DQN : Deep Q-Networks를 리뷰해보겠습니다~! 강화학습의 기초를 공부할 때는 DQN, DDPG 논문을 공부하면 좋다는 github.com/CUN-bjy 선배의 말을 듣고 강화학습 공부를 시작해봅니다!ㅎㅎ 논문에서 policy, agent, value function과 같은 강화 학습의 용어들이 자주 등장하는데, 아래의 링크 3을 참고하시면 됩니다~! 링크 0 (승환 강화학습 논문 리뷰 모음) : github.com/RobotMobile/rl-paper-review RobotMobile/rl-paper-review Contribute to RobotMobile/rl-paper-review devel..

Foerster, Jakob, et al. "Counterfactual multi-agent policy gradients." Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 32. No. 1. 2018. 0. Comment MADDPG와 더불어, Centralized learning, Decentralized executing 진영의 대표적인 알고리즘. COMA라 불리고 있으며 discrete action 에 대해서만 다룬다는 것이 MADDPG에 비해 한계점을 가지고 있으나, Deep multi agent reinfrocement learning 관점에서 개별 agent의 공헌도를 부여하는 credit assignment(리워드 ..

작성자 1 : 한양대학원 융합로봇시스템학과 유승환 석사과정 (CAI LAB)작성자 2 : 한양대학교 로봇공학과 정석훈 학부생 오늘은 CNN 계열의 Object Detection의 부모와 같은!! R-CNN 논문 리뷰를 진행해보겠습니다~! (segmentation에 대한 내용은 생략했습니다.)링크 0 (승환 논문 리뷰 링크 모음) : github.com/RobotMobile/cv-deep-learning-paper-review/blob/master/README.md RobotMobile/cv-deep-learning-paper-reviewContribute to RobotMobile/cv-deep-learning-paper-review development by creating an account on ..

며칠전부터 Policy gradient 알고리즘들 밑바닥부터 짜는 중에 A3C 개발하며 느낀점들 1. 구현체 github.com/keep9oing/PG-Family keep9oing/PG-Family Basic PG Reinforcement algorithms. Contribute to keep9oing/PG-Family development by creating an account on GitHub. github.com 2. multi processing A3C를 구현하려면 멀티 프로세싱을 해야했는데, 뭐 어떻게 하는지 전혀 몰라서 python 의 multi processing packag관련 튜토리얼을 먼저 봐야했다. 2-1) 튜토리얼 docs.python.org/ko/3/library/multipr..
센서 데이터를 numpy 형태 모았을 경우 따로 point cloud 형태로 바꿔줘야한다. 가장 먼저 바꿔줄 형태는 pcd 이며 point cloud data라는 뜻이다. numpy to point cloud profile_np = np.load('/home/benlee/Desktop/pcd_data/pptk_save_2.npy') ori_pc = pcl.PointCloud(ori_pc_np) #numpy to pcl profile_np = np.load('/home/benlee/Desktop/pcd_data/pptk_save_2.npy') ori_pc = pcl.PointCloud(ori_pc_np) #numpy to pcl 먼저 np.load를 통해 저장해두었던 numpy 파일을 load 해온다...

Point cloud의 경우 실제 표면에 대한 point들의 집합을 말한다고 볼 수 있다. 따라서 Point 들의 집합으로 어떻게 표면을 나타낼 수 있는지가 중요한 요소가 된다. 표면은 작은 평면들의 집합으로 볼 수 있다. 따라서 먼저 Point set들을 평면으로 나타낼 수 있어야하고 이를 위해 중학생때 배웠던 평면방정식을 한번 되짚어보자. 평면 방정식은 점 3개의 위치만 알면 이를 평면식으로 나타낼 수 있다. 점 p1, p2, p3와 크래머의 정리를 이용해서 평면의 법선벡터와 원점과의 거리 d를 확인 할 수 있다. Pointcloud에서는 2가지 방법으로 법선 벡터를 찾을 수 있다. 1. point cloud에서 surface meshing 방법을 이용해 surface를 만들고 mesh를 바탕으로 법..