작성자 1 : 한양대학원 융합로봇시스템학과 유승환 석사과정 (CAI LAB)작성자 2 : 한양대학교 로봇공학과 정석훈 학부생 오늘은 CNN 계열의 Object Detection의 부모와 같은!! R-CNN 논문 리뷰를 진행해보겠습니다~! (segmentation에 대한 내용은 생략했습니다.)링크 0 (승환 논문 리뷰 링크 모음) : github.com/RobotMobile/cv-deep-learning-paper-review/blob/master/README.md RobotMobile/cv-deep-learning-paper-reviewContribute to RobotMobile/cv-deep-learning-paper-review development by creating an account on ..
며칠전부터 Policy gradient 알고리즘들 밑바닥부터 짜는 중에 A3C 개발하며 느낀점들 1. 구현체 github.com/keep9oing/PG-Family keep9oing/PG-Family Basic PG Reinforcement algorithms. Contribute to keep9oing/PG-Family development by creating an account on GitHub. github.com 2. multi processing A3C를 구현하려면 멀티 프로세싱을 해야했는데, 뭐 어떻게 하는지 전혀 몰라서 python 의 multi processing packag관련 튜토리얼을 먼저 봐야했다. 2-1) 튜토리얼 docs.python.org/ko/3/library/multipr..
센서 데이터를 numpy 형태 모았을 경우 따로 point cloud 형태로 바꿔줘야한다. 가장 먼저 바꿔줄 형태는 pcd 이며 point cloud data라는 뜻이다. numpy to point cloud profile_np = np.load('/home/benlee/Desktop/pcd_data/pptk_save_2.npy') ori_pc = pcl.PointCloud(ori_pc_np) #numpy to pcl profile_np = np.load('/home/benlee/Desktop/pcd_data/pptk_save_2.npy') ori_pc = pcl.PointCloud(ori_pc_np) #numpy to pcl 먼저 np.load를 통해 저장해두었던 numpy 파일을 load 해온다...
Point cloud의 경우 실제 표면에 대한 point들의 집합을 말한다고 볼 수 있다. 따라서 Point 들의 집합으로 어떻게 표면을 나타낼 수 있는지가 중요한 요소가 된다. 표면은 작은 평면들의 집합으로 볼 수 있다. 따라서 먼저 Point set들을 평면으로 나타낼 수 있어야하고 이를 위해 중학생때 배웠던 평면방정식을 한번 되짚어보자. 평면 방정식은 점 3개의 위치만 알면 이를 평면식으로 나타낼 수 있다. 점 p1, p2, p3와 크래머의 정리를 이용해서 평면의 법선벡터와 원점과의 거리 d를 확인 할 수 있다. Pointcloud에서는 2가지 방법으로 법선 벡터를 찾을 수 있다. 1. point cloud에서 surface meshing 방법을 이용해 surface를 만들고 mesh를 바탕으로 법..
PCL의 기초인 passthrough filter랑, statistical outlier filter를 돌려봤다. 이전 글인 Point cloud 얉은 지식 1편에서(ropiens.tistory.com/59) 언급했던 필터들이다. 오리지널 이미지는 이렇게 생겼다. 이미지를 보면 경사면 부분에 노이즈가 많고, 윗부분에 노이즈가 있는 걸 알 수 있다. 이렇게 일반적인 포인트 클라우드 영역에서 벗어난 포인트들은 passthrough filter로 지워줄 수 있다. passthrough filter를 거치면 벗어난 포인트들이 사라진다. 이미지 처리에서 ROI랑 같은 원리다. 각 point.x , y, z 값에서 한 영역을 정하여 pass range 를 설정해주면 된다. 이 이미지는 statistical outl..
작성자 : 한양대학원 융합로봇시스템학과 유승환 석사과정 (CAI LAB) 오늘은 번외로 Pytorch와 yolov4, yolov5를 설치하겠습니다. ROS는 사용하지 않습니다. 번외 1. YOLOv4 설치 아래의 링크가 친절하게 설명되어있습니다! 아래의 링크는 yolov3 기준으로 설명되어 있는데, yolov3의 인자를 v4로 변경하면 v4를 사용할 수 있습니다! YOLOv4 설치 : wendys.tistory.com/143 [AI] 젯슨 나노(Jetson Nano) darknet YOLO v3 설치 및 샘플 돌려보기 젯슨 나노 (jetson nano) darknet 신경망 오픈소스 프로젝트 YOLO v3 설치하기 https://pjreddie.com/darknet/ Darknet: Open Source..
작성자 : 한양대학원 융합로봇시스템학과 유승환 석사과정 (CAI LAB) 오늘은 YOLO-ROS를 설치하겠습니다! Jeston Nano를 기준으로 설명을 합니다. YOLOv2-tiny와 YOLOv3-tiny를 ROS로 구동하는 것은 성공했지만, YOLOv4-tiny는 실패했습니다... YOLOv4-tiny를 실행시키면 nano 시스템이 다운이 되버리네요ㅜㅜ 메모리 부족 문제인지, 제 코드의 문제인지는 모르겠지만... 일단은 YOLOv3-tiny를 베이스로 설명하겠습니다.! 참고 링크 (YOLO-ROS) : github.com/leggedrobotics/darknet_ros leggedrobotics/darknet_ros YOLO ROS: Real-Time Object Detection for ROS. C..
작성자 : 한양대학원 융합로봇시스템학과 유승환 석사과정 (CAI LAB) 저의 목표는 ROS-Melodic를 활용하여 카메라(Real-Sense)에서 얻은 이미지를 YOLOv3로 Object Detecting하고 Detect한 좌표를 ros-topic으로 받아오는 것입니다! Depth 카메라를 사용하는데, 저는 Depth 좌표는 필요 없어서 color 이미지만 사용할 것입니다! (연구실에 카메라가 real-sense 밖에 없어서 과분한 카메라를... 사용하네요ㅎㅎ) 오늘은 OpenCV (버전 : 3.4.0) 설치를 먼저 해보겠습니다! [Jeston Nano 시리즈] 1-2편 JetPack 설치 on Jeston Nano : ropiens.tistory.com/87 NVIDIA Jeston 환경 셋팅 1-..