티스토리 뷰

작성자 : UNIST 기계공학과 석사과정생 임가은

 

ChatGPT 등장 이후, 저에겐 약 1년간은 절대 GPT를 사용하지 않겠다고 결심했던 기간이 있었습니다. 왠지 인간의 고유한 능력, 질문하고 사유한 뒤 나름의 답을 내리는 것 마저 기계에게 빼앗겨버린 느낌이랄까요? 어디까지 효율을 추구해야 할지 혼란스러우면서도, 한편으로는 GPT를 사용하는 친구들의 과제 제출 속도를 따라갈 수 없어 마지못해 사용하기 시작하게 되었던 것 같아요.

 

저의 GPT 사용 history를 간단히 풀어보자면, 2022년 말에는 3개월 무료 체험권을 연구실 동료에게 선물받아 어찌저찌 사용했습니다. 2023년에는 무지막지한 ROS package 설치와 Gazebo, Unreal 등 가상환경 구성을 할 일이 많았고, 이때 GPT가 큰 도움을 줬습니다. sudo apt install something 을 무작정 따라하면 대부분 해결이 잘 되었던 것으로 기억합니다.

 

2024년에는 Computer Vision for Robotics Perception 과목을 들을 때, 드디어 Visual Studio에 Github copilot 자동완성 기능을 탑재했습니다. 학생증 인식이 잘 안되어서 애먹었던 기억이 나네요. Image point matching, stitching 을 하는 classic 한 epipolar geometry 였는데, 나중엔 정말 간단한 로직조차 GPT 너가 다해줘 마인드가 되어버려서 학기 말에 뇌가 무지 찝찝했던 기억이 납니다.

 

이제서야 LLM을 제대로 공부해 보려고 해요. 이미 늦은것 같기도 한데, 지금 아니면 더 늦어버릴까봐 시작하는 겁니다- 허허. 마침 2017년에 나온 'Attention Is All You Need (Vaswani et al., 2017) ' (Transformer)를 스터디할 기회가 생겼습니다. 차근차근 모르는 개념부터 정리해 나가볼게요. 다음 글은 아마 'auto-regressive' 가 될 것 같습니다. LLM에 관해 잘 아시는 분들, 많은 도움을 부탁드리겠습니다~.

댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2025/03   »
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31