본문 바로가기

분류 전체보기74

AI 개발자 취업 후기 작년 8월 부스트캠프를 수료한 뒤로 반년 간의 취준 그리고 다시 반년 간의 대학원 준비를 거친 뒤 1년 만에 취업에 성공했다.처음 목표는 데이터 사이언티스트로서 리서처가 되는 것이었는데 결국 AI 개발자로 취업했으며 1년 동안 어떻게 준비했는지, 취준 기간 동안 도움이 됐던 것들 그리고 느낌점등을 적어보려 한다. 2023년 후기부스트캠프를 수료한 뒤에는 자소설닷컴에 올라오는 대기업, 중견기업에 지원했고 자소서를 작성하거나 코테 준비 그리고 대기업 인적성을 준비하며 시간을 보냈었다.아무런 준비나 조사 없이 지원하니 주먹구구식으로 지원했으니 붙을리 없었고 결과적으로 4개월을 통째로 날려버렸다. 이때 돌아보면 자격증이나 논문리뷰 영어공부등 부가적으로 할 수 있던게 많았는데 하나쯤은 붙을 거라고 자만심에 차있던.. 2024. 8. 13.
기존 딥러닝 개발환경 복제하기 딥러닝 개발할 때 가장 어렵고 시간을 많이 잡아먹는 부분이 환경 세팅이다. cuda부터 시작해 환경을 새로 깔아야 할 때는 어쩔 수 없이 하나씩 맞추면 되지만 기존 환경이 있으면 이를 그냥 사용하면 된다. 그럼에도 불구하고 굳이 기존 환경을 복제하기로 마음 먹었는데 또 무언가 막무가내로 설치하다 버전이 꼬이게 될 경우를 상상하다 보니 너무 절망스러웠기 때문이다. 먼저 가상환경을 만들고 pip를 최신화한다.(가상환경을 깔면 당연히 기존 pip 버전을 따라갈 줄 알았는데 그 버전에 최적인? pip를 깔아주는 것 같아 그냥 업그레이드 하였다)가상환경 생성(venv)가상환경 생성(venv)및 활성화python -m venv testsource ./test/bin/activatepip 업그레이드pip instal.. 2024. 6. 24.
Visual Prompt Tuning(2022) 리뷰 FAIR에서 저술한 논문이며 Vision도메인에 prompt를 적용시킨 논문이라 생각해 읽어보았는데 그보다는 LoRA와 같은 parameter efficient tuning이 메인이 되는 논문이었다. 최근에 모델 사이즈가 커지며 이 분야도 각광받고 있어서 그냥 계속 읽고 리뷰해 보았다.Abstract이 논문에서는 기존에 large scale transformer 모델들을 full fine-tuning(FF)를 통해 학습하는 것을 대체하는 Visual Prompt Tuning(VPT)를 제시한다. VPT는 llm의 발전에서 영향을 받았고 모델의 backbone을 freeze한채 1% 이하의 parameter를 추가로 학습하여 FF와 비견되는 성능을 보여주는 효율적인 방법론임을 시사한다. Introducti.. 2024. 6. 13.
Self-training with Noisy Student improves ImageNet classification(2020) 리뷰 ViT가 나온 뒤 현재는 ViT의 다양한 variants들이 CV도메인에서는 SOTA를 달성했다. 하지만 이전에는 CNN과 Noisy student training을 사용한 방법론이 SOTA의 대다수를 차지하고 있었는데 이번에는 그 방법론을 처음 제시간 논문을 리뷰해 보겠다. Abstract 이 논문은 labeled data가 풍부한 상황에도 적용가능한 semi supervised 학습법인 Noisy student training을 제안한다. 이 기법은 distillation시 student model을 teacher와 동일 혹은 큰 사이즈를 사용해 학습하며 student의 학습 시 noise를 더해주는데 저자는 이러한 부분에서 self-training 그리고 distillation의 아이디어를 활용했다.. 2024. 4. 9.