본문 바로가기

Paper review28

Generative Adversarial Nets(GAN, 2014) 리뷰 이번에는 생성모델의 시초라고도 볼 수 있는 GAN을 리뷰해 보겠다. 대게 이런 특정 task의 시초가 되는 논문은 장황한 수식과 설명이 함께 있는 경우가 많은데 이 논문은 상대적으로 길이는 짧은 편인 것 같다. 모델 아키텍쳐에 관한 설명이 간단하여 이에 대해 골머리를 썩일 필요도 없는데 이 논문의 가장 중요한 파트인 Loss function의 증명 부분이 유난히 이해하기 어려웠다. 물론 워낙 유명해서 관련 자료가 많아 이해정도는 쉽게 가능하다. Abstract & Introduction 이 당시만해도 딥러닝에 추가적인 기법을 이용해 생성을 시도하는 논문이 있었으며 저자는 이 방법이 생성에 그다지 유리하지 않다고 생각해 추가적인 생성 모델을 제작했다고 한다. 데이터의 분포를 찾는 Generator mode.. 2023. 12. 20.
A Closer Look at Few-shot Classification(2019) 리뷰 하반기 취준에 패배하고 대학원에 입학하고자 여러 분야의 논문을 가림 없이 읽고 있다. 그중 Few Shot Learning은 간간히 듣던 연구 주제라 개념을 잡기 위해 먼저 대표적인 Survey논문을 하나 읽고 리뷰해보려 한다. Abstract & Introduction Few-shot classification의 정의: 제한된 라벨의 데이터만을 사용하여 훈련시킨뒤 훈련 중에 보지 못한 라벨에 대해 분류하는 분류기를 만드는 것 저자는 논문에서 크게 세가지를 제안한다. 더 깊은 backbone이 도메인 차이가 크지 않은 데이터 간에 성능차이를 확연히 줄인다. few-shot데이터셋들에 대해 기존 SOTA보다 성능이 높은 baseline++을 제안 FSL의 시나리오에 더 적합한 평가지표 소개 도입부에서는 기.. 2023. 12. 15.
An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale(ViT, 2020) 리뷰 Transformer의 등장 이후 NLP 도메인에서는 이 구조를 활용한 논문이 쏟아져나왔고 GPT, BERT, ELMo등 이 구조를 성공적으로 활용한 다양한 논문 역시 등장하였다. 하지만 Vision분야에서도 이런 시도는 여럿 대부분 제한적으로 사용했으며 그 중에서 ViT는 Attention구조를 Vision분야에 성공적으로 적용시킨 최초의 시도 중 하나이며 지금도 CV를 다루는 사람들은 모를수가 없는 논문 중 하나이다. NLP분야에서는 Transformer가 등장한 2017년 이후 2018~2019년도에는 이를 변형한 모델들이 등장해 좋은 성적을 내 눈길을 끌었다. Transformer와 Attention구조가 그렇게 뛰어나다면 어째서 Vision분야에서는 이러한 모델이 등장하지 않는걸까? 저자는 논문.. 2023. 11. 29.
[Paper review] Convolutional Networks for BiomedicalImage Segmentation(U-Net, 2015) 이번에 리뷰할 논문은 UNet이다. task별로 적어도 하나의 논문은 읽기 위해 노력 중인데 segmentation에서 근본이라 할 수 있는 논문은 FCN이지만 강의에서 이해한 내용으로 충분하다 생각해서 UNet을 리뷰하려 한다. 사실 개념자체는 FCN과 유사하고 이를 구현한 아키텍처면에서만 조금의 차이가 있는 것 같았다. Abstract, Introduction 초록과 도입 부분은 여타 논문과 유사하다. 저자는 딥러닝의 발전이 빠르지만 이는 방대한 데이터양 덕분이며 의료분야에서는 통용되지 않는 점을 시사했다. 또한 당시 segmentation계를 뜨겁게 달군 FCN구조를 기반으로 더 좋은 구조의 아키텍처를 구성하였다. U-Net Architecture U-net의 구조는 보다시피 매우 직관적이다.저자는.. 2023. 6. 19.