목록conv (2)
Deep Learning study
오늘 볼 논문들은 두가지 입니다 ! 사실상 이전의 글을 보셨다면 지금 보는 논문들은 크게 어려울것 없습니다. 그런의미에서 간단하게만 살펴봅시다. Inception GoogLeNet이라고 알려진 유명한 논문입니다. 먼저 모델을 deep하게 만들수록 모델의 표현능력 또는 수용력이 증가함으로써 성능이 올라간다는것은 어떻게보면 실험적으로 잘 알려진 사실입니다. 그렇지만 단순히 깊게 만드는데에는 한계가 있습니다. 모델의 사이즈가 커진다는 것은 당연하게도 parameter의 수가 커지는것을 의미합니다. 이것은 한정된 labeled data를 가질 수 밖에 없는 우리에게 overfitting이 일어나게 만듭니다. 우리가 가진 계산(computation)능력과 메모리등의 자원은 항상 제한적입니다. 다시말해 우리는 한정..
오늘 정리 할 논문은 FCN에 이어서 U-Net. 이미지 segmentation하면 항상 나오는 논문인것같다. 이 논문을 제일 처음 접한것은 다른 이유가 있었지만 생략.. ㅎ 좋은일은 아니었기때문에 .. 여튼 그럼 논문으로 들어가 보도록 하자. 이 논문에서 소개할 것은 크게는 두가지 이다. 하나는 network(모델의 구조)이고, 다른 하나는 data augmentation을 활용했다는 것이다. 언제나 그렇듯이 이맘때쯤 나온 논문들의 introduction의 도입부는 항상 비슷한것 같다. '최근 몇년간 deep convolutional netowrks는 이미지 인식 분야에서 뛰어난 성능을 보여왔다' ... 등등의 말.. 여기도 비슷말들이 주욱 있다. classification분야에서는 네트워크의 출력으로..