computer vision/image classification 7

Densely Connected Convolutional Networks

Abstract 만약 input에 가까운 layer와 output에 가까운 layer 간에 더 짧은 connection을 포함한다면 cnn은 학습하는데 더 깊고 정확하고 효율적이라고 최근 연구에서 나타났다. feed-forward 방식에서 다른 모든 layer에서 각 layer를 연결하는 Densenet을 소개한다. L layer가 있는 기존의 cnn은 각 layer와 이후 layer 사이에 하나씩 L개의 connection을 가지는 반면에, network는 L(L+1)/2개의 직접적인 connection이 있다. 각 layer에 대해 모든 이전 layer의 feature map이 input으로 사용되며, 자체 feature map은 모든 후속 레이어에 대한 input으로 사용됩니다. Densenet의 ..

EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

Abstract CNN은 고정된 resource 예산으로 발전시켰고, 많은 resource를 사용할 수 있다면 더 나은 정확도에 대해 확장한다. 이 paper에서, 우리는 model scaling을 연구하고 network depth, width을 균형을 이루고 있는지 확인한다. 그리고 resolution은 더 나은 performance으로 이끈다. 관찰에 기반해서, 간단하면서도 매우 효과적인 compound 계수를 사용하여 depth, width, resolution의 모든 차원을 균일하게 확장하는 새로운 확장 방법을 제안합니다 MoblieNet과 ResNet을 확장하는 방법의 효과성을 입증한다. 더 나아가서, 우리는 새로운 baseline network를 design하기 위해 neural archite..

Deep Residual Learning for Image Recognition

Abstract 더 깊은 neural network는 학습하기 더 어렵다. 이전에 사용된 더 깊은 network의 학습을 완화하기 위해서 residual learning framework를 제시한다. unreferenced function 학습 대신에, layer input에 reference를 가진 residual function을 학습함으로써 layer를 새로 표현한다. 상당한 증가된 깊이로부터 정확도를 얻을 수 있다. imagenet dataset에서 VGG net보다 8배 더 깊은 152 layer 깊이를 가진 residual net을 평가한다. 하지만 여전히 더 낮은 복잡도를 가진다. residual net의 ensemble은 imagenet test set에서 3.57% error를 달성한다...

Very Deep Convolutional Networks For Large-Scale Image Recognition

Abstract 이 작업에서 우리는 큰 규모의 image recognition 설정에서 정확도에 convolutional network의 효과를 연구한다. 우리의 주요 기여는 매우 작은(3x3) convolutional filter가 있는 architecture를 사용해서 깊이가 증가하는 network를 철저히 평가하는 것인데, 이는 깊이를 16~19개의 weight layer로 푸쉬함으로써 이전 기술 구성에 대한 상당한 개선을 달성할 수 있음을 보여준다. 이 결과는 우리의 팀이 localization과 classification track에서 각각 1등, 2등을 확보하는 우리의 imagenet challenge 2014 제출의 기반이다. 우리는 우리의 표현이 그들의 sota 결과를 달성하는 다른 dat..

Going deeper with convolutions

Abstract 우리는 ILSRVRC14에서 classification과 detection에 대한 새로운 sota에 책임이 있는 inception이라는 코드네임이 붙여진 deep cnn 구조를 제안한다. inception의 주요 특징은 network에 있는 향상된 computing resource의 활용이다. computational budget을 일정하게 유지하는 동안 network의 깊이와 필터 수를 증가시키는 설계에 의해 달성했다. 품질을 최적화하기 위해서, 구조적인 결정은 hebbin 원칙과 multiscale processing의 직관에 기반되어졌다. ILSVRC14에 대해 제출에 사용된 것은 googlenet이라고 불렸고 22개의 deep network이며, classification과 det..

visualizing and understanding convolutional networks

Abstract 큰 convolutional network model은 최근에 imagenet benchmark에서 classification 성능이 좋았는데 왜 모델이 잘 돌아가는지 또는 어떻게 성능이 좋은지 몰랐음. 그래서 이 논문에서 두가지 문제를 다루고 새로운 visualization 기술을 소개한다. Introduction 모델 향상에 도움되는 몇가지 요인 큰 training set의 활용 좋은 GPU 더 나은 모델 정규화 전략(Dropout) 이 논문에서 제안한 visualization 기술은 muti-layered Deconvolutional network를 사용하고 input pixel 공간에 feature activation을 투영하는 것이다. scene의 부분이 classificatio..

ImageNet Classification with Deep Convolutional Neural Networks

Abstract 1000개 클래스로 ImageNet LSVRC-2010 contest에서 1.2 million 고해상도 이미지를 분류하기 위해서 deep convolutional neural network로 훈련했다. - test data top-1 error rate: 37.5% top-5 error rate: 17.0% - neural network: 650000 neurons 5 convolutional layers max-pooling layers 3 fully-connected layers with final 1000-way softmax - To make training faster non-saturating neurons efficient GPU - To reduce overfitting i..