티스토리 뷰
Deeper neural networks are more difficult to train.
더 깊은 신경망은 학습시키기 더욱 어렵다.
We present a residual learning framework to ease the training of networks that are substantially deeper than those used previously.
우리는 이 전에 사용되던 형식보다 더 깊은 형식의 네트워크들의 학습을 쉽게하는 "residual (잔여) 학습 프레임워크"를 소개한다.
We explicitly reformulate the layers as learning residual functions with reference to the layer inputs, instead of learning unreferenced functions.
우리는 layer input을 참조하지 않은 residual function들을 학습하는 방식이 아닌, layer input을 참조하여 residual function들을 학습하는 방식으로 레이어들을 다시 만들어냈다.
We provide comprehensive empirical evidence showing that these residual networks are easier to optimize, and can gain accuracy from considerably increased depth.
우리는 이 residual network들이 1)최적화시키기에 더 쉽고, 2)깊은 네트워크에서도 정확도를 얻을 수 있다는 포괄적이고 실증된 증거를 보여주고 있다.
On the ImageNet dataset we evaluate residual nets with a depth of up to 152 layers—8× deeper than VGG nets [41] but still having lower complexity.
ImageNet 데이터셋을 위해서, 우리는 "residual nets"을 152 layers (VGG nets의 8배) 로 만들었고, 하지만 더 낮은 복잡도를 가지도록 만들었다.
An ensemble of these residual nets achieves 3.57% error on the ImageNet test set.
이 residual nets들의 앙상블을 한 모델로 우리는 3.57%의 에러율을 ImageNet test set에서 얻을 수 있었다.
This result won the 1st place on the ILSVRC 2015 classification task.
이 결과물로 우리는 ILSVRC 2015 classification task에서 1위를 얻을 수 있었다. (참고로 구글넷이 2014 1등)
We also present analysis on CIFAR-10 with 100 and 1000 layers.
CIFAR-10에 대해서 100 그리고 1000 레이어들로 분석을 진행해보았다.
The depth of representations is of central importance for many visual recognition tasks.
표현의 깊이는 많은 visual recognition task들의 중요성 요소이다.
Solely due to our extremely deep representations, we obtain a 28% relative improvement on the COCO object detection dataset.
오로지 우리의 깊은 representation 덕에, 우리는 상대적으로 28% 개선된 결과를 COCO object detection dataset에서 얻을 수 있었다.
Deep residual nets are foundations of our submissions to ILSVRC & COCO 2015 competitions, where we also won the 1st places on the tasks of ImageNet detection, ImageNet localization, COCO detection, and COCO segmentation.
깊은 residual nets들은 우리의 ILSVRC & COCO 2015 competitions의 핵심이였고, 이를 통해서 ImageNet detection, ImageNet localization, COCO detection, COCO segmentation에서 1등을 얻을 수 있었다.