티스토리 뷰
Abstract
We propose a deep convolutional neural network architecture codenamed Inception,
우리는 inception이라는 코드네임을 가진 deep-convolutional neural network architecture를 제안한다.
-> deep 레이어를 깊게 쌓은
-> convolutional 레이어를 사용한
-> neural network 모델
which was responsible for setting the new state of the art for classification and detection in the ImageNet Large-Scale Visual Recognition Challenge 2014 (ILSVRC14).
이 inception은 imageNet Large Scale Visual Recognition Challenge 2014에서 classification, 그리고 detection 분야에서 sota를 찍었다.
-> 짱짱맨이다
The main hallmark of this architecture is the improved utilization of the computing resources inside the network.
이 구조의 메인 특징은, 네트워크안에서 계산을 위해서 사용되는 리소스들을 조금 더 효율적으로 사용할 수 있게 함이다.
-> 어떻게?
-> 얼마나?
-> 동일 리소스 대비 더 좋은 결과값을 낼 수 있다는 이야기겠지?
This was achieved by a carefully crafted design that allows for increasing the depth and width of the network while keeping the computational budget constant.
이 리소스 개선은 네트워크의 깊이와 넓이를 늘리면서도, 계산량은 일정하게 유지하게 하는 디자인을 개발함으로 얻어진 것인데
To optimize quality, the architectural decisions were based on the Hebbian principle and the intuition of multi-scale processing.
이 모델의 퀄리티를 최적화하기 위해서, 구조적 결정은 Hebbian priciple과 multi-scale processing에 기반한다.
-> 어려운 용어들이 많네..
-> hebbian priciple? - https://provbs.tistory.com/349
-> multi-scale processing? -
One particular incarnation used in our submission for ILSVRC14 is called GoogLeNet, a 22 layers deep network, the quality of which is assessed in the context of classification and detection.
우리가 ILSVRC14에 제출한 것 중에 하나가 GoogLeNet인데, 22 레이어로 쌓았고, classification과 detection을 위해서 사용되었다.