This paper presents TS2Vec, a universal framework for learning representations of time series in an arbitrary semantic level. 이 논문은 TS2Vec이라는 임의의 의미 수준에서 시계열의 표현을 학습하기 위한 범용 프레임워크를 제시합니다. Unlike existing methods, TS2Vec performs contrastive learning in a hierarchical way over augmented context views, which enables a robust contextual representation for each timestamp. 기존 방법과 달리, TS2Vec은 증강된 컨텍스트..
5 GoogLeNet We chose GoogLeNet as our team-name in the ILSVRC14 competition. This name is an homage to Yann LeCuns pioneering LeNet 5 network [10]. 우리는 ILSVRC14 대회에서 팀 이름으로 "GoogLeNet"을 선택했습니다. 이 이름은 Yann LeCun의 선구적인 LeNet 5 네트워크에 대한 경의의 표현입니다 [10]. LeNet 5은 컨벌루션 신경망의 초기 모델 중 하나로 알려져 있으며, 딥러닝의 발전에 기여한 중요한 업적으로 평가받고 있습니다. "GoogLeNet"은 이러한 선구자적인 네트워크에 대한 경의와 구글(Google)의 참가를 결합한 이름입니다. We also use ..
chat gpt의 도움을 받아 작성하였습니다 4 Architectural Details The main idea of the Inception architecture is based on finding out how an optimal local sparse structure in a convolutional vision network can be approximated and covered by readily available dense components. Inception 아키텍처의 주요 아이디어는, 컨볼루션 비전 네트워크에서 최적의 지역적 희소 구조를 어떻게 근사화하고, 이를 이용할 수 있는 밀집 구성 요소로 대체할 수 있는지를 찾는 것입니다. Note that assuming translatio..
3 Motivation and High Level Considerations The most straightforward way of improving the performance of deep neural networks is by increasing their size. deep neural network들의 성능을 가장 확실하게 개선시키는 방법은 사이즈를 키우는 것이다. This includes both increasing the depth – the number of levels – of the network and its width: the number of units at each level. 이는 깊이를 늘리는 것(레이어를 많이 쌓는 것)과, 넓이를 넓히는 것(한 레벨에 많은 유닛들을 넣는 ..
2 Related Work Starting with LeNet-5 [10], convolutional neural networks (CNN) have typically had a standard structure – stacked convolutional layers (optionally followed by contrast normalization and maxpooling) are followed by one or more fully-connected layers. Lenet-5를 시작으로, CNN은 표준화된 형태를 가지게 되었다. - convolutional 레이어들(때로, contrast normalization이나 맥스풀링이 붙기도 한다)에 fully-connected layer들이 붙은 형태...