티스토리 뷰

반응형

This paper presents TS2Vec, a universal framework for learning representations of time series in an arbitrary semantic level.

이 논문은 TS2Vec이라는 임의의 의미 수준에서 시계열의 표현을 학습하기 위한 범용 프레임워크를 제시합니다.

 

Unlike existing methods, TS2Vec performs contrastive learning in a hierarchical way over augmented context views, which enables a robust contextual representation for each timestamp.

기존 방법과 달리, TS2Vec은 증강된 컨텍스트 뷰에 대해 계층적인 방식으로 대조적 학습을 수행하여 각 타임스탬프에 대한 견고한 문맥적 표현을 가능하게 합니다.

 

Furthermore, to obtain the representation of an arbitrary sub-sequence in the time series, we can apply a simple aggregation over the representations of corresponding timestamps.

또한, 시계열의 임의의 하위 시퀀스의 표현을 얻기 위해 해당 타임스탬프의 표현을 간단한 집계(aggregation) 방법을 적용할 수 있습니다.

 

We conduct extensive experiments on time series classification tasks to evaluate the quality of time series representations.

우리는 시계열 분류 작업에서 시계열 표현의 품질을 평가하기 위해 광범위한 실험을 수행합니다.

 

As a result, TS2Vec achieves significant improvement over existing SOTAs of unsupervised time series representation on 125 UCR datasets and 29 UEA datasets. The learned timestamp-level representations also achieve superior results in time series forecasting and anomaly detection tasks.

결과적으로, TS2Vec은 125개의 UCR 데이터셋과 29개의 UEA 데이터셋에서 비지도 시계열 표현의 기존 SOTA에 대해 상당한 개선을 이룩합니다. 또한, 학습된 타임스탬프 수준의 표현은 시계열 예측 및 이상 탐지 작업에서 우수한 결과를 얻습니다.

 

A linear regression trained on top of the learned representations outperforms previous SOTAs of time series forecasting.

학습된 표현 위에 훈련된 선형 회귀 모델은 이전의 시계열 예측 SOTA를 능가하는 성능을 보입니다.

 

Furthermore, we present a simple way to apply the learned representations for unsupervised anomaly detection, which establishes SOTA results in the literature. The source code is publicly available at https://github.com/yuezhihan/ts2vec.

또한, 우리는 학습된 표현을 비지도 이상 탐지에 적용하는 간단한 방법을 제시하였으며, 이는 선행 연구에서 SOTA 결과를 달성하였습니다. 소스 코드는 https://github.com/yuezhihan/ts2vec 에서 공개적으로 이용할 수 있습니다.

반응형
댓글
공지사항
최근에 올라온 글