157 0

Sensor Fusion Transformer for Interpretable Multi-sensor Anomaly Detection

Title
Sensor Fusion Transformer for Interpretable Multi-sensor Anomaly Detection
Author
정희태
Advisor(s)
배석주
Issue Date
2023. 2
Publisher
한양대학교
Degree
Master
Abstract
Advances of Internet of Things (IoT) and modern sensing technology has led many systems into smart environments with multi-sensor systems. But because of the high dimensionality of multi-sensor data, they are not only highly correlated but also having non-linear dynamics on time dependencies. Due to the nature of these multi-sensor data, a model for effective feature representation in both time and sensor dimensions is needed. Previously, there have been many AI-based approaches simply combining several base models for capturing features from time and sensor dimension for each. But most of them concentrated on only for performance and did not consider the characteristics of multi-sensor handling in practice. Transformer architecture based on self-attention has succeeded in effective modeling and interpretable insights, but it also has limitations that it could only provide an interpretation of the sequence due to the time-attention type. As a result, model complexity has increased more and system operators still suffered from numerous false alarms by checking all of the sensors one by one. In this work, we propose a model has a parallel architecture that can simultaneously consider the representations of input data through time and sensor level. While taking advantage of self-attention based Transformer architecture, we designed Sensor Fusion Transformer (SFT) forecasting model which has sensor-time attention type. Anomaly detection was performed based on prediction error as a criteria, and experiments were conducted at 4 real-world datasets. Result of evaluating model performance, it achieved comparable F1 score for anomaly detection result with SOTA baselines in reasonable computational costs and relatively low sensitivity, especially when the sensor relationship is complicated. However, additional experiments have shown that the proposed architecture cannot necessarily be claimed to increase performance always. Nevertheless, another advantage of the proposed model is that it provides sensor-level intuitive insights for detection result interpretation by maximizing neuron activation of feature map generated by Sensor Fusion architecture. These insights were shown through numerous case studies of corresponding research questions.|사물인터넷(IoT)과 현대의 센서 감지 기술의 발전은 많은 시스템을 다중 센서 시스템의 스마트 환경으로 이끌었다. 그러나, 다중 센서의 고차원적 특성으로 인해 그들은 깊게 상관되어 있을 뿐 아니라 시간 의존성에 대한 비선형 역학을 가지고 있다. 이러한 다중 센서 데이터의 특성으로 인해 시간 및 센서 차원 모두에서 효과적인 특징 표현을 위한 모델이 필요하게 되었다. 이전에는, 시간과 센서의 각 차원에서 특징을 포착하기 위해 단순히 여러 기저 모델을 결합하는 많은 AI 기반의 접근들이 있었다. 그러나 그들의 대부분은 성능에만 집중하였고 실무에서 다중 센서를 조작하는 것에 대한 특성을 고려하지 않았다. Self-Attention을 기반으로 하는 Transformer 아키텍처는 효과적인 모델링과 해석가능한 통찰에는 성공적이었지만, 이 또한 time-attention 유형의 방식으로 인해 시퀀스의 해석 가능성만을 제시할 수 있다는 한계가 존재했다. 결과적으로, 모델의 복잡성은 점점 증가하였고 시스템 운영자들은 여전히 수많은 오탐(false alarms)에 모든 센서를 일일이 확인해야 하는 고충을 겪었다. 본 연구에서는, 입력 데이터의 표현을 시간과 센서 수준을 따라 동시에 고려할 수 있는 평행한 아키텍처를 가진 모델을 제안한다. Self-attention 기반의 Transformer 아키텍처의 장점을 취하면서, sensor-time attention 유형을 가진 Sensor Fusion Transformer (SFT) 예측 모델을 설계하였다. 이상 탐지는 예측 오차를 척도로써 수행되었으며, 실험은 4개의 실제 데이터 세트에서 수행되었다. 모델 성능을 평가한 결과, 특히 센서간 관계가 복잡한 경우 합리적인 연산 비용과 상대적으로 낮은 민감도에서 SOTA 기준 모델들과 이상 탐지 결과에 대해 비교할만한 F1 점수를 달성하였다. 그러나 추가 실험에 따르면 제안된 아키텍처가 항상 반드시 성능을 향상 시킨다고 주장할 수는 없었다. 그럼에도 불구하고, 제안된 모델의 또 다른 장점은 Sensor Fusion 아키텍처에 의해 생성된 feature map의 뉴런 활성화를 최대화하는 것을 통해 탐지 결과 해석을 위한 센서 수준의 직관적인 통찰을 제공한다는 것이다. 이러한 통찰은 대응되는 여러 연구 질문들에 대하여 많은 사례 분석을 통해 나타났다.
URI
http://hanyang.dcollection.net/common/orgView/200000651391https://repository.hanyang.ac.kr/handle/20.500.11754/187459
Appears in Collections:
GRADUATE SCHOOL[S](대학원) > INDUSTRIAL ENGINEERING(산업공학과) > Theses (Master)
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

BROWSE