Research Area

1. Data Science for Manufacturing

생산 시스템에서 수집되는 다양한 데이터를 기계학습 방법론으로 분석하고, 이를 활용하여 기업 생산 시스템을 최적화하기 위한 연구를 수행한다.

  • 스마트 팩토리 시스템에 맞는 설비, 공정의 실시간 모니터링
  • 수집 데이터의 이상 탐지 및 이상 분류, 추적 통한 원인 분석
  • 제품 수요 예측을 통한 효율적인 생산 계획 수립 및 생산 시스템 관리
  • 에너지 소비 패턴 모니터링 및 분류, 사용량 예측을 통한 효율적인 자원 관리

2. Anomaly Detection

정상 데이터의 특징을 기반으로 정상의 범주에 해당되지 않는 데이터 상태를 감지한다. 여러 비정상 상황을 인지하는 모델을 개발한다.

  • Supervised/Semi-supervised/Unsupervised 방식을 기반으로 정상 데이터의 패턴을 학습하기 위한 알고리즘 개발 및 적용
  • 최소한의 정상 데이터, Multi-class 등의 여러 정상 데이터 패턴에 대한 시나리오 설계
  • 제조, 철강, 금융, 음성, 의료 등 다양한 산업분야에 활용 가능

3. Prognostics and Health Management

설비의 건전성을 모니터링(Health Monitoring)하고 이상 징후를 진단(Diagnosis)하여, 유지∙보수 시점 예측(Prognosis)을 통해 설비를 정비하는 건전성관리(Health Management) 기술이다. 고장 시점 또는 유지∙보수 시점을 정확하게 예측하는 기법은 설비 운영/관리의 최적화를 목적으로 한다.

  • 최적의 설비 유지∙보수 시점 예측을 위한 예측 모델 기반의 예지 보전 기법 개발
  • 설비의 잔존수명 예측을 위한 건강 지표 개발
  • 데이터 기반의 이상탐지/이상분류 모델 개발
  • 시계열 데이터를 통한 설비의 건전성/잔여수명 예측

4. Timeseries Forecasting

주식, 환경, 의료, 마케팅 등 다양한 도메인에서 시계열 예측 연구를 수행한다. 시계열 패턴을 반영한 딥러닝을 활용해 예측 정확도를 높이고 변수 간의 관계를 반영한 알고리즘을 개발한다.

  • 복잡한 시간 패턴을 가진 데이터 분해 및 분할
  • 단변량, 다변량 시계열 예측
  • 시계열 결측치, 이상치에 대한 전처리 방법론 개발
  • 해석가능한 방법을 이용해 의사결정에 활용

5. Classification

기계학습 방법론을 활용해 데이터 각 범주의 관계와 특성을 파악하고, 새롭게 관측된 데이터의 범주를 스스로 판별하는 연구를 수행한다.

  • 센서로부터 수집되는 단변량 및 다변량 시계열 데이터로부터 특성을 고려하여 제품의 양불량을 예측하는 공정 이상 진단 기술과 수율 향상을 위한 인사이트 제공
  • 이미지로부터 외관의 결함 발생 여부를 판단하고 향후 수집되는 유사한 패턴 데이터 분류
  • Label Uncertainty, Class Imbalance 상황에 맞는 데이터 처리 방법론 및 알고리즘 개발
  • 객체 탐지(Object Detection)와 세그먼테이션(Segmentation) 등 다양한 응용분야 활용
  • 제조공정과 더불어 생명공학, 군수, 의료 등 실생활에서 활용가능한 알고리즘 개발

6. XAI

이미지 및 time series 데이터에서 AI가 취한 결정과 조치를 설명하기 위한 연구를 수행한다. Explainable AI를 통해 기계 학습 모델에 대한 해석성과 투명성, 정당성을 확보한다.

  • Gradient, CAM, Perturbation 등을 기반으로 모델 출력에 대한 근거 제시
  • Time series에 대한 통찰력 제공 및 다양한 기능의 중요성 판별
  • 다양한 시계열 데이터에서 공통적으로 나타나는 특징을 설명
  • 모델 편향성(model bias) 발생 원인파악을 통한 모델 신뢰성 보장

7. Representation

데이터 변환 및 알고리즘 기반 특징 추출 방법론을 적용해 분류 또는 예측 문제를 수행하는 과정에서 추가적인 정보를 제공한다.

  • 고차원 데이터를 저차원 공간으로 매핑하는 표현 방법론 적용
  • VAE, GAN 등의 알고리즘을 이용해 데이터 정보를 최대화하며 보존하는 알고리즘 개발
  • 특징 변수에 대한 표현력을 최대화하여 딥러닝 모델 성능 향상에 기여