1 |
1
감정인식 시스템(100)으로서,얼굴 이미지로부터 감정을 인식하는 딥러닝 알고리즘 기반의 제1 모델(111)을 저장하고, 상기 제1 모델(111)을 이용해 사람의 얼굴 이미지로부터 감정을 분류해 제1 예측 감정을 출력하는 제1 감정 인식부(110);비접촉식으로 측정된 ECG 데이터로부터 감정을 인식하는 딥러닝 알고리즘 기반의 제2 모델(121)을 저장하고, 상기 제2 모델(121)을 이용해 상기 사람의 ECG 데이터로부터 감정을 분류해 제2 예측 감정을 출력하는 제2 감정 인식부(120); 및상기 제1 예측 감정과 상기 제2 예측 감정을 보팅(Voting) 방식으로 결합해, 최종 예측 감정을 출력하는 최종 감정 인식부(130)를 포함하며,비접촉식으로 촬영된 상기 얼굴 이미지 및 비접촉식으로 측정된 상기 ECG 데이터를 통해 최종 예측 감정을 출력하는 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 시스템(100)
|
2 |
2
제1항에 있어서,감정인식을 위한 얼굴 이미지, ECG 데이터 및 감정 레이블을 저장하는 데이터베이스부(140)를 더 포함하는 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 시스템(100)
|
3 |
3
제2항에 있어서,상기 제1 감정 인식부(110)는, 상기 데이터베이스부(140)에 저장된 얼굴 이미지와 감정 레이블 쌍을 이용해 학습된 상기 제1 모델(111)을 저장하고,상기 제2 감정 인식부(120)는, 상기 데이터베이스부(140)에 저장된 ECG 데이터와 감정 레이블 쌍을 이용해 학습된 상기 제2 모델(121)을 저장하는 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 시스템(100)
|
4 |
4
제1항에 있어서, 상기 제1 모델(111)은,2D 콘볼루셔널 레이어(Convolutional layer) 및 풀링 레이어(Pooling layer)를 포함하는 콘볼루셔널 뉴럴 네트워크(Convolutional Neural Network, CNN) 모델을 기반으로 학습된 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 시스템(100)
|
5 |
5
제1항에 있어서, 상기 제2 모델(121)은,1D 콘볼루셔널 레이어(Convolutional layer) 및 풀링 레이어(Pooling layer)를 포함하는 콘볼루셔널 뉴럴 네트워크(Convolutional Neural Network, CNN) 모델을 기반으로 학습된 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 시스템(100)
|
6 |
6
제1항에 있어서, 상기 최종 감정 인식부(130)는,상기 제1 예측 감정과 제2 예측 감정을 예측확률 보팅 방식으로 결합하는 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 시스템(100)
|
7 |
7
제1항에 있어서,상기 제1 예측 감정과 상기 제2 예측 감정이 서로 다르면, 상기 제2 예측 감정에 기반하여 거짓 감정임을 추정하는 거짓 감정 추정부(150)를 더 포함하는 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 시스템(100)
|
8 |
8
제1항에 있어서, 상기 제1 예측 감정, 제2 예측 감정 및 최종 예측 감정은,행복, 중립, 슬픔, 분노, 놀라움, 혐오 및 공포를 포함하는 군에서 선택된 어느 하나인 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 시스템(100)
|
9 |
9
컴퓨터로 구현되는 감정인식 시스템(100)에 의해 각 단계가 수행되는 감정인식 방법으로서,(1) 얼굴 이미지로부터 감정을 인식하는 딥러닝 알고리즘 기반의 제1 모델(111) 및 비접촉식으로 측정된 ECG 데이터로부터 감정을 인식하는 딥러닝 알고리즘 기반의 제2 모델(121)을 저장하는 단계;(2) 상기 제1 모델(111)을 이용해 사람의 얼굴 이미지로부터 감정을 분류해 제1 예측 감정을 출력하고, 상기 제2 모델(121)을 이용해 상기 사람의 ECG 데이터로부터 감정을 분류해 제2 예측 감정을 출력하는 단계; 및(3) 상기 제1 예측 감정과 상기 제2 예측 감정을 보팅(Voting) 방식으로 결합해, 최종 예측 감정을 출력하는 단계를 포함하며,비접촉식으로 촬영된 상기 얼굴 이미지 및 비접촉식으로 측정된 상기 ECG 데이터를 통해 최종 예측 감정을 출력하는 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 방법
|
10 |
10
제9항에 있어서, 상기 단계 (1) 이전에는,(0) 감정인식을 위한 얼굴 이미지, ECG 데이터 및 감정 레이블을 데이터베이스부(140)에 저장하는 단계를 더 포함하는 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 방법
|
11 |
11
제10항에 있어서, 상기 단계 (1)에서는,상기 데이터베이스부(140)에 저장된 얼굴 이미지와 감정 레이블 쌍을 이용해 학습된 상기 제1 모델(111)을 저장하고, 상기 데이터베이스부(140)에 저장된 ECG 데이터와 감정 레이블 쌍을 이용해 학습된 상기 제2 모델(121)을 저장하는 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 방법
|
12 |
12
제9항에 있어서, 상기 제1 모델(111)은,2D 콘볼루셔널 레이어(Convolutional layer) 및 풀링 레이어(Pooling layer)를 포함하는 콘볼루셔널 뉴럴 네트워크(Convolutional Neural Network, CNN) 모델을 기반으로 학습된 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 방법
|
13 |
13
제9항에 있어서, 상기 제2 모델(121)은,1D 콘볼루셔널 레이어(Convolutional layer) 및 풀링 레이어(Pooling layer)를 포함하는 콘볼루셔널 뉴럴 네트워크(Convolutional Neural Network, CNN) 모델을 기반으로 학습된 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 방법
|
14 |
14
제9항에 있어서, 상기 단계 (3)에서는,상기 제1 예측 감정과 제2 예측 감정을 예측확률 보팅 방식으로 결합하는 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 방법
|
15 |
15
제9항에 있어서, 상기 단계 (3) 이후에는,(4) 상기 제1 예측 감정과 상기 제2 예측 감정이 서로 다르면, 상기 제2 예측 감정에 기반하여 거짓 감정임을 추정하는 단계를 더 포함하는 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 방법
|
16 |
16
제9항에 있어서, 상기 제1 예측 감정, 제2 예측 감정 및 최종 예측 감정은,행복, 중립, 슬픔, 분노, 놀라움, 혐오 및 공포를 포함하는 군에서 선택된 어느 하나인 것을 특징으로 하는, 비접촉식 측정 데이터를 통한 감정 예측을 위한 인공지능 기반 감정인식 방법
|