1 |
1
피사체에 대응하는 영상 및 깊이맵(Depth-Map)을 획득하는 단계;상기 획득한 영상 및 깊이맵을 탐색하여 사용자를 구분하는 단계;상기 구분된 사용자의 얼굴 영역과 신체 영역을 이용하여 비음성적으로 표현된 상기 사용자의 감정 정보를 결정하는 단계; 및상기 사용자의 감정 변화에 따른 콘텐츠 서비스를 제공하기 위해 상기 결정한 감정 정보를 가공하는 단계를 포함하는 사용자의 감정 정보 결정 방법
|
2 |
2
제1항에 있어서,상기 획득하는 단계는,스테레오 매칭 기술을 기반으로 사용자 및 주변 환경에 대한 영상 및 깊이맵을 획득하는 사용자의 감정 정보 결정 방법
|
3 |
3
제1항에 있어서,상기 결정하는 단계는,상기 사용자의 얼굴 영역 및 신체 영역 각각에서 감정 정보와 관련된 특징을 검출하는 단계;상기 추출한 얼굴 영역의 특징과 신체 영역의 특징을 이용하여 사용자의 기초 감정 기반의 비음성적으로 표현된 상기 사용자의 감정 정보를 추출하는 단계를 더 포함하는 사용자의 감정 정보 결정 방법
|
4 |
4
제3항에 있어서,상기 기초 감정은,상기 추출한 얼굴 영역의 특징과 신체 영역의 특징으로부터 사용자의 심리 상태를 대응하여 표현되는 사용자의 기초적인 감정을 나타내는 사용자의 감정 정보 결정 방법
|
5 |
5
제3항에 있어서,상기 추출하는 단계는,상기 영상 및 깊이맵에 포함된 적어도 하나의 사용자 별로 기초 감정 기반의 비음성적으로 표현된 상기 사용자의 감정 정보를 추출하는 사용자의 감정 정보 결정 방법
|
6 |
6
제3항에 있어서,상기 추출하는 단계는,상기 사용자의 감정 정보를 추출 시, 상기 사용자로부터 감정 표현 시 수반되는 사용자의 신체 영역에 대한 감각적인 정보를 고려하는 사용자의 감정 정보 결정 방법
|
7 |
7
제1항에 있어서,상기 가공하는 단계는,상기 사용자의 감정 정보를 결정한 시간적인 순서에 기초하여 기 저장된 사용자의 감정 정보 중 사용 빈도가 낮은 사용자의 감정 정보에 대하여 백업하는 사용자의 감정 정보 결정 방법
|
8 |
8
제1항에 있어서,상기 가공하는 단계는,상기 사용자의 시공간적인 주변 환경을 고려하여 상기 주변 환경 별로 상기 결정된 사용자의 감정 정보를 분류하는 사용자의 감정 정보 결정 방법
|
9 |
9
제1항에 있어서,상기 콘텐츠 서비스는,상기 사용자의 감정 변화에 따라 변화하는 감정 정보에 상호 작용하여 변화된 사용자의 감정에 따른 감정 정보를 사용자에 의해 동작하는 콘텐츠에 반영하는 사용자의 감정 정보 결정 방법
|
10 |
10
제1항에 있어서,상기 콘텐츠 서비스는,상기 사용자에 의해 동작하는 콘텐츠에 대한 사용자의 감정 변화에 따라 상기 콘텐츠에 사용자의 감정 정보를 태깅(Tagging)하는 사용자의 감정 정보 결정 방법
|
11 |
11
피사체에 대응하는 영상 및 깊이맵(Depth-Map)을 획득하는 피사체 획득부;상기 획득한 영상 및 깊이맵을 탐색하여 사용자를 구분하는 사용자 구분부;상기 구분된 사용자의 얼굴 영역과 신체 영역을 이용하여 비음성적으로 표현된 상기 사용자의 감정 정보를 결정하는 감정 정보 결정부; 및상기 사용자의 감정 변화에 따른 콘텐츠 서비스를 제공하기 위해 상기 결정한 감정 정보를 가공하는 감정 정보 가공부를 포함하는 감정 정보 결정 장치
|
12 |
12
제11항에 있어서,상기 피사체 획득부는,스테레오 매칭 기술을 기반으로 사용자 및 주변 환경에 대한 영상 및 깊이맵을 획득하는 감정 정보 결정 장치
|
13 |
13
제11항에 있어서,상기 감정 정보 결정부는,상기 사용자의 얼굴 영역 및 신체 영역 각각에서 감정 정보와 관련된 특징을 검출하는 특징 검출부;상기 추출한 얼굴 영역의 특징과 신체 영역의 특징을 이용하여 사용자의 기초 감정 기반의 비음성적으로 표현된 상기 사용자의 감정 정보를 추출하는 감정 정보 추출부를 더 포함하는 감정 정보 결정 장치
|
14 |
14
제13항에 있어서,상기 기초 감정은,상기 추출한 얼굴 영역의 특징과 신체 영역의 특징으로부터 사용자의 심리 상태를 대응하여 표현되는 사용자의 기초적인 감정을 나타내는 감정 정보 결정 장치
|
15 |
15
제13항에 있어서,상기 감정 정보 추출부는,상기 영상 및 깊이맵에 포함된 적어도 하나의 사용자 별로 기초 감정 기반의 비음성적으로 표현된 상기 사용자의 감정 정보를 추출하는 감정 정보 결정 장치
|
16 |
16
제13항에 있어서,상기 감정 정보 추출부는,상기 사용자의 감정 정보를 추출 시, 상기 사용자로부터 감정 표현 시 수반되는 사용자의 신체 영역에 대한 감각적인 정보를 고려하는 감정 정보 결정 장치
|
17 |
17
제11항에 있어서,상기 감정 정보 가공부는,상기 사용자의 감정 정보를 결정한 시간적인 순서에 기초하여 기 저장된 사용자의 감정 정보 중 사용 빈도가 낮은 사용자의 감정 정보에 대하여 백업하는 감정 정보 결정 장치
|
18 |
18
제11항에 있어서,상기 감정 정보 가공부는,상기 사용자의 시공간적인 주변 환경을 고려하여 상기 주변 환경 별로 상기 결정된 사용자의 감정 정보를 분류하는 감정 정보 결정 장치
|
19 |
19
제11항에 있어서,상기 콘텐츠 서비스는,상기 사용자의 감정 변화에 따라 변화하는 감정 정보에 상호 작용하여 변화된 사용자의 감정에 따른 감정 정보를 사용자에 의해 동작하는 콘텐츠에 반영하는 감정 정보 결정 장치
|
20 |
20
제11항에 있어서,상기 콘텐츠 서비스는,상기 사용자에 의해 동작하는 콘텐츠에 대한 사용자의 감정 변화에 따라 상기 콘텐츠에 사용자의 감정 정보를 태깅하는 감정 정보 결정 장치
|