맞춤기술찾기

이전대상기술

비음성적으로 표현되는 감정 정보를 결정하기 위한 감정 정보 결정 장치 및 방법(EMOTION INFORMATION DETERMINATION DEVICE AND METHOD FOR DETERMINING EMOTION INFORMATION OF THE NON-VERBAL EXPRESSION)

  • 기술번호 : KST2016007798
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 감정 정보 결정 장치 및 방법은 피사체에 대응하는 영상 및 깊이맵을 이용하여 비음성적으로 표현되는 사용자의 감정 정보를 결정하고, 결정된 사용자의 감정 정보를 가공하는 것으로, 가공된 사용자의 감정 정보는 실시간으로 변화하는 사용자의 감정 정보에 대응하여 콘텐츠 서비스를 통해 사용자에게 제공하는 것이다.
Int. CL H04N 21/442 (2011.01.01) H04N 21/435 (2011.01.01) H04N 13/271 (2018.01.01)
CPC H04N 21/44218(2013.01) H04N 21/44218(2013.01) H04N 21/44218(2013.01)
출원번호/일자 1020140120080 (2014.09.11)
출원인 한국전자통신연구원
등록번호/일자
공개번호/일자 10-2016-0030664 (2016.03.21) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 취하
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 20

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자통신연구원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 양광호 대한민국 충청남도 계룡시
2 임을균 대한민국 대전광역시 서구
3 장지호 대한민국 대전광역시 유성구
4 정재찬 대한민국 대전광역시 서구
5 최승민 대한민국 대전광역시 서구
6 황대환 대한민국 대전광역시 유성구
7 김성한 대한민국 대전광역시 유성구
8 박상택 대한민국 대전광역시 서구
9 홍진우 대한민국 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인 무한 대한민국 서울특별시 강남구 언주로 ***, *층(역삼동,화물재단빌딩)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2014.09.11 수리 (Accepted) 1-1-2014-0859508-71
2 출원인정보변경(경정)신고서
Notification of change of applicant's information
2015.02.02 수리 (Accepted) 4-1-2015-0006137-44
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
피사체에 대응하는 영상 및 깊이맵(Depth-Map)을 획득하는 단계;상기 획득한 영상 및 깊이맵을 탐색하여 사용자를 구분하는 단계;상기 구분된 사용자의 얼굴 영역과 신체 영역을 이용하여 비음성적으로 표현된 상기 사용자의 감정 정보를 결정하는 단계; 및상기 사용자의 감정 변화에 따른 콘텐츠 서비스를 제공하기 위해 상기 결정한 감정 정보를 가공하는 단계를 포함하는 사용자의 감정 정보 결정 방법
2 2
제1항에 있어서,상기 획득하는 단계는,스테레오 매칭 기술을 기반으로 사용자 및 주변 환경에 대한 영상 및 깊이맵을 획득하는 사용자의 감정 정보 결정 방법
3 3
제1항에 있어서,상기 결정하는 단계는,상기 사용자의 얼굴 영역 및 신체 영역 각각에서 감정 정보와 관련된 특징을 검출하는 단계;상기 추출한 얼굴 영역의 특징과 신체 영역의 특징을 이용하여 사용자의 기초 감정 기반의 비음성적으로 표현된 상기 사용자의 감정 정보를 추출하는 단계를 더 포함하는 사용자의 감정 정보 결정 방법
4 4
제3항에 있어서,상기 기초 감정은,상기 추출한 얼굴 영역의 특징과 신체 영역의 특징으로부터 사용자의 심리 상태를 대응하여 표현되는 사용자의 기초적인 감정을 나타내는 사용자의 감정 정보 결정 방법
5 5
제3항에 있어서,상기 추출하는 단계는,상기 영상 및 깊이맵에 포함된 적어도 하나의 사용자 별로 기초 감정 기반의 비음성적으로 표현된 상기 사용자의 감정 정보를 추출하는 사용자의 감정 정보 결정 방법
6 6
제3항에 있어서,상기 추출하는 단계는,상기 사용자의 감정 정보를 추출 시, 상기 사용자로부터 감정 표현 시 수반되는 사용자의 신체 영역에 대한 감각적인 정보를 고려하는 사용자의 감정 정보 결정 방법
7 7
제1항에 있어서,상기 가공하는 단계는,상기 사용자의 감정 정보를 결정한 시간적인 순서에 기초하여 기 저장된 사용자의 감정 정보 중 사용 빈도가 낮은 사용자의 감정 정보에 대하여 백업하는 사용자의 감정 정보 결정 방법
8 8
제1항에 있어서,상기 가공하는 단계는,상기 사용자의 시공간적인 주변 환경을 고려하여 상기 주변 환경 별로 상기 결정된 사용자의 감정 정보를 분류하는 사용자의 감정 정보 결정 방법
9 9
제1항에 있어서,상기 콘텐츠 서비스는,상기 사용자의 감정 변화에 따라 변화하는 감정 정보에 상호 작용하여 변화된 사용자의 감정에 따른 감정 정보를 사용자에 의해 동작하는 콘텐츠에 반영하는 사용자의 감정 정보 결정 방법
10 10
제1항에 있어서,상기 콘텐츠 서비스는,상기 사용자에 의해 동작하는 콘텐츠에 대한 사용자의 감정 변화에 따라 상기 콘텐츠에 사용자의 감정 정보를 태깅(Tagging)하는 사용자의 감정 정보 결정 방법
11 11
피사체에 대응하는 영상 및 깊이맵(Depth-Map)을 획득하는 피사체 획득부;상기 획득한 영상 및 깊이맵을 탐색하여 사용자를 구분하는 사용자 구분부;상기 구분된 사용자의 얼굴 영역과 신체 영역을 이용하여 비음성적으로 표현된 상기 사용자의 감정 정보를 결정하는 감정 정보 결정부; 및상기 사용자의 감정 변화에 따른 콘텐츠 서비스를 제공하기 위해 상기 결정한 감정 정보를 가공하는 감정 정보 가공부를 포함하는 감정 정보 결정 장치
12 12
제11항에 있어서,상기 피사체 획득부는,스테레오 매칭 기술을 기반으로 사용자 및 주변 환경에 대한 영상 및 깊이맵을 획득하는 감정 정보 결정 장치
13 13
제11항에 있어서,상기 감정 정보 결정부는,상기 사용자의 얼굴 영역 및 신체 영역 각각에서 감정 정보와 관련된 특징을 검출하는 특징 검출부;상기 추출한 얼굴 영역의 특징과 신체 영역의 특징을 이용하여 사용자의 기초 감정 기반의 비음성적으로 표현된 상기 사용자의 감정 정보를 추출하는 감정 정보 추출부를 더 포함하는 감정 정보 결정 장치
14 14
제13항에 있어서,상기 기초 감정은,상기 추출한 얼굴 영역의 특징과 신체 영역의 특징으로부터 사용자의 심리 상태를 대응하여 표현되는 사용자의 기초적인 감정을 나타내는 감정 정보 결정 장치
15 15
제13항에 있어서,상기 감정 정보 추출부는,상기 영상 및 깊이맵에 포함된 적어도 하나의 사용자 별로 기초 감정 기반의 비음성적으로 표현된 상기 사용자의 감정 정보를 추출하는 감정 정보 결정 장치
16 16
제13항에 있어서,상기 감정 정보 추출부는,상기 사용자의 감정 정보를 추출 시, 상기 사용자로부터 감정 표현 시 수반되는 사용자의 신체 영역에 대한 감각적인 정보를 고려하는 감정 정보 결정 장치
17 17
제11항에 있어서,상기 감정 정보 가공부는,상기 사용자의 감정 정보를 결정한 시간적인 순서에 기초하여 기 저장된 사용자의 감정 정보 중 사용 빈도가 낮은 사용자의 감정 정보에 대하여 백업하는 감정 정보 결정 장치
18 18
제11항에 있어서,상기 감정 정보 가공부는,상기 사용자의 시공간적인 주변 환경을 고려하여 상기 주변 환경 별로 상기 결정된 사용자의 감정 정보를 분류하는 감정 정보 결정 장치
19 19
제11항에 있어서,상기 콘텐츠 서비스는,상기 사용자의 감정 변화에 따라 변화하는 감정 정보에 상호 작용하여 변화된 사용자의 감정에 따른 감정 정보를 사용자에 의해 동작하는 콘텐츠에 반영하는 감정 정보 결정 장치
20 20
제11항에 있어서,상기 콘텐츠 서비스는,상기 사용자에 의해 동작하는 콘텐츠에 대한 사용자의 감정 변화에 따라 상기 콘텐츠에 사용자의 감정 정보를 태깅하는 감정 정보 결정 장치
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.