맞춤기술찾기

이전대상기술

얼굴 표정을 이용한 감정 인식 어플리케이션이 구비된 단말기 및 그 제어방법

  • 기술번호 : KST2015180960
  • 담당센터 :
  • 전화번호 :
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명은 사용자의 얼굴 표정을 이용하여 사용자의 감정을 인식하고, 사용자의 감정 상태에 따른 적절한 반응을 출력할 수 있는 단말기 및 그 제어방법에 관한 것이다. 본 발명의 일례와 관련된 단말기는, 사용자의 얼굴을 포함하는 제 1 영상을 촬영하기 위한 카메라 모듈, 복수의 감정과 관련된 페이셜 유닛을 저장하는 메모리, 상기 제 1 영상을 수신받고 상기 페이셜 유닛과 상기 제 1 영상을 이용하여 상기 복수의 감정 중 상기 사용자의 감정을 인식할 수 있는 감정 인식 수단, 시각정보를 표시하는 디스플레이부, 청각정보를 출력하는 음향 출력 모듈, 진동을 발생시키는 햅틱 모듈 및 후각정보를 발생시키는 방향부로 구성된 출력부 및 상기 사용자로부터 단말기에 내장 설치된 감정 인식 어플리케이션의 동작에 관한 명령을 입력받기 위한 입력부를 포함하되, 상기 페이셜 유닛은 상기 복수의 감정 각각에 대응하는 복수의 얼굴요소의 패턴에 대한 정보이고, 상기 사용자가 상기 입력부를 이용하여 상기 감정 인식 어플리케이션의 실행 명령을 입력하는 경우, 상기 감정 인식 수단과 관련된 소정의 실행창이 상기 디스플레이부에 표시되어 촬영 정보의 입력 및 상기 제 1 영상의 촬영을 유도하고, 상기 출력부는 상기 제 1 영상에 기초하여 인식된 상기 사용자의 감정에 대응하는 반응을 출력할 수 있다.
Int. CL G06T 7/00 (2006.01) H04B 1/40 (2015.01) G06F 3/01 (2006.01)
CPC G06K 9/00302(2013.01) G06K 9/00302(2013.01) G06K 9/00302(2013.01) G06K 9/00302(2013.01) G06K 9/00302(2013.01)
출원번호/일자 1020140034085 (2014.03.24)
출원인 충남대학교산학협력단
등록번호/일자 10-1480669-0000 (2015.01.02)
공개번호/일자
공고번호/일자 (20150126) 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 등록
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2014.03.24)
심사청구항수 13

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 충남대학교산학협력단 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 손진훈 대한민국 대전광역시 유성구
2 박지은 대한민국 대전광역시 유성구
3 오형석 대한민국 대전광역시 동구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인 아이퍼스 대한민국 서울특별시 강남구 삼성로**길*, *층(대치동 삼성빌딩)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 충남대학교산학협력단 대한민국 대전광역시 유성구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2014.03.24 수리 (Accepted) 1-1-2014-0280382-91
2 [우선심사신청]심사청구(우선심사신청)서
[Request for Preferential Examination] Request for Examination (Request for Preferential Examination)
2014.04.01 수리 (Accepted) 1-1-2014-0312449-46
3 선행기술조사의뢰서
Request for Prior Art Search
2014.04.23 수리 (Accepted) 9-1-9999-9999999-89
4 선행기술조사보고서
Report of Prior Art Search
2014.05.08 수리 (Accepted) 9-1-2014-0034849-16
5 의견제출통지서
Notification of reason for refusal
2014.06.13 발송처리완료 (Completion of Transmission) 9-5-2014-0404774-07
6 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2014.07.28 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2014-0709315-37
7 [거절이유 등 통지에 따른 의견]의견(답변, 소명)서
[Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation)
2014.07.28 수리 (Accepted) 1-1-2014-0709314-92
8 등록결정서
Decision to grant
2014.10.07 발송처리완료 (Completion of Transmission) 9-5-2014-0686716-05
9 출원인정보변경(경정)신고서
Notification of change of applicant's information
2015.09.01 수리 (Accepted) 4-1-2015-5116889-90
10 출원인정보변경(경정)신고서
Notification of change of applicant's information
2015.09.01 수리 (Accepted) 4-1-2015-5116888-44
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
사용자의 얼굴 표정을 이용하여 기 설정된 기준에 따라 분류된 복수의 감정을 인식할 수 있는 단말기에 있어서,상기 사용자의 얼굴을 포함하는 제 1 영상을 촬영하기 위한 카메라 모듈;상기 복수의 감정과 관련된 페이셜 유닛(Facial Unit)을 저장하는 메모리;상기 제 1 영상을 수신받고, 상기 페이셜 유닛과 상기 제 1 영상을 이용하여 상기 복수의 감정 중 상기 사용자의 감정을 인식할 수 있는 감정 인식 수단;시각정보를 표시하는 디스플레이부, 청각정보를 출력하는 음향 출력 모듈, 진동을 발생시키는 햅틱 모듈 및 후각정보를 발생시키는 방향부로 구성된 출력부; 및상기 사용자로부터 상기 단말기에 내장 설치된 감정 인식 어플리케이션의 동작에 관한 명령을 입력받기 위한 입력부;를 포함하되,상기 페이셜 유닛은 상기 복수의 감정 각각에 대응하는 복수의 얼굴요소의 패턴에 대한 정보이고,상기 사용자가 상기 입력부를 이용하여 상기 감정 인식 어플리케이션의 실행 명령을 입력하는 경우, 상기 감정 인식 수단과 관련된 소정의 실행창이 상기 디스플레이부에 표시되어 상기 제 1 영상의 촬영을 유도하고, 상기 출력부는 상기 제 1 영상에 기초하여 인식된 상기 사용자의 감정에 대응하는 반응을 출력하며,상기 감정 인식 수단은,상기 제 1 영상에 촬영된 객체 중 상기 사용자의 얼굴을 검출하는 검출부;상기 검출된 사용자의 얼굴에서 특징점을 추출하는 정렬부; 및상기 추출된 특징점을 이용하여 상기 복수의 얼굴요소를 추출하고, 상기 추출된 복수의 얼굴요소 각각에 대한 패턴을 조합하며, 상기 조합된 패턴을 상기 페이셜 유닛과 비교하여 상기 사용자의 감정을 판단하는 인식부;를 더 포함하고,상기 정렬부는,상기 제 1 영상을 구성하는 복수의 프레임에 대하여 회귀(Regression) 함수를 적용하여 상기 복수의 얼굴요소를 추출하되,상기 복수의 프레임 중 임의로 선택된 하나인 제 1 프레임에 상기 회귀 함수가 적용된 결과는 상기 제 1 프레임보다 시간상으로 뒤진 제 2 프레임에 대한 상기 회귀 함수의 적용에 사용되는 것을 특징으로 하는 단말기
2 2
사용자의 얼굴 표정을 이용하여 기 설정된 기준에 따라 분류된 복수의 감정을 인식할 수 있는 단말기에 있어서,상기 사용자의 얼굴을 포함하는 제 1 영상을 촬영하기 위한 카메라 모듈;상기 복수의 감정과 관련된 페이셜 유닛(Facial Unit)을 저장하는 메모리;상기 제 1 영상을 수신받고, 상기 페이셜 유닛과 상기 제 1 영상을 이용하여 상기 복수의 감정 중 상기 사용자의 감정을 인식할 수 있는 감정 인식 수단;시각정보를 표시하는 디스플레이부, 청각정보를 출력하는 음향 출력 모듈, 진동을 발생시키는 햅틱 모듈 및 후각정보를 발생시키는 방향부로 구성된 출력부; 및상기 사용자로부터 상기 단말기에 내장 설치된 감정 인식 어플리케이션의 동작에 관한 명령을 입력받기 위한 입력부;를 포함하되,상기 페이셜 유닛은 상기 복수의 감정 각각에 대응하는 복수의 얼굴요소의 패턴에 대한 정보이고,상기 사용자가 상기 입력부를 이용하여 상기 감정 인식 어플리케이션의 실행 명령을 입력하는 경우, 상기 감정 인식 수단과 관련된 소정의 실행창이 상기 디스플레이부에 표시되어 상기 제 1 영상의 촬영을 유도하고, 상기 출력부는 상기 제 1 영상에 기초하여 인식된 상기 사용자의 감정에 대응하는 반응을 출력하며,상기 사용자가 상기 입력부를 이용하여 상기 실행창에 표시된 업데이트 실행 명령을 입력하는 경우, 상기 메모리에 상기 사용자에 대한 상기 페이셜 유닛이 추가적으로 저장되는 것을 특징으로 하는 단말기
3 3
제 1항 또는 제 2항에 있어서,상기 반응은,상기 디스플레이부에서의 제 1 자료 표시, 상기 음향 출력 모듈에서의 음향 출력, 상기 햅틱 모듈에서 소정 세기와 패턴을 갖는 진동의 발생 및 상기 방향부에서 발생되는 향기 중 적어도 하나를 포함하고,상기 제 1 자료는 기 설정된 텍스트, 배경화면 및 이모티콘 중 적어도 하나인 것을 특징으로 하는 단말기
4 4
제 1항 또는 제 2항에 있어서,상기 실행창은 상기 사용자로부터 촬영 정보를 입력받아 상기 제 1 영상의 촬영에 이용하고,상기 촬영 정보는, 상기 제 1 영상의 촬영 시작 시점 및 상기 제 1 영상이 촬영되는 시간 중 적어도 하나에 대한 정보를 포함하는 것을 특징으로 하는 단말기
5 5
삭제
6 6
제 1항에 있어서,상기 메모리에 저장된 상기 페이셜 유닛은 AdaBoost 알고리즘을 이용하여 학습된 정보이고,상기 인식부는 상기 AdaBoost 알고리즘을 이용하여 상기 사용자의 감정을 판단하는 것을 특징으로 하는 단말기
7 7
제 1항에 있어서,상기 인식부는,상기 메모리에 저장된 상기 페이셜 유닛 중 상기 조합된 패턴과 동일한 패턴 또는 가장 유사한 패턴에 대응하는 감정을 상기 사용자의 감정으로 판단하는 것을 특징으로 하는 단말기
8 8
삭제
9 9
제 1항 또는 제 2항에 있어서,상기 기 설정된 기준에 따라 분류된 복수의 감정은,중립, 기쁨, 분노, 놀람, 공포 및 혐오 중 적어도 하나를 포함하는 것을 특징으로 하는 단말기
10 10
제 1항 또는 제 2항에 있어서,상기 복수의 얼굴요소는,눈썹, 눈, 코 및 입을 포함하는 것을 특징으로 하는 단말기
11 11
제 1항 또는 제 2항에 있어서,상기 사용자가 상기 단말기를 이용하여 상대방과 통화 중인 경우,상기 단말기는 상기 감정 인식 수단을 이용하여 상기 상대방의 감정을 인식하고,상기 출력부는 상기 인식된 상대방의 감정에 대응하여 반응을 출력하는 것을 특징으로 하는 단말기
12 12
사용자의 얼굴 표정을 이용하여 기 설정된 기준에 따라 분류된 복수의 감정을 인식할 수 있는 단말기를 제어하는 방법에 있어서,상기 사용자로부터 상기 단말기에 내장 설치된 감정 인식 어플리케이션의 실행 명령을 입력받는 제 1 단계;감정 인식 수단과 관련된 소정의 실행창이 디스플레이부에 표시되는 제 2 단계;상기 사용자가 상기 사용자의 얼굴을 포함하는 제 1 영상에 대한 촬영 정보를 입력하는 제 3 단계;상기 제 1 영상이 촬영되는 제 4 단계;상기 감정 인식 수단으로 상기 제 1 영상이 전송되는 제 5 단계;상기 감정 인식 수단이 페이셜 유닛(Facial Unit)과 상기 제 1 영상을 이용하여 상기 복수의 감정 중 상기 사용자의 감정을 인식하는 제 6 단계; 및출력부가 상기 제 1 영상에 기초하여 인식된 상기 사용자의 감정에 대응하는 반응을 출력하는 제 7 단계;를 포함하되,상기 페이셜 유닛은 상기 복수의 감정 각각에 대응하는 복수의 얼굴요소의 패턴에 대한 정보이고, 상기 출력부는 시각정보를 표시하는 상기 디스플레이부, 청각정보를 출력하는 음향 출력 모듈, 진동을 발생시키는 햅틱 모듈 및 후각정보를 발생시키는 방향부로 구성되며,상기 제 6 단계는,상기 제 1 영상에 촬영된 객체 중 상기 사용자의 얼굴을 검출하는 단계;상기 검출된 상기 사용자의 얼굴에서 특징점을 추출하는 단계;상기 추출된 특징점을 이용하여 상기 복수의 얼굴요소를 추출하는 단계;상기 추출된 복수의 얼굴요소 각각에 대한 패턴을 조합하는 단계; 및 상기 조합된 패턴을 상기 페이셜 유닛과 비교하여 상기 사용자의 감정을 판단하는 단계;를 더 포함하고,상기 제 6 단계에서는,상기 제 1 영상을 구성하는 복수의 프레임에 대하여 회귀(Regression) 함수를 적용하여 상기 복수의 얼굴요소를 추출하되, 상기 복수의 프레임 중 임의로 선택된 하나인 제 1 프레임에 상기 회귀 함수가 적용된 결과는 상기 제 1 프레임보다 시간상으로 뒤진 제 2 프레임에 대한 상기 회귀 함수의 적용에 사용되는 것을 특징으로 하는 단말기의 제어방법
13 13
제 12항에 있어서,상기 반응은,상기 디스플레이부에서의 제 1 자료 표시, 상기 음향 출력 모듈에서의 음향 출력, 상기 햅틱 모듈에서 소정 세기와 패턴을 갖는 진동의 발생 및 상기 방향부에서 발생되는 향기 중 적어도 하나를 포함하고,상기 제 1 자료는 기 설정된 텍스트, 배경화면 및 이모티콘 중 적어도 하나인 것을 특징으로 하는 단말기의 제어방법
14 14
삭제
15 15
제 12항에 있어서,상기 기 설정된 기준에 따라 분류된 복수의 감정은,중립, 기쁨, 분노, 놀람, 공포 및 혐오 중 적어도 하나를 포함하는 것을 특징으로 하는 단말기의 제어방법
16 16
제 12항에 있어서,상기 복수의 얼굴요소는,눈썹, 눈, 코 및 입을 포함하는 것을 특징으로 하는 단말기의 제어방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 미래창조과학부 한국표준연구원 신기술융합형 성장동력사업 인간-기계 인터페이스를 위한 인지-감정 통합모델 개발