맞춤기술찾기

이전대상기술

표정인식을 이용한 휴대 기기의 상호작용 방법

  • 기술번호 : KST2014013608
  • 담당센터 : 서울서부기술혁신센터
  • 전화번호 : 02-6124-6930
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명은 표정인식을 이용한 휴대 기기의 상호작용 방법에 관한 것으로, 더욱 세부적으로는 휴대 기기의 카메라에서 획득된 사용자가 포함된 이미지에서 얼굴의 위치와 크기와 및 표정을 인식하여 휴대 기기와 상호작용하는 표정인식을 이용한 휴대 기기의 상호작용 방법에 관한 것이다. 사용자의 표정을 인식하여 사용자와 휴대기기 간 상호작용하는 방법에 있어서, (a) 상기 휴대기기의 카메라를 통해 사용자 얼굴을 촬영하는 단계; (b) 상기 촬영된 영상으로부터 디스크리트 아다부스트(discrete 아다부스트) 인식 알고리즘을 기반으로 사용자 얼굴의 위치 및 크기를 인식하여 얼굴 영상을 획득하고, 획득된 얼굴 영상을 각 표정 별로 학습된 디스크리트 아다부스트 인식 알고리즘을 통해 산출된 결과값을 학습된 신경망에 입력함으로서 상기 신경망을 통해 사용자 표정을 구분하는 단계; 및 (c) 상기 카메라를 통해 사용자의 표정을 실시간 촬영하면서 상기 신경망을 통해 구분한 사용자 표정을 토대로 상기 휴대기기의 프로그램을 제어하는 단계;를 갖는다. 따라서, 본 발명은 시스템 자원이 부족한 휴대 기기 환경에서 빠르면서도 정확한 표정인식 알고리즘을 이용하여 실시간 표정인식을 할 수 있고, 휴대 기기에서 실시간 표정인식을 바탕으로 프로그램과 사용자간의 친인간적인 상호작용이 가능한 효과가 있다.
Int. CL G06T 7/40 (2006.01) G06K 9/00 (2006.01)
CPC
출원번호/일자 1020100048443 (2010.05.25)
출원인 숭실대학교산학협력단
등록번호/일자 10-1159962-0000 (2012.06.19)
공개번호/일자 10-2011-0129042 (2011.12.01) 문서열기
공고번호/일자 (20120625) 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 소멸
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2010.05.25)
심사청구항수 5

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 숭실대학교산학협력단 대한민국 서울특별시 동작구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 한헌수 대한민국 서울특별시 서초구
2 한영준 대한민국 서울특별시 관악구
3 홍용희 대한민국 서울특별시 서초구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 송경근 대한민국 서울특별시 서초구 서초대로**길 ** (방배동) 기산빌딩 *층(엠앤케이홀딩스주식회사)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 숭실대학교산학협력단 서울특별시 동작구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2010.05.25 수리 (Accepted) 1-1-2010-0332527-29
2 [대리인선임]대리인(대표자)에 관한 신고서
[Appointment of Agent] Report on Agent (Representative)
2011.01.04 수리 (Accepted) 1-1-2011-0004097-73
3 선행기술조사의뢰서
Request for Prior Art Search
2011.02.11 수리 (Accepted) 9-1-9999-9999999-89
4 선행기술조사보고서
Report of Prior Art Search
2011.03.21 수리 (Accepted) 9-1-2011-0027449-88
5 의견제출통지서
Notification of reason for refusal
2011.08.26 발송처리완료 (Completion of Transmission) 9-5-2011-0482850-72
6 [거절이유 등 통지에 따른 의견]의견(답변, 소명)서
[Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation)
2011.10.24 수리 (Accepted) 1-1-2011-0831727-15
7 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2011.10.24 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2011-0831744-81
8 등록결정서
Decision to grant
2012.03.21 발송처리완료 (Completion of Transmission) 9-5-2012-0166102-50
9 출원인정보변경(경정)신고서
Notification of change of applicant's information
2016.08.04 수리 (Accepted) 4-1-2016-5110636-51
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
사용자의 표정을 인식하여 사용자와 휴대기기 간 상호작용하는 방법에 있어서,(a) 상기 휴대기기의 카메라를 통해 사용자 얼굴을 촬영하는 단계; (b) 상기 촬영된 영상으로부터 디스크리트 아다부스트(discrete 아다부스트) 인식 알고리즘을 기반으로 사용자 얼굴의 위치 및 크기를 인식하여 얼굴 영상을 획득하고, 획득된 얼굴 영상을 각 표정 별로 학습된 디스크리트 아다부스트 인식 알고리즘을 통해 산출된 결과값을 학습된 신경망에 입력함으로서 상기 신경망을 통해 사용자 표정을 구분하는 단계; 및 (c) 상기 카메라를 통해 사용자의 표정을 실시간 촬영하면서 상기 신경망을 통해 구분한 사용자 표정을 토대로 상기 휴대기기의 프로그램을 제어하는 단계;를 포함하는 것을 특징으로 하는 표정인식을 이용한 휴대기기의 상호작용 방법
2 2
제 1항에 있어서, 상기 (b) 단계는, (b1) 사용자의 얼굴을 촬영한 영상이 디스크리트 아다부스트 인식기로 입력되어 사용자 얼굴의 위치 및 크기를 인식하여 얼굴 영상을 획득하는 단계; (b2) 상기 획득한 사용자 얼굴 영상을 각 표정별로 학습된 디스크리트 아다부스트 인식 알고리즘의 강분류기에 입력하여 각 표정에 해당하는 강분류기의 값을 얻는 단계; (b3) 상기 강분류기에서 얻은 각 표정별 강분류기 값을 학습된 신경망에 입력하는 단계; 및(b4) 상기 신경망을 통해 사용자의 표정을 인식하는 단계;를 포함하는 것을 특징으로 하는 표정인식을 이용한 휴대기기의 상호작용 방법
3 3
제 2항에 있어서,상기 강분류기는 행복 아다부스트 강분류기, 슬픔 아다부스트 강분류기, 평온 아다부스트 강분류기, 놀람 아다부스트 강분류기, 화남 아다부스트 강분류기, 역겨움 아다부스트 강분류기, 무서움 아다부스트 강분류기로 구성되는 것을 특징으로 하는 표정인식을 이용한 휴대기기의 상호작용 방법
4 4
제 2항에 있어서,상기 신경망을 통해 인식되는 사용자의 표정은 행복, 슬픔, 놀람, 화남, 역겨움, 무서움의 표정 중 카메라로 입력되는 사용자의 얼굴표정과 일치되는 표정인 것을 특징으로 하는 표정인식을 이용한 휴대기기의 상호작용 방법
5 5
제 1항에 있어서,상기 (c) 단계는, (c1) 휴대기기의 카메라에서 사용자의 얼굴이 포함된 영상을 실시간으로 획득하는 단계;(c2) 상기 획득된 영상으로부터 디스크리트 아다부스트 인식 알고리즘과 신경망 알고리즘을 통해 사용자 표정을 인식하는 단계;(c3) 상기 인식된 사용자의 표정에 따라 상기 휴대기기에서 실행중인 프로그램의 질문 및 행동의 종류를 결정하고 실행하는 단계; 및(c4) 사용자의 상기 프로그램 종료 여부 결정에 따라 상기 프로그램을 종료할 것인지 또는 다시 사용자의 표정을 인식하여 그에 따른 질문 및 행동을 취할 것인지 결정하는 단계;를 포함하는 것을 특징으로 하는 표정인식을 이용한 휴대기기의 상호작용 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 정보통신산업진흥원(NIPA) 숭실대학교 대학IT연구센터 육성 · 지원사업 서비스 로봇을 위한 멀티 모달 지능형 인간-로봇 상호작용 기술개발