맞춤기술찾기

이전대상기술

감성 의자로봇 및 이의 제어방법(Emotional chair robot and control method thereof)

  • 기술번호 : KST2016008118
  • 담당센터 : 서울서부기술혁신센터
  • 전화번호 : 02-6124-6930
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명은 감성 의자로봇 및 이의 제어방법에 관한 것으로서, 보다 바람직하게는 사용자가 착석할 수 있는 착석부; 상기 착석부 및 상기 착석부의 전후방을 촬영하여 상기 착석부의 전후방에 존재하는 사용자의 얼굴 및 움직임, 상기 착석부 내 사용자의 착석여부를 나타내는 적어도 하나의 영상을 생성하는 카메라부; 상기 사용자의 음성신호를 입력받는 음성인식부; 상기 카메라부로부터 생성된 영상과 상기 음성인식부로부터 음성신호를 입력받고, 상기 영상 및 음성신호에 기초하여 상기 사용자의 얼굴인식, 움직임여부, 감정상태 및 착석여부를 판단하고, 판단결과에 대응하는 구동을 위한 적어도 하나의 제어신호를 생성하는 제어부; 상기 제어부로부터 생성된 제어신호를 입력받고, 상기 제어신호에 응답하여 전후 좌우 방향으로 이동하는 이동부; 및 상기 제어부로부터 생성된 제어신호를 입력받고, 상기 제어신호에 응답하여 효과음을 외부로 출력하는 스피커부;를 포함한다.이러한 구성에 의해, 본 발명의 감성 의자로봇 및 이의 제어방법은 도서관과 같이 학습을 위한 특정 공간에 유아가 방문하는 경우, 방문한 유아의 얼굴을 인식하여 이전 방문한 적이 있으면 환영음을 출력하거나 또는 애완견과 같은 특정 행동을 수행하도록 함으로써, 유아의 지적 호기심을 향상시킬 뿐만 아니라, 지루함을 느끼지 못하도록 하여, 사용자 만족도를 향상시킬 수 있는 효과가 있다.
Int. CL G09B 19/00 (2006.01.01) G06K 9/00 (2006.01.01) G10L 15/02 (2006.01.01)
CPC G09B 19/00(2013.01) G09B 19/00(2013.01) G09B 19/00(2013.01)
출원번호/일자 1020140124492 (2014.09.18)
출원인 서강대학교산학협력단
등록번호/일자
공개번호/일자 10-2016-0033502 (2016.03.28) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 취하
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 10

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 서강대학교산학협력단 대한민국 서울특별시 마포구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 최용순 대한민국 인천광역시 남구
2 김재중 대한민국 서울특별시 송파구
3 최영록 대한민국 서울특별시 서초구
4 김지남 대한민국 경기도 과천시 별양로 ***
5 이정민 대한민국 서울시 노원구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인충현 대한민국 서울특별시 서초구 동산로 **, *층(양재동, 베델회관)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2014.09.18 수리 (Accepted) 1-1-2014-0886809-31
2 [출원서등 보정]보정서
[Amendment to Patent Application, etc.] Amendment
2015.12.30 수리 (Accepted) 1-1-2015-1289565-62
3 출원인정보변경(경정)신고서
Notification of change of applicant's information
2017.01.11 수리 (Accepted) 4-1-2017-5005781-67
4 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.01.22 수리 (Accepted) 4-1-2019-5014626-89
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
사용자가 착석할 수 있는 착석부;상기 착석부 및 상기 착석부의 전후방을 촬영하여 상기 착석부의 전후방에 존재하는 사용자의 얼굴 및 움직임, 상기 착석부 내 사용자의 착석여부를 나타내는 적어도 하나의 영상을 생성하는 카메라부;상기 사용자의 음성신호를 입력받는 음성인식부;상기 카메라부로부터 생성된 영상과 상기 음성인식부로부터 음성신호를 입력받고, 상기 영상 및 음성신호에 기초하여 상기 사용자의 얼굴인식, 움직임여부, 감정상태 및 착석여부를 판단하고, 판단결과에 대응하는 구동을 위한 적어도 하나의 제어신호를 생성하는 제어부; 상기 제어부로부터 생성된 제어신호를 입력받고, 상기 제어신호에 응답하여 전후 좌우 방향으로 이동하는 이동부; 및상기 제어부로부터 생성된 제어신호를 입력받고, 상기 제어신호에 응답하여 효과음을 외부로 출력하는 스피커부;를 포함하는 감성 의자로봇
2 2
제1항에 있어서,상기 착석부의 일측에 구비되어, 상기 사용자와의 이격된 거리를 연산하기 위해 사용되며, 초음파 센서 및 적외선 감지 센서 중 적어도 하나를 포함하는 센서부;를 더 포함하는 것을 특징으로 하는 감성 의자로봇
3 3
제1항에 있어서,상기 카메라부는촬영하는 대상의 스켈리톤(skeleton) 정보 및 깊이 정보를 나타내는 키넥트 카메라를 포함하는 것을 특징으로 하는 감성 의자로봇
4 4
제1항에 있어서,상기 제어부는상기 카메라부로부터 입력받은 영상으로부터 사용자의 눈, 코, 입을 포함하는 얼굴 구성요소를 추출하고, 추출한 얼굴 구성요소 중 눈, 코, 입의 위치정보에 기초하여 상기 얼굴 구성요소를 기설정된 크기로 변환하거나, 상기 얼굴 구성요소로부터 노이즈 정보를 제거하며, 상기 얼굴 구성요소의 픽셀정보를 2차원 행렬로 판단한 후, 상기 2차원 행렬을 이루는 기저행렬과 계수값 중 상기 계수값을 기저장된 사용자의 계수값과 비교하여 입력받은 영상 내 얼굴이 기저장된 얼굴인지 여부를 판단하고, 상기 영상 내 얼굴이 기저장된 얼굴로 판단하는 경우, 상기 사용자를 둘러싸며 회전하는 제어신호를 생성하는 사용자인식모듈;을 포함하는 것을 특징으로 하는 감성 의자로봇
5 5
제4항에 있어서,상기 사용자인식모듈은상기 카메라부로부터 입력받은 영상으로부터 기설정된 시간동안 사용자의 위치 이동이 발생하였거나, 정지하였는지 판단하고, 상기 사용자의 위치 이동이 발생하였다고 판단한 경우, 상기 사용자의 위치 이동에 따라 상기 사용자를 추적하여 이동하기 위한 제어신호를 생성하거나, 상기 사용자가 움직임이 없이 정지하였다고 판단한 경우, 효과음을 출력하기 위한 제어신호를 생성하는 것을 더 포함하는 것을 특징으로 하는 감성 의자로봇
6 6
제1항에 있어서,상기 제어부는상기 음성인식부로부터 상기 사용자의 음성신호를 입력받고, 입력받은 음성신호의 특징을 분석하여 상기 사용자의 감정상태를 판단하고, 판단한 감정상태와 부합하는 제어신호를 생성하여 출력하는 감정상태판단모듈;을 더 포함하는 것을 특징으로 하는 감성 의자로봇
7 7
제6항에 있어서,상기 감정상태판단모듈은 상기 사용자의 음성신호를 입력받아, 상기 음성신호로부터 인식 대상 구간을 추출하고, 추출한 인식 대상 구간 내 음성신호에 대하여 노이즈 성분을 제거한 후, 음성신호의 특징을 검출하는 것을 특징으로 하는 감성 의자로봇
8 8
제1항에 있어서,상기 제어부는상기 카메라부로부터 입력받은 영상으로부터 상기 사용자의 착석부 내 착석여부를 판단하고, 상기 사용자의 착석부에 착석 또는 기립 시 효과음을 외부로 출력하기 위한 제어신호를 생성하는 착석판단모듈;을 더 포함하는 것을 특징으로 하는 감성 의자로봇
9 9
제5항에 있어서,상기 이동부는상기 사용자인식모듈로부터 생성된 제어신호를 수신하고, 수신한 제어신호에 응답하여 상기 사용자의 얼굴이 기저장된 얼굴인 경우 상기 사용자를 둘러싸며 회전하거나, 상기 사용자의 위치 이동이 발생한 경우 상기 사용자를 추적하여 이동하는 것을 특징으로 하는 감성 의자로봇
10 10
카메라부가 사용자가 착석할 수 있는 착석부 및 상기 착석부의 전후방을 촬영하여 상기 착석부의 전후방에 존재하는 사용자의 얼굴 및 움직임, 상기 착석부 내 착석여부를 포함하는 적어도 하나의 영상을 생성하는 단계;음성인식부가 상기 사용자의 음성신호를 입력받는 단계;제어부가 상기 영상과 음성신호를 입력받고, 상기 영상 및 음성신호에 기초하여 상기 사용자의 얼굴, 움직임 여부, 감정상태 및 상기 착석부 내 착석여부를 판단하여 구동을 위한 적어도 하나의 제어신호를 생성하는 단계; 이동부가 상기 제어부로부터 생성된 제어신호를 입력받고, 상기 제어신호에 응답하여 전후 좌우 방향으로 이동하는 단계; 및스피커부가 상기 제어부로부터 생성된 제어신호를 입력받고, 상기 제어신호에 응답하여 효과음을 외부로 출력하는 단계;를 포함하는 감성 의자로봇의 제어방법
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.