1 |
1
사용자가 착석할 수 있는 착석부;상기 착석부 및 상기 착석부의 전후방을 촬영하여 상기 착석부의 전후방에 존재하는 사용자의 얼굴 및 움직임, 상기 착석부 내 사용자의 착석여부를 나타내는 적어도 하나의 영상을 생성하는 카메라부;상기 사용자의 음성신호를 입력받는 음성인식부;상기 카메라부로부터 생성된 영상과 상기 음성인식부로부터 음성신호를 입력받고, 상기 영상 및 음성신호에 기초하여 상기 사용자의 얼굴인식, 움직임여부, 감정상태 및 착석여부를 판단하고, 판단결과에 대응하는 구동을 위한 적어도 하나의 제어신호를 생성하는 제어부; 상기 제어부로부터 생성된 제어신호를 입력받고, 상기 제어신호에 응답하여 전후 좌우 방향으로 이동하는 이동부; 및상기 제어부로부터 생성된 제어신호를 입력받고, 상기 제어신호에 응답하여 효과음을 외부로 출력하는 스피커부;를 포함하는 감성 의자로봇
|
2 |
2
제1항에 있어서,상기 착석부의 일측에 구비되어, 상기 사용자와의 이격된 거리를 연산하기 위해 사용되며, 초음파 센서 및 적외선 감지 센서 중 적어도 하나를 포함하는 센서부;를 더 포함하는 것을 특징으로 하는 감성 의자로봇
|
3 |
3
제1항에 있어서,상기 카메라부는촬영하는 대상의 스켈리톤(skeleton) 정보 및 깊이 정보를 나타내는 키넥트 카메라를 포함하는 것을 특징으로 하는 감성 의자로봇
|
4 |
4
제1항에 있어서,상기 제어부는상기 카메라부로부터 입력받은 영상으로부터 사용자의 눈, 코, 입을 포함하는 얼굴 구성요소를 추출하고, 추출한 얼굴 구성요소 중 눈, 코, 입의 위치정보에 기초하여 상기 얼굴 구성요소를 기설정된 크기로 변환하거나, 상기 얼굴 구성요소로부터 노이즈 정보를 제거하며, 상기 얼굴 구성요소의 픽셀정보를 2차원 행렬로 판단한 후, 상기 2차원 행렬을 이루는 기저행렬과 계수값 중 상기 계수값을 기저장된 사용자의 계수값과 비교하여 입력받은 영상 내 얼굴이 기저장된 얼굴인지 여부를 판단하고, 상기 영상 내 얼굴이 기저장된 얼굴로 판단하는 경우, 상기 사용자를 둘러싸며 회전하는 제어신호를 생성하는 사용자인식모듈;을 포함하는 것을 특징으로 하는 감성 의자로봇
|
5 |
5
제4항에 있어서,상기 사용자인식모듈은상기 카메라부로부터 입력받은 영상으로부터 기설정된 시간동안 사용자의 위치 이동이 발생하였거나, 정지하였는지 판단하고, 상기 사용자의 위치 이동이 발생하였다고 판단한 경우, 상기 사용자의 위치 이동에 따라 상기 사용자를 추적하여 이동하기 위한 제어신호를 생성하거나, 상기 사용자가 움직임이 없이 정지하였다고 판단한 경우, 효과음을 출력하기 위한 제어신호를 생성하는 것을 더 포함하는 것을 특징으로 하는 감성 의자로봇
|
6 |
6
제1항에 있어서,상기 제어부는상기 음성인식부로부터 상기 사용자의 음성신호를 입력받고, 입력받은 음성신호의 특징을 분석하여 상기 사용자의 감정상태를 판단하고, 판단한 감정상태와 부합하는 제어신호를 생성하여 출력하는 감정상태판단모듈;을 더 포함하는 것을 특징으로 하는 감성 의자로봇
|
7 |
7
제6항에 있어서,상기 감정상태판단모듈은 상기 사용자의 음성신호를 입력받아, 상기 음성신호로부터 인식 대상 구간을 추출하고, 추출한 인식 대상 구간 내 음성신호에 대하여 노이즈 성분을 제거한 후, 음성신호의 특징을 검출하는 것을 특징으로 하는 감성 의자로봇
|
8 |
8
제1항에 있어서,상기 제어부는상기 카메라부로부터 입력받은 영상으로부터 상기 사용자의 착석부 내 착석여부를 판단하고, 상기 사용자의 착석부에 착석 또는 기립 시 효과음을 외부로 출력하기 위한 제어신호를 생성하는 착석판단모듈;을 더 포함하는 것을 특징으로 하는 감성 의자로봇
|
9 |
9
제5항에 있어서,상기 이동부는상기 사용자인식모듈로부터 생성된 제어신호를 수신하고, 수신한 제어신호에 응답하여 상기 사용자의 얼굴이 기저장된 얼굴인 경우 상기 사용자를 둘러싸며 회전하거나, 상기 사용자의 위치 이동이 발생한 경우 상기 사용자를 추적하여 이동하는 것을 특징으로 하는 감성 의자로봇
|
10 |
10
카메라부가 사용자가 착석할 수 있는 착석부 및 상기 착석부의 전후방을 촬영하여 상기 착석부의 전후방에 존재하는 사용자의 얼굴 및 움직임, 상기 착석부 내 착석여부를 포함하는 적어도 하나의 영상을 생성하는 단계;음성인식부가 상기 사용자의 음성신호를 입력받는 단계;제어부가 상기 영상과 음성신호를 입력받고, 상기 영상 및 음성신호에 기초하여 상기 사용자의 얼굴, 움직임 여부, 감정상태 및 상기 착석부 내 착석여부를 판단하여 구동을 위한 적어도 하나의 제어신호를 생성하는 단계; 이동부가 상기 제어부로부터 생성된 제어신호를 입력받고, 상기 제어신호에 응답하여 전후 좌우 방향으로 이동하는 단계; 및스피커부가 상기 제어부로부터 생성된 제어신호를 입력받고, 상기 제어신호에 응답하여 효과음을 외부로 출력하는 단계;를 포함하는 감성 의자로봇의 제어방법
|