1 |
1
사용자의 상태 정보, 음성 정보, 영상 정보 및 위치 정보를 포함하는 주변 상황 정보를 수집하고, 상기 주변 상황 정보에 대응하는 로봇의 감정 정보를 결정하고, 상기 감정 정보에 대응하는 로봇의 인터렉션 정보를 생성하고, 상기 인터렉션 정보에 기초하여 생체 모방 기반 동물형 로봇을 제어하는 제어 장치에 있어서,사용자 상태 정보를 포함하는 주변 상황 정보를 수집하되, 상기 사용자의 상태 정보로서 사용자의 캘린더 상의 일정, 사용자의 활동량, 음성 명령 횟수, 사용자의 전화 사용 중 여부, 사용자의 주 활동 시간에 대한 정보를 수집하고, 상기 영상 정보로서 얼굴 인식 정보를 수집하고, 상기 위치 정보로서 현재 로봇의 위치에 대한 정보를 수집하는 감각 정보 수신부;상기 주변 상황 정보에 대응하는 로봇의 감정을 나타내는 기 저장된 감정 정보를 결정하되, 상기 사용자를 하루 중 처음 확인하였을 때 인사하는 감정으로 결정하고, 상기 사용자의 상태 정보를 참조하여 사용자의 스케줄을 알린 후 칭찬 받고 싶은 감정으로 결정하고, 상기 사용자의 캘린더 상의 일정 및 사용자의 활동량이 기 설정된 기준보다 적고 상기 사용자가 전화를 사용하고 있지 않은 경우 상기 사용자와 놀고 싶은 감정으로 결정하는 감정 결정부;상기 감정 정보에 따라 상기 로봇의 인터랙션 정보를 생성하되, 수신된 음성 정보가 낙상 음성 정보인지를 판단하고 낙상 음성 정보가 아닌 경우 호출어 인지를 판단하고, 수신된 음성 정보가 호출어인 경우 음성 출력의 레벨, 이동 속도의 레벨 및 이동 범위의 레벨을 증가시키는 인터렉션 정보를 생성하고, 상기 얼굴 인식 정보로부터 주인이 있는 경우 상기 음성 출력의 레벨 및 이동 속도의 레벨을 증가시키는 인터렉션 정보를 생성하고, 주인 및 인식된 적이 있는 사람이 없는 경우 상기 음성 출력의 레벨 및 이동 속도의 레벨을 감소시키는 인터렉션 정보를 생성하고, 상기 위치 정보로서 현재 로봇의 위치가 과거 위치했던 공간이 아닌 경우 상기 음성 출력의 레벨, 이동 속도의 레벨 및 이동 범위의 레벨을 감소시키는 인터렉션 정보를 생성하는 인터랙션 정보 생성부;상기 인터랙션 정보에 포함되는 인터랙션 종류 및 인터랙션 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 제1 제어부; 및상기 주변 상황 정보로부터 기 설정된 이벤트 발생에 대응하는 제어 신호를 출력하는 제2 제어부를 포함하는감정 표현 로봇의 제어 장치
|
2 |
2
제1항에 있어서,상기 주변 상황 정보는,상기 로봇의 센서들로부터 수신되는 촉각 정보 및 배터리 정보를 더 포함하는감정 표현 로봇의 제어 장치
|
3 |
3
제1항에 있어서,상기 감정 정보는,행복함을 느끼는 감정, 자신감이 넘치는 감정, 순종적인 감정, 돌발상황의 감정, 스트레스를 받는 감정, 관심 있는 감정, 처음보는 감정을 더 포함하는감정 표현 로봇의 제어 장치
|
4 |
4
제3항에 있어서,상기 제1 제어부는,상기 감정 정보가 상기 행복함을 느끼는 감정인 경우, 상기 인터랙션 종류를 다리와 귀를 꼿꼿이 펴는 움직임으로 결정하고, 상기 인터랙션 요소 중 이동속도를 기 설정된 레벨로 결정하고, 기설정된 레벨의 경고음을 발생하도록 상기 제어 신호를 출력하는감정 표현 로봇의 제어 장치
|
5 |
5
삭제
|
6 |
6
제1항에 있어서,상기 인터랙션 정보에 포함되는 인터랙션 종류는,음성출력의 내용 및 움직임내용인,감정 표현 로봇의 제어 장치
|
7 |
7
제6항에 있어서,상기 인터랙션 정보에 포함되는 인터랙션 요소는,음성출력의 볼륨, 입을 벌리는 정도, 꼬리속도, 이동속도, 이동방향 및 이동범위인,감정 표현 로봇의 제어 장치
|
8 |
8
제6항에 있어서,상기 음성출력의 내용은,상기 감정 정보에 기초하여 상향식, 복합식 또는 하향식의 음성내용인감정 표현 로봇의 제어 장치
|
9 |
9
사용자의 상태 정보, 음성 정보, 영상 정보 및 위치 정보를 포함하는 주변 상황 정보를 수집하고, 상기 주변 상황 정보에 대응하는 로봇의 감정 정보를 결정하고, 상기 감정 정보에 대응하는 로봇의 인터렉션 정보를 생성하고, 상기 인터렉션 정보에 기초하여 생체 모방 기반 동물형 로봇을 제어하는 제어 방법에 있어서,사용자 상태 정보를 포함하는 주변 상황 정보를 수집하되, 상기 사용자의 상태 정보로서 사용자의 캘린더 상의 일정, 사용자의 활동량, 음성 명령 횟수, 사용자의 전화 사용 중 여부, 사용자의 주 활동 시간에 대한 정보를 수집하고, 상기 영상 정보로서 얼굴 인식 정보를 수집하고, 상기 위치 정보로서 현재 로봇의 위치에 대한 정보를 수집하는 단계;상기 주변 상황 정보에 대응하는 로봇의 감정을 나타내는 기 저장된 감정 정보를 결정하되, 상기 사용자를 하루 중 처음 확인하였을 때 인사하는 감정으로 결정하고, 상기 사용자의 상태 정보를 참조하여 사용자의 스케줄을 알린 후 칭찬 받고 싶은 감정으로 결정하고, 상기 사용자의 캘린더 상의 일정 및 사용자의 활동량이 기 설정된 기준보다 적고 상기 사용자가 전화를 사용하고 있지 않은 경우 상기 사용자와 놀고 싶은 감정으로 결정하는 단계;상기 감정 정보에 따라 상기 로봇의 인터랙션 정보를 생성하되, 수신된 음성 정보가 낙상 음성 정보인지를 판단하고 낙상 음성 정보가 아닌 경우 호출어 인지를 판단하고, 수신된 음성 정보가 호출어인 경우 음성 출력의 레벨, 이동 속도의 레벨 및 이동 범위의 레벨을 증가시키는 인터렉션 정보를 생성하고, 상기 얼굴 인식 정보로부터 주인이 있는 경우 상기 음성 출력의 레벨 및 이동 속도의 레벨을 증가시키는 인터렉션 정보를 생성하고, 주인 및 인식된 적이 있는 사람이 없는 경우 상기 음성 출력의 레벨 및 이동 속도의 레벨을 감소시키는 인터렉션 정보를 생성하고, 상기 위치 정보로서 현재 로봇의 위치가 과거 위치했던 공간이 아닌 경우 상기 음성 출력의 레벨, 이동 속도의 레벨 및 이동 범위의 레벨을 감소시키는 인터렉션 정보를 생성하는 단계;상기 인터랙션 정보에 포함되는 인터랙션 종류 및 인터랙션 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 단계; 및상기 주변 상황 정보로부터 기 설정된 이벤트 발생에 대응하는 제어 신호를 출력하는 단계를 포함하는감정 표현 로봇의 제어 방법
|
10 |
10
제9항에 있어서,상기 주변 상황 정보는,상기 로봇의 센서들로부터 감지되는 촉각 정보 및 배터리 정보를 더 포함하는감정 표현 로봇의 제어 방법
|
11 |
11
제9항에 있어서,상기 감정 정보는,행복함을 느끼는 감정, 자신감이 넘치는 감정, 순종적인 감정, 인사하는 감정, 돌발상황의 감정, 스트레스를 받는 감정, 관심 있는 감정, 처음보는 감정을 더 포함하는감정 표현 로봇의 제어 방법
|
12 |
12
삭제
|
13 |
13
제9항에 있어서,상기 인터랙션 정보에 포함되는 인터랙션 종류는,음성출력의 내용 및 움직임내용인,감정 표현 로봇의 제어 방법
|
14 |
14
제13항에 있어서,상기 인터랙션 정보에 포함되는 인터랙션 요소는,음성출력의 볼륨, 입을 벌리는 정도, 꼬리속도, 이동속도, 이동방향 및 이동범위인,감정 표현 로봇의 제어 방법
|
15 |
15
제13항에 있어서,상기 음성출력의 내용은,상기 감정 정보에 기초하여 상향식, 복합식 또는 하향식의 음성내용인감정 표현 로봇의 제어 방법
|