맞춤기술찾기

이전대상기술

생체 모방 기반 동물형 로봇의 감정표현 제어 장치 및 방법

  • 기술번호 : KST2019034213
  • 담당센터 : 서울서부기술혁신센터
  • 전화번호 : 02-6124-6930
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 감정 표현 로봇의 제어 장치 및 그 방법을 개시한다. 본 발명의 일 실시예에 따른 감정 표현 로봇의 제어 장치는, 사용자 상태 정보를 포함하는 주변 상황 정보를 수집하는 감각 정보 수신부와, 상기 주변 상황 정보에 대응하는 로봇의 감정을 나타내는 기 저장된 감정 정보를 결정하는 감정 결정부와, 상기 감정 정보에 따라 상기 로봇의 인터랙션 정보를 생성하는 인터랙션 정보 생성부와, 상기 인터랙션 정보에 포함되는 인터랙션 종류 및 인터랙션 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 제1 제어부와, 상기 주변 상황 정보로부터 기 설정된 이벤트 발생에 대응하는 제어 신호를 출력하는 제2 제어부를 포함한다.
Int. CL B25J 9/16 (2006.01.01) B25J 19/02 (2006.01.01) B25J 11/00 (2006.01.01)
CPC B25J 9/1602(2013.01) B25J 9/1602(2013.01) B25J 9/1602(2013.01) B25J 9/1602(2013.01) B25J 9/1602(2013.01) B25J 9/1602(2013.01) B25J 9/1602(2013.01) B25J 9/1602(2013.01)
출원번호/일자 1020180060831 (2018.05.29)
출원인 연세대학교 산학협력단
등록번호/일자 10-2051217-0000 (2019.11.26)
공개번호/일자
공고번호/일자 (20191202) 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 등록
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2018.05.29)
심사청구항수 13

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 연세대학교 산학협력단 대한민국 서울특별시 서대문구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 주다영 인천광역시 연수구
2 오영훈 서울특별시 서초구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 김연권 대한민국 서울특별시 송파구 법원로 ***, ****/****호(문정동, 문정대명벨리온)(시안특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 연세대학교 산학협력단 대한민국 서울특별시 서대문구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2018.05.29 수리 (Accepted) 1-1-2018-0524227-27
2 [출원서등 보정]보정서
[Amendment to Patent Application, etc.] Amendment
2018.06.15 수리 (Accepted) 1-1-2018-0584318-79
3 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2018.10.16 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2018-1017667-78
4 선행기술조사의뢰서
Request for Prior Art Search
2019.01.21 수리 (Accepted) 9-1-9999-9999999-89
5 선행기술조사보고서
Report of Prior Art Search
2019.03.14 발송처리완료 (Completion of Transmission) 9-6-2019-0054746-14
6 의견제출통지서
Notification of reason for refusal
2019.05.30 발송처리완료 (Completion of Transmission) 9-5-2019-0385655-64
7 [거절이유 등 통지에 따른 의견]의견(답변, 소명)서
[Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation)
2019.07.30 수리 (Accepted) 1-1-2019-0782515-91
8 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2019.07.30 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2019-0782520-19
9 보정요구서
Request for Amendment
2019.08.01 발송처리완료 (Completion of Transmission) 1-5-2019-0126947-85
10 [출원서 등 보정]보정서
[Amendment to Patent Application, etc.] Amendment
2019.08.23 수리 (Accepted) 1-1-2019-0867971-13
11 등록결정서
Decision to grant
2019.11.22 발송처리완료 (Completion of Transmission) 9-5-2019-0847000-94
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
사용자의 상태 정보, 음성 정보, 영상 정보 및 위치 정보를 포함하는 주변 상황 정보를 수집하고, 상기 주변 상황 정보에 대응하는 로봇의 감정 정보를 결정하고, 상기 감정 정보에 대응하는 로봇의 인터렉션 정보를 생성하고, 상기 인터렉션 정보에 기초하여 생체 모방 기반 동물형 로봇을 제어하는 제어 장치에 있어서,사용자 상태 정보를 포함하는 주변 상황 정보를 수집하되, 상기 사용자의 상태 정보로서 사용자의 캘린더 상의 일정, 사용자의 활동량, 음성 명령 횟수, 사용자의 전화 사용 중 여부, 사용자의 주 활동 시간에 대한 정보를 수집하고, 상기 영상 정보로서 얼굴 인식 정보를 수집하고, 상기 위치 정보로서 현재 로봇의 위치에 대한 정보를 수집하는 감각 정보 수신부;상기 주변 상황 정보에 대응하는 로봇의 감정을 나타내는 기 저장된 감정 정보를 결정하되, 상기 사용자를 하루 중 처음 확인하였을 때 인사하는 감정으로 결정하고, 상기 사용자의 상태 정보를 참조하여 사용자의 스케줄을 알린 후 칭찬 받고 싶은 감정으로 결정하고, 상기 사용자의 캘린더 상의 일정 및 사용자의 활동량이 기 설정된 기준보다 적고 상기 사용자가 전화를 사용하고 있지 않은 경우 상기 사용자와 놀고 싶은 감정으로 결정하는 감정 결정부;상기 감정 정보에 따라 상기 로봇의 인터랙션 정보를 생성하되, 수신된 음성 정보가 낙상 음성 정보인지를 판단하고 낙상 음성 정보가 아닌 경우 호출어 인지를 판단하고, 수신된 음성 정보가 호출어인 경우 음성 출력의 레벨, 이동 속도의 레벨 및 이동 범위의 레벨을 증가시키는 인터렉션 정보를 생성하고, 상기 얼굴 인식 정보로부터 주인이 있는 경우 상기 음성 출력의 레벨 및 이동 속도의 레벨을 증가시키는 인터렉션 정보를 생성하고, 주인 및 인식된 적이 있는 사람이 없는 경우 상기 음성 출력의 레벨 및 이동 속도의 레벨을 감소시키는 인터렉션 정보를 생성하고, 상기 위치 정보로서 현재 로봇의 위치가 과거 위치했던 공간이 아닌 경우 상기 음성 출력의 레벨, 이동 속도의 레벨 및 이동 범위의 레벨을 감소시키는 인터렉션 정보를 생성하는 인터랙션 정보 생성부;상기 인터랙션 정보에 포함되는 인터랙션 종류 및 인터랙션 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 제1 제어부; 및상기 주변 상황 정보로부터 기 설정된 이벤트 발생에 대응하는 제어 신호를 출력하는 제2 제어부를 포함하는감정 표현 로봇의 제어 장치
2 2
제1항에 있어서,상기 주변 상황 정보는,상기 로봇의 센서들로부터 수신되는 촉각 정보 및 배터리 정보를 더 포함하는감정 표현 로봇의 제어 장치
3 3
제1항에 있어서,상기 감정 정보는,행복함을 느끼는 감정, 자신감이 넘치는 감정, 순종적인 감정, 돌발상황의 감정, 스트레스를 받는 감정, 관심 있는 감정, 처음보는 감정을 더 포함하는감정 표현 로봇의 제어 장치
4 4
제3항에 있어서,상기 제1 제어부는,상기 감정 정보가 상기 행복함을 느끼는 감정인 경우, 상기 인터랙션 종류를 다리와 귀를 꼿꼿이 펴는 움직임으로 결정하고, 상기 인터랙션 요소 중 이동속도를 기 설정된 레벨로 결정하고, 기설정된 레벨의 경고음을 발생하도록 상기 제어 신호를 출력하는감정 표현 로봇의 제어 장치
5 5
삭제
6 6
제1항에 있어서,상기 인터랙션 정보에 포함되는 인터랙션 종류는,음성출력의 내용 및 움직임내용인,감정 표현 로봇의 제어 장치
7 7
제6항에 있어서,상기 인터랙션 정보에 포함되는 인터랙션 요소는,음성출력의 볼륨, 입을 벌리는 정도, 꼬리속도, 이동속도, 이동방향 및 이동범위인,감정 표현 로봇의 제어 장치
8 8
제6항에 있어서,상기 음성출력의 내용은,상기 감정 정보에 기초하여 상향식, 복합식 또는 하향식의 음성내용인감정 표현 로봇의 제어 장치
9 9
사용자의 상태 정보, 음성 정보, 영상 정보 및 위치 정보를 포함하는 주변 상황 정보를 수집하고, 상기 주변 상황 정보에 대응하는 로봇의 감정 정보를 결정하고, 상기 감정 정보에 대응하는 로봇의 인터렉션 정보를 생성하고, 상기 인터렉션 정보에 기초하여 생체 모방 기반 동물형 로봇을 제어하는 제어 방법에 있어서,사용자 상태 정보를 포함하는 주변 상황 정보를 수집하되, 상기 사용자의 상태 정보로서 사용자의 캘린더 상의 일정, 사용자의 활동량, 음성 명령 횟수, 사용자의 전화 사용 중 여부, 사용자의 주 활동 시간에 대한 정보를 수집하고, 상기 영상 정보로서 얼굴 인식 정보를 수집하고, 상기 위치 정보로서 현재 로봇의 위치에 대한 정보를 수집하는 단계;상기 주변 상황 정보에 대응하는 로봇의 감정을 나타내는 기 저장된 감정 정보를 결정하되, 상기 사용자를 하루 중 처음 확인하였을 때 인사하는 감정으로 결정하고, 상기 사용자의 상태 정보를 참조하여 사용자의 스케줄을 알린 후 칭찬 받고 싶은 감정으로 결정하고, 상기 사용자의 캘린더 상의 일정 및 사용자의 활동량이 기 설정된 기준보다 적고 상기 사용자가 전화를 사용하고 있지 않은 경우 상기 사용자와 놀고 싶은 감정으로 결정하는 단계;상기 감정 정보에 따라 상기 로봇의 인터랙션 정보를 생성하되, 수신된 음성 정보가 낙상 음성 정보인지를 판단하고 낙상 음성 정보가 아닌 경우 호출어 인지를 판단하고, 수신된 음성 정보가 호출어인 경우 음성 출력의 레벨, 이동 속도의 레벨 및 이동 범위의 레벨을 증가시키는 인터렉션 정보를 생성하고, 상기 얼굴 인식 정보로부터 주인이 있는 경우 상기 음성 출력의 레벨 및 이동 속도의 레벨을 증가시키는 인터렉션 정보를 생성하고, 주인 및 인식된 적이 있는 사람이 없는 경우 상기 음성 출력의 레벨 및 이동 속도의 레벨을 감소시키는 인터렉션 정보를 생성하고, 상기 위치 정보로서 현재 로봇의 위치가 과거 위치했던 공간이 아닌 경우 상기 음성 출력의 레벨, 이동 속도의 레벨 및 이동 범위의 레벨을 감소시키는 인터렉션 정보를 생성하는 단계;상기 인터랙션 정보에 포함되는 인터랙션 종류 및 인터랙션 요소의 레벨에 따라 음성출력 및 움직임을 수행하도록 제어 신호를 출력하는 단계; 및상기 주변 상황 정보로부터 기 설정된 이벤트 발생에 대응하는 제어 신호를 출력하는 단계를 포함하는감정 표현 로봇의 제어 방법
10 10
제9항에 있어서,상기 주변 상황 정보는,상기 로봇의 센서들로부터 감지되는 촉각 정보 및 배터리 정보를 더 포함하는감정 표현 로봇의 제어 방법
11 11
제9항에 있어서,상기 감정 정보는,행복함을 느끼는 감정, 자신감이 넘치는 감정, 순종적인 감정, 인사하는 감정, 돌발상황의 감정, 스트레스를 받는 감정, 관심 있는 감정, 처음보는 감정을 더 포함하는감정 표현 로봇의 제어 방법
12 12
삭제
13 13
제9항에 있어서,상기 인터랙션 정보에 포함되는 인터랙션 종류는,음성출력의 내용 및 움직임내용인,감정 표현 로봇의 제어 방법
14 14
제13항에 있어서,상기 인터랙션 정보에 포함되는 인터랙션 요소는,음성출력의 볼륨, 입을 벌리는 정도, 꼬리속도, 이동속도, 이동방향 및 이동범위인,감정 표현 로봇의 제어 방법
15 15
제13항에 있어서,상기 음성출력의 내용은,상기 감정 정보에 기초하여 상향식, 복합식 또는 하향식의 음성내용인감정 표현 로봇의 제어 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 과학기술정보통신부 연세대학교 산학협력단 원천기술개발사업 [Ezbaro](4세부)리빙랩 기반 디지털 컴패니언 컨셉 디자인 및 제품의 평가와 검증(1/2단계)(1/2연차)