맞춤기술찾기

이전대상기술

로봇 인터랙션 행위 생성 장치 및 방법

  • 기술번호 : KST2022002164
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 로봇 인터랙션 행위 생성 장치 및 방법이 개시된다. 본 발명의 실시예에 따른 로봇 인터랙션 행위 생성 방법은, 사용자의 발화 입력에 대응되는 로봇의 발화 행위를 생성하는 단계, 미리 학습된 로봇 자세 추정 신경망 모델을 기반으로 상기 사용자의 관절 위치 및 로봇의 현재 관절 위치로부터 추정된 로봇의 다음 관절 위치에 기반하여 로봇의 교류 행위를 생성하는 단계 및 상기 발화 행위 및 교류 행위 중 적어도 하나를 이용하여 최종 행위를 생성하는 단계를 포함할 수 있다.
Int. CL B25J 9/16 (2006.01.01) B25J 11/00 (2006.01.01)
CPC B25J 9/1661(2013.01) B25J 9/1692(2013.01) B25J 9/1669(2013.01) B25J 9/161(2013.01) B25J 11/0005(2013.01)
출원번호/일자 1020200105409 (2020.08.21)
출원인 한국전자통신연구원
등록번호/일자
공개번호/일자 10-2022-0023543 (2022.03.02) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2021.03.15)
심사청구항수 20

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자통신연구원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 고우리 대전광역시 유성구
2 김도형 대전광역시 유성구
3 김재홍 대전광역시 유성구
4 윤영우 대전광역시 유성구
5 이재연 대전광역시 유성구
6 장민수 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 한양특허법인 대한민국 서울특별시 강남구 논현로**길 **, 한양빌딩 (도곡동)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2020.08.21 수리 (Accepted) 1-1-2020-0881077-52
2 [출원서 등 보정]보정서
[Amendment to Patent Application, etc.] Amendment
2020.08.24 수리 (Accepted) 1-1-2020-0883463-19
3 [심사청구]심사청구서·우선심사신청서
2021.03.15 수리 (Accepted) 1-1-2021-0299665-82
4 선행기술조사의뢰서
Request for Prior Art Search
2021.11.15 수리 (Accepted) 9-1-9999-9999999-89
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
사용자의 발화 입력에 대응되는 로봇의 발화 행위를 생성하는 단계;미리 학습된 로봇 자세 추정 신경망 모델을 기반으로 상기 사용자의 관절 위치 및 로봇의 현재 관절 위치로부터 추정된 로봇의 다음 관절 위치에 기반하여 로봇의 교류 행위를 생성하는 단계; 및 상기 발화 행위 및 교류 행위 중 적어도 하나를 이용하여 최종 행위를 생성하는 단계를 포함하는, 로봇 인터랙션 행위 생성 방법
2 2
제1 항에 있어서, 로봇의 교류 행위를 생성하는 단계는,로봇 자세 추정 신경망 모델을 기반으로 생성된 교류 행위를 로봇의 감정 상태를 기반으로 수정하는 단계를 더 포함하는, 로봇 인터랙션 행위 생성 방법
3 3
제2 항에 있어서, 수정하는 단계는,유쾌 또는 불쾌의 정도를 나타내는 감정 상태값을 기반으로 산출된 교류 행위의 크기와, 긴장 또는 이완의 정도를 나타내는 감정 상태값에 따라 산출된 교류 행위의 교류 행위의 속도를 기반으로 교류 행위를 수정하는, 로봇 인터랙션 행위 생성 방법
4 4
제1 항에 있어서, 최종 행위를 생성하는 단계는, 로봇이 대기 상태일 때, 사용자 발화 입력에 따라 로봇의 발화 행위를 출력하고, 사용자 행위 입력에 따라 로봇의 교류 행위만을 출력하고, 사용자 발화 입력 및 사용자 행위 입력에 따라 로봇의 발화 행위 및 교류 행위를 동시에 출력하는, 로봇 인터랙션 행위 생성 방법
5 5
제1 항에 있어서, 최종 행위를 생성하는 단계는, 로봇이 발화 행위의 상태일 때, 사용자 발화 입력에 따라 로봇의 신규 발화 행위를 출력하고, 사용자 행위 입력에 따라 로봇의 기존 발화 행위 및 신규 교류 행위를 동시에 출력하고, 사용자 발화 입력 및 사용자 행위 입력에 따라 로봇의 신규 발화 행위 및 신규 교류 행위를 동시에 출력하는, 로봇 인터랙션 행위 생성 방법
6 6
제1 항에 있어서, 최종 행위를 생성하는 단계는, 로봇이 교류 행위의 상태일 때, 사용자 발화 입력에 따라 로봇의 신규 발화 행위 및 기존 교류 행위를 동시에 출력하고, 사용자 행위 입력에 따라 로봇의 신규 교류 행위를 출력하고, 사용자 발화 입력 및 사용자 행위 입력에 따라 로봇의 신규 발화 행위 및 신규 교류 행위를 동시에 출력하는, 로봇 인터랙션 행위 생성 방법
7 7
제1 항에 있어서, 최종 행위를 생성하는 단계는, 로봇이 기존 교류 행위 및 신규 교류 행위를 포함하는 두 행위들 중 적어도 하나를 출력하거나, 로봇이 발화 행위 및 교류 행위를 포함하는 두 행위들 중 적어도 하나를 출력하는 경우, 두 행위들 중 우선 순위를 결정하는 단계;우선 순위가 높은 행위의 동작 변화량을 산출하는 단계;동작 변화량을 기준으로 두 행위들 중 하나를 출력하거나, 두 행위들을 중첩하여 출력하는 단계를 포함하는, 로봇 인터랙션 행위 생성 방법
8 8
제 7항에 있어서, 우선 순위를 결정하는 단계는,교류 행위를 발화 행위 보다 높은 우선 순위로 결정하거나, 기존 교류 행위를 신규 교류 행위 보다 높은 우선 순위로 결정하는, 로봇 인터랙션 행위 생성 방법
9 9
제7 항에 있어서, 동작 변화량을 산출하는 단계는,행위에 따른 모든 관절들의 위치 변화량의 합으로 동작 변화량을 산출하는, 로봇의 인터랙션 행위 생성 방법
10 10
제 7항에 있어서, 출력하는 단계는, 동작 변화량이 상위 임계치보다 클 경우, 우선 순위가 높은 행위를 출력하고, 동작 변화량이 하위 임계치보다 작을 경우, 우선 순위가 낮은 행위를 출력하고, 동작 변화량이 상위 임계치 및 하위 임계치 사이일 경우, 두 행위들을 중첩하는, 로봇 인터랙션 행위 생성 방법
11 11
제10 항에 있어서, 출력하는 단계는,두 행위들을 중첩함에 있어, 두 행위들 각각에 상응하는 신체 카테고리를 검출하고, 두 행위들 각각에 상응하는 신체 카테고리가 동일할 경우, 우선 순위가 높은 행위만을 출력하고, 두 행위들 각각에 상응하는 신체 카테고리가 상이할 경우, 두 행위들을 동시에 출력하는, 로봇 인터랙션 행위 생성 방법
12 12
제11 항에 있어서, 신체 카테고리는, 머리, 몸통, 오른팔, 왼팔 및 하체를 포함하는, 로봇 인터랙션 행위 생성 방법
13 13
제11 항에 있어서, 출력하는 단계는,행위에 따른 신체 카테고리를 검출함에 있어, 행위 각각에 따른 신체 카테고리별 관절들의 위치 변화량을 기반으로 검출하는, 로봇 인터랙션 행위 생성 방법
14 14
적어도 하나의 프로그램이 기록된 메모리; 및프로그램을 실행하는 프로세서를 포함하며,프로그램은,사용자의 발화 입력에 대응되는 로봇의 발화 행위를 생성하는 단계;미리 학습된 로봇 자세 추정 신경망 모델을 기반으로 상기 사용자의 관절 위치 및 로봇의 현재 관절 위치로부터 추정된 로봇의 다음 관절 위치에 기반하여 로봇의 교류 행위를 생성하는 단계; 및 상기 발화 행위 및 교류 행위 중 적어도 하나를 이용하여 최종 행위를 생성하는 단계를 수행하는, 로봇 인터랙션 행위 생성 장치
15 15
제14 항에 있어서, 로봇의 교류 행위를 생성하는 단계는,로봇 자세 추정 신경망 모델을 기반으로 생성된 교류 행위를 로봇의 감정 상태를 기반으로 수정하는 단계를 더 포함하되, 수정하는 단계는,유쾌 또는 불쾌의 정도를 나타내는 감정 상태값을 기반으로 산출된 교류 행위의 크기와, 긴장 또는 이완의 정도를 나타내는 감정 상태값에 따라 산출된 교류 행위의 교류 행위의 속도를 기반으로 교류 행위를 수정하는, 로봇 인터랙션 행위 생성 장치
16 16
제14 항에 있어서, 최종 행위를 생성하는 단계는, 로봇이 기존 교류 행위 및 신규 교류 행위를 포함하는 두 행위들 중 적어도 하나를 출력하거나, 로봇이 발화 행위 및 교류 행위를 포함하는 두 행위들 중 적어도 하나를 출력하는 경우, 두 행위들 중 우선 순위를 결정하는 단계;우선 순위가 높은 행위의 동작 변화량을 산출하는 단계;동작 변화량을 기준으로 두 행위들 중 하나를 출력하거나, 두 행위들을 중첩하여 출력하는 단계를 포함하는, 로봇 인터랙션 행위 생성 장치
17 17
제 16항에 있어서, 출력하는 단계는, 동작 변화량이 상위 임계치보다 클 경우, 우선 순위가 높은 행위를 출력하고, 동작 변화량이 하위 임계치보다 작을 경우, 우선 순위가 낮은 행위를 출력하고, 동작 변화량이 상위 임계치 및 하위 임계치 사이일 경우, 두 행위들을 중첩하는, 로봇 인터랙션 행위 생성 장치
18 18
제17 항에 있어서, 출력하는 단계는,두 행위들을 중첩하여 출력함에 있어, 행위 각각에 따른 신체 카테고리별 관절들의 위치 변화량을 기반으로 두 행위들 각각에 상응하는 신체 카테고리를 검출하고, 두 행위들 각각에 상응하는 신체 카테고리가 동일할 경우, 우선 순위가 높은 행위만을 출력하고, 두 행위들 각각에 상응하는 신체 카테고리가 상이할 경우, 두 행위들을 동시에 출력하는, 로봇 인터랙션 행위 생성 장치
19 19
사용자의 발화 입력에 대응되는 로봇의 발화 행위를 생성하는 단계;사용자의 행위 입력에 대응되는 로봇의 교류 행위를 생성하는 단계; 및 상기 발화 행위 및 교류 행위 중 적어도 하나를 이용하여 최종 행위를 생성하는 단계를 수행하되, 최종 행위를 생성하는 단계는,로봇이 기존 교류 행위 및 신규 교류 행위를 포함하는 두 행위들 중 적어도 하나를 출력하거나, 로봇이 발화 행위 및 교류 행위를 포함하는 두 행위들 중 적어도 하나를 출력하는 경우,두 행위들 중 우선 순위를 결정하는 단계;우선 순위가 높은 행위의 동작 변화량을 산출하는 단계;동작 변화량을 기준으로 두 행위들 중 하나를 출력하거나, 두 행위들을 중첩하여 출력하는 단계를 더 포함하는, 로봇 인터랙션 행위 생성 방법
20 20
제19 항에 있어서, 출력하는 단계는,두 행위들을 중첩하여 출력함에 있어, 행위 각각에 따른 신체 카테고리별 관절들의 위치 변화량을 기반으로 두 행위들 각각에 상응하는 신체 카테고리를 검출하고, 두 행위들 각각에 상응하는 신체 카테고리가 동일할 경우, 우선 순위가 높은 행위만을 출력하고, 두 행위들 각각에 상응하는 신체 카테고리가 상이할 경우, 두 행위들을 동시에 출력하는, 로봇 인터랙션 행위 생성 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 과학기술정보통신부 한국전자통신연구원 ICT융합산업원천기술개발 고령 사회에 대응하기 위한 실환경 휴먼케어 로봇 기술 개발
2 과학기술정보통신부 한국전자통신연구원 클라우드로봇복합인공지능기술개발(R&D) 실 환경 서비스 상황에서 사용자 반응에 지속적으로 지역(Local) 적응하는 로봇 지능 기술 개발