맞춤기술찾기

이전대상기술

증강현실 아바타 상호작용 방법 및 시스템

  • 기술번호 : KST2015095948
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 실제 현실 상에 정합되어 가시화된 증강현실 아바타가 현실의 환경정보를 바탕으로 상호작용하고, 사용자의 의도에 따라 상호작용하는 방법이 개시된다. 본 발명에 따른 증강현실 아바타 상호작용 시스템은 증강현실 기술을 이용하여 실제 공간 상에 투영된 아바타와 사용자 간의 실감나는 상호작용을 제공하며, 또한 사용자 주변의 환경을 인지하여 증강현실 아바타가 인지된 주변 환경에 기초하여 동작할 수 있도록 제어한다.
Int. CL G06T 17/00 (2006.01) G06T 13/40 (2011.01)
CPC G06F 17/30061(2013.01) G06F 17/30061(2013.01) G06F 17/30061(2013.01) G06F 17/30061(2013.01) G06F 17/30061(2013.01)
출원번호/일자 1020130140793 (2013.11.19)
출원인 한국전자통신연구원
등록번호/일자
공개번호/일자 10-2015-0057424 (2015.05.28) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 20

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자통신연구원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 조동식 대한민국 대전광역시 유성구
2 김용완 대한민국 대전광역시 유성구
3 김항기 대한민국 대전광역시 유성구
4 김진호 대한민국 대전광역시 유성구
5 김대환 대한민국 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인지명 대한민국 서울특별시 강남구 남부순환로**** 차우빌딩*층

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2013.11.19 수리 (Accepted) 1-1-2013-1052665-69
2 출원인정보변경(경정)신고서
Notification of change of applicant's information
2015.02.02 수리 (Accepted) 4-1-2015-0006137-44
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
증강현실 아바타 상호작용을 위한 프로그램 코드가 저장된 비휘발성 메모리와, 상기 프로그램 코드를 실행하는 적어도 하나 이상의 프로세서를 포함하는 증강현실 아바타 상호작용 시스템에 있어서, 상기 적어도 하나 이상의 프로세서는,영상 센서를 포함하는 제1 인식 센서들로부터 획득된 제1 센싱 정보에 기초하여, 상기 증강현실 아바타와 상호작용하는 사용자 주변의 실제 환경 정보를 인식하는 실제 환경정보 인식부; 영상 센서를 포함하는 제2 인식 센서들로부터 획득된 제2 센싱 정보에 기초하여, 상기 사용자의 정보를 인식하는 사용자 환경정보 인식부;인식된 사용자 주변의 실제 환경 정보와 상기 사용자의 정보에 기초하여, 상기 증강현실 아바타의 행동을 추론하는 제어부;추론된 상기 증강현실 아바타의 행동에 기초하여, 상기 증강현실 아바타의 표현 동작을 생성하는 표현 동작 생성부; 및 상기 사용자가 위치한 실제 환경 상에 상기 증강현실 아바타의 상기 표현 동작을 가시화하는 영상 가시화부를 구동하는 상기 프로그램 코드를 실행하도록 구현된 것인 증강현실 아바타 상호작용 시스템
2 2
제1항에 있어서, 상기 실제 환경정보 인식부는,상기 제1 센싱 정보에 기초하여 상기 증강현실 아바타가 동작할 수 있는 공간적인 영역을 정의하고, 상기 공간적인 영역 내에서 정적 객체의 위치 및 크기를 검출하고, 동적 객체의 움직임 및 크기를 검출하는 것인 증강현실 아바타 상호작용 시스템
3 3
제1항에 있어서, 상기 제1 센싱 정보는, 상기 사용자의 주변 환경에 대한 영상 정보와, 상기 사용자의 주변 환경에 대한 바람, 온도, 향기, 소리 등을 포함하는 환경 정보를 포함하는 것인 증강현실 아바타 상호작용 시스템
4 4
제1항에 있어서, 상기 사용자 환경정보 인식부는, 상기 제2 센싱 정보에 기초하여 상기 사용자가 누구인지를 판별하는 사용자 인식, 상기 사용자의 현재 감정적인 상태를 판별하는 감정 인식, 상기 사용자의 현재 동작 상황을 판별하는 동작 인식, 음성 인식 중 적어도 하나를 수행하는 것인 증강현실 아바타 상호작용 시스템
5 5
제4항에 있어서, 상기 사용자 환경정보 인식부는,상기 제2 센싱 정보에 기초하여 상기 사용자가 상기 증강현실 아바타에게 제시하는 의지를 판별하는 의도 인식, 상기 사용자의 근전도, 뇌파 등의 생체 신호를 판별하는 생체 신호 인식 중 적어도 하나를 더 수행하는 것인 증강현실 아바타 상호작용 시스템
6 6
제1항에 있어서, 상기 제어부는, 객체들 사이의 관계가 정의된 정보와, 상기 사용자에 대해 사전에 학습된 정보가 저장된 온톨로지 데이터베이스를 이용하여, 인식된 사용자 주변의 실제 환경 정보와 상기 사용자의 정보와 관련된 적어도 하나의 데이터를 검색하여 상기 증강현실 아바타의 행동을 추론하는 것인 증강현실 아바타 상호작용 시스템
7 7
제1항에 있어서, 상기 제어부는,상기 증강현실 아바타가 동작하는 영역으로 정의된 공간과, 상기 공간 내에서 검출된 정적 객체 및 동적 객체를 이용하여 상기 증강현실 아바타에 대한 상호작용 맵(interaction map)을 생성하는 것인 증강현실 아바타 상호작용 시스템
8 8
제7항에 있어서, 상기 제어부는,상기 상호작용 맵에 기초하여 상기 증강현실 아바타의 위치 이동 계획(path planning)을 수행하는 것인 증강현실 아바타 상호작용 시스템
9 9
제7항에 있어서, 상기 제어부는, 상기 상호작용 맵에 기초하여 상기 증강현실 아바타의 행위 계획(motion planning)을 수행하되, 상기 행위 계획은 상기 정적 객체와의 관계에서 상기 증강현실 아바타의 인간-객체(human-object) 기반 행동 추론과, 상기 동적 객체와의 관계에서 상기 증강현실 아바타의 인간-인간(human-human) 기반 행동 추론을 포함하는 것인 증강현실 아바타 상호작용 시스템
10 10
제1항에 있어서, 상기 표현 동작 생성부에서 생성된 상기 증강현실 아바타의 표현 동작은 인식된 사용자 주변의 실제 환경 정보 및 상기 사용자의 정보에 대한 반응 동작을 포함하는 물리 기반 행동 표현과, 얼굴 표현과, 사전에 정의된 시나리오에 기반한 애니메이션 동작 표현을 포함하는 것인 증강현실 아바타 상호작용 시스템
11 11
증강현실 아바타 상호작용을 위한 프로그램 코드를 실행하는 적어도 하나 이상의 프로세서에 의해 수행되는 증강현실 아바타 상호작용 방법에 있어서,영상 센서를 포함하는 제1 인식 센서들로부터 획득된 제1 센싱 정보에 기초하여, 증강현실 아바타와 상호작용하는 사용자 주변의 실제 환경 정보를 인식하는 단계; 영상 센서를 포함하는 제2 인식 센서들로부터 획득된 제2 센싱 정보에 기초하여, 상기 사용자의 정보를 인식하는 단계;인식된 사용자 주변의 실제 환경 정보와 상기 사용자의 정보에 기초하여, 상기 증강현실 아바타의 행동을 추론하는 단계;추론된 상기 증강현실 아바타의 행동에 기초하여, 상기 증강현실 아바타의 표현 동작을 생성하는 단계; 및 상기 사용자가 위치한 실제 환경 상에 상기 증강현실 아바타의 상기 표현 동작을 가시화하는 단계를 포함하는 증강현실 아바타 상호작용 방법
12 12
제11항에 있어서, 상기 실제 환경 정보를 인식하는 단계는,상기 제1 센싱 정보에 기초하여 상기 증강현실 아바타가 동작할 수 있는 공간적인 영역을 정의하고, 상기 공간적인 영역 내에서 정적 객체의 위치 및 크기를 검출하고, 동적 객체의 움직임 및 크기를 검출하는 단계를 포함하는 것인 증강현실 아바타 상호작용 방법
13 13
제11항에 있어서, 상기 제1 센싱 정보는, 상기 사용자의 주변 환경에 대한 영상 정보와, 상기 사용자의 주변 환경에 대한 바람, 온도, 향기, 소리 등을 포함하는 환경 정보를 포함하는 것인 증강현실 아바타 상호작용 방법
14 14
제11항에 있어서, 상기 사용자 환경정보를 인식하는 단계는, 상기 제2 센싱 정보에 기초하여 상기 사용자가 누구인지를 판별하는 사용자 인식, 상기 사용자의 현재 감정적인 상태를 판별하는 감정 인식, 상기 사용자의 현재 동작 상황을 판별하는 동작 인식, 음성 인식 중 적어도 하나를 수행하는 단계를 포함하는 것인 증강현실 아바타 상호작용 방법
15 15
제14항에 있어서, 상기 사용자 환경정보를 인식하는 단계는,상기 제2 센싱 정보에 기초하여 상기 사용자가 상기 증강현실 아바타에게 제시하는 의지를 판별하는 의도 인식, 상기 사용자의 근전도, 뇌파 등의 생체 신호를 판별하는 생체 신호 인식 중 적어도 하나를 더 수행하는 것인 증강현실 아바타 상호작용 방법
16 16
제11항에 있어서, 상기 증강현실 아바타의 행동을 추론하는 단계는, 객체들 사이의 관계가 정의된 정보와, 상기 사용자에 대해 사전에 학습된 정보가 저장된 온톨로지 데이터베이스를 이용하여, 인식된 사용자 주변의 실제 환경 정보와 상기 사용자의 정보와 관련된 적어도 하나의 데이터를 검색하는 단계를 포함하는 것인 증강현실 아바타 상호작용 방법
17 17
제11항에 있어서, 상기 증강현실 아바타의 행동을 추론하는 단계는,상기 증강현실 아바타가 동작하는 영역으로 정의된 공간과, 상기 공간 내에서 검출된 정적 객체 및 동적 객체를 이용하여 상기 증강현실 아바타에 대한 상호작용 맵(interaction map)을 생성하는 단계를 포함하는 것인 증강현실 아바타 상호작용 방법
18 18
제17항에 있어서, 상기 증강현실 아바타의 행동을 추론하는 단계는,상기 상호작용 맵에 기초하여 상기 증강현실 아바타의 위치 이동 계획(path planning)을 수행하는 단계를 더 포함하는 것인 증강현실 아바타 상호작용 방법
19 19
제17항에 있어서, 상기 증강현실 아바타의 행동을 추론하는 단계는, 상기 상호작용 맵에 기초하여 상기 증강현실 아바타의 행위 계획(motion planning)을 수행하는 단계를 더 포함하되, 상기 행위 계획은 상기 정적 객체와의 관계에서 상기 증강현실 아바타의 인간-객체(human-object) 기반 행동 추론과, 상기 동적 객체와의 관계에서 상기 증강현실 아바타의 인간-인간(human-human) 기반 행동 추론을 포함하는 것인 증강현실 아바타 상호작용 방법
20 20
제11항에 있어서, 상기 표현 동작 생성부에서 생성된 상기 증강현실 아바타의 표현 동작은 인식된 사용자 주변의 실제 환경 정보 및 상기 사용자의 정보에 대한 반응 동작을 포함하는 물리 기반 행동 표현과, 얼굴 표현과, 사전에 정의된 시나리오에 기반한 애니메이션 동작 표현을 포함하는 것인 증강현실 아바타 상호작용 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 舊지경부 ETRI 산업원천기술개발사업 실감 체험 공간 확장형 Live 4D 콘텐츠 플랫폼 기술 개발