맞춤기술찾기

이전대상기술

착용형 AR 장치를 위한 시선 추적 및 손동작 인식 기반 통합 인터페이스 방법 및 시스템

  • 기술번호 : KST2021008108
  • 담당센터 : 경기기술혁신센터
  • 전화번호 : 031-8006-1570
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 시선 추적 시스템과 손동작 인식 시스템을 통합하고, 최종적으로 착용형 AR 장치 어플리케이션과 시선 추적, 그리고 손동작 인식 시스템을 통합하는 통합 인터페이스 방법 및 시스템이 제공된다. 본 발명의 실시예에 따른 통합 인터페이스 방법은, 통합 인터페이스 시스템이, 사용자의 눈 및 전방(前方) 영상을 이용하여, 사용자의 시선 위치를 계산하는 단계; 통합 인터페이스 시스템이, 시선 위치 계산 결과를 기반으로, 커서를 이동 및 객체를 선택하는 단계; 통합 인터페이스 시스템이, 사용자의 손동작 데이터로부터, 손동작을 인식하는 단계; 및 통합 인터페이스 시스템이, 손동작 인식 결과를 기반으로 객체를 선택 및 조작하는 단계;를 포함하고, 이때, 선택 및 조작 단계는, 손동작 인식 결과에 따라 가상 객체의 확대, 축소 또는 회전에 대한 명령이 수행된다. 이에 의해, 실시간으로 사용자의 양쪽 동공 위치에 대한 정보와 손동작 인식 정보를 기반으로, 커서를 움직이고, 객체를 선택 및 조작할 수 있어, 착용형 AR 장치의 사용자에게 편의성을 제공할 수 있다.
Int. CL G06F 3/01 (2006.01.01) G06F 3/00 (2006.01.01)
CPC
출원번호/일자 1020200028278 (2020.03.06)
출원인 한국전자기술연구원
등록번호/일자
공개번호/일자 10-2021-0073429 (2021.06.18) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보 대한민국  |   1020190163487   |   2019.12.10
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 12

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자기술연구원 대한민국 경기도 성남시 분당구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 김성흠 서울특별시 강남구
2 김성제 서울특별시 송파구
3 이민호 서울특별시 송파구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 남충우 대한민국 서울 강남구 언주로 ***, *층(역삼동, 광진빌딩)(알렉스국제특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2020.03.06 수리 (Accepted) 1-1-2020-0240562-83
2 출원인정보변경(경정)신고서
Notification of change of applicant's information
2020.08.24 수리 (Accepted) 4-1-2020-5189497-57
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
통합 인터페이스 시스템이, 사용자의 눈 및 전방(前方) 영상을 이용하여, 사용자의 시선 위치를 계산하는 단계;통합 인터페이스 시스템이, 시선 위치 계산 결과를 기반으로, 커서를 이동 및 객체를 선택하는 단계;통합 인터페이스 시스템이, 사용자의 손동작 데이터로부터, 손동작을 인식하는 단계; 및통합 인터페이스 시스템이, 손동작 인식 결과를 기반으로 객체를 선택 및 조작하는 단계;를 포함하고,선택 및 조작 단계는,손동작 인식 결과에 따라 가상 객체의 확대, 축소 또는 회전에 대한 명령이 수행되는 것을 특징으로 하는 통합 인터페이스 방법
2 2
청구항 1에 있어서,손동작 인식 단계는,착용형 AR(Augmented Reality) 장치에서 하단 뷰를 향해 부착된 ToF 깊이 센서로부터 영상을 입력 받는 단계; 및입력받은 영상에서 손동작을 인식하는 단계;를 포함하는 것을 특징으로 하는 통합 인터페이스 방법
3 3
청구항 2에 있어서,선택 및 조작 단계는,손동작 인식 결과에 따라 가상 객체의 확대, 축소 및 회전 중 적어도 하나에 대응되는 조작 명령을 수행하되, 손동작의 지속 시간에 비례하여 가상 객체의 조작 정도(程度)가 결정되는 것을 특징으로 하는 통합 인터페이스 방법
4 4
청구항 3에 있어서,선택 및 조작 단계는,손동작 인식 결과가 'C' 모양인 경우, 가상 객체의 확대 명령이 수행되고,손동작 인식 결과가 '0' 모양인 경우, 가상 객체의 축소 명령이 수행되는 것을 특징으로 하는 통합 인터페이스 방법
5 5
청구항 3에 있어서,선택 및 조작 단계는,손동작 인식 결과가 엄지손가락을 왼쪽 혹은 오른쪽으로 향하는 동작인 경우, 엄지손가락의 방향에 따라 가상 객체가 회전하는 회전 명령이 수행되는 것을 특징으로 하는 통합 인터페이스 방법
6 6
청구항 1에 있어서,계산 단계는,착용형 AR장치에서 사용자 눈을 향해 부착된 카메라로부터 눈 영상을 입력 받는 단계;착용형 AR장치에서 사용자 전방을 향해 부착된 카메라로부터 전방 영상을 입력 받는 단계;입력받은 눈 영상에서 동공 중심을 추적하는 단계;입력받는 전방 영상과 동공 중심을 기반으로 기하학적 관계를 정의하는 사용자 캘리브레이션을 수행하는 단계; 및사용자 캘리브레이션으로 정의된 기하학적 관계와 현재 동공 중심 위치를 기반으로 현재 시선 위치를 계산하는 단계;를 포함하는 것을 특징으로 하는 통합 인터페이스 방법
7 7
청구항 6에 있어서,현재 시선 위치 계산 단계는, 사용자 캘리브레이션 수행 단계에서 시선 위치를 구하고자 하는 공간과 동공 움직임의 기하학적 관계를 정립하는 과정에서 타원을 중심으로 복수의 점들을 응시하는 작업이 수행되면, 복수의 시선 위치 계산 결과를 나타내는 복수의 커서가 생성되되, 각각의 커서 간 거리가 초점 인식 성공률에 따라 조정되어, 시선 추적 정확도가 임계치 미만인 경우 사용자 캘리브레이션 수행 단계가 재수행되도록 하는 것을 특징으로 하는 통합 인터페이스 방법
8 8
청구항 1에 있어서,통합 인터페이스 시스템이, 사용자의 손동작을 학습하는 단계;를 더 포함하는 것을 특징으로 하는 통합 인터페이스 방법
9 9
청구항 8에 있어서,학습 단계는,사용자만의 고유한 손동작을 신규 학습하는 단계; 및기존 학습 모델을 기반으로 고유 손동작을 추가 학습하는 단계;를 포함하는 것을 특징으로 하는 통합 인터페이스 방법
10 10
사용자의 눈 영상을 생성하는 제1 카메라;전방(前方) 영상을 생성하는 제2 카메라;사용자의 손동작 데이터를 수집하는 ToF 깊이 센서; 및제1 카메라를 통해 생성된 사용자의 눈 영상 및 제2 카메라를 통해 생성된 전방 영상을 이용하여 사용자의 시선 위치를 계산하고, 시선 위치 계산 결과를 기반으로, 커서를 이동 및 객체를 선택하며, ToF 깊이 센서를 통해 수집된 사용자의 손동작 데이터로부터, 손동작을 인식하고, 손동작 인식 결과를 기반으로 객체를 선택 및 조작하는 프로세서;를 포함하고, 프로세서는, 객체의 조작 시, 손동작 인식 결과에 따라 가상 객체의 확대, 축소 또는 회전에 대한 명령이 수행되도록 하는 것을 특징으로 하는 통합 인터페이스 시스템
11 11
통합 인터페이스 시스템이, 사용자의 눈 및 전방(前方) 영상을 이용하여, 사용자의 시선 위치를 계산하는 단계;통합 인터페이스 시스템이, 시선 위치 계산 결과를 기반으로, 커서를 이동 및 객체를 선택하는 단계;통합 인터페이스 시스템이, 사용자의 손동작 데이터로부터, 손동작을 인식하는 단계; 및통합 인터페이스 시스템이, 손동작 인식 결과를 기반으로 객체를 선택 및 조작하는 단계;를 포함하는 통합 인터페이스 방법
12 12
사용자의 눈 영상을 생성하는 제1 카메라;전방(前方) 영상을 생성하는 제2 카메라;사용자의 손동작 데이터를 수집하는 ToF 깊이 센서; 및제1 카메라를 통해 생성된 사용자의 눈 영상 및 제2 카메라를 통해 생성된 전방 영상을 이용하여 사용자의 시선 위치를 계산하고, 시선 위치 계산 결과를 기반으로, 커서를 이동 및 객체를 선택하며, ToF 깊이 센서를 통해 수집된 사용자의 손동작 데이터로부터, 손동작을 인식하고, 손동작 인식 결과를 기반으로 객체를 선택 및 조작하는 프로세서;를 포함하는 통합 인터페이스 시스템
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 과학기술정보통신부 전자부품연구원 범부처GigaKOREA사업(R&D) (4D실감-총괄/1세부)4D 복원 및 동적 변형 거동 모델 기반의 초실감 서비스 기술 개발