1 |
1
통합 인터페이스 시스템이, 사용자의 눈 및 전방(前方) 영상을 이용하여, 사용자의 시선 위치를 계산하는 단계;통합 인터페이스 시스템이, 시선 위치 계산 결과를 기반으로, 커서를 이동 및 객체를 선택하는 단계;통합 인터페이스 시스템이, 사용자의 손동작 데이터로부터, 손동작을 인식하는 단계; 및통합 인터페이스 시스템이, 손동작 인식 결과를 기반으로 객체를 선택 및 조작하는 단계;를 포함하고,선택 및 조작 단계는,손동작 인식 결과에 따라 가상 객체의 확대, 축소 또는 회전에 대한 명령이 수행되는 것을 특징으로 하는 통합 인터페이스 방법
|
2 |
2
청구항 1에 있어서,손동작 인식 단계는,착용형 AR(Augmented Reality) 장치에서 하단 뷰를 향해 부착된 ToF 깊이 센서로부터 영상을 입력 받는 단계; 및입력받은 영상에서 손동작을 인식하는 단계;를 포함하는 것을 특징으로 하는 통합 인터페이스 방법
|
3 |
3
청구항 2에 있어서,선택 및 조작 단계는,손동작 인식 결과에 따라 가상 객체의 확대, 축소 및 회전 중 적어도 하나에 대응되는 조작 명령을 수행하되, 손동작의 지속 시간에 비례하여 가상 객체의 조작 정도(程度)가 결정되는 것을 특징으로 하는 통합 인터페이스 방법
|
4 |
4
청구항 3에 있어서,선택 및 조작 단계는,손동작 인식 결과가 'C' 모양인 경우, 가상 객체의 확대 명령이 수행되고,손동작 인식 결과가 '0' 모양인 경우, 가상 객체의 축소 명령이 수행되는 것을 특징으로 하는 통합 인터페이스 방법
|
5 |
5
청구항 3에 있어서,선택 및 조작 단계는,손동작 인식 결과가 엄지손가락을 왼쪽 혹은 오른쪽으로 향하는 동작인 경우, 엄지손가락의 방향에 따라 가상 객체가 회전하는 회전 명령이 수행되는 것을 특징으로 하는 통합 인터페이스 방법
|
6 |
6
청구항 1에 있어서,계산 단계는,착용형 AR장치에서 사용자 눈을 향해 부착된 카메라로부터 눈 영상을 입력 받는 단계;착용형 AR장치에서 사용자 전방을 향해 부착된 카메라로부터 전방 영상을 입력 받는 단계;입력받은 눈 영상에서 동공 중심을 추적하는 단계;입력받는 전방 영상과 동공 중심을 기반으로 기하학적 관계를 정의하는 사용자 캘리브레이션을 수행하는 단계; 및사용자 캘리브레이션으로 정의된 기하학적 관계와 현재 동공 중심 위치를 기반으로 현재 시선 위치를 계산하는 단계;를 포함하는 것을 특징으로 하는 통합 인터페이스 방법
|
7 |
7
청구항 6에 있어서,현재 시선 위치 계산 단계는, 사용자 캘리브레이션 수행 단계에서 시선 위치를 구하고자 하는 공간과 동공 움직임의 기하학적 관계를 정립하는 과정에서 타원을 중심으로 복수의 점들을 응시하는 작업이 수행되면, 복수의 시선 위치 계산 결과를 나타내는 복수의 커서가 생성되되, 각각의 커서 간 거리가 초점 인식 성공률에 따라 조정되어, 시선 추적 정확도가 임계치 미만인 경우 사용자 캘리브레이션 수행 단계가 재수행되도록 하는 것을 특징으로 하는 통합 인터페이스 방법
|
8 |
8
청구항 1에 있어서,통합 인터페이스 시스템이, 사용자의 손동작을 학습하는 단계;를 더 포함하는 것을 특징으로 하는 통합 인터페이스 방법
|
9 |
9
청구항 8에 있어서,학습 단계는,사용자만의 고유한 손동작을 신규 학습하는 단계; 및기존 학습 모델을 기반으로 고유 손동작을 추가 학습하는 단계;를 포함하는 것을 특징으로 하는 통합 인터페이스 방법
|
10 |
10
사용자의 눈 영상을 생성하는 제1 카메라;전방(前方) 영상을 생성하는 제2 카메라;사용자의 손동작 데이터를 수집하는 ToF 깊이 센서; 및제1 카메라를 통해 생성된 사용자의 눈 영상 및 제2 카메라를 통해 생성된 전방 영상을 이용하여 사용자의 시선 위치를 계산하고, 시선 위치 계산 결과를 기반으로, 커서를 이동 및 객체를 선택하며, ToF 깊이 센서를 통해 수집된 사용자의 손동작 데이터로부터, 손동작을 인식하고, 손동작 인식 결과를 기반으로 객체를 선택 및 조작하는 프로세서;를 포함하고, 프로세서는, 객체의 조작 시, 손동작 인식 결과에 따라 가상 객체의 확대, 축소 또는 회전에 대한 명령이 수행되도록 하는 것을 특징으로 하는 통합 인터페이스 시스템
|
11 |
11
통합 인터페이스 시스템이, 사용자의 눈 및 전방(前方) 영상을 이용하여, 사용자의 시선 위치를 계산하는 단계;통합 인터페이스 시스템이, 시선 위치 계산 결과를 기반으로, 커서를 이동 및 객체를 선택하는 단계;통합 인터페이스 시스템이, 사용자의 손동작 데이터로부터, 손동작을 인식하는 단계; 및통합 인터페이스 시스템이, 손동작 인식 결과를 기반으로 객체를 선택 및 조작하는 단계;를 포함하는 통합 인터페이스 방법
|
12 |
12
사용자의 눈 영상을 생성하는 제1 카메라;전방(前方) 영상을 생성하는 제2 카메라;사용자의 손동작 데이터를 수집하는 ToF 깊이 센서; 및제1 카메라를 통해 생성된 사용자의 눈 영상 및 제2 카메라를 통해 생성된 전방 영상을 이용하여 사용자의 시선 위치를 계산하고, 시선 위치 계산 결과를 기반으로, 커서를 이동 및 객체를 선택하며, ToF 깊이 센서를 통해 수집된 사용자의 손동작 데이터로부터, 손동작을 인식하고, 손동작 인식 결과를 기반으로 객체를 선택 및 조작하는 프로세서;를 포함하는 통합 인터페이스 시스템
|