1 |
1
사용자의 손을 감지하는 센싱부;상기 센싱부의 감지 결과를 이용해서 상기 손의 제1 위치를 추적하는 트래킹부;를 포함하고,상기 트래킹부는 상기 사용자가 시청하는 화면에 표시되는 오브젝트의 제2 위치를 입수하며,상기 트래킹부는 상기 제1 위치와 상기 제2 위치를 이용해서 상기 손과 상기 오브젝트의 상호작용 가능 여부를 판별하는 훈련 장치
|
2 |
2
제1항에 있어서,상기 화면에 상기 오브젝트가 포함된 재활 콘텐츠를 표시하는 미디어부가 마련되고,상기 미디어부는 상기 트래킹부로부터 상기 상호작용 가능 여부에 대한 판별 결과를 입수하며,상기 미디어부는 상기 판별 결과에 따라 상기 오브젝트를 변화시키는 훈련 장치
|
3 |
3
제1항에 있어서,제1 통신 수단, 제1 추적 수단, 제2 통신 수단, 제2 추적 수단, 판별 수단이 마련되고,상기 제1 통신 수단은 상기 센싱부로부터 깊이 정보를 수신하며,상기 제1 추적 수단은 상기 깊이 정보를 이용해서 상기 제1 위치를 추적하고,상기 제2 통신 수단은 상기 오브젝트를 획득하고,상기 제2 추적 수단은 상기 제2 위치를 추적하며,상기 판별부는 상기 제1 위치와 상기 제2 위치를 이용해서 상기 상호작용 가능 여부를 판별하는 훈련 장치
|
4 |
4
제1항에 있어서,상기 트래킹부는 상기 센싱부로부터 상기 손을 촬영한 영상 데이터를 입수하고,상기 트래킹부는 상기 화면에 상기 오브젝트가 포함된 재활 콘텐츠를 표시하는 미디어부에 상기 제1 위치와 함께 상기 영상 데이터를 제공하는 훈련 장치
|
5 |
5
제1항에 있어서,상기 트래킹부는 상기 화면에 형성된 가상 공간에서 기준 좌표를 추가로 입수하고,상기 트래킹부는 상기 기준 좌표를 이용해서 상기 가상 공간에서 상기 제1 위치를 특정하며,상기 트래킹부는 상기 기준 좌표를 기준으로 상기 제1 위치와 상기 제2 위치 간의 거리를 이용해서 상기 상호작용 가능 여부를 판별하는 훈련 장치
|
6 |
6
제5항에 있어서,상기 트래킹부는 상기 센싱부로부터 상기 사용자의 눈의 위치에 해당하는 제3 위치를 추가로 입수하고,상기 트래킹부는 상기 제3 위치를 이용해서 상기 상호 가능 여부의 판별 결과를 보정하며,상기 트래킹부는 상기 제3 위치를 이용해서 상기 제2 위치를 상기 사용자의 손 영역 범위 내에서 조정하는 훈련 장치
|
7 |
7
훈련 장치에 의해 수행되는 훈련 방법에 있어서,사용자의 손의 위치에 해당하는 제1 위치, 가상 공간에 표시되는 오브젝트의 위치에 해당하는 제2 위치 및 상기 가상 공간의 기준 위치를 입수하는 입수 단계;상기 기준 위치를 이용해서 상기 제1 위치를 상기 가상 공간 상에 배치하고, 상기 제1 위치와 상기 제2 위치의 상호작용 여부를 판별하는 판별 단계;상기 가상 공간을 생성하는 미디어부에 상기 상호작용 여부의 판별 결과를 제공하는 제공 단계;를 포함하는 훈련 방법
|