3
사용자가 손 제스처 명령을 시작함에 따라 센서 장갑으로부터 많은 손의 움직임에 대한 연속적인 표본 데이터가 시스템으로 입력되는 단계와, 상기 입력된 손의 움직임에 대한 연속적인 표본 데이터를 방향 정보와 손의 굽힘에 대한 모양 정보의 두 정보로 분배하는 단계와, 상기 입력된 손의 움직임의 정보 중 방향 정보의 특징을 추출하는 단계와, 상기 추출된 데이터를 이용하여 연속적인 손의 움직임들 중에서 3차원 공간상에 이미 정의되어 있는 의미있는 손 제스처 명령을 분리하기 위해 상태 오토마타 이론을 이용하여 동작을 분리하는 단계와, 상기 추출된 특징과 동작의 시작부터 끝까지의 손 움직임에 대한 정보를 사용하여 퍼지 규칙에 의해 추론을 실행하여 손의 방향을 분류하는 단계와, 상기 입력된 손의 움직임의 정보 중 모양 정보를 퍼지 최대-최소 신경망 분류기에 넣어서 이미 정의된 손의 모양 중에서 현재 손의 모양의 소속 정도를 판단하여 손의 모양을 분류하는 단계와, 상기 분류한 손의 방향과 손의 모양을 결합하여 이미 정의된 손 제스처 명령과 일치하는 동작으로 최종 분류하는 단계를 포함하여 이루어진 것을 특징으로 하는 가상현실용 실시간 인터페이싱 시스템의 동작 방법
|