1 |
1
가상화 환경에서 사용자가 시스템과 직접 상호작용할 수 있는 NUI(Natural User Interface)를 구현하는 방법에 있어서,시뮬레이터(simulator)가 상기 가상화 환경 내에 위치하는 가상화 캐릭터에 대한 명령을 입력받는 단계;상기 시뮬레이터가 상기 가상화 환경 내에 위치하는 동작감지객체를 이용하여 상기 명령에 따른 상기 가상화 캐릭터의 몸동작, 얼굴, 손동작 및 음성 중 적어도 하나의 행동에 대한 패턴을 인식하는 단계; 및가상화 캐릭터의 행동에 대한 하나의 패턴 또는 복수 개의 패턴조합과 상기 패턴의 의미를 나타내는 하나의 NUI 명령이 대응되도록 맵핑된 맵핑정보를 이용하여 상기 시뮬레이터가 상기 인식된 가상화 캐릭터의 패턴에 대응하는 NUI 명령을 출력하는 단계를 포함하되,상기 동작감지객체가 상기 가상화 환경 내에서 물리적인 상관관계에 기초하여 상기 가상화 캐릭터의 몸동작 및 음성을 인식함으로써, 상기 출력된 NUI 명령을 수행하기 위해 NUX(Natural User eXperience) 기기 객체를 상기 가상화 환경 내에 배치하거나 방향을 조정하는 NUX 설정을 시뮬레이션(simulation) 하는 것을 특징으로 하는 방법
|
2 |
2
제 1 항에 있어서,상기 동작감지객체는 3D 센서, 2D 카메라, 및 마이크로 구성되며,상기 가상화 캐릭터의 행동에 대한 패턴을 인식하는 단계는,상기 명령에 따른 가상화 캐릭터의 몸동작 및 음성을 상기 동작감지객체를 이용하여 인식함으로써, 객체 데이터인 깊이 데이터, 색상 데이터, 및 음향 데이터를 각각 획득하는 단계; 및상기 획득한 객체 데이터 중 하나 또는 둘 이상의 조합으로부터 상기 가상화 캐릭터의 세부 동작을 구분할 수 있는 요소기술 모듈을 이용하여 상기 가상화 캐릭터의 패턴을 인식하는 단계를 포함하되,상기 요소기술 모듈은, 상기 깊이 데이터 및 색상 데이터를 통해 상기 가상화 캐릭터의 몸동작 패턴 및 상기 가상화 캐릭터의 얼굴 패턴을 인식하고, 상기 깊이 데이터를 통해 상기 가상화 캐릭터의 손동작 패턴을 인식하며, 상기 음향 데이터를 통해 상기 가상화 캐릭터의 음성을 인식하는 것을 특징으로 하는 방법
|
3 |
3
제 2 항에 있어서,상기 인식된 패턴은,상기 각각의 요소기술 모듈의 인식 결과로서 인식 결과 표시 창에 각각 출력하며, 상기 각각의 요소기술 모듈 중 상기 패턴 인식에 오류가 발생할 경우, 상기 오류가 발생한 요소기술 모듈의 상기 인식 결과 창에 오류 메시지를 발생시킴으로써, 상기 동작감지객체의 세부 설정을 재조정하도록 유도하는 것을 특징으로 하는 방법
|
4 |
4
제 1 항에 있어서,상기 가상화 캐릭터에 대한 명령을 입력하는 단계는,상기 가상화 환경 내에 위치하는 가상화 캐릭터에 대하여 캐릭터 조정 모듈을 통해 몸동작, 얼굴 표정, 및 음성을 입력하는 단계를 포함하는 방법
|
5 |
5
제 1 항에 있어서,상기 가상화 캐릭터 및 상기 동작감지객체는 상기 가상화 환경 내에서 위치 조정이 가능하도록 배치되는 것을 특징으로 하는 방법
|
6 |
6
삭제
|
7 |
7
제 1 항 내지 제 5 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
|
8 |
8
가상화 환경에서 사용자가 시스템과 직접 상호작용할 수 있는 NUI를 구현하는 장치에 있어서,상기 가상화 환경 내에 위치하는 가상화 캐릭터에 대한 명령을 입력받는 입력부;상기 가상화 환경 내에 위치하는 동작감지객체를 이용하여 상기 명령에 따른 상기 가상화 캐릭터의 몸동작, 얼굴, 손동작 및 음성 중 적어도 하나의 행동에 대한 패턴을 인식하고, 가상화 캐릭터의 행동에 대한 하나의 패턴 또는 복수 개의 패턴조합과 상기 패턴의 의미를 나타내는 하나의 NUI 명령이 대응되도록 맵핑된 맵핑정보를 이용하여 상기 인식된 가상화 캐틱터의 패턴을 검색하는 처리부; 및상기 검색된 패턴에 대응하는 NUI 명령을 출력하는 출력부를 포함하되,상기 동작감지객체가 상기 가상화 환경 내에서 물리적인 상관관계에 기초하여 상기 가상화 캐릭터의 몸동작 및 음성을 인식함으로써, 상기 출력된 NUI 명령을 수행하기 위해 NUX 기기 객체를 상기 가상화 환경 내에 배치하거나 방향을 조정하는 NUX 설정을 시뮬레이션하는 것을 특징으로 하는 장치
|
9 |
9
제 8 항에 있어서,상기 처리부는,상기 명령에 따른 가상화 캐릭터의 몸동작 및 음성을 상기 동작감지객체를 이용하여 인식함으로써, 객체 데이터인 깊이 데이터, 색상 데이터, 및 음향 데이터를 각각 획득하고, 상기 획득한 객체 데이터 중 하나 또는 둘 이상의 조합으로부터 상기 가상화 캐릭터의 세부 동작을 구분할 수 있는 요소기술 모듈을 이용하여 상기 가상화 캐릭터의 패턴을 인식하되,상기 요소기술 모듈은, 상기 깊이 데이터 및 색상 데이터를 통해 상기 가상화 캐릭터의 몸동작 패턴 및 상기 가상화 캐릭터의 얼굴 패턴을 인식하고, 상기 깊이 데이터를 통해 상기 가상화 캐릭터의 손동작 패턴을 인식하며, 상기 음향 데이터를 통해 상기 가상화 캐릭터의 음성을 인식하는 것을 특징으로 하는 장치
|
10 |
10
제 9 항에 있어서,상기 인식된 패턴은,상기 각각의 요소기술 모듈의 인식 결과로서 인식 결과 표시 창에 각각 출력하며, 상기 각각의 요소기술 모듈 중 상기 패턴 인식에 오류가 발생할 경우, 상기 오류가 발생한 요소기술 모듈의 상기 인식 결과 창에 오류 메시지를 발생시킴으로써, 상기 동작감지객체의 세부 설정을 재조정하도록 유도하는 것을 특징으로 하는 장치
|
11 |
11
제 8 항에 있어서,상기 입력부는,상기 가상화 환경 내에 위치하는 가상화 캐릭터에 대하여 캐릭터 조정 모듈을 통해 몸동작, 얼굴 표정, 및 음성을 입력하는 것을 특징으로 하는 장치
|
12 |
12
삭제
|