1 |
1
매 프레임마다 관측되는 사용자 행동의 관절 정보 및 사용자 주변 환경의 객체 정보를 검출하는 입력부;상기 입력부로부터 수신한 상기 관절 정보를 정규화 및 부호화하는 관절 정보 전처리부와, 상기 사용자 주변 환경을 구성하는 복수의 객체 정보 중 현재 프레임에서 사용자가 선택한 특정 객체 정보의 레이블을 검출하여 인공 신경망 처리가 가능하도록 전처리하는 객체 정보 전처리부로 구성된 전처리부;상기 전처리부에서 출력된 상기 관절 정보 및 상기 특정 객체 정보를 기초로, 현재 프레임에서의 사용자의 행동 정보를 분류하는 행동 인식 처리부;상기 전처리부에서 출력된 현재 프레임에서 사용자가 선택한 상기 특정 객체 정보 및 상기 행동 인식 처리부에서 출력된 현재 프레임에서의 사용자의 행동 정보를 자가 부호화망(auto-encoder network)을 통해 객체 관계를 모델링하여, 상기 복수의 객체 정보 중 다음 프레임에서 사용자가 선택할 것으로 예측되는 객체를 추정하여 이를 객체 후보군으로 출력하는 객체 관계 정보 처리부; 및상기 행동 인식 처리부에서 출력된 행동 정보 및 상기 객체 관계 정보 처리부에서 출력된 객체 후보군을 입력으로 하는 인공 신경망을 통해 사용자 의도 인식 결과를 출력하는 의도 출력부를 포함하되,상기 객체 관계 정보 처리부는,상기 객체 후보군을 이용하여 예측 노드와 숨겨진 계층 간의 가중치를 학습하고, 학습 결과에 따라 예측 노드와 숨겨진 계층 간의 가중치를 제외한 나머지 가중치를 재조정하여 누락된 객체를 재구성하는, 행동-인식 연결 학습 기반 의도 이해 장치
|
2 |
2
제1항에 있어서, 상기 입력부는,가시광선대 영상 센서 및 능동적 적외선 패턴 투사 센서 중 적어도 하나의 정보를 바탕으로, 사용자의 주요 관절의 이차원 또는 삼차원 위치 정보를 실시간으로 수집하는, 행동-인식 연결 학습 기반 의도 이해 장치
|
3 |
3
제2항에 있어서, 상기 입력부는,감지 영역 내에 사용자가 다수일 경우, 각 사용자의 행동 모델링 정보의 간섭을 피하기 위해 얼굴 인식 또는 추적 기능 중 적어도 하나를 수행하는, 행동-인식 연결 학습 기반 의도 이해 장치
|
4 |
4
삭제
|
5 |
5
제1항에 있어서, 상기 관절 정보 전처리부는,상기 입력부의 감지 영역 내에서 획득되는 절대 좌표 기반의 주요 관절 정보를 사용자 별 상대 좌표 표현으로 정규화하는 정규화부; 및자가 생성 맵(SOM; self-organizing map)을 사용하여 정규화된 상대 좌표 표현을 신경망 입력 방식으로 표현하는 부호화부를 포함하는, 행동-인식 연결 학습 기반 의도 이해 장치
|
6 |
6
삭제
|
7 |
7
제1항에 있어서, 상기 행동 인식 처리부는,상기 전처리부에서 출력된 상기 관절 정보 및 상기 특정 객체 정보를 회귀 신경망을 통해 모델링하여, 행동 인식이 가능하도록 인식 전용 노드를 지정하는, 행동-인식 연결 학습 기반 의도 이해 장치
|
8 |
8
제7항에 있어서, 상기 행동 인식 처리부는,실시간 처리 단계 및 시험 단계에서 주어진 입력에 대응하여 출력되는 인식 전용 노드를 학습할 때, 사용자 행동 벡터들과 비교하여 가장 가까운 행동을 추출하는, 행동-인식 연결 학습 기반 의도 이해 장치
|
9 |
9
삭제
|
10 |
10
제1항에 있어서,상기 사용자 행동의 관절 정보는, 척추 중반, 목, 머리, 어깨 왼쪽, 팔꿈치 왼쪽, 손목 왼쪽, 어깨 오른쪽, 팔꿈치 오른쪽, 손목 오른쪽, 엉덩이 왼쪽, 엉덩이 오른쪽 및 어깨(Spine Shoulder) 중 적어도 하나의 골격점이 사용되는, 행동-인식 연결 학습 기반 의도 이해 장치
|
11 |
11
행동-인식 연결 학습 기반 의도 이해 장치에 의해 수행되는 행동-인식 연결 학습 기반 의도 이해 방법에 있어서,상기 행동-인식 연결 학습 기반 의도 이해 장치가, 매 프레임마다 관측되는 사용자 행동의 관절 정보 및 사용자 주변 환경의 객체 정보를 검출하는 단계;상기 행동-인식 연결 학습 기반 의도 이해 장치가, 상기 관절 정보를 정규화 및 부호화하고, 상기 사용자 주변 환경을 구성하는 복수의 객체 정보 중 현재 프레임에서 사용자가 선택한 특정 객체 정보의 레이블을 검출하여 인공 신경망 처리가 가능하도록 전처리하는 전처리 단계;상기 행동-인식 연결 학습 기반 의도 이해 장치가, 상기 전처리 단계에서 출력된 상기 관절 정보 및 상기 특정 객체 정보를 기초로, 현재 프레임에서의 사용자의 행동 정보를 분류하는 행동 인식 처리 단계;상기 행동-인식 연결 학습 기반 의도 이해 장치가, 상기 전처리 단계에서 출력된 상기 특정 객체 정보 및 상기 행동 인식 처리 단계에서 출력된 행동 정보를 이용하여, 상기 복수의 객체 정보 중 다음 프레임에서 사용자가 선택할 것으로 예측되는 객체를 추정하여 이를 객체 후보군으로 출력하는 객체 관계 정보 처리 단계; 및상기 행동-인식 연결 학습 기반 의도 이해 장치가, 상기 행동 인식 처리 단계에서 출력된 행동 정보 및 상기 객체 관계 정보 처리 단계에서 출력된 객체 후보군을 입력으로 하는 인공 신경망을 통해 사용자 의도 인식 결과를 출력하는 의도 출력 단계를 포함하되,상기 객체 관계 정보 처리 단계에서, 상기 객체 후보군을 이용하여 예측 노드와 숨겨진 계층 간의 가중치를 학습하고, 학습 결과에 따라 예측 노드와 숨겨진 계층 간의 가중치를 제외한 나머지 가중치를 재조정하여 누락된 객체를 재구성하는 것을 더 포함하는, 행동-인식 연결 학습 기반 의도 이해 방법
|
12 |
12
제11항에 있어서, 상기 사용자 주변 환경의 객체 정보를 검출하는 단계는,가시광선대 영상 센서 및 능동적 적외선 패턴 투사 센서 중 적어도 하나의 정보를 바탕으로, 사용자의 주요 관절의 이차원 또는 삼차원 위치 정보를 실시간으로 수집하는, 행동-인식 연결 학습 기반 의도 이해 방법
|
13 |
13
제12항에 있어서, 상기 사용자 주변 환경의 객체 정보를 검출하는 단계는,감지 영역 내에 사용자가 다수일 경우, 각 사용자의 행동 모델링 정보의 간섭을 피하기 위해 얼굴 인식 또는 추적 기능 중 적어도 하나를 수행하는, 행동-인식 연결 학습 기반 의도 이해 방법
|
14 |
14
제11항에 있어서, 상기 전처리 단계는,감지 영역 내에서 획득되는 절대 좌표 기반의 주요 관절 정보를 사용자 별 상대 좌표 표현으로 정규화하는 단계; 및자가 생성 맵(SOM; self-organizing map)을 사용하여 정규화된 상대 좌표 표현을 신경망 입력 방식으로 표현하는 부호화 단계를 포함하는, 행동-인식 연결 학습 기반 의도 이해 방법
|
15 |
15
삭제
|
16 |
16
삭제
|
17 |
17
제11항에 있어서, 상기 행동 인식 처리 단계는,상기 전처리 단계에서 출력된 상기 관절 정보 및 상기 객체 정보를 회귀 신경망을 통해 모델링하여, 행동 인식이 가능하도록 인식 전용 노드를 지정하는, 행동-인식 연결 학습 기반 의도 이해 방법
|
18 |
18
제17항에 있어서, 상기 행동 인식 처리 단계는,실시간 처리 단계 및 시험 단계에서 주어진 입력에 대응하여 출력되는 인식 전용 노드를 학습할 때, 사용자 행동 벡터들과 비교하여 가장 가까운 행동을 추출하는, 행동-인식 연결 학습 기반 의도 이해 방법
|
19 |
19
삭제
|
20 |
20
제11항에 따른 행동-인식 연결 학습 기반 의도 이해 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체
|