1 |
1
영상 획득부로부터 입력된 인체 행위가 캡쳐된 깊이 맵 정보에 대해 전처리를 수행하여, 노이즈가 제거된 인체 영역을 추출하는 단계;상기 인체 영역을 다수의 인체 부위로 분류하는 단계;상기 다수의 인체 부위 각각의 관절 위치 좌표를 정의하는 단계;상기 관절 위치 좌표의 변위량을 기반으로 관절 특성 정보를 추출하는 단계; 및사전에 정의된 인체 행위 데이터베이스에서 상기 추출된 관절 특성 정보에 매칭되는 인체 행위 정보를 검색하고, 상기 깊이 맵 정보에 캡쳐된 인체 행위를 상기 검색된 인체 행위 정보에 정의된 인체 행위로 인지하는 단계를 포함하는 인체 행위 인지 방법
|
2 |
2
제1항에서, 상기 분류하는 단계는,인체 영역과 인체 부위 간의 상호 관련성을 학습한 분류 모델을 이용하여 상기 인체 영역을 다수의 인체 부위로 분류하는 단계인 것인 인체 행위 인지 방법
|
3 |
3
제2항에서, 상기 분류 모델은,컨볼루션 신경망(CNN, Convolutional Neural Network) 구조의 학습기법에 따라 학습 데이터를 학습하는 것인 인체 행위 인지 방법
|
4 |
4
제2항에서, 상기 분류 모델은,인체의 외관 형상 별로 인체 부위가 분류된 학습 데이터를 학습하는 것인 인체 행위 인지 방법
|
5 |
5
제1항에서, 상기 관절 위치 좌표를 정의하는 단계는,Mean Shift 기법의 밀도 추정자(Density Estimator)를 이용하여, 상기 다수의 인체 부위 각각의 관절 위치 좌표를 정의하는 단계인 것인 인체 행위 인지 방법
|
6 |
6
제1항에서, 상기 분류하는 단계는,상기 인체 영역을 M개의 인체 부위로 분류하는 단계이고,상기 관절 위치 좌표를 정의하는 단계는,상기 M개로 분류된 인체 부위를 N(여기서, N은 M보다 작은 자연수)개로 다시 분류하는 단계; 및상기 N개로 분류된 인체 부위 각각의 관절 위치 좌표를 정의하는 단계를 포함하는 것인 인체 행위 인지 방법
|
7 |
7
제1항에서, 상기 관절 특성 정보를 추출하는 단계는,이전 프레임에서 이전 관절 위치 좌표와 현재 프레임에서 상기 이전 관절 위치 좌표에 대응하는 현재 관절 위치 좌표 간의 변위량을 벡터 형태로 나타내는 특징 벡터를 계산하는 단계; 및상기 계산한 특징 벡터를 상기 관절 특성 정보로서 추출하는 단계를 포함하는 것인 인체 행위 인지 방법
|
8 |
8
영상 획득부로부터 입력된 인체 행위가 캡쳐된 깊이 맵 정보에 대해 전처리를 수행하여, 노이즈가 제거된 인체 영역을 추출하는 전처리부;상기 인체 영역을 다수의 인체 부위로 분류하는 분류부;상기 다수의 인체 부위 각각의 관절 위치 좌표를 정의하는 좌표 설정부;상기 관절 위치 좌표의 변위량을 기반으로 관절 특성 정보를 추출하는 추출부; 및사정에 정의된 인체 행위 데이터베이스에서 상기 추출된 관절 특성 정보에 매칭되는 인체 행위 정보를 검색하고, 상기 깊이 맵 정보에 캡쳐된 인체 행위를 상기 인체 행위 데이터베이스에서 검색된 인체 행위 정보에 정의된 인체 행위로 인지하는 인체 행위 매칭 엔진을 포함하는 인체 행위 인지 장치
|
9 |
9
제8항에서, 상기 분류부는,인체 영역과 인체 부위 간의 상호 관련성을 학습한 분류 모델을 이용하여 상기 인체 영역을 다수의 인체 부위로 분류하는 것인 인체 행위 인지 장치
|
10 |
10
제8항에서, 상기 분류 모델은,인체 영역과 인체 부위 간의 상호 관련성을 학습하기 위해, 인체의 외관 형상 별로 인체 부위가 분류된 학습 데이터를 학습하는 것인 인체 행위 인지 장치
|
11 |
11
제8항에서, 상기 좌표 설정부는,Mean Shift 기법의 밀도 추정자(Density Estimator)를 이용하여, 상기 다수의 인체 부위 각각의 관절 위치 좌표를 정의하는 것인 인체 행위 인지 장치
|
12 |
12
제8항에서, 상기 추출부는,이전 프레임에서 이전 관절 위치 좌표와 현재 프레임에서 상기 이전 관절 위치 좌표에 대응하는 현재 관절 위치 좌표 간의 변위량을 벡터 형태로 나타내는 특징 벡터를 계산하고, 상기 계산한 특징 벡터를 상기 관절 특성 정보로서 추출하는 것인 인체 행위 인지 장치
|