1 |
1
입력되는 영상에 대해 배경 영상을 제외한 움직이는 전경 객체를 검출하는 전경 검출부; 상기 검출한 전경 객체에 대한 실루엣 외부 윤곽선을 추출하는 윤곽선 추출부; 상기 추출된 실루엣 외부 윤곽선 신호에 대해 분할된 다중 서브 대역별로 웨이브렛 필터링을 수행하여 추출된 특징점들을 코너점들로 하고, 상기 코너점들에 대해 구성한 히스토그램인 코너 히스토그램을 생성하는 코너 히스토그램 생성부; 입력되는 영상에서 객체의 자세를 판별하기 위한 기준 설정시, 상기 전경 검출부 및 상기 윤곽선 추출부를 이용해 미리 만들어진 다수의 실루엣 윤곽선 샘플데이터를 상기 코너 히스토그램 생성부로 전달하고, 상기 코너 히스토그램 생성부에서 생성된 상기 미리 만들어진 다수의 실루엣 윤곽선 샘플데이터의 코너 히스토그램을 각 자세별로 누적하고, 누적한 코너 히스토그램의 평균값을 계산하여 평균값 히스토그램 모델을 구축하는 모델 생성부; 및 실시간으로 입력되는 영상에서 객체의 자세 판정시, 상기 코너 히스토그램 생성부에서 생성되는 현재 프레임의 코너점들에 대한 히스토그램과 상기 모델 생성부에서 사전에 생성된 평균값 히스토그램 모델에 대해 히스토그램 단위로 유사도를 계산하여 현재 프레임에서 계산된 히스토그램과 유사도가 최대가 되는 값을 측정하여 상기 객체의 현재 프레임에 대한 자세로 판정하는 최대 유사도 측정부를 포함하는 것을 특징으로 하는 대상체 행동 분석 시스템
|
2 |
2
제 1항에 있어서, 상기 전경 검출부에서 검출된 전경 객체 영상으로부터 잡음 영상을 제거하여 상기 윤곽선 추출부로 출력하는 필터를 더 포함하는 것을 특징으로 하는 대상체 행동 분석 시스템
|
3 |
3
제 2항에 있어서, 상기 필터는 저역통과필터 또는 형태학적 필터가 적용되는 것을 특징으로 하는 대상체 행동 분석 시스템
|
4 |
4
제 1항 또는 제 2항에 있어서, 상기 전경 검출부 전단에 배치되어 입력되는 영상의 프레임들에 대해 혼합가우시안 배경을 생성하여 상기 전경 검출부로 출력하는 배경 모델 관리부를 더 포함하며, 상기 전경 검출부는 상기 배경 모델 관리부에서 출력된 혼합가우시안 배경 모델의 배경과 실시간으로 입력되는 동영상 프레임 간의 차를 이용해 정지된 배경에서 움직임을 갖는 상기 전경 객체를 검출하는 것을 특징으로 하는 대상체 행동 분석 시스템
|
5 |
5
제 4항에 있어서, 입력되는 실시간 동영상 프레임들을 상기 혼합 가우시안 배경 생성을 위해 초기화하여 상기 배경 모델 관리부로 출력하는 영상 초기화부를 더 포함하는 것을 특징으로 하는 대상체 행동 분석 시스템
|
6 |
6
제 5항에 있어서, 카메라를 통해 실시간으로 동영상 스트림을 촬영하여 상기 영상 초기화부 및 상기 전경 검출부로 출력하는 카메라부를 더 포함하는 것을 특징으로 하는 대상체 행동 분석 시스템
|
7 |
7
제 1항에 있어서, 상기 코너점들은 상기 객체의 머리, 손, 다리, 겨드랑이, 어깨, 및 무릎 중 적어도 하나를 포함하는 것을 특징으로 하는 대상체 행동 분석 시스템
|
8 |
8
제 1항에 있어서, 상기 모델 생성부에서 생성한 상기 객체의 각 자세별 평균값 히스토그램 모델을 저장하는 저장부를 더 포함하는 것을 특징으로 하는 대상체 행동 분석 시스템
|
9 |
9
제 8항에 있어서, 상기 객체의 자세는 서있는 자세, 앉아있는 자세, 및 누워 있는 자세 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 대상체 행동 분석 시스템
|
10 |
10
제 8항에 있어서, 상기 모델 생성부는, 상기 객체의 자세들 및 각 자세의 정면, 좌우 양측면, 및 뒷면 자세별로 실루엣 윤곽선 샘플데이터를 수집하여 상기 코너 히스토그래프 생성부로 전달하는 실루엣 윤곽 수집부; 및 상기 실루엣 윤곽선 샘플데이터에 대한 코너 히스토그램을 누적하여 상기 객체의 자세들 및 각 자세의 정면, 좌우 양측면, 및 뒷면 자세들에 대한 평균값을 산출하여 구한 평균값 히스토그램 모델을 상기 저장부에 저장하는 평균 값 계산부를 포함하는 것을 특징으로 하는 대상체 행동 분석 시스템
|
11 |
11
제 8항에 있어서, 상기 코너 히스토그램 생성부는, 상기 윤곽선 추출부에서 입력되는 실루엣 객체 윤곽선 영상에 대해 상기 실루엣의 무게 중심점을 계산하는 무게중심 계산부; 상기 무게 중심점으로부터 상기 윤곽선의 첫 출발점으로부터 전체 윤곽선을 따라 유클리디안 거리를 계산하는 유클리디안 거리 산출부; 상기 유클리디안 거리 정보를 다중 서브 대역으로 분할하는 다중 대역 웨이브렛 필터; 및 상기 분할된 다중 서브 대역의 신호들에 대해 상기 코너값의 위치가 변하지 않는 코너점들만 추출하여 코너 히스토그램을 생성하는 다중 대역 코너히스토그램 생성부를 포함하는 것을 특징으로 하는 대상체 행동 분석 시스템
|
12 |
12
제 11항에 있어서, 상기 다중 대역 웨이브렛 필터는 상기 유클리디안 거리 정보를 8개의 다중 서브 대역으로 분할하는 것을 특징으로 하는 대상체 행동 분석 시스템
|
13 |
13
실시간으로 동영상 스트림을 수집하는 단계; 상기 수집한 동영상 스트림으로부터 정지된 배경에서 움직임을 갖는 전경 객체 영상을 검출하는 단계; 상기 검출한 전경 객체 영상으로부터 잡음을 제거하기 위해 필터링을 수행하는 단계; 상기 잡음 제거 필터링이 수행된 객체 실루엣 영상에 대해, 실루엣 외곽의 윤곽선들을 추출하는 단계; 상기 추출된 윤곽선 신호로부터 분할된 다중 서브 대역별로 웨이브렛 필터링을 수행하여 추출된 특징점인 코너점들에 대해 구성한 히스토그램을 코너 히스토그램으로 생성하는 단계; 상기 생성한 현재 프레임의 코너 히스토그램과 미리 구해진 각 자세별로 누적된 코너 히스토그램의 평균값을 계산하여 구한 평균값 히스토그램 모델을 히스토그램 단위로 유사도를 계산하여 현재 프레임에서 계산된 히스토그램과 유사도가 최대가 되는 값을 측정하는 단계; 및 상기 측정된 최대 유사도의 히스토그램을 상기 객체의 현재 프레임 자세로 판단하는 단계를 포함하는 것을 특징으로 하는 실루엣 기반 대상체 영상을 이용한 대상체 행동 분석 방법
|
14 |
14
제 13항에 있어서, 실시간으로 입력되는 실루엣 영상에서 상기 객체의 행동을 판별하기 위한 기준으로 상기 평균값 히스토그램 모델을 생성하는 단계;를 상기 실시간으로 동영상 스트림을 수집하는 단계 이전에 수행하고, 상기 평균값 히스토그램 모델 생성 단계는, 기녹화된 샘플데이터에서 상기 객체의 각 자세별 실루엣 윤곽 영상정보를 수집하는 단계; 상기 수집된 영상 정보에 대해 생성된 코너 히스토그램을 상기 객체의 각 자세별로 누적하는 단계; 상기 누적된 코너 히스토그램을 상기 객체의 각 자세별로 평균값을 산출하는 단계; 및 상기 산출된 각 자세별 평균값을 상기 평균값 히스토그램 모델로 저장하는 단계를 포함하는 것을 특징으로 하는 실루엣 기반 대상체 영상을 이용한 대상체 행동 분석 방법
|
15 |
15
제 13항에 있어서, 상기 객체의 자세는 상기 객체의 서있는 자세, 앉아있는 자세, 및 누워 있는 자세 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 실루엣 기반 대상체 영상을 이용한 대상체 행동 분석 방법
|
16 |
16
제 15항에 있어서, 상기 객체의 자세는 상기 객체의 각 자세별 정면, 좌우 양측면, 및 뒷면 자세 영상 중 적어도 하나를 더 포함하는 것을 특징으로 하는 실루엣 기반 대상체 영상을 이용한 대상체 행동 분석 방법
|
17 |
17
제 13항에 있어서, 상기 코너점들은 상기 객체의 머리, 손, 다리, 겨드랑이, 어깨, 및 무릎 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 실루엣 기반 대상체 영상을 이용한 대상체 행동 분석 방법
|
18 |
18
제 13항에 있어서, 상기 코너 히스토그램 생성 단계는, 상기 실루엣 객체 윤곽선 영상에 대해 무게 중심점을 계산하는 단계; 상기 무게 중심점으로부터 상기 윤곽선의 첫 출발점으로부터 전체 윤곽선을 따라 유클리디안 거리를 계산하는 단계; 상기 유클리디안 거리 신호를 다중 대역 웨이브렛 필터링을 통해 다중 서브대역으로 분할하는 단계; 및 상기 필터링된 다중 대역의 신호들에 대해 적어도 23 스케일까지 코너값의 위치가 변하지 않는 코너점들만 추출하여 상기 코너 히스토그램을 생성하는 단계를 포함하는 것을 특징으로 하는 실루엣 기반 대상체 영상을 이용한 대상체 행동 분석 방법
|