1 |
1
로봇의 전방에 대한 영상을 획득하는 영상획득부;상기 영상획득부에 의해 획득된 영상으로부터 객체를 검출하는 객체 검출부;상기 객체 검출부에 의해 검출된 객체에 대하여 상기 로봇과의 거리 및 움직임방향을 포함하는 움직임패턴을 계산하는 움직임패턴 계산부;상기 움직임패턴 계산부에 의해 계산된 움직임패턴을 저장하는 움직임패턴 저장부; 및상기 영상획득부에 의해 현재 획득되는 영상에서 상기 객체가 사라진 경우, 상기 움직임패턴 저장부에 저장된 상기 객체에 대한 움직임패턴에 기초하여 상기 객체의 현재의 위치를 계산하는 현재위치 계산부;를 포함하며, 상기 현재위치 계산부에 의해 계산된 현재의 위치에 기반하여 상기 영상획득부를 이동하여 상기 객체에 대한 추적을 수행하고,상기 현재위치 계산부는상기 영상획득부에 의해 현재 획득되는 영상에서 상기 객체의 얼굴영역 및 몸통영역이 검출되지 않은 경우, 상기 객체가 사라진 것으로 판단하고, 상기 움직임패턴 저장부에 저장된 이전의 최종 추적영역 주변에서의 다리 패턴을 검출하고, 상기 다리 패턴에 기초하여 현재의 객체의 위치를 판단하는 것을 특징으로 하는 로봇을 이용한 객체추적 시스템
|
2 |
2
제 1항에 있어서, 상기 객체 검출부는,단위시간 동안 획득되는 영상의 프레임을 저장하는 영상프레임 저장부; 및상기 영상프레임 저장부에 저장된 영상프레임과 현재 획득되는 영상프레임을 비교하여 움직임 객체를 추출하는 움직임객체 추출부;를 포함하는 것을 특징으로 하는 로봇을 이용한 객체추적 시스템
|
3 |
3
제 1항에 있어서, 상기 객체 검출부는,검출된 상기 객체에 대하여 얼굴영역을 검출하는 얼굴영역 검출부;검출된 상기 객체에 대하여 몸통영역을 검출하는 몸통영역 검출부; 및상기 얼굴영역 검출부에 의해 검출된 얼굴영역 및 상기 몸통영역 검출부에 의해 검출된 몸통영역 중의 적어도 하나에 기초하여, 검출된 상기 객체에 대한 추적영역을 설정하는 추적영역 설정부;를 더 포함하는 것을 특징으로 하는 로봇을 이용한 객체추적 시스템
|
4 |
4
제 3항에 있어서, 상기 얼굴영역 검출부는,얼굴 피부 컬러모델에 기초한 하르(haar) 모델을 이용하는 것을 특징으로 하는 로봇을 이용한 객체추적 시스템
|
5 |
5
제 3항에 있어서, 상기 몸통영역 검출부는,상기 객체의 옷색깔에 따른 R(Red)-G(Green)-B(Blue) 정보 또는 H(Hue)-S(Saturation)-I(Intensity) 정보에 기초하여 몸통영역을 검출하는 것을 특징으로 하는 로봇을 이용한 객체추적 시스템
|
6 |
6
제 3항에 있어서, 상기 객체 검출부는,상기 추적영역 설정부에 의해 설정된 추적영역 내에서 다리의 패턴을 검출하는 다리패턴 검출부;를 더 포함하며, 상기 움직임패턴 계산부는 상기 다리패턴 검출부에 의해 검출된 다리의 패턴에 기초하여 움직임패턴을 계산하는 것을 특징으로 하는 로봇을 이용한 객체추적 시스템
|
7 |
7
제 6항에 있어서, 상기 다리패턴 검출부는,레이저 센서에 의해 구현되는 것을 특징으로 하는 로봇을 이용한 객체추적 시스템
|
8 |
8
제 1항에 있어서, 상기 객체 검출부는,검출된 상기 객체에 대한 추적영역을 설정하는 추적영역 설정부;를 더 포함하며, 상기 움직임패턴 계산부는 상기 추적영역 설정부에 의해 설정된 추적영역 내에서의 상기 객체에 대한 움직임패턴을 계산하는 것을 특징으로 하는 로봇을 이용한 객체추적 시스템
|
9 |
9
제 8항에 있어서, 상기 현재위치 계산부는,상기 영상획득부에 의해 현재 획득되는 영상에서 상기 객체가 사라진 경우, 상기 움직임패턴 저장부에 저장된 상기 객체에 대한 이전의 추적영역에서의 움직임패턴에 기초하여 상기 객체의 현재의 위치를 계산하는 것을 특징으로 하는 로봇을 이용한 객체추적 시스템
|
10 |
10
로봇의 객체 추적방법에 있어서,상기 로봇의 전방에 대한 영상을 획득하는 단계;상기 영상획득단계에 의해 획득된 영상으로부터 객체를 검출하는 단계;상기 객체 검출단계에 의해 검출된 객체에 대하여 상기 로봇과의 거리 및 움직임방향을 포함하는 움직임패턴을 계산하는 단계;상기 움직임패턴 계산단계에 의해 계산된 움직임패턴을 저장하는 단계;상기 영상획득단계에 의해 현재 획득되는 영상에서 상기 객체가 사라진 경우, 상기 움직임패턴 저장단계에 저장된 상기 객체에 대한 움직임패턴에 기초하여 상기 객체의 현재의 위치를 계산하는 단계; 및상기 현재위치 계산단계에 의해 계산된 현재의 위치에 기반하여 영상획득을 위한 위치를 이동하여 상기 객체에 대한 추적을 수행하는 단계;를 포함하고,상기 현재의 위치를 계산하는 단계는상기 영상을 획득하는 단계에서 획득한 현재 획득되는 영상에서 상기 객체의 얼굴영역 및 몸통영역이 검출되지 않은 경우, 상기 객체가 사라진 것으로 판단하고, 상기 움직임패턴을 저장하는 단계에서 저장된 이전의 최종 추적영역 주변에서의 다리 패턴을 검출하고, 상기 다리 패턴에 기초하여 현재의 객체의 위치를 판단하는 것을 특징으로 하는 로봇의 객체 추적방법
|
11 |
11
제 10항에 있어서, 상기 객체 검출단계는,단위시간 동안 획득되는 영상의 프레임을 저장하는 단계; 및상기 영상프레임 저장단계에 저장된 영상프레임과 현재 획득되는 영상프레임을 비교하여 움직임 객체를 추출하는 단계;를 포함하는 것을 특징으로 하는 로봇의 객체 추적방법
|
12 |
12
제 10항에 있어서,상기 객체 검출단계에 의해 검출된 객체에 대하여 얼굴영역을 검출하는 단계;상기 객체 검출단계에 의해 검출된 객체에 대하여 몸통영역을 검출하는 단계; 및상기 얼굴영역 검출단계에 의해 검출된 얼굴영역 및 상기 몸통영역 검출단계에 의해 검출된 몸통영역 중의 적어도 하나에 기초하여, 상기 객체 검출단계에 의해 검출된 객체에 대한 추적영역을 설정하는 단계;를 더 포함하는 것을 특징으로 하는 로봇의 객체 추적방법
|
13 |
13
제 12항에 있어서, 상기 얼굴영역 검출단계는,얼굴 피부 컬러모델에 기초한 하르(haar) 모델을 이용하는 것을 특징으로 하는 로봇의 객체 추적방법
|
14 |
14
제 12항에 있어서, 상기 몸통영역 검출단계는,상기 객체의 옷색깔에 따른 R(Red)-G(Green)-B(Blue) 정보 또는 H(Hue)-S(Saturation)-I(Intensity) 정보에 기초하여 몸통영역을 검출하는 것을 특징으로 하는 로봇의 객체 추적방법
|
15 |
15
제 12항에 있어서,상기 추적영역 설정단계에 의해 설정된 추적영역 내에서 다리의 패턴을 검출하는 단계;를 더 포함하며, 상기 움직임패턴 계산단계는 상기 다리패턴 검출단계에 의해 검출된 다리의 패턴에 기초하여 움직임패턴을 계산하는 것을 특징으로 하는 로봇의 객체 추적방법
|
16 |
16
제 10항에 있어서,상기 객체 검출단계에 의해 검출된 객체에 대한 추적영역을 설정하는 단계;를 더 포함하며, 상기 움직임패턴 계산단계는 상기 추적영역 설정단계에 의해 설정된 추적영역 내에서의 상기 객체에 대한 움직임패턴을 계산하는 것을 특징으로 하는 로봇의 객체 추적방법
|
17 |
17
제 16항에 있어서, 상기 현재위치 계산단계는,상기 영상획득단계에 의해 현재 획득되는 영상에서 상기 객체가 사라진 경우, 상기 움직임패턴 저장단계에 의해 저장된 상기 객체에 대한 이전의 추적영역에서의 움직임패턴에 기초하여 상기 객체의 현재의 위치를 계산하는 것을 특징으로 하는 로봇의 객체 추적방법
|