1 |
1
카메라에서 촬영된 제1 영상을 수신하는 단계;상기 제1 영상에서 CNN 기반의 YOLO 모델을 적용하여 재실자를 탐지하면, 상기 재실자에 바운딩 박스(bounding box) 및 상기 바운딩 박스에 포인트(point)를 포함하는 제2 영상을 생성하는 단계;상기 제2 영상 내의 바닥 영역을 기준으로 OpenCV 영상 처리하여 평면화된 제3 영상으로 원근변환하는 단계; 및상기 포인트의 RGB 값에 따라 상기 제3 영상 내에 상기 재실자의 위치를 표시하는 단계를 포함하는,위치 추적 장치의 동작방법
|
2 |
2
제 1 항에 있어서,상기 제1 영상은,상기 바닥 영역이 나타나도록 소정 각도로 촬영된 영상인,위치 추적 장치의 동작방법
|
3 |
3
제 1 항에 있어서,상기 포인트는,상기 바운딩 박스의 하단 중앙 지점인,위치 추적 장치의 동작방법
|
4 |
4
제 1 항에 있어서,상기 제3 영상으로 원근변환하는 단계는,상기 제2 영상 내에서 상기 바닥 영역의 꼭지점 좌표를 기반으로 상기 제3 영상으로 원근변환하는,위치 추적 장치의 동작방법
|
5 |
5
제1 항에 있어서,상기 재실자의 위치를 표시하는 단계는,상기 포인트의 RGB 값에 대응하는 포인트 좌표를 추출하고, 상기 재실자의 위치에 대응하는 상기 포인트 좌표를 상기 제3 영상 내에 표시하는,위치 추적 장치의 동작방법
|
6 |
6
카메라로부터 촬영된 제1 영상이 입력되는 입력 모듈;상기 제1 영상에서 재실자를 탐지하면, 상기 재실자에 바운딩 박스(bounding box) 및 상기 바운딩 박스에 포인트(point)를 포함하는 제2 영상을 생성하는 학습모듈; 및상기 제2 영상 내의 바닥 영역을 기준으로 평면화된 제3 영상으로 원근변환하고, 상기 제3 영상 내에 상기 포인트의 RGB 값에 따라 상기 재실자의 위치를 표시하는 영상처리 모듈을 포함하는,위치 추적 장치
|
7 |
7
제 6 항에 있어서,상기 제1 영상은,상기 바닥 영역이 나타나도록 소정 각도로 촬영된 영상인,위치 추적 장치
|
8 |
8
제 6 항에 있어서,상기 학습 모듈은,상기 제1 영상에서 CNN 기반의 YOLO 모델을 적용하여 상기 재실자를 탐지하고, 상기 바운딩 박스 및 상기 바운딩 박스의 하단 중앙 지점에 상기 포인트를 생성하는,위치 추적 장치
|
9 |
9
제 6 항에 있어서,상기 영상처리 모듈은,상기 제2 영상을 OpenCV 영상 처리하여 상기 바닥 영역의 꼭지점 좌표를 기반으로 상기 제3 영상으로 원근변환하는,위치 추적 장치
|
10 |
10
제 6 항에 있어서,상기 영상처리 모듈은,상기 포인트의 RGB 값에 대응하는 포인트 좌표를 추출하고, 상기 재실자의 위치에 대응하는 상기 포인트 좌표를 상기 제3 영상 내에 표시하는,위치 추적 장치
|