1 |
1
입력부가 스테레오 카메라로부터 출력된 복수의 RGB 이미지 중 하나인 제1 입력 데이터 및 상기 복수의 RGB 이미지 간의 시차 이미지가 변환된 제2 입력 데이터를 수신하는 단계;데이터 변환부가 상기 제1 입력 데이터를 미리 학습된 제1 객체 탐지 모델에 입력하여 제1 출력 데이터를 출력하고, 상기 제2 입력 데이터를 미리 학습된 제2 객체 탐지 모델에 입력하여 제2 출력 데이터를 출력하는 단계; 및객체 탐지부가 상기 제1 출력 데이터 및 상기 제2 출력 데이터가 결합된 결합 데이터를 생성하고, NMS(Non-Maximum Suppression)를 통해 상기 결합 데이터로부터 객체를 탐지하는 단계를 포함하는객체 탐지 방법
|
2 |
2
제1항에 있어서,상기 제1 객체 탐지 모델 및 상기 제2 객체 탐지 모델 각각은 CNN(Convolutional Neural Network) 기반의 single-stage YOLO(You Only Look Once) 모델인객체 탐지 방법
|
3 |
3
제1항에 있어서,상기 제2 입력 데이터는상기 복수의 RGB 이미지 간의 시점 차이를 이용하여 깊이 정보를 포함하도록 변환된 깊이 맵(Transformed Disparity Map, TDM)인객체 탐지 방법
|
4 |
4
제1항에 있어서,상기 제1 출력 데이터 및 상기 제2 출력 데이터 각각은상기 탐지할 객체를 포함하는 적어도 하나의 경계 상자를 포함하고, 상기 경계 상자는 좌표 정보, 상기 경계 상자의 폭과 높이 정보, 신뢰도 중 적어도 하나의 정보를 포함하는객체 탐지 방법
|
5 |
5
제4항에 있어서,상기 탐지하는 단계는상기 NMS를 통해 상기 결합 데이터에 포함된 경계 상자의 일부를 제거하여 객체를 탐지하는 단계를 포함하는객체 탐지 방법
|
6 |
6
제1항에 있어서,상기 제1 객체 탐지 모델 및 상기 제2 객체 탐지 모델은 스테레오 카메라로부터 출력된 복수의 RGB 이미지 및 인조 데이터를 이용하여 학습된객체 탐지 방법
|
7 |
7
스테레오 카메라로부터 출력된 복수의 RGB 이미지 중 하나인 제1 입력 데이터 및 상기 복수의 RGB 이미지 간의 시차 이미지가 변환된 제2 입력 데이터를 수신하는 입력부;상기 제1 입력 데이터를 미리 학습된 제1 객체 탐지 모델에 입력하여 제1 출력 데이터를 출력하고, 상기 제2 입력 데이터를 미리 학습된 제2 객체 탐지 모델에 입력하여 제2 출력 데이터를 출력하는 데이터 변환부가 및상기 제1 출력 데이터 및 상기 제2 출력 데이터가 결합된 결합 데이터를 생성하고, NMS(Non-Maximum Suppression)를 통해 상기 결합 데이터로부터 객체를 탐지하는 객체 탐지부를 포함하는객체 탐지 장치
|
8 |
8
제7항에 있어서,상기 제1 객체 탐지 모델 및 상기 제2 객체 탐지 모델 각각은 CNN(Convolutional Neural Network) 기반의 single-stage YOLO(You Only Look Once) 모델인객체 탐지 장치
|
9 |
9
제7항에 있어서,상기 제2 입력 데이터는상기 복수의 RGB 이미지 간의 시점 차이를 이용하여 깊이 정보를 포함하도록 변환된 깊이 맵(Transformed Disparity Map, TDM)인객체 탐지 장치
|
10 |
10
제7항에 있어서,상기 제1 출력 데이터 및 상기 제2 출력 데이터 각각은상기 탐지할 객체를 포함하는 적어도 하나의 경계 상자를 포함하고, 상기 경계 상자는 좌표 정보, 상기 경계 상자의 폭과 높이 정보, 신뢰도 중 적어도 하나의 정보를 포함하는객체 탐지 장치
|
11 |
11
제10항에 있어서,상기 객체 탐지부는상기 NMS를 통해 상기 결합 데이터에 포함된 경계 상자의 일부를 제거하여 객체를 탐지하는객체 탐지 장치
|
12 |
12
제7항에 있어서,상기 제1 객체 탐지 모델 및 상기 제2 객체 탐지 모델은 스테레오 카메라로부터 출력된 복수의 RGB 이미지 및 인조 데이터를 이용하여 학습된객체 탐지 장치
|