1 |
1
영상에서 물체를 세분화(object segmentation)하는 방법에 있어서,영상을 입력 받는 단계;상기 입력 받은 영상의 화면이 두 개 이상으로 분할되는 단계; 및상기 두 개 이상으로 분할된 영상 각각을 결합하여 다시 하나의 영상으로 생성하는 단계;를 포함하되,상기 화면이 분할된 영상들은 화면 간 일부 중첩된 부분이 있도록 분할되며,상기 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하고, 상기 세분화 알고리즘이 적용된 분할 영상들을 결합하여 상기 입력 받은 영상과 동일한 크기의 영상을 생성하는 것을 특징으로 하는 물체를 세분화하는 방법
|
2 |
2
제 1항에 있어서상기 입력 받은 영상의 제 1 프레임 및 제 2 프레임에서상기 제 1 프레임은 상기 제 2 프레임보다 시간상으로 우선하는 프레임이고,상기 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트를 파악하고,상기 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트 간의 교차범위를 계산하는 것을 특징으로 하는 물체를 세분화하는 방법
|
3 |
3
제 2항에 있어서상기 제 1 프레임은 상기 세분화 알고리즘이 적용된 분할 영상들을 결합하여 생성된 영상이고,상기 제 2 프레임은 상기 입력 받은 영상인 것을 특징으로 하는 물체를 세분화하는 방법
|
4 |
4
제 2항에 있어서상기 입력 받은 영상의 제 1 프레임 및 제 2 프레임은 시간상 상기 입력 받은 영상의 연속되는 두 프레임인 것을 특징으로 하는 물체를 세분화하는 방법
|
5 |
5
제 2 항에 있어서픽셀 단위의 데이터 연관 (Data association) 매칭으로 상기 제 1 프레임 및 제 2 프레임 각각에 포함된 상기 제 1 오브젝트 간의 교차범위를 판단하는 것을 특징으로 하는 물체를 세분화하는 방법
|
6 |
6
제 2 항에 있어서상기 계산된 제 1 오브젝트 간의 교차 범위가 제 1 임계치 이상인 경우 상기 제 2 프레임의 상기 제 1 오브젝트를 전경 영역으로 판단하는 것을 특징으로 하는 물체를 세분화하는 방법
|
7 |
7
제 2 항에 있어서상기 계산된 제 1 오브젝트 간의 교차 범위가 제 1 임계치 보다 작은 경우 상기 제 2 프레임의 상기 제 1 오브젝트를 전경 영역에서 삭제하는 것을 특징으로 하는 물체를 세분화하는 방법
|
8 |
8
제 1항에 있어서상기 영상 세분화 알고리즘은 완전 컨볼루션 네트워크(Fully Convolutional Network)인 것을 특징으로 하는 물체를 세분화하는 방법
|
9 |
9
제 1항에 있어서상기 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하는 경우, 데이터 셋(Data Set)으로 미세조정(Fine-tuning)을 학습하는 것을 특징으로 하는 물체를 세분화하는 방법
|
10 |
10
제 9항에 있어서상기 데이터 셋은 학습용 영상과 기준 목표 영상(Ground Truth)으로 구성되어 있으며,상기 기준 목표 영상은 상기 학습용 영상의 전경 영역과 배경 영역이 흑백으로 분리되어 표현된 영상인 것을 특징으로 하는 물체를 세분화하는 방법
|
11 |
11
제 9항에 있어서상기 데이터 셋을 이용한 선행학습(Pre-training)을 통해 완전 컨볼루션 네트워크(Fully Convolutional Network)를 학습하는 것을 특징으로 하는 물체를 세분화하는 방법
|
12 |
12
영상에서 물체를 세분화(object segmentation)하는 장치에 있어서,영상 입력부; 및 상기 영상 입력부를 제어하는 제어부;를 포함하되,상기 제어부는영상을 입력 받고,상기 입력 받은 영상의 화면이 두 개 이상으로 분할되고,상기 두 개 이상으로 분할된 영상 각각을 결합하여 다시 하나의 영상으로 생성하되,상기 화면이 분할된 영상들은 화면 간 일부 중첩된 부분이 있도록 분할되며,상기 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하고, 상기 세분화 알고리즘이 적용된 분할 영상들을 결합하여 상기 입력 받은 영상과 동일한 크기의 영상을 생성하는 것을 특징으로 하는 물체를 세분화하는 장치
|
13 |
13
제 12항에 있어서상기 입력 받은 영상의 제 1 프레임 및 제 2 프레임에서상기 제 1 프레임은 상기 제 2 프레임보다 시간상으로 우선하는 프레임이고,상기 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트를 파악하고,상기 제 1 프레임 및 제 2 프레임 각각에 포함된 제 1 오브젝트 간의 교차범위를 계산하는 것을 특징으로 하는 물체를 세분화하는 장치
|
14 |
14
제 13항에 있어서픽셀 단위의 데이터 연관 (Data association) 매칭으로 상기 제 1 프레임 및 제 2 프레임 각각에 포함된 상기 제 1 오브젝트 간의 교차범위를 판단하는 것을 특징으로 하는 물체를 세분화하는 장치
|
15 |
15
제 13 항에 있어서상기 계산된 제 1 오브젝트 간의 교차 범위가 제 1 임계치 이상인 경우 상기 제 2 프레임의 상기 제 1 오브젝트를 전경 영역으로 판단하는 것을 특징으로 하는 물체를 세분화하는 장치
|
16 |
16
제 13 항에 있어서상기 계산된 제 1 오브젝트 간의 교차 범위가 제 1 임계치 보다 작은 경우 상기 제 2 프레임의 상기 제 1 오브젝트를 전경 영역에서 삭제하는 것을 특징으로 하는 물체를 세분화하는 장치
|
17 |
17
제 12항에 있어서상기 영상 세분화 알고리즘은 완전 컨볼루션 네트워크(Fully Convolutional Network)인 것을 특징으로 하는 물체를 세분화하는 장치
|
18 |
18
제 12항에 있어서상기 분할된 영상 각각에 영상 세분화(Segmentation) 알고리즘을 적용하는 경우, 데이터 셋(Data Set)으로 미세조정(Fine-tuning)을 학습하는 것을 특징으로 하는 물체를 세분화하는 장치
|
19 |
19
제 18항에 있어서상기 데이터 셋은 학습용 영상과 기준 목표 영상(Ground Truth)으로 구성되어 있으며,상기 기준 목표 영상은 상기 학습용 영상의 전경 영역과 배경 영역이 흑백으로 분리되어 표현된 영상인 것을 특징으로 하는 물체를 세분화하는 장치
|
20 |
20
제 19항에 있어서상기 데이터 셋을 이용한 선행학습(Pre-training)을 통해 완전 컨볼루션 네트워크(Fully Convolutional Network)를 학습하는 것을 특징으로 하는 물체를 세분화하는 장치
|