맞춤기술찾기

이전대상기술

객체 추적 장치 및 객체 추적 방법

  • 기술번호 : KST2020015666
  • 담당센터 : 서울서부기술혁신센터
  • 전화번호 : 02-6124-6930
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 객체 추적 장치는 목표 객체 설정부, GOTURN 추적기, Mean-shift 추적기, 컬러 히스토그램 분석기, 분류기, 및 판단부를 포함한다. 목표 객체 설정부는 입력 영상 데이터에 상응하는 복수의 입력 프레임들 중의 첫 번째 입력 프레임에서 목표 객체를 설정하고, 목표 객체의 위치에 상응하는 최초 경계 박스를 생성한다. GOTURN 추적기는 나머지 입력 프레임들 각각에 대해 GOTURN 추적 알고리즘을 사용하여 목표 객체의 위치를 추적하고, 추적된 위치에 상응하는 제1 경계 박스를 생성한다. Mean-shift 추적기는 나머지 입력 프레임들 각각에 대해 Mean-shift 추적 알고리즘을 사용하여 목표 객체의 위치를 추적하고, 추적된 위치에 상응하는 제2 경계 박스를 생성한다. 컬러 히스토그램 분석기는 n번째 입력 프레임에서 제1 경계 박스의 컬러 히스토그램과 첫 번째 입력 프레임에서 최초 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제1 유사도, n번째 입력 프레임에서 제2 경계 박스의 컬러 히스토그램과 첫 번째 입력 프레임에서 최초 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제2 유사도, n번째 입력 프레임에서 제1 경계 박스의 컬러 히스토그램과 (n-k)번째 입력 프레임에서 제1 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제3 유사도, 및 n번째 입력 프레임에서 제2 경계 박스의 컬러 히스토그램과 (n-k)번째 입력 프레임에서 제2 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제4 유사도를 결정한다. 분류기는 제1 내지 제4 유사도들을 사용하여 GOTURN 추적기 및 Mean-shift 추적기 중의 하나를 나타내는 분류값을 출력한다. 판단부는 n번째 입력 프레임에서 제2 경계 박스에 상응하는 영역의 평균 밝기 및 n번째 입력 프레임의 제2 경계 박스와 (n-1)번째 입력 프레임의 제2 경계 박스 사이의 이격 거리 중의 적어도 하나와 분류값에 기초하여 n번째 입력 프레임의 제1 경계 박스 및 제2 경계 박스 중의 하나를 n번째 입력 프레임의 추적 경계 박스로 결정하고, n번째 입력 프레임에서 목표 객체의 추적된 위치로서 추적 경계 박스에 상응하는 2차원 좌표를 출력한다.
Int. CL G06T 7/246 (2017.01.01) G06T 7/73 (2017.01.01) G06T 5/40 (2006.01.01) G06T 7/90 (2017.01.01) G06T 7/50 (2017.01.01) G06N 20/00 (2019.01.01)
CPC G06T 7/246(2013.01) G06T 7/246(2013.01) G06T 7/246(2013.01) G06T 7/246(2013.01) G06T 7/246(2013.01) G06T 7/246(2013.01) G06T 7/246(2013.01) G06T 7/246(2013.01) G06T 7/246(2013.01)
출원번호/일자 1020190062200 (2019.05.27)
출원인 한국항공대학교산학협력단
등록번호/일자 10-2120007-0000 (2020.06.01)
공개번호/일자
공고번호/일자 (20200605) 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 등록
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2019.05.27)
심사청구항수 25

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국항공대학교산학협력단 대한민국 경기도 고양시 덕양구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 백중환 대한민국 경기도 고양시 덕양구
2 박성준 서울특별시 마포구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 최정문 대한민국 서울특별시 강남구 언주로**길 ** ***호(솔트특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 한국항공대학교산학협력단 대한민국 경기도 고양시 덕양구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2019.05.27 수리 (Accepted) 1-1-2019-0543689-21
2 선행기술조사의뢰서
Request for Prior Art Search
2019.10.02 수리 (Accepted) 9-1-9999-9999999-89
3 선행기술조사보고서
Report of Prior Art Search
2019.10.11 수리 (Accepted) 9-1-2019-0047345-94
4 출원인정보변경(경정)신고서
Notification of change of applicant's information
2020.02.26 수리 (Accepted) 4-1-2020-5043901-23
5 등록결정서
Decision to grant
2020.05.22 발송처리완료 (Completion of Transmission) 9-5-2020-0351768-08
6 [명세서등 보정]보정서(심사관 직권보정)
2020.06.03 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2020-5014072-61
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
입력 영상 데이터에 상응하는 복수의 입력 프레임들 중의 첫 번째 입력 프레임에서 목표 객체를 설정하고, 상기 목표 객체의 위치에 상응하는 최초 경계 박스(bounding box)를 생성하는 목표 객체 설정부;상기 복수의 입력 프레임들 중에서 상기 첫 번째 입력 프레임을 제외한 나머지 입력 프레임들 각각에 대해 GOTURN(General Object Tracking Using Regression Network) 추적 알고리즘을 사용하여 상기 목표 객체의 위치를 추적하고, 상기 추적된 위치에 상응하는 제1 경계 박스를 생성하는 GOTURN 추적기;상기 복수의 입력 프레임들 중에서 상기 나머지 입력 프레임들 각각에 대해 Mean-shift 추적 알고리즘을 사용하여 상기 목표 객체의 위치를 추적하고, 상기 추적된 위치에 상응하는 제2 경계 박스를 생성하는 Mean-shift 추적기;n(n은 2 이상의 정수)번째 입력 프레임에서 상기 제1 경계 박스의 컬러 히스토그램과 상기 첫 번째 입력 프레임에서 상기 최초 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제1 유사도, 상기 n번째 입력 프레임에서 상기 제2 경계 박스의 컬러 히스토그램과 상기 첫 번째 입력 프레임에서 상기 최초 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제2 유사도, 상기 n번째 입력 프레임에서 상기 제1 경계 박스의 컬러 히스토그램과 (n-k)(k는 n 미만의 자연수)번째 입력 프레임에서 상기 제1 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제3 유사도, 및 상기 n번째 입력 프레임에서 상기 제2 경계 박스의 컬러 히스토그램과 상기 (n-k)번째 입력 프레임에서 상기 제2 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제4 유사도를 결정하는 컬러 히스토그램 분석기;상기 제1 내지 제4 유사도들을 사용하여 상기 GOTURN 추적기 및 상기 Mean-shift 추적기 중의 하나를 나타내는 분류값을 출력하는 머신 러닝(Machine Learning) 기반의 분류기; 및상기 n번째 입력 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 및 상기 n번째 입력 프레임의 상기 제2 경계 박스와 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리 중의 적어도 하나와 상기 분류값에 기초하여 상기 n번째 입력 프레임의 상기 제1 경계 박스 및 상기 제2 경계 박스 중의 하나를 상기 n번째 입력 프레임의 추적 경계 박스로 결정하고, 상기 n번째 입력 프레임에서 상기 목표 객체의 추적된 위치로서 상기 추적 경계 박스에 상응하는 2차원 좌표를 출력하는 판단부를 포함하는 객체 추적 장치
2 2
제1 항에 있어서, 상기 분류값이 상기 Mean-shift 추적기를 나타내는 경우, 상기 판단부는,상기 n번째 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 레벨을 계산하고, 상기 평균 밝기 레벨이 제1 문턱 레벨보다 낮거나 상기 제1 문턱 레벨보다 높은 제2 문턱 레벨보다 높은 경우, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 객체 추적 장치
3 3
제2 항에 있어서, 상기 판단부는,상기 평균 밝기 레벨이 상기 제1 문턱 레벨 이상이고 상기 제2 문턱 레벨 이하인 경우, 상기 n번째 입력 프레임의 상기 제2 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 객체 추적 장치
4 4
제2 항에 있어서, 상기 판단부는,상기 평균 밝기 레벨이 상기 제1 문턱 레벨 이상이고 상기 제2 문턱 레벨 이하인 경우, 상기 n번째 입력 프레임의 상기 제2 경계 박스와 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리를 계산하고, 상기 이격 거리가 문턱 거리보다 먼 경우, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 객체 추적 장치
5 5
제4 항에 있어서, 상기 판단부는,상기 이격 거리가 상기 문턱 거리 이하인 경우, 상기 n번째 입력 프레임의 상기 제2 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 객체 추적 장치
6 6
제1 항에 있어서, 상기 분류값이 상기 Mean-shift 추적기를 나타내는 경우, 상기 판단부는,상기 n번째 입력 프레임의 상기 제2 경계 박스와 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리를 계산하고, 상기 이격 거리가 문턱 거리보다 먼 경우, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 객체 추적 장치
7 7
제6 항에 있어서, 상기 판단부는,상기 이격 거리가 상기 문턱 거리 이하인 경우, 상기 n번째 입력 프레임의 상기 제2 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 객체 추적 장치
8 8
제6 항에 있어서, 상기 판단부는,상기 이격 거리가 상기 문턱 거리 이하인 경우, 상기 n번째 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 레벨을 계산하고, 상기 평균 밝기 레벨이 제1 문턱 레벨보다 낮거나 상기 제1 문턱 레벨보다 높은 제2 문턱 레벨보다 높은 경우, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 객체 추적 장치
9 9
제8 항에 있어서, 상기 판단부는,상기 평균 밝기 레벨이 상기 제1 문턱 레벨 이상이고 상기 제2 문턱 레벨 이하인 경우, 상기 n번째 입력 프레임의 상기 제2 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 객체 추적 장치
10 10
제1 항에 있어서, 상기 분류값이 상기 GOTURN 추적기를 나타내는 경우, 상기 판단부는, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 객체 추적 장치
11 11
제1 항에 있어서, 상기 판단부는, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 경우, 상기 컬러 히스토그램 분석기로부터 수신되는 상기 제3 유사도와 기준값을 비교하고, 상기 제3 유사도가 상기 기준값보다 큰 경우, 상기 Mean-shift 추적기에 상기 n번째 입력 프레임의 상기 제1 경계 박스를 제공하고,상기 Mean-shift 추적기는 상기 n번째 입력 프레임에서 상기 목표 객체의 추적된 위치를 상기 판단부로부터 수신되는 상기 제1 경계 박스로 초기화한 후, 상기 n번째 입력 프레임 이후로 수신되는 입력 프레임들에 대해 상기 목표 객체의 위치를 추적하는 동작을 수행하는 객체 추적 장치
12 12
제1 항에 있어서, 상기 판단부는, 상기 n번째 입력 프레임의 상기 제2 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 경우, 상기 컬러 히스토그램 분석기로부터 수신되는 상기 제4 유사도와 기준값을 비교하고, 상기 제4 유사도가 상기 기준값보다 큰 경우, 상기 GOTURN 추적기에 상기 n번째 입력 프레임의 상기 제2 경계 박스를 제공하고,상기 GOTURN 추적기는 상기 n번째 입력 프레임에서 상기 목표 객체의 추적된 위치를 상기 판단부로부터 수신되는 상기 제2 경계 박스로 초기화한 후, 상기 n번째 입력 프레임 이후로 수신되는 입력 프레임들에 대해 상기 목표 객체의 위치를 추적하는 동작을 수행하는 객체 추적 장치
13 13
제1 항에 있어서, 상기 k는 3에 상응하는 객체 추적 장치
14 14
제1 항에 있어서, 학습 영상 데이터에 상응하는 복수의 학습 프레임들 각각에 대해, 현재 학습 프레임에서 상기 GOTURN 추적기를 사용하여 추적한 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램과 첫 번째 학습 프레임에서 상기 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램 사이의 유사도, 상기 현재 학습 프레임에서 상기 Mean-shift 추적기를 사용하여 추적한 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램과 상기 첫 번째 학습 프레임에서 상기 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램 사이의 유사도, 상기 현재 학습 프레임에서 상기 GOTURN 추적기를 사용하여 추적한 상기 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램과 상기 현재 학습 프레임과 상기 첫 번째 학습 프레임 사이에 존재하는 비교 학습 프레임에서 상기 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램 사이의 유사도, 및 상기 현재 학습 프레임에서 상기 Mean-shift 추적기를 사용하여 추적한 상기 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램과 상기 비교 학습 프레임에서 상기 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램 사이의 유사도를 입력값들로 하고, 상기 GOTURN 추적기와 상기 Mean-shift 추적기 중에서 상기 현재 학습 프레임에서 더 높은 추적 정확도를 갖는 추적기를 나타내는 값을 상기 입력값들에 대한 라벨로 하는 학습 데이터를 생성하는 학습 데이터 생성부를 더 포함하고,상기 분류기는 상기 학습 데이터를 사용하여 상기 입력값들을 상기 GOTURN 추적기와 상기 Mean-shift 추적기 중의 하나로 분류하는 학습을 수행하여 추적 알고리즘 선택 모델을 생성한 후, 상기 컬러 히스토그램 분석기로부터 수신되는 상기 제1 내지 제4 유사도들을 상기 추적 알고리즘 선택 모델에 입력하여 상기 GOTURN 추적기 및 상기 Mean-shift 추적기 중의 하나를 나타내는 상기 분류값을 출력하는 객체 추적 장치
15 15
입력 영상 데이터에 상응하는 복수의 입력 프레임들 중의 첫 번째 입력 프레임에서 목표 객체를 설정하고, 상기 목표 객체의 위치에 상응하는 최초 경계 박스를 생성하는 목표 객체 설정부;상기 복수의 입력 프레임들 중에서 상기 첫 번째 입력 프레임을 제외한 나머지 입력 프레임들 각각에 대해 GOTURN 추적 알고리즘을 사용하여 상기 목표 객체의 위치를 추적하고, 상기 추적된 위치에 상응하는 제1 경계 박스를 생성하는 GOTURN 추적기;상기 복수의 입력 프레임들 중에서 상기 나머지 입력 프레임들 각각에 대해 Mean-shift 추적 알고리즘을 사용하여 상기 목표 객체의 위치를 추적하고, 상기 추적된 위치에 상응하는 제2 경계 박스를 생성하는 Mean-shift 추적기;n(n은 2 이상의 정수)번째 입력 프레임에서 상기 제1 경계 박스의 컬러 히스토그램과 상기 첫 번째 입력 프레임에서 상기 최초 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제1 유사도, 상기 n번째 입력 프레임에서 상기 제2 경계 박스의 컬러 히스토그램과 상기 첫 번째 입력 프레임에서 상기 최초 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제2 유사도, 상기 n번째 입력 프레임에서 상기 제1 경계 박스의 컬러 히스토그램과 (n-k)(k는 n 미만의 자연수)번째 입력 프레임에서 상기 제1 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제3 유사도, 및 상기 n번째 입력 프레임에서 상기 제2 경계 박스의 컬러 히스토그램과 상기 (n-k)번째 입력 프레임에서 상기 제2 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제4 유사도를 결정하는 컬러 히스토그램 분석기;상기 제1 내지 제4 유사도들을 사용하여 상기 GOTURN 추적기 및 상기 Mean-shift 추적기 중의 하나를 나타내는 분류값을 출력하는 머신 러닝 기반의 분류기;상기 n번째 입력 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 및 상기 n번째 입력 프레임의 상기 제2 경계 박스와 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리 중의 적어도 하나와 상기 분류값에 기초하여 상기 n번째 입력 프레임의 상기 제1 경계 박스 및 상기 제2 경계 박스 중의 하나를 상기 n번째 입력 프레임의 추적 경계 박스로 결정하고, 상기 n번째 입력 프레임에서 상기 목표 객체의 추적된 위치로서 상기 추적 경계 박스에 상응하는 2차원 좌표를 출력하는 판단부;상기 판단부로부터 상기 복수의 입력 프레임들 각각에 대한 상기 2차원 좌표를 수신하고, 상기 복수의 입력 프레임들 각각에 대해 상기 2차원 좌표에 상응하는 객체의 깊이(depth)를 추정하여 상기 복수의 입력 프레임들 각각에서 상기 목표 객체의 추적된 위치에 상응하는 3차원 좌표를 출력하는 깊이 추정부; 및상기 목표 객체에 상응하는 오디오 데이터를 상기 복수의 입력 프레임들 각각의 상기 3차원 좌표와 연결하여 몰입형(immersive) 오디오-비디오 데이터를 생성하는 오디오 믹서를 포함하는 몰입형 오디오-비디오 데이터 생성 장치
16 16
학습 영상 데이터를 사용하여 머신 러닝을 수행하여 추적 알고리즘 선택 모델을 생성하는 단계;입력 영상 데이터에 상응하는 복수의 입력 프레임들 중의 첫 번째 입력 프레임에서 목표 객체를 설정하고, 상기 목표 객체의 위치에 상응하는 최초 경계 박스를 생성하는 단계;상기 복수의 입력 프레임들 중에서 상기 첫 번째 입력 프레임을 제외한 나머지 입력 프레임들 각각에 대해 GOTURN 추적 알고리즘을 사용하여 상기 목표 객체의 위치를 추적하고, 상기 추적된 위치에 상응하는 제1 경계 박스를 생성하는 단계;상기 복수의 입력 프레임들 중에서 상기 나머지 입력 프레임들 각각에 대해 Mean-shift 추적 알고리즘을 사용하여 상기 목표 객체의 위치를 추적하고, 상기 추적된 위치에 상응하는 제2 경계 박스를 생성하는 단계;n(n은 2 이상의 정수)번째 입력 프레임에서 상기 제1 경계 박스의 컬러 히스토그램과 상기 첫 번째 입력 프레임에서 상기 최초 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제1 유사도, 상기 n번째 입력 프레임에서 상기 제2 경계 박스의 컬러 히스토그램과 상기 첫 번째 입력 프레임에서 상기 최초 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제2 유사도, 상기 n번째 입력 프레임에서 상기 제1 경계 박스의 컬러 히스토그램과 (n-k)(k는 n 미만의 자연수)번째 입력 프레임에서 상기 제1 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제3 유사도, 및 상기 n번째 입력 프레임에서 상기 제2 경계 박스의 컬러 히스토그램과 상기 (n-k)번째 입력 프레임에서 상기 제2 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제4 유사도를 결정하는 단계;상기 제1 내지 제4 유사도들을 상기 추적 알고리즘 선택 모델에 입력하여 GOTURN 추적기 및 Mean-shift 추적기 중의 하나를 나타내는 분류값을 출력하는 단계; 및상기 n번째 입력 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 및 상기 n번째 입력 프레임의 상기 제2 경계 박스와 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리 중의 적어도 하나와 상기 분류값에 기초하여 상기 n번째 입력 프레임의 상기 제1 경계 박스 및 상기 제2 경계 박스 중의 하나를 상기 n번째 입력 프레임의 추적 경계 박스로 결정하고, 상기 n번째 입력 프레임에서 상기 목표 객체의 추적된 위치로서 상기 추적 경계 박스에 상응하는 2차원 좌표를 출력하는 단계를 포함하는 객체 추적 방법
17 17
제16 항에 있어서, 상기 n번째 입력 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 및 상기 n번째 입력 프레임의 상기 제2 경계 박스와 상기 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리 중의 적어도 하나와 상기 분류값에 기초하여 상기 n번째 입력 프레임의 상기 제1 경계 박스 및 상기 제2 경계 박스 중의 하나를 상기 n번째 입력 프레임의 상기 추적 경계 박스로 결정하고, 상기 n번째 입력 프레임에서 상기 목표 객체의 추적된 위치로서 상기 추적 경계 박스에 상응하는 상기 2차원 좌표를 출력하는 단계는,상기 Mean-shift 추적기 및 상기 GOTURN 추적기 중에서 상기 분류값이 나타내는 추적기를 판단하는 단계; 및상기 분류값이 상기 GOTURN 추적기를 나타내는 경우, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 단계를 포함하는 객체 추적 방법
18 18
제17 항에 있어서, 상기 n번째 입력 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 및 상기 n번째 입력 프레임의 상기 제2 경계 박스와 상기 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리 중의 적어도 하나와 상기 분류값에 기초하여 상기 n번째 입력 프레임의 상기 제1 경계 박스 및 상기 제2 경계 박스 중의 하나를 상기 n번째 입력 프레임의 상기 추적 경계 박스로 결정하고, 상기 n번째 입력 프레임에서 상기 목표 객체의 추적된 위치로서 상기 추적 경계 박스에 상응하는 상기 2차원 좌표를 출력하는 단계는,상기 분류값이 상기 Mean-shift 추적기를 나타내는 경우, 상기 n번째 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 레벨을 계산하는 단계;상기 평균 밝기 레벨이 제1 문턱 레벨보다 낮거나 상기 제1 문턱 레벨보다 높은 제2 문턱 레벨보다 높은 경우, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 단계; 및상기 평균 밝기 레벨이 상기 제1 문턱 레벨 이상이고 상기 제2 문턱 레벨 이하인 경우, 상기 n번째 입력 프레임의 상기 제2 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 단계를 더 포함하는 객체 추적 방법
19 19
제17 항에 있어서, 상기 n번째 입력 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 및 상기 n번째 입력 프레임의 상기 제2 경계 박스와 상기 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리 중의 적어도 하나와 상기 분류값에 기초하여 상기 n번째 입력 프레임의 상기 제1 경계 박스 및 상기 제2 경계 박스 중의 하나를 상기 n번째 입력 프레임의 상기 추적 경계 박스로 결정하고, 상기 n번째 입력 프레임에서 상기 목표 객체의 추적된 위치로서 상기 추적 경계 박스에 상응하는 상기 2차원 좌표를 출력하는 단계는,상기 분류값이 상기 Mean-shift 추적기를 나타내는 경우, 상기 n번째 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 레벨을 계산하는 단계;상기 평균 밝기 레벨이 제1 문턱 레벨보다 낮거나 상기 제1 문턱 레벨보다 높은 제2 문턱 레벨보다 높은 경우, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 단계;상기 평균 밝기 레벨이 상기 제1 문턱 레벨 이상이고 상기 제2 문턱 레벨 이하인 경우, 상기 n번째 입력 프레임의 상기 제2 경계 박스와 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리를 계산하는 단계;상기 이격 거리가 문턱 거리보다 먼 경우, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 단계; 및상기 이격 거리가 상기 문턱 거리 이하인 경우, 상기 n번째 입력 프레임의 상기 제2 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 단계를 더 포함하는 객체 추적 방법
20 20
제17 항에 있어서, 상기 n번째 입력 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 및 상기 n번째 입력 프레임의 상기 제2 경계 박스와 상기 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리 중의 적어도 하나와 상기 분류값에 기초하여 상기 n번째 입력 프레임의 상기 제1 경계 박스 및 상기 제2 경계 박스 중의 하나를 상기 n번째 입력 프레임의 상기 추적 경계 박스로 결정하고, 상기 n번째 입력 프레임에서 상기 목표 객체의 추적된 위치로서 상기 추적 경계 박스에 상응하는 상기 2차원 좌표를 출력하는 단계는,상기 분류값이 상기 Mean-shift 추적기를 나타내는 경우, 상기 n번째 입력 프레임의 상기 제2 경계 박스와 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리를 계산하는 단계;상기 이격 거리가 문턱 거리보다 먼 경우, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 단계; 및상기 이격 거리가 상기 문턱 거리 이하인 경우, 상기 n번째 입력 프레임의 상기 제2 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 단계를 더 포함하는 객체 추적 방법
21 21
제17 항에 있어서, 상기 n번째 입력 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 및 상기 n번째 입력 프레임의 상기 제2 경계 박스와 상기 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리 중의 적어도 하나와 상기 분류값에 기초하여 상기 n번째 입력 프레임의 상기 제1 경계 박스 및 상기 제2 경계 박스 중의 하나를 상기 n번째 입력 프레임의 상기 추적 경계 박스로 결정하고, 상기 n번째 입력 프레임에서 상기 목표 객체의 추적된 위치로서 상기 추적 경계 박스에 상응하는 상기 2차원 좌표를 출력하는 단계는,상기 분류값이 상기 Mean-shift 추적기를 나타내는 경우, 상기 n번째 입력 프레임의 상기 제2 경계 박스와 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리를 계산하는 단계;상기 이격 거리가 문턱 거리보다 먼 경우, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 단계;상기 이격 거리가 상기 문턱 거리 이하인 경우, 상기 n번째 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 레벨을 계산하는 단계;상기 평균 밝기 레벨이 제1 문턱 레벨보다 낮거나 상기 제1 문턱 레벨보다 높은 제2 문턱 레벨보다 높은 경우, 상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 단계; 및상기 평균 밝기 레벨이 상기 제1 문턱 레벨 이상이고 상기 제2 문턱 레벨 이하인 경우, 상기 n번째 입력 프레임의 상기 제2 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 단계를 더 포함하는 객체 추적 방법
22 22
제16 항에 있어서,상기 n번째 입력 프레임의 상기 제1 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 경우, 상기 제3 유사도와 기준값을 비교하는 단계; 및상기 제3 유사도가 상기 기준값보다 큰 경우, 상기 n번째 입력 프레임에서 상기 Mean-shift 추적 알고리즘을 사용하여 추적된 상기 목표 객체의 위치를 상기 제1 경계 박스로 초기화하는 단계를 더 포함하는 객체 추적 방법
23 23
제16 항에 있어서,상기 n번째 입력 프레임의 상기 제2 경계 박스를 상기 n번째 프레임의 상기 추적 경계 박스로 결정하는 경우, 상기 제4 유사도와 기준값을 비교하는 단계; 및상기 제4 유사도가 상기 기준값보다 큰 경우, 상기 n번째 입력 프레임에서 상기 GOTURN 추적 알고리즘을 사용하여 추적된 상기 목표 객체의 위치를 상기 제2 경계 박스로 초기화하는 단계를 더 포함하는 객체 추적 방법
24 24
제16 항에 있어서, 상기 학습 영상 데이터를 사용하여 머신 러닝을 수행하여 상기 추적 알고리즘 선택 모델을 생성하는 단계는,상기 학습 영상 데이터에 상응하는 복수의 학습 프레임들 각각에 대해, 현재 학습 프레임에서 GOTURN 추적 알고리즘을 사용하여 추적한 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램과 첫 번째 학습 프레임에서 상기 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램 사이의 유사도, 상기 현재 학습 프레임에서 Mean-shift 추적 알고리즘을 사용하여 추적한 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램과 상기 첫 번째 학습 프레임에서 상기 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램 사이의 유사도, 상기 현재 학습 프레임에서 GOTURN 추적 알고리즘을 사용하여 추적한 상기 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램과 상기 현재 학습 프레임과 상기 첫 번째 학습 프레임 사이에 존재하는 비교 학습 프레임에서 상기 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램 사이의 유사도, 및 상기 현재 학습 프레임에서 Mean-shift 추적 알고리즘을 사용하여 추적한 상기 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램과 상기 비교 학습 프레임에서 상기 학습 객체의 위치에 상응하는 경계 박스의 컬러 히스토그램 사이의 유사도를 입력값들로 하고, GOTURN 추적 알고리즘과 Mean-shift 추적 알고리즘 중에서 상기 현재 학습 프레임에서 더 높은 추적 정확도를 갖는 알고리즘을 나타내는 값을 상기 입력값들에 대한 라벨로 하는 학습 데이터를 생성하는 단계; 및상기 학습 데이터를 사용하여 상기 입력값들을 GOTURN 추적 알고리즘과 Mean-shift 추적 알고리즘 중의 하나로 분류하는 학습을 수행하여 상기 추적 알고리즘 선택 모델을 생성하는 단계를 포함하는 객체 추적 방법
25 25
학습 영상 데이터를 사용하여 머신 러닝을 수행하여 추적 알고리즘 선택 모델을 생성하는 단계;입력 영상 데이터에 상응하는 복수의 입력 프레임들 중의 첫 번째 입력 프레임에서 목표 객체를 설정하고, 상기 목표 객체의 위치에 상응하는 최초 경계 박스를 생성하는 단계;상기 복수의 입력 프레임들 중에서 상기 첫 번째 입력 프레임을 제외한 나머지 입력 프레임들 각각에 대해 GOTURN 추적 알고리즘을 사용하여 상기 목표 객체의 위치를 추적하고, 상기 추적된 위치에 상응하는 제1 경계 박스를 생성하는 단계;상기 복수의 입력 프레임들 중에서 상기 나머지 입력 프레임들 각각에 대해 Mean-shift 추적 알고리즘을 사용하여 상기 목표 객체의 위치를 추적하고, 상기 추적된 위치에 상응하는 제2 경계 박스를 생성하는 단계;n(n은 2 이상의 정수)번째 입력 프레임에서 상기 제1 경계 박스의 컬러 히스토그램과 상기 첫 번째 입력 프레임에서 상기 최초 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제1 유사도, 상기 n번째 입력 프레임에서 상기 제2 경계 박스의 컬러 히스토그램과 상기 첫 번째 입력 프레임에서 상기 최초 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제2 유사도, 상기 n번째 입력 프레임에서 상기 제1 경계 박스의 컬러 히스토그램과 (n-k)(k는 n 미만의 자연수)번째 입력 프레임에서 상기 제1 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제3 유사도, 및 상기 n번째 입력 프레임에서 상기 제2 경계 박스의 컬러 히스토그램과 상기 (n-k)번째 입력 프레임에서 상기 제2 경계 박스의 컬러 히스토그램 사이의 유사도에 상응하는 제4 유사도를 결정하는 단계;상기 제1 내지 제4 유사도들을 상기 추적 알고리즘 선택 모델에 입력하여 상기 GOTURN 추적기 및 상기 Mean-shift 추적기 중의 하나를 나타내는 분류값을 출력하는 단계;상기 n번째 입력 프레임에서 상기 제2 경계 박스에 상응하는 영역의 평균 밝기 및 상기 n번째 입력 프레임의 상기 제2 경계 박스와 (n-1)번째 입력 프레임의 상기 제2 경계 박스 사이의 이격 거리 중의 적어도 하나와 상기 분류값에 기초하여 상기 n번째 입력 프레임의 상기 제1 경계 박스 및 상기 제2 경계 박스 중의 하나를 상기 n번째 입력 프레임의 추적 경계 박스로 결정하고, 상기 n번째 입력 프레임에서 상기 목표 객체의 추적된 위치로서 상기 추적 경계 박스에 상응하는 2차원 좌표를 출력하는 단계;상기 복수의 입력 프레임들 각각에 대해 상기 2차원 좌표에 상응하는 객체의 깊이를 추정하여 상기 복수의 입력 프레임들 각각에서 상기 목표 객체의 추적된 위치에 상응하는 3차원 좌표를 출력하는 단계; 및상기 목표 객체에 상응하는 오디오 데이터를 상기 복수의 입력 프레임들 각각의 상기 3차원 좌표와 연결하여 몰입형 오디오-비디오 데이터를 생성하는 단계를 포함하는 몰입형 오디오-비디오 데이터 생성 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 경기도 한국항공대학교산학협력단 2017년 경기도지역협력연구센터(GRRC)사업 공간/미디어 융합형 인터랙티브 VR 플레이어 개발