맞춤기술찾기

이전대상기술

깊이 추정 시스템 및 깊이 추정 방법

  • 기술번호 : KST2022024123
  • 담당센터 : 서울서부기술혁신센터
  • 전화번호 : 02-6124-6930
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 깊이 추정 학습 장치는 학습 데이터베이스, 깊이 추정 네트워크, 피드백 깊이 추정 네트워크, 자세 추정 네트워크, 이미지 재구성 모듈, 깊이 재구성 모듈, 손실 결정 모듈, 및 네트워크 훈련 모듈을 포함한다. 학습 데이터베이스는 복수의 대상물들에 대해 단안 카메라로 촬영된 영상들 중에서 시간적으로 인접한 두 개의 프레임들에 각각 상응하는 소스 이미지와 타겟 이미지를 포함하는 이미지 쌍을 복수 개 저장한다. 깊이 추정 네트워크는 이미지 쌍에 포함되는 소스 이미지에 기초하여 소스 이미지의 화소 좌표 별로 깊이를 추정하여 추정 소스 깊이를 출력한다. 피드백 깊이 추정 네트워크는 이미지 쌍에 포함되는 타겟 이미지 및 추정 소스 깊이에 기초하여 타겟 이미지의 화소 좌표 별로 깊이를 추정하여 추정 타겟 깊이를 출력한다. 자세 추정 네트워크는 이미지 쌍에 포함되는 소스 이미지 및 타겟 이미지와 단안 카메라의 고유 파라미터에 기초하여 소스 이미지와 타겟 이미지 사이의 상대적인 자세 변화를 추정하여 타겟 이미지에 대한 소스 이미지의 상대적인 자세 변화를 나타내는 제1 추정 자세 변환 식 및 소스 이미지에 대한 타겟 이미지의 상대적인 자세 변화를 나타내는 제2 추정 자세 변환 식을 출력한다. 이미지 재구성 모듈은 추정 타겟 깊이, 제1 추정 자세 변환 식, 및 고유 파라미터에 기초하여 소스 이미지를 변환하여 재구성 타겟 이미지를 생성한다. 깊이 재구성 모듈은 추정 소스 깊이, 제2 추정 자세 변환 식, 및 고유 파라미터에 기초하여 재구성 타겟 깊이를 생성한다. 손실 결정 모듈은 타겟 이미지, 재구성 타겟 이미지, 추정 타겟 깊이, 및 재구성 타겟 깊이에 기초하여 최종 손실을 계산한다. 네트워크 훈련 모듈은 최종 손실에 기초하여 최종 손실이 최소화되도록 깊이 추정 네트워크, 피드백 깊이 추정 네트워크, 및 자세 추정 네트워크를 훈련시킨다.
Int. CL G06T 7/50 (2017.01.01) G06T 15/20 (2011.01.01) G06N 20/00 (2019.01.01)
CPC G06T 7/50(2013.01) G06T 15/205(2013.01) G06N 20/00(2013.01) G06T 2207/20081(2013.01) G06T 2207/20084(2013.01)
출원번호/일자 1020210069041 (2021.05.28)
출원인 한국항공대학교산학협력단
등록번호/일자
공개번호/일자 10-2022-0160865 (2022.12.06) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2021.05.28)
심사청구항수 20

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국항공대학교산학협력단 대한민국 경기도 고양시 덕양구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 황승준 경기도 고양시 일산동구
2 백중환 경기도 고양시 일산동구
3 박성준 경기도 고양시 덕양구
4 김규민 경기도 고양시 일산동구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 최정문 대한민국 서울특별시 강남구 언주로**길 ** ***호(솔트특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2021.05.28 수리 (Accepted) 1-1-2021-0618153-67
2 [우선심사신청]심사청구서·우선심사신청서
2022.07.20 수리 (Accepted) 1-1-2022-0756147-20
3 [우선심사신청]선행기술조사의뢰서
[Request for Preferential Examination] Request for Prior Art Search
2022.07.25 수리 (Accepted) 9-1-9999-9999999-89
4 [우선심사신청]선행기술조사보고서
[Request for Preferential Examination] Report of Prior Art Search
2022.07.28 9-1-2022-0011009-74
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
복수의 대상물들에 대해 단안 카메라로 촬영된 영상들 중에서 시간적으로 인접한 두 개의 프레임들에 각각 상응하는 소스 이미지와 타겟 이미지를 포함하는 이미지 쌍을 복수 개 저장하는 학습 데이터베이스;상기 이미지 쌍에 포함되는 상기 소스 이미지에 기초하여 상기 소스 이미지의 화소 좌표 별로 깊이를 추정하여 추정 소스 깊이를 출력하는 깊이 추정 네트워크;상기 이미지 쌍에 포함되는 상기 타겟 이미지 및 상기 추정 소스 깊이에 기초하여 상기 타겟 이미지의 화소 좌표 별로 깊이를 추정하여 추정 타겟 깊이를 출력하는 피드백 깊이 추정 네트워크;상기 이미지 쌍에 포함되는 상기 소스 이미지 및 상기 타겟 이미지와 상기 단안 카메라의 고유 파라미터에 기초하여 상기 소스 이미지와 상기 타겟 이미지 사이의 상대적인 자세 변화를 추정하여 상기 타겟 이미지에 대한 상기 소스 이미지의 상대적인 자세 변화를 나타내는 제1 추정 자세 변환 식 및 상기 소스 이미지에 대한 상기 타겟 이미지의 상대적인 자세 변화를 나타내는 제2 추정 자세 변환 식을 출력하는 자세 추정 네트워크;상기 추정 타겟 깊이, 상기 제1 추정 자세 변환 식, 및 상기 고유 파라미터에 기초하여 상기 소스 이미지를 변환하여 재구성 타겟 이미지를 생성하는 이미지 재구성 모듈;상기 추정 소스 깊이, 상기 제2 추정 자세 변환 식, 및 상기 고유 파라미터에 기초하여 재구성 타겟 깊이를 생성하는 깊이 재구성 모듈;상기 타겟 이미지, 상기 재구성 타겟 이미지, 상기 추정 타겟 깊이, 및 상기 재구성 타겟 깊이에 기초하여 최종 손실을 계산하는 손실 결정 모듈; 및상기 최종 손실에 기초하여 상기 최종 손실이 최소화되도록 상기 깊이 추정 네트워크, 상기 피드백 깊이 추정 네트워크, 및 상기 자세 추정 네트워크를 훈련시키는 네트워크 훈련 모듈을 포함하는 깊이 추정 학습 장치
2 2
제1 항에 있어서, 상기 제1 추정 자세 변환 식은, 상기 타겟 이미지에 대한 상기 소스 이미지의 회전 이동의 정도를 나타내는 회전 변환 식 및 상기 타겟 이미지에 대한 상기 소스 이미지의 병진 이동의 정도를 나타내는 병진 변환 식을 포함하고,상기 제2 추정 자세 변환 식은, 상기 제1 추정 자세 변환 식의 역변환에 상응하는 깊이 추정 학습 장치
3 3
제1 항에 있어서, 상기 이미지 재구성 모듈은,상기 추정 타겟 깊이, 상기 제1 추정 자세 변환 식, 및 상기 고유 파라미터에 기초하여 상기 타겟 이미지의 타겟 화소 좌표가 상기 소스 이미지 상에 투영되는 투영 좌표를 결정하고, 상기 소스 이미지에서 상기 투영 좌표에 인접한 화소들의 화소값들을 보간하여 상기 타겟 화소 좌표에 대한 재구성 화소값을 결정하고, 상기 타겟 이미지에 포함되는 모든 타겟 화소 좌표들에 대한 상기 재구성 화소값들을 포함하는 이미지를 상기 재구성 타겟 이미지로 생성하는 깊이 추정 학습 장치
4 4
제3 항에 있어서, 상기 이미지 재구성 모듈은,상기 고유 파라미터 및 상기 타겟 이미지의 상기 타겟 화소 좌표에 대한 상기 추정 타겟 깊이에 기초하여 상기 타겟 화소 좌표를 3D 좌표로 변환하여 제1 3D 좌표를 생성하고, 상기 제1 3D 좌표에 상기 제1 추정 자세 변환 식을 적용하여 제2 3D 좌표를 생성하고, 상기 고유 파라미터에 기초하여 상기 제2 3D 좌표를 2D 좌표로 변환하여 상기 투영 좌표를 결정하는 깊이 추정 학습 장치
5 5
제3 항에 있어서, 상기 이미지 재구성 모듈은,상기 소스 이미지에 포함되는 화소들 중에서 상기 투영 좌표에 상하좌우로 가장 인접한 4개의 화소들을 선택하고, 상기 투영 좌표와 상기 선택된 4개의 화소들 각각 사이의 거리에 반비례하는 가중치를 사용하여 상기 선택된 4개의 화소들의 화소값들을 가중 평균한 값을 상기 타겟 화소 좌표에 대한 상기 재구성 화소값으로 결정하는 깊이 추정 학습 장치
6 6
제1 항에 있어서, 상기 깊이 재구성 모듈은,상기 고유 파라미터 및 상기 소스 이미지의 소스 화소 좌표에 대한 상기 추정 소스 깊이에 기초하여 상기 소스 화소 좌표를 3D 좌표로 변환하여 제3 3D 좌표를 생성하고, 상기 제3 3D 좌표에 상기 제2 추정 자세 변환 식을 적용하여 제4 3D 좌표를 생성하고, 상기 제4 3D 좌표의 깊이 축에 상응하는 좌표값을 상기 재구성 타겟 깊이로 생성하는 깊이 추정 학습 장치
7 7
제1 항에 있어서, 상기 손실 결정 모듈은,상기 타겟 이미지와 상기 재구성 타겟 이미지 사이의 유사도에 기초하여 이미지 재구성 손실을 계산하는 이미지 재구성 손실 계산부;상기 추정 타겟 깊이와 상기 재구성 타겟 깊이 사이의 유사도에 기초하여 깊이 재구성 손실을 계산하는 깊이 재구성 손실 계산부; 및상기 이미지 재구성 손실 및 상기 깊이 재구성 손실의 가중 평균을 상기 최종 손실로 결정하는 최종 손실 결정부를 포함하는 깊이 추정 학습 장치
8 8
제7 항에 있어서, 상기 이미지 재구성 손실 계산부는,상기 타겟 이미지와 상기 재구성 타겟 이미지에 대한 SSIM(Structural Similarity Index Measure) 계산값을 포함하는 성분 및 상기 타겟 이미지와 상기 재구성 타겟 이미지에서 서로 대응되는 화소 좌표에 대한 화소값들의 차이의 합에 상응하는 성분을 가중 평균한 값을 상기 이미지 재구성 손실로 결정하고,상기 깊이 재구성 손실 계산부는,상기 추정 타겟 깊이와 상기 재구성 타겟 깊이에 대한 SSIM(Structural Similarity Index Measure) 계산값을 포함하는 성분 및 서로 대응되는 화소 좌표에 대한 상기 추정 타겟 깊이와 상기 재구성 타겟 깊이의 차이의 합에 상응하는 성분을 가중 평균한 값을 상기 깊이 재구성 손실로 결정하는 깊이 추정 학습 장치
9 9
제1 항에 있어서,상기 이미지 쌍에 포함되는 상기 소스 이미지 및 상기 타겟 이미지에 기초하여 상기 단안 카메라의 상기 고유 파라미터를 추정하고, 상기 고유 파라미터를 상기 자세 추정 네트워크, 상기 이미지 재구성 모듈, 및 상기 깊이 재구성 모듈에 제공하는 카메라 파라미터 추정 네트워크를 더 포함하고,상기 네트워크 훈련 모듈은 상기 최종 손실에 기초하여 상기 최종 손실이 최소화되도록 상기 카메라 파라미터 추정 네트워크를 훈련시키는 깊이 추정 학습 장치
10 10
복수의 대상물들에 대해 단안 카메라로 촬영된 영상들 중에서 시간적으로 인접한 두 개의 프레임들에 각각 상응하는 소스 이미지와 타겟 이미지를 포함하는 이미지 쌍을 복수 개 저장하는 학습 데이터베이스;상기 이미지 쌍에 포함되는 상기 소스 이미지에 기초하여 상기 소스 이미지의 화소 좌표 별로 깊이를 추정하여 추정 소스 깊이를 출력하는 깊이 추정 네트워크;상기 이미지 쌍에 포함되는 상기 타겟 이미지 및 상기 추정 소스 깊이에 기초하여 상기 타겟 이미지의 화소 좌표 별로 깊이를 추정하여 추정 타겟 깊이를 출력하는 피드백 깊이 추정 네트워크;상기 이미지 쌍에 포함되는 상기 소스 이미지 및 상기 타겟 이미지와 상기 단안 카메라의 고유 파라미터에 기초하여 상기 소스 이미지와 상기 타겟 이미지 사이의 상대적인 자세 변화를 추정하여 상기 타겟 이미지에 대한 상기 소스 이미지의 상대적인 자세 변화를 나타내는 제1 추정 자세 변환 식 및 상기 소스 이미지에 대한 상기 타겟 이미지의 상대적인 자세 변화를 나타내는 제2 추정 자세 변환 식을 출력하는 자세 추정 네트워크;상기 추정 타겟 깊이, 상기 제1 추정 자세 변환 식, 및 상기 고유 파라미터에 기초하여 상기 소스 이미지를 변환하여 재구성 타겟 이미지를 생성하는 이미지 재구성 모듈;상기 추정 소스 깊이, 상기 제2 추정 자세 변환 식, 및 상기 고유 파라미터에 기초하여 재구성 타겟 깊이를 생성하는 깊이 재구성 모듈;상기 타겟 이미지, 상기 재구성 타겟 이미지, 상기 추정 타겟 깊이, 및 상기 재구성 타겟 깊이에 기초하여 최종 손실을 계산하는 손실 결정 모듈;상기 최종 손실에 기초하여 상기 최종 손실이 최소화되도록 상기 깊이 추정 네트워크, 상기 피드백 깊이 추정 네트워크, 및 상기 자세 추정 네트워크를 훈련시키는 네트워크 훈련 모듈;상기 네트워크 훈련 모듈이 상기 학습 데이터베이스에 저장된 상기 복수의 이미지 쌍들을 사용하여 상기 깊이 추정 네트워크 및 상기 피드백 깊이 추정 네트워크에 대한 훈련을 완료한 후, 연속적으로 촬영된 이미지들에 대해 직전 이미지를 상기 소스 이미지로서 상기 깊이 추정 네트워크에 제공하고, 현재 이미지를 상기 타겟 이미지로서 상기 피드백 깊이 추정 네트워크에 제공하는 이미지 제공 모듈; 및상기 피드백 깊이 추정 네트워크로부터 출력되는 상기 추정 타겟 깊이를 상기 이미지 제공 모듈로부터 출력되는 상기 타겟 이미지와 연관시켜 깊이 정보를 포함하는 이미지로서 저장하는 이미지 저장 모듈을 포함하는 깊이 추정 시스템
11 11
학습 데이터베이스에 복수의 대상물들에 대해 단안 카메라로 촬영된 영상들 중에서 시간적으로 인접한 두 개의 프레임들에 각각 상응하는 소스 이미지와 타겟 이미지를 포함하는 이미지 쌍을 복수 개 저장하는 단계;깊이 추정 네트워크가 상기 이미지 쌍에 포함되는 상기 소스 이미지에 기초하여 상기 소스 이미지의 화소 좌표 별로 깊이를 추정하여 추정 소스 깊이를 출력하는 단계;피드백 깊이 추정 네트워크가 상기 이미지 쌍에 포함되는 상기 타겟 이미지 및 상기 추정 소스 깊이에 기초하여 상기 타겟 이미지의 화소 좌표 별로 깊이를 추정하여 추정 타겟 깊이를 출력하는 단계;자세 추정 네트워크가 상기 이미지 쌍에 포함되는 상기 소스 이미지 및 상기 타겟 이미지와 상기 단안 카메라의 고유 파라미터에 기초하여 상기 소스 이미지와 상기 타겟 이미지 사이의 상대적인 자세 변화를 추정하여 상기 타겟 이미지에 대한 상기 소스 이미지의 상대적인 자세 변화를 나타내는 제1 추정 자세 변환 식 및 상기 소스 이미지에 대한 상기 타겟 이미지의 상대적인 자세 변화를 나타내는 제2 추정 자세 변환 식을 출력하는 단계;이미지 재구성 모듈이 상기 추정 타겟 깊이, 상기 제1 추정 자세 변환 식, 및 상기 고유 파라미터에 기초하여 상기 소스 이미지를 변환하여 재구성 타겟 이미지를 생성하는 단계;깊이 재구성 모듈이 상기 추정 소스 깊이, 상기 제2 추정 자세 변환 식, 및 상기 고유 파라미터에 기초하여 재구성 타겟 깊이를 생성하는 단계;손실 결정 모듈이 상기 타겟 이미지, 상기 재구성 타겟 이미지, 상기 추정 타겟 깊이, 및 상기 재구성 타겟 깊이에 기초하여 최종 손실을 계산하는 단계; 및네트워크 훈련 모듈이 상기 최종 손실에 기초하여 상기 최종 손실이 최소화되도록 상기 깊이 추정 네트워크, 상기 피드백 깊이 추정 네트워크, 및 상기 자세 추정 네트워크를 훈련시키는 단계를 포함하는 깊이 추정 학습 방법
12 12
제11 항에 있어서, 상기 제1 추정 자세 변환 식은, 상기 타겟 이미지에 대한 상기 소스 이미지의 회전 이동의 정도를 나타내는 회전 변환 식 및 상기 타겟 이미지에 대한 상기 소스 이미지의 병진 이동의 정도를 나타내는 병진 변환 식을 포함하고,상기 제2 추정 자세 변환 식은, 상기 제1 추정 자세 변환 식의 역변환에 상응하는 깊이 추정 학습 방법
13 13
제11 항에 있어서, 상기 이미지 재구성 모듈이 상기 재구성 타겟 이미지를 생성하는 단계는,상기 추정 타겟 깊이, 상기 제1 추정 자세 변환 식, 및 상기 고유 파라미터에 기초하여 상기 타겟 이미지의 타겟 화소 좌표가 상기 소스 이미지 상에 투영되는 투영 좌표를 결정하는 단계;상기 소스 이미지에서 상기 투영 좌표에 인접한 화소들의 화소값들을 보간하여 상기 타겟 화소 좌표에 대한 재구성 화소값을 결정하는 단계; 및상기 타겟 이미지에 포함되는 모든 타겟 화소 좌표들에 대한 상기 재구성 화소값들을 포함하는 이미지를 상기 재구성 타겟 이미지로 생성하는 단계를 포함하는 깊이 추정 학습 방법
14 14
제13 항에 있어서, 상기 추정 타겟 깊이, 상기 제1 추정 자세 변환 식, 및 상기 고유 파라미터에 기초하여 상기 투영 좌표를 결정하는 단계는,상기 고유 파라미터 및 상기 타겟 이미지의 상기 타겟 화소 좌표에 대한 상기 추정 타겟 깊이에 기초하여 상기 타겟 화소 좌표를 3D 좌표로 변환하여 제1 3D 좌표를 생성하는 단계;상기 제1 3D 좌표에 상기 제1 추정 자세 변환 식을 적용하여 제2 3D 좌표를 생성하는 단계; 및상기 고유 파라미터에 기초하여 상기 제2 3D 좌표를 2D 좌표로 변환하여 상기 투영 좌표를 결정하는 단계를 포함하는 깊이 추정 학습 방법
15 15
제13 항에 있어서, 상기 소스 이미지에서 상기 투영 좌표에 인접한 화소들의 화소값들을 보간하여 상기 타겟 화소 좌표에 대한 상기 재구성 화소값을 결정하는 단계는,상기 소스 이미지에 포함되는 화소들 중에서 상기 투영 좌표에 상하좌우로 가장 인접한 4개의 화소들을 선택하는 단계; 및상기 투영 좌표와 상기 선택된 4개의 화소들 각각 사이의 거리에 반비례하는 가중치를 사용하여 상기 선택된 4개의 화소들의 화소값들을 가중 평균한 값을 상기 타겟 화소 좌표에 대한 상기 재구성 화소값으로 결정하는 단계를 포함하는 깊이 추정 학습 방법
16 16
제11 항에 있어서, 상기 깊이 재구성 모듈이 상기 재구성 타겟 깊이를 생성하는 단계는,상기 고유 파라미터 및 상기 소스 이미지의 소스 화소 좌표에 대한 상기 추정 소스 깊이에 기초하여 상기 소스 화소 좌표를 3D 좌표로 변환하여 제3 3D 좌표를 생성하는 단계;상기 제3 3D 좌표에 상기 제2 추정 자세 변환 식을 적용하여 제4 3D 좌표를 생성하는 단계; 및상기 제4 3D 좌표의 깊이 축에 상응하는 좌표값을 상기 재구성 타겟 깊이로 생성하는 단계를 포함하는 깊이 추정 학습 방법
17 17
제11 항에 있어서, 상기 손실 결정 모듈이 상기 최종 손실을 계산하는 단계는,상기 타겟 이미지와 상기 재구성 타겟 이미지 사이의 유사도에 기초하여 이미지 재구성 손실을 계산하는 단계;상기 추정 타겟 깊이와 상기 재구성 타겟 깊이 사이의 유사도에 기초하여 깊이 재구성 손실을 계산하는 단계; 및상기 이미지 재구성 손실 및 상기 깊이 재구성 손실의 가중 평균을 상기 최종 손실로 결정하는 단계를 포함하는 깊이 추정 학습 방법
18 18
제17 항에 있어서, 상기 이미지 재구성 손실을 계산하는 단계는,상기 타겟 이미지와 상기 재구성 타겟 이미지에 대한 SSIM(Structural Similarity Index Measure) 계산값을 포함하는 성분 및 상기 타겟 이미지와 상기 재구성 타겟 이미지에서 서로 대응되는 화소 좌표에 대한 화소값들의 차이의 합에 상응하는 성분을 가중 평균한 값을 상기 이미지 재구성 손실로 결정하는 단계를 포함하고,상기 깊이 재구성 손실을 계산하는 단계는,상기 추정 타겟 깊이와 상기 재구성 타겟 깊이에 대한 SSIM(Structural Similarity Index Measure) 계산값을 포함하는 성분 및 서로 대응되는 화소 좌표에 대한 상기 추정 타겟 깊이와 상기 재구성 타겟 깊이의 차이의 합에 상응하는 성분을 가중 평균한 값을 상기 깊이 재구성 손실로 결정하는 단계를 포함하는 깊이 추정 학습 방법
19 19
제11 항에 있어서,카메라 파라미터 추정 네트워크가 상기 이미지 쌍에 포함되는 상기 소스 이미지 및 상기 타겟 이미지에 기초하여 상기 단안 카메라의 상기 고유 파라미터를 추정하고, 상기 고유 파라미터를 상기 자세 추정 네트워크, 상기 이미지 재구성 모듈, 및 상기 깊이 재구성 모듈에 제공하는 단계; 및상기 네트워크 훈련 모듈이 상기 최종 손실에 기초하여 상기 최종 손실이 최소화되도록 상기 카메라 파라미터 추정 네트워크를 훈련시키는 단계를 더 포함하는 깊이 추정 학습 방법
20 20
학습 데이터베이스에 복수의 대상물들에 대해 단안 카메라로 촬영된 영상들 중에서 시간적으로 인접한 두 개의 프레임들에 각각 상응하는 소스 이미지와 타겟 이미지를 포함하는 이미지 쌍을 복수 개 저장하는 단계;깊이 추정 네트워크가 상기 이미지 쌍에 포함되는 상기 소스 이미지에 기초하여 상기 소스 이미지의 화소 좌표 별로 깊이를 추정하여 추정 소스 깊이를 출력하는 단계;피드백 깊이 추정 네트워크가 상기 이미지 쌍에 포함되는 상기 타겟 이미지 및 상기 추정 소스 깊이에 기초하여 상기 타겟 이미지의 화소 좌표 별로 깊이를 추정하여 추정 타겟 깊이를 출력하는 단계;자세 추정 네트워크가 상기 이미지 쌍에 포함되는 상기 소스 이미지 및 상기 타겟 이미지와 상기 단안 카메라의 고유 파라미터에 기초하여 상기 소스 이미지와 상기 타겟 이미지 사이의 상대적인 자세 변화를 추정하여 상기 타겟 이미지에 대한 상기 소스 이미지의 상대적인 자세 변화를 나타내는 제1 추정 자세 변환 식 및 상기 소스 이미지에 대한 상기 타겟 이미지의 상대적인 자세 변화를 나타내는 제2 추정 자세 변환 식을 출력하는 단계;이미지 재구성 모듈이 상기 추정 타겟 깊이, 상기 제1 추정 자세 변환 식, 및 상기 고유 파라미터에 기초하여 상기 소스 이미지를 변환하여 재구성 타겟 이미지를 생성하는 단계;깊이 재구성 모듈이 상기 추정 소스 깊이, 상기 제2 추정 자세 변환 식, 및 상기 고유 파라미터에 기초하여 재구성 타겟 깊이를 생성하는 단계;손실 결정 모듈이 상기 타겟 이미지, 상기 재구성 타겟 이미지, 상기 추정 타겟 깊이, 및 상기 재구성 타겟 깊이에 기초하여 최종 손실을 계산하는 단계;네트워크 훈련 모듈이 상기 최종 손실에 기초하여 상기 최종 손실이 최소화되도록 상기 깊이 추정 네트워크, 상기 피드백 깊이 추정 네트워크, 및 상기 자세 추정 네트워크를 훈련시키는 단계;상기 네트워크 훈련 모듈이 상기 학습 데이터베이스에 저장된 상기 복수의 이미지 쌍들을 사용하여 상기 깊이 추정 네트워크 및 상기 피드백 깊이 추정 네트워크에 대한 훈련을 완료한 후, 이미지 제공 모듈이 연속적으로 촬영된 이미지들에 대해 직전 이미지를 상기 소스 이미지로서 상기 깊이 추정 네트워크에 제공하고, 현재 이미지를 상기 타겟 이미지로서 상기 피드백 깊이 추정 네트워크에 제공하는 단계; 및이미지 저장 모듈이 상기 피드백 깊이 추정 네트워크로부터 출력되는 상기 추정 타겟 깊이를 상기 이미지 제공 모듈로부터 출력되는 상기 타겟 이미지와 연관시켜 깊이 정보를 포함하는 이미지로서 저장하는 단계를 포함하는 깊이 추정 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.