맞춤기술찾기

이전대상기술

3차원 객체 모델 생성을 위한 학습 장치 및 방법과 3차원 객체 모델 생성 방법

  • 기술번호 : KST2023001671
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 학습 장치에서 영상을 이용하여 3차원 객체 모델을 생성하기 위한 학습 방법이 제공된다. 학습 방법은 3차원 모델 DB에 저장되어 있는 카테고리별 복수의 모델을 이용하여 각 카테고리에 따른 인코더와 점유 네트워크의 파라미터를 학습하는 단계, 상기 각 카테고리의 인코더와 점유 네트워크의 파라미터를 이용하여 상기 각 카테고리 내에서 모델별 잠재 벡터를 학습하는 단계, 그리고 상기 각 카테고리에 따라 모델별 잠재 벡터를 잠재 벡터 DB에 저장하는 단계를 포함한다.
Int. CL G06T 17/20 (2006.01.01) G06T 7/90 (2017.01.01) G06T 7/50 (2017.01.01) G06T 15/10 (2006.01.01) G06T 15/20 (2011.01.01) G06V 20/64 (2022.01.01) G06N 20/00 (2019.01.01)
CPC G06T 17/20(2013.01) G06T 7/90(2013.01) G06T 7/50(2013.01) G06T 15/10(2013.01) G06T 15/205(2013.01) G06V 20/64(2013.01) G06N 20/00(2013.01) G06T 2207/20081(2013.01)
출원번호/일자 1020220011327 (2022.01.26)
출원인 한국전자통신연구원
등록번호/일자
공개번호/일자 10-2023-0114949 (2023.08.02) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2022.12.22)
심사청구항수 18

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자통신연구원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 김재헌 대전광역시 유성구
2 구본기 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 이철희 대한민국 서울특별시 강남구 도곡로**길 **(역삼동) 베리타스빌딩, *-*층(베리타스국제특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2022.01.26 수리 (Accepted) 1-1-2022-0099339-12
2 [대리인선임]대리인(대표자)에 관한 신고서
[Appointment of Agent] Report on Agent (Representative)
2022.11.16 수리 (Accepted) 1-1-2022-1221614-72
3 [심사청구]심사청구서·우선심사신청서
2022.12.22 수리 (Accepted) 1-1-2022-1384601-12
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
학습 장치에서 영상을 이용하여 3차원 객체 모델을 생성하기 위한 학습 방법에서, 3차원 모델 DB에 저장되어 있는 카테고리별 복수의 모델을 이용하여 각 카테고리에 따른 인코더와 점유 네트워크의 파라미터를 학습하는 단계, 상기 각 카테고리의 인코더와 점유 네트워크의 파라미터를 이용하여 상기 각 카테고리 내에서 모델별 잠재 벡터를 학습하는 단계, 그리고 상기 각 카테고리에 따라 모델별 잠재 벡터를 잠재 벡터 DB에 저장하는 단계를 포함하는 학습 방법
2 2
제1항에서, 상기 인코더와 점유 네트워크의 파라미터를 학습하는 단계는 상기 인코더에서 어느 하나의 카테고리의 각 모델에 대한 2차원 영상으로부터 잠재 벡터를 생성하는 단계, 상기 점유 네트워크에서 상기 잠재 벡터와 각 점의 3차원 좌표로부터 상기 각 점에 대한 점유 여부와 RGB 색을 출력하는 단계, 상기 각 점에 대한 점유 여부와 RGB 색으로부터 생성되는 다수의 2차원 렌더링 영상과 해당 모델의 다중 뷰 렌더링 영상간 차이를 손실로 계산하는 단계, 그리고 상기 손실을 토대로 상기 인코더와 상기 점유 네트워크의 파라미터를 학습하는 단계를 포함하는 학습 방법
3 3
제2항에서,상기 차이는 두 영상간 각 픽셀의 RGB 색 차이 또는 깊이 값 차이를 포함하는 학습 방법
4 4
제1항에서, 상기 인코더와 점유 네트워크의 파라미터를 학습하는 단계는 상기 인코더에서 어느 하나의 카테고리의 각 모델에 대한 2차원 영상으로부터 잠재 벡터를 생성하는 단계, 상기 점유 네트워크에서 상기 잠재 벡터와 각 점의 3차원 좌표로부터 상기 각 점에 대한 점유 여부와 RGB 색을 출력하는 단계, 상기 각 점에 대한 점유 여부와 RGB 색으로부터 생성되는 3차원 메쉬 모델과 해당 모델의 3차원 메쉬 모델 자체의 3차원 차이를 손실로 계산하는 단계, 그리고 상기 손실을 토대로 상기 인코더와 상기 점유 네트워크의 파라미터를 학습하는 단계를 포함하는 학습 방법
5 5
제4항에서,상기 차이는 두 모델의 대응되는 3차원 점의 좌표 차이를 포함하는 학습 방법
6 6
제1항에서, 상기 각 카테고리 내에서 모델별 잠재 벡터를 학습하는 단계는 해당 카테고리에 해당되는 인코더와 점유 네트워크의 파라미터를 설정하는 단계, 상기 인코더에서 해당 카테고리의 각 모델의 2차원 영상으로부터 각 모델의 잠재 벡터를 생성하는 단계, 상기 점유 네트워크에서 상기 잠재 벡터와 각 점의 3차원 좌표로부터 상기 각 점에 대한 점유 여부와 RGB 색을 출력하는 단계, 상기 각 점에 대한 점유 여부와 RGB 색으로부터 생성되는 다수의 2차원 렌더링 영상과 해당 모델의 다중 뷰 렌더링 영상간 차이를 손실로 계산하는 단계, 그리고 상기 손실을 토대로 상기 인코더에서 생성된 각 모델의 잠재 벡터의 파라미터를 학습하는 단계를 포함하는 학습 방법
7 7
제1항에서, 상기 각 카테고리 내에서 모델별 잠재 벡터를 학습하는 단계는 해당 카테고리에 해당되는 인코더와 점유 네트워크의 파라미터를 설정하는 단계, 상기 인코더에서 해당 카테고리의 각 모델의 2차원 영상으로부터 각 모델의 잠재 벡터를 생성하는 단계, 상기 점유 네트워크에서 상기 잠재 벡터와 각 점의 3차원 좌표로부터 상기 각 점에 대한 점유 여부와 RGB 색을 출력하는 단계, 상기 각 점에 대한 점유 여부와 RGB 색으로부터 생성되는 3차원 메쉬 모델과 해당 모델의 3차원 메쉬 모델 자체의 3차원 차이를 손실로 계산하는 단계, 그리고 상기 손실을 토대로 상기 인코더에서 생성된 각 모델의 잠재 벡터의 파라미터를 학습하는 단계를 포함하는 학습 방법
8 8
3차원 모델 생성 장치에서 카메라를 통해 촬영된 영상으로부터 영상 내 객체에 대한 3차원 객체 모델을 생성하는 방법에서, 3차원 모델 DB에 저장되어 있는 카테고리별 복수의 모델을 이용하여 상기 카메라를 통해 촬영된 영상 내의 객체들에 각각 대응하는 모델을 인식하는 단계, 각 카테고리에 따라 모델별 잠재 벡터를 저장하고 있는 잠재 벡터 DB에서 상기 인식된 모델의 잠재 벡터를 획득하는 단계, 그리고 상기 잠재 벡터와 상기 인식된 모델의 카테고리에 해당되는 점유 네트워크의 파라미터를 사용하여, 상기 잠재 벡터의 파라미터를 변화시키는 단계를 포함하는 3차원 객체 모델 생성 방법
9 9
제8항에서, 상기 변화시키는 단계는 상기 점유 네트워크에서 상기 잠재 벡터와 각 점의 3차원 좌표로부터 상기 각 점에 대한 점유 여부와 RGB 색을 출력하는 단계, 상기 각 점에 대한 점유 여부와 RGB 색으로부터 생성되는 다수의 2차원 렌더링 영상과 상기 카메라를 통해 촬영한 영상의 실제 모델에 대한 다중 뷰의 2차원 영상간 차이를 손실로 계산하는 단계, 그리고 상기 손실을 토대로 상기 잠재 벡터의 파라미터를 학습하는 단계를 포함하는 3차원 객체 모델 생성 방법
10 10
제9항에서, 상기 손실은 두 영상간 각 픽셀의 RGB 색 차이 또는 깊이 값 차이를 포함하는 3차원 객체 모델 생성 방법
11 11
제8항에서,상기 변화시키는 단계는 각 카테고리에 따른 점유 네트워크의 파라미터가 저장되어 있는 네트워크 파라미터 DB에서 상기 인식된 모델의 카테고리에 해당되는 점유 네트워크의 파라미터를 호출하여 설정하는 단계를 포함하는 3차원 객체 모델 생성 방법
12 12
영상을 이용하여 3차원 객체 모델을 생성하기 위한 학습 장치에서, 카테고리별 복수의 모델을 저장하고 있는 3차원 모델 DB, 상기 카테고리별 각 모델에 대한 2차원 영상으로부터 상기 각 모델에 대한 잠재 벡터를 생성하는 인코더, 상기 각 모델에 대한 잠재 벡터와 각 점의 3차원 좌표로부터 상기 각 점에 대한 점유 여부와 RGB 색을 출력하는 점유 네트워크, 상기 점유 네트워크의 출력으로부터 생성되는 각 모델의 결과와 상기 해당 모델을 렌더링하여 생성되는 각 모델의 결과간 차이를 손실로 계산하고, 상기 손실을 토대로 상기 인코더 및 상기 점유 네트워크의 파라미터를 학습하는 손실 계산부, 그리고 상기 카테고리별 학습된 상기 인코더 및 상기 점유 네트워크의 파라미터를 저장하는 네트워크 파라미터 DB를 포함하는 학습 장치
13 13
제12항에서,상기 점유 네트워크의 출력으로부터 각 모델에 대한 다수의 2차원 영상을 생성하여 상기 손실 계산부로 전달하는 뉴럴 렌더러를 더 포함하며,상기 손실 계산부는 상기 각 모델의 다수의 2차원 영상과 해당 모델의 다중 뷰 렌더링 영상간 색 차이 또는 깊이 차이를 상기 손실로 계산하는 학습 장치
14 14
제12항에서, 상기 점유 네트워크의 출력으로부터 각 모델의 3차원 메쉬 모델을 생성하여 상기 손실 계산부로 전달하는 메쉬 모델 생성부를 더 포함하고, 상기 손실 계산부는 상기 각 모델의 3차원 메쉬 모델과 해당 모델의 3차원 메쉬 모델 자체의 3차원 점의 좌표 차이를 손실로 계산하는 학습 장치
15 15
제12항에서, 상기 손실 계산부는 상기 카테고리별 상기 점유 네트워크의 파라미터를 고정시킨 상태에서, 상기 각 카테고리 내의 모델별 상기 인코더로부터 출력되는 잠재 벡터의 파라미터를 학습하는 학습 장치
16 16
제15항에서,상기 점유 네트워크의 출력으로부터 각 모델에 대한 다수의 2차원 영상을 생성하여 상기 손실 계산부로 전달하는 뉴럴 렌더러를 더 포함하며,상기 손실 계산부는 상기 각 모델의 다수의 2차원 영상과 해당 모델의 다중 뷰 렌더링 영상간 색 차이 또는 깊이 차이를 손실로 계산하고, 상기 손실을 토대로 상기 각 모델에 대한 잠재 벡터의 파라미터를 학습하는 학습 장치
17 17
제15항에서, 상기 점유 네트워크의 출력으로부터 각 모델의 3차원 메쉬 모델을 생성하여 상기 손실 계산부로 전달하는 메쉬 모델 생성부를 더 포함하고, 상기 손실 계산부는 상기 각 모델의 3차원 메쉬 모델과 해당 모델의 3차원 메쉬 모델 자체의 3차원 점의 좌표 차이를 손실로 계산하고, 상기 손실을 토대로 상기 각 모델에 대한 잠재 벡터의 파라미터를 학습하는 학습 장치
18 18
제15항에서, 상기 각 카테고리 내의 모델별 학습된 잠재 벡터를 저장하는 잠재 벡터 DB를 더 포함하는 학습 장치
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 과학기술정보통신부 한국전자통신연구원 실감콘텐츠핵심기술개발(R&D) 실 공간 대상 XR 생성 및 변형/증강 기술 개발