맞춤기술찾기

이전대상기술

사람에 대한 3D 모델을 생성하는 전자 장치 및 그 동작 방법

  • 기술번호 : KST2023010951
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 사람에 대한 3D 모델을 생성하는 전자 장치 및 그 동작 방법이 개시된다. 본 개시의 일 실시예에 따른 전자 장치의 동작 방법은, 모델링 대상이 되는 사람을 포함하는 이미지를 입력 받는 단계, 상기 이미지로부터 상기 사람의 신체를 구성하는 부위별로 원근 투영 특성을 포함하는 부위별 정규화 이미지를 생성하는 단계, 상기 부위별 정규화 이미지로부터 상기 사람의 외형을 나타내는 부위별 외형 제어 파라미터를 포함하는 부위별 제어 파라미터를 출력하는 단계, 상기 부위별 제어 파라미터에 기반하여 상기 사람의 외형 정보를 누적하여 자세와 크기가 고정된 움직임이 없는 정적인 상태의 정준 3D 모델을 업데이트하는 단계, 사용자로부터 최종 출력인 사람의 3D 모델을 제어하는 제어 정보를 입력 받아 상기 제어 정보에 기반하여 상기 정준 3D 모델을 제어하는 단계, 상기 제어된 정준 3D 모델에 기반하여 상기 사람의 3D 모델을 구성하는 부위별 렌더링 이미지를 생성하는 단계, 및 상기 부위별 렌더링 이미지를 합성하여 상기 사람의 3D 모델을 생성하는 단계를 포함할 수 있다.
Int. CL G06T 17/20 (2006.01.01) G06T 15/20 (2011.01.01) G06T 15/50 (2006.01.01) G06T 7/73 (2017.01.01) G06T 13/40 (2011.01.01)
CPC G06T 17/20(2013.01) G06T 15/205(2013.01) G06T 15/50(2013.01) G06T 7/73(2013.01) G06T 13/40(2013.01) G06T 2207/30196(2013.01) G06T 2207/20081(2013.01)
출원번호/일자 1020230066309 (2023.05.23)
출원인 한국전자통신연구원
등록번호/일자
공개번호/일자 10-2023-0165138 (2023.12.05) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보 대한민국  |   1020220064794   |   2022.05.26
대한민국  |   1020230000924   |   2023.01.03
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2023.05.23)
심사청구항수 20

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자통신연구원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 김호원 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인 무한 대한민국 서울특별시 강남구 언주로 ***, *층(역삼동,화물재단빌딩)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2023.05.23 수리 (Accepted) 1-1-2023-0570892-44
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
전자 장치의 동작 방법에 있어서, 모델링 대상이 되는 사람을 포함하는 이미지를 입력 받는 단계; 상기 이미지로부터 상기 사람의 신체를 구성하는 부위별로 원근 투영 특성을 포함하는 부위별 정규화 이미지를 생성하는 단계; 상기 부위별 정규화 이미지로부터 상기 사람의 외형을 나타내는 부위별 외형 제어 파라미터를 포함하는 부위별 제어 파라미터를 출력하는 단계;상기 부위별 제어 파라미터에 기반하여 상기 사람의 외형 정보를 누적하여 자세와 크기가 고정된 움직임이 없는 정적인 상태의 정준 3D 모델을 업데이트하는 단계; 사용자로부터 최종 출력인 사람의 3D 모델을 제어하는 제어 정보를 입력 받아 상기 제어 정보에 기반하여 상기 정준 3D 모델을 제어하는 단계 - 상기 제어 정보는 상기 사람의 3D 모델을 표시할 카메라 시점 제어 정보, 상기 사람의 3D 모델에 대한 자세 제어 정보 및 상기 사람의 3D 모델에 대한 스타일 제어 정보를 포함함 -;상기 제어된 정준 3D 모델에 기반하여 상기 사람의 3D 모델을 구성하는 부위별 렌더링 이미지를 생성하는 단계; 및 상기 부위별 렌더링 이미지를 합성하여 상기 사람의 3D 모델을 생성하는 단계 를 포함하는 동작 방법
2 2
제1항에 있어서, 상기 원근 투영 특성을 포함하는 상기 부위별 정규화 이미지를 생성하는 단계는, 상기 이미지를 촬영한 카메라의 좌표계를 기준으로 상기 사람의 자세를 나타내는 전신 3D 자세(whole body 3D pose)를 예측하는 단계; 및 상기 전신 3D 자세를 기반으로 상기 부위별 정규화 이미지를 생성하는 단계를 포함하는 동작 방법
3 3
제2항에 있어서,상기 전신 3D 자세를 예측하는 단계는,상기 사람의 전신에서 관절의 위치 및 자세를 예측하는 단계; 머리의 자세를 예측하는 단계; 양 손의 자세를 예측하는 단계; 및상기 전신에 대한 상기 관절의 위치 및 상기 자세, 상기 머리의 자세 및 상기 양 손의 자세를 결합하여 상기 좌표계를 기준으로 상기 전신 3D 자세를 예측하는 단계를 포함하는, 동작 방법
4 4
제2항에 있어서,상기 전신 3D 자세를 기반으로 상기 부위별 정규화 이미지를 생성하는 단계는,상기 전신 3D 자세를 이용하여 머리, 양 손 및 전신 각각을 촬영할 수 있도록 각 부위로부터 일정 거리만큼 떨어진 위치에 상기 각 부위를 촬영하는 가상의 정규화 카메라를 배치하는 단계; 및 상기 각 부위를 촬영하는 상기 가상의 정규화 카메라를 이용하여 원근 투영 특성을 포함하는 상기 부위별 정규화 이미지를 생성하는 단계를 포함하는, 동작 방법
5 5
제1항에 있어서, 상기 부위별 정규화 이미지는,상기 신체를 구성하는 각 부위를 촬영하는 가상의 정규화 카메라를 통해 획득된 머리 정규화 이미지, 양 손 정규화 이미지 및 전신 정규화 이미지를 포함하는, 동작 방법
6 6
제1항에 있어서, 상기 부위별 제어 파라미터를 출력하는 단계는,부위별 제어 파라미터 예측 모델에 상기 부위별 제어 파라미터 예측 모델과 대응하는 상기 부위별 정규화 이미지를 입력하여 상기 사람의 외형을 나타내는 부위별 외형 제어 파라미터를 포함하는 부위별 제어 파라미터를 출력하는, 동작 방법
7 7
제1항에 있어서,상기 정준 3D 모델을 생성하는 단계는, 상기 부위별 제어 파라미터에 포함되는 상기 사람의 외형을 나타내는 부위별 외형 제어 파라미터를 통합하여 전신 3D 자세를 업데이트하는 단계; 및 상기 업데이트된 상기 전신 3D 자세 및 상기 부위별 제어 파라미터를 이용하여 상기 정준 3D 모델을 업데이트하는 단계를 포함하는, 동작 방법
8 8
제7항에 있어서,상기 전신 3D 자세를 업데이트 하는 단계는,상기 부위별 외형 제어 파라미터에 포함되는 부위별 포즈 정보들 각각을 상기 정규화 이미지를 촬영한 부위별 정규화 카메라들 중 전신 정규화 카메라의 좌표계로 변환하는 단계; 및 상기 전신 정규화 카메라의 좌표계로 변환된 부위별 포즈 정보들을 통합하여 상기 전신 정규화 카메라의 상기 좌표계로 상기 전신 3D 자세를 업데이트하는 단계를 포함하는, 동작 방법
9 9
제8항에 있어서,상기 업데이트된 상기 전신 3D 자세 및 상기 부위별 제어 파라미터를 이용하여 상기 정준 3D 모델을 업데이트하는 단계는,상기 전신 정규화 카메라의 좌표계에서 표현되는 상기 신체에 대한 3D 포인트들을 상기 정준 3D 모델이 표시되는 좌표계로 변환하여 상기 정준 3D 모델에 누적함으로써 상기 정준 3D 모델을 업데이트하는, 동작 방법
10 10
제1항에 있어서,상기 부위별 렌더링 이미지를 생성하는 단계는, 상기 정준 3D 모델에 포함되는 3D 포인트들의 위치, 전신 정규화 카메라의 관찰 시점 및 상기 부위별 제어 파라미터에 포함되는 부위별 외형 제어 파라미터를 입력으로하여 상기 3D 포인트들이 정준 모델 좌표계에서 임의의 공간에 존재할 확률을 나타내는 밀도값, 상기 정준 모델 좌표계에서 상기 3D 포인트들의 칼라값 및 상기 3D 포인트들이 존재하는 부위에 대한 정보를 포함하는 출력을 출력하도록 부위별 뉴럴 렌더링 모델을 학습시키는 단계; 및 상기 학습된 상기 부위별 뉴럴 렌더링 모델의 상기 출력을 이용한 볼륨 렌더링을 통해 상기 제어된 정준 3D 모델에 대응하는 부위별 렌더링 이미지를 생성하는 단계를 포함하는, 동작 방법
11 11
제1항에 있어서,부위별 렌더링 이미지는,부위별 정규화 이미지에 대응하는 머리 렌더링 이미지, 양 손 렌더링 이미지 및 전신 렌더링 이미지를 포함하고,상기 부위별 렌더링 이미지를 합성하여 상기 사람의 3D 모델을 생성하는 단계는, 상기 전신 렌더링 이미지에 상기 머리 렌더링 이미지 및 상기 양 손 렌더링 이미지를 합성할 때 각각의 렌더링 이미지에 가중치를 부여하되, 상기 머리 렌더링 이미지 및 상기 양 손 렌더링 이미지의 가중치를 상기 전신 렌더링 이미지의 가중치보다 크게 결정하는, 동작 방법
12 12
제11항에 있어서,상기 전신 렌더링 이미지와 상기 머리 렌더링 이미지가 오버랩되는 경계 부분에서 상기 머리 렌더링 이미지의 상기 가중치는 머리 방향으로 가까워질수록 상기 전신 렌더링 이미지의 상기 가중치보다 크게 결정되고,상기 전신 렌더링 이미지와 상기 양 손 렌더링 이미지가 오버랩되는 경계 부분에서 상기 양 손 렌더링 이미지의 상기 가중치는 양 손 방향으로 가까워질수록 상기 전신 렌더링 이미지의 상기 가중치보다 크게 결정되는, 동작 방법
13 13
전자 장치의 동작 방법에 있어서, 모델링 대상이 되는 사람을 포함하는 이미지를 입력 받는 단계; 상기 이미지에 포함되는 사람의 자세를 예측하는 단계;상기 예측된 상기 사람의 자세에 따라서 상기 사람의 머리, 양손 및 전신 각각을 촬영할 수 있도록 각 부위로부터 일정 거리만큼 떨어진 위치에 상기 각 부위를 촬영하는 가상의 정규화 카메라를 배치하여 원근 투영 특성을 포함하는 부위별 정규화 이미지를 생성하는 단계; 상기 부위별 정규화 이미지로부터 상기 사람의 외형을 나타내는 부위별 외형 제어 파라미터를 포함하는 부위별 제어 파라미터를 출력하는 단계;상기 부위별 제어 파라미터에 기반하여 상기 사람의 외형 정보를 누적하여 자세와 크기가 고정된 움직임이 없는 정적인 상태의 정준 3D 모델을 업데이트하는 단계; 사용자로부터 최종 출력인 사람의 3D 모델을 제어하는 제어 정보를 입력 받아 상기 제어 정보에 기반하여 상기 정준 3D 모델을 제어하는 단계 - 상기 제어 정보는 상기 사람의 3D 모델을 표시할 카메라 시점 제어 정보, 상기 사람의 3D 모델에 대한 자세 제어 정보 및 상기 사람의 3D 모델에 대한 스타일 제어 정보를 포함함 -;상기 제어된 정준 3D 모델에 기반하여 상기 사람의 3D 모델을 구성하는 부위별 렌더링 이미지를 생성하는 단계; 및 상기 부위별 렌더링 이미지를 합성하여 상기 사람의 3D 모델을 생성하는 단계를 포함하는 동작 방법
14 14
모델링 대상이 되는 사람을 포함하는 이미지를 입력 받고, 상기 이미지로부터 상기 사람의 신체를 구성하는 부위별로 원근 투영 특성을 포함하는 부위별 정규화 이미지를 생성하고, 상기 부위별 정규화 이미지로부터 상기 사람의 외형을 나타내는 부위별 외형 제어 파라미터를 포함하는 부위별 제어 파라미터를 출력하고, 상기 부위별 제어 파라미터에 기반하여 상기 사람의 외형 정보를 누적하여 자세와 크기가 고정된 움직임이 없는 정적인 상태의 정준 3D 모델을 업데이트하고, 사용자로부터 최종 출력인 사람의 3D 모델을 제어하는 제어 정보를 입력 받아 상기 제어 정보에 기반하여 상기 정준 3D 모델을 제어하고 - 상기 제어 정보는 상기 사람의 3D 모델을 표시할 카메라 시점 제어 정보, 상기 사람의 3D 모델에 대한 자세 제어 정보 및 상기 사람의 3D 모델에 대한 스타일 제어 정보를 포함함 -, 상기 제어된 정준 3D 모델에 기반하여 상기 사람의 3D 모델을 구성하는 부위별 렌더링 이미지를 생성하고, 상기 부위별 렌더링 이미지를 합성하여 상기 사람의 3D 모델을 생성하는 프로세서를 포함하는, 전자 장치
15 15
제14항에 있어서, 상기 프로세서는,상기 이미지를 촬영한 카메라의 좌표계를 기준으로 상기 사람의 자세를 나타내는 전신 3D 자세를 예측하고, 상기 전신 3D 자세를 기반으로 상기 부위별 정규화 이미지를 생성하는, 전자 장치
16 16
제15항에 있어서,상기 프로세서는,상기 사람의 전신에서 관절의 위치 및 자세를 예측하고, 머리의 자세를 예측하고, 양 손의 자세를 예측하고, 상기 전신에 대한 상기 관절의 위치 및 상기 자세, 상기 머리의 자세 및 상기 양 손의 자세를 결합하여 상기 좌표계를 기준으로 상기 전신 3D 자세를 예측하는 단계를 포함하는, 전자 장치
17 17
제15항에 있어서,상기 프로세서는,상기 전신 3D 자세를 이용하여 머리, 양 손 및 전신 각각을 촬영할 수 있도록 각 부위로부터 일정 거리만큼 떨어진 위치에 상기 각 부위를 촬영하는 가상의 정규화 카메라를 배치하고, 상기 각 부위를 촬영하는 상기 가상의 정규화 카메라를 이용하여 원근 투영 특성을 포함하는 상기 부위별 정규화 이미지를 생성하는, 전자 장치
18 18
제14항에 있어서, 상기 부위별 정규화 이미지는,상기 신체를 구성하는 각 부위를 촬영하는 가상의 정규화 카메라를 통해 획득된 머리 정규화 이미지, 양 손 정규화 이미지 및 전신 정규화 이미지를 포함하는, 전자 장치
19 19
제14항에 있어서, 상기 프로세서는,부위별 제어 파라미터 예측 모델에 상기 부위별 제어 파라미터 예측 모델과 대응하는 상기 부위별 정규화 이미지를 입력하여 상기 사람의 외형을 나타내는 부위별 외형 제어 파라미터를 포함하는 부위별 제어 파라미터를 출력하는, 전자 장치
20 20
제14항에 있어서,상기 프로세서는, 상기 부위별 제어 파라미터에 포함되는 상기 사람의 3D 모델의 외형을 제어하는 부위별 외형 제어 파라미터를 통합하여 전신 3D 자세를 업데이트하고, 상기 업데이트된 상기 전신 3D 자세 및 상기 부위별 제어 파라미터를 이용하여 상기 정준 3D 모델을 업데이트하는, 전자 장치
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.