1 |
1
다수의 카메라 시스템으로, 3D 객체를 다수의 시점으로 촬영하는 단계;촬영된 영상들에서 배경들로부터 3D 객체들을 분리하는 단계;분리된 객체들의 깊이를 추정하여 깊이 영상들을 생성하는 단계;생성된 깊이 영상들을 세계 좌표계에서 융합하는 단계;융합된 깊이 영상을 이용하여, 3D 객체를 복원하는 단계;를 포함하는 것을 특징으로 하는 3D 객체 복원 방법
|
2 |
2
청구항 1에 있어서,각 카메라 시스템은,가장 자리에 배치되는 2대의 MONO 카메라; 및중앙에 배치되는 1대의 RGB 카메라;를 포함하는 것을 특징으로 하는 3D 객체 복원 방법
|
3 |
3
청구항 1에 있어서,분리 단계는,3D 객체가 없는 배경들에 대해 각각의 픽셀별로 가우시안 믹스처 모델을 생성하는 제1 생성단계;3D 객체가 있는 영상들에 대해 각각의 픽셀별로 가우시안 믹스처 모델을 생성하는 제2 생성단계;제1 생성단계에서 생성된 가우시안 믹스처 모델과 제2 생성단계에서 생성된 가우시안 믹스처 모델 간의 마할라노비스 거리(Mahalanobis distance)를 계산하는 단계;계산된 마할라노비스 거리를 기초로, 배경들로부터 3D 객체들을 분리하는 단계;를 포함하는 것을 특징으로 하는 3D 객체 복원 방법
|
4 |
4
청구항 1에 있어서,생성 단계는,이웃 시점의 영상들의 각 픽셀들에 임의의 거리 정보와 법선 벡터를 부여하는 단계;촬영된 영상을 이웃 시점 영상에 투영하여 유사도를 비교하는 단계;유사도가 임계치 이상인 픽셀에 대해, 이웃 시점 영상의 픽셀로 거리 정보와 법선 정보를 전파하는 단계;거리 정보와 법선 정보를 전파받은 픽셀에 백색 잡음을 더하고, 비교 단계로 회귀하는 단계;를 포함하는 것을 특징으로 하는 3D 객체 복원 방법
|
5 |
5
청구항 1에 있어서,융합 단계는,생성된 깊이 영상에서 객체의 깊이 정보를 다른 시점의 깊이 영상들로 투영하되, 투영된 깊이 정보가 배경 영역으로 투영된 횟수가 임계치 이상이면 해당 깊이 정보를 공간 잡음으로 간주하고 제거하는 것을 특징으로 하는 3D 객체 복원 방법
|
6 |
6
청구항 1에 있어서,융합 단계는,이웃 시점의 깊이 영상으로 투영시, 깊이 정보가 임계치 미만이면 두 깊이 정보를 평균하여 융합하는 것을 특징으로 하는 3D 객체 복원 방법
|
7 |
7
청구항 1에 있어서,융합 단계는,전체 공간을 복셀화하여 점 군(point cloud)의 조밀도를 동일하게 하는 것을 특징으로 하는 3D 객체 복원 방법
|
8 |
8
3D 객체를 다수의 시점으로 촬영하는 다수의 카메라 시스템; 및다수의 카메라 시스템에서 촬영된 영상들에서 배경들로부터 3D 객체들을 분리하고, 분리된 객체들의 깊이를 추정하여 깊이 영상들을 생성하며, 생성된 깊이 영상들을 세계 좌표계에서 융합하여 3D 객체를 복원하는 프로세서;를 포함하는 것을 특징으로 하는 3D 객체 복원 장치
|