1 |
1
모바일 단말에 포함된 적어도 하나의 카메라로부터 촬영된 현실환경 영상데이터를 보정하는 영상 처리부;상기 보정된 현실환경 영상데이터의 현실객체를 3차원으로 분석하여 가상화한 현실객체 가상화 데이터를 생성하는 현실환경 가상화부; 및상기 모바일 단말의 위치와 방향 데이터를 참조하여 상기 현실객체 가상화 데이터와 미리 저장된 합성하려는 가상환경 데이터를 연동하여 상기 현실객체 가상화 데이터와 상기 가상환경 데이터의 가상객체를 합성한 융합영상을 생성하는 현실가상 합성부를 포함하는 모바일 환경에서의 현실가상융합장치
|
2 |
2
청구항 1에 있어서,상기 현실환경 가상화부는,상기 보정된 현실환경 영상데이터를 3차원 공간적으로 분석하여 시차맵 데이터를 생성하는 멀티영상 정합부;상기 시차맵 데이터를 이용하여 상기 현실객체별 현실객체 시차맵 데이터를 생성하고, 상기 현실객체 시차맵 데이터를 이용하여 부분 3차원 메쉬데이터를 생성하는 3차원 형상 복원부; 및상기 부분 3차원 메쉬데이터를 메쉬 부분 없이 이어 붙이는 메쉬 와핑을 수행하여 완성 3차원 메쉬데이터를 생성하는 메쉬 와핑부를 포함하는 모바일 환경에서의 현실가상융합장치
|
3 |
3
청구항 2에 있어서,상기 현실환경 가상화부는,상기 완성 3차원 메쉬 데이터 중 비어있는 메쉬 부분을 추정하여 추정 3차원 메쉬데이터를 생성하며, 상기 추정 3차원 메쉬데이터를 이용하여 현실객체 리깅 데이터를 생성하는 추정 변환부를 포함하는 모바일 환경에서의 현실가상융합장치
|
4 |
4
청구항 3에 있어서,상기 추정 변환부는,상기 추정 3차원 메쉬데이터를 이용하여 골격구조 및 동작 데이터를 생성하고, 상기 골격구조 및 동작 데이터를 이용하여 현실객체의 동작에 따른 메쉬 변형을 결정하여 상기 현실객체 리깅 데이터를 생성하는 모바일 환경에서의 현실가상융합장치
|
5 |
5
청구항 4에 있어서,상기 추정 변환부는,상기 완성 3차원 메쉬데이터, 상기 골격구조 및 동작 데이터와 상기 현실객체 리깅 데이터를 이용하여 상기 현실객체 가상화 데이터를 생성하는 가상화 데이터 생성부를 포함하는 모바일 환경에서의 현실가상융합장치
|
6 |
6
청구항 2에 있어서,상기 3차원 형상 복원부는,상기 현실객체 시차맵 데이터를 포인트 클라우드 데이터로 변환한 후 삼각망 방식을 적용하여 상기 부분 3차원 메쉬데이터를 생성하는 모바일 환경에서의 현실가상융합장치
|
7 |
7
청구항 2에 있어서,상기 가상화 데이터 생성부는,상기 완성 3차원 메쉬데이터, 상기 골격구조 및 동작 데이터와 상기 현실객체 리깅 데이터를 이용하여 상기 현실객체별 개별 가상화 데이터를 생성하고, 상기 현실객체별 개별 가상화 데이터의 집합하여 상기 현실객체 가상화 데이터를 생성하는 모바일 환경에서의 현실가상융합장치
|
8 |
8
청구항 1에 있어서,상기 현실가상 합성부는,상기 모바일 단말의 위치와 방향 데이터를 참조하여 상기 현실객체 가상화 데이터와 상기 가상환경 데이터를 융합하여 융합공간 데이터를 생성하며, 상기 융합공간 데이터를 렌더링하여 상기 융합영상을 생성하는 모바일 환경에서의 현실가상융합장치
|
9 |
9
모바일 단말에 포함된 적어도 하나의 카메라로부터 촬영된 현실환경 영상데이터를 보정하는 단계;상기 보정된 현실환경 영상데이터의 현실객체를 3차원으로 분석하여 가상화한 현실객체 가상화 데이터를 생성하는 단계;상기 모바일 단말의 위치와 방향 데이터를 수신하는 단계; 및상기 모바일 단말의 위치와 방향 데이터를 참조하여 상기 현실객체 가상화 데이터와 미리 저장된 합성하려는 가상환경 데이터를 합성하여 융합영상을 제공하는 단계를 포함하는 모바일 환경에서의 현실가상융합방법
|
10 |
10
청구항 9에 있어서,상기 현실객체 가상화 데이터를 생성하는 단계는,상기 보정된 현실환경 영상데이터를 3차원 공간적으로 분석하여 시차맵 데이터를 생성하는 단계;상기 시차맵 데이터를 이용하여 상기 현실객체별 현실객체 시차맵 데이터를 생성하고, 상기 현실객체 시차맵 데이터를 이용하여 부분 3차원 메쉬데이터를 생성하는 단계; 및상기 부분 3차원 메쉬데이터를 메쉬 부분 없이 이어 붙이는 메쉬 와핑을 수행하여 완성 3차원 메쉬데이터를 생성하는 단계를 포함하는 모바일 환경에서의 현실가상융합방법
|
11 |
11
청구항 10에 있어서,상기 현실객체 가상화 데이터를 생성하는 단계는,상기 완성 3차원 메쉬 데이터 중 비어있는 메쉬 부분을 추정하여 추정 3차원 메쉬데이터를 생성하는 단계;상기 추정 3차원 메쉬데이터를 분석하여 골격구조 및 동작 데이터를 생성하여 상기 현실객체의 동작을 분석하는 단계;상기 현실객체의 동작에 따른 메쉬 변형을 결정하여 현실객체 리깅 데이터를 생성하는 단계; 및상기 완성 3차원 메쉬데이터, 상기 골격구조 및 동작 데이터와 상기 현실객체 리깅 데이터를 이용하여 상기 현실객체 가상화 데이터를 생성하는 단계를 포함하는 모바일 환경에서의 현실가상융합방법
|
12 |
12
청구항 9에 있어서,상기 융합영상을 제공하는 단계는,상기 모바일 단말의 위치와 방향 데이터를 참조하여 상기 현실객체 가상화 데이터와 상기 가상환경 데이터를 융합하여 융합공간 데이터를 생성하는 단계; 및상기 융합공간 데이터를 렌더링하여 상기 융합영상을 생성하는 단계를 포함하는 모바일 환경에서의 현실가상융합방법
|
13 |
13
청구항 10에 있어서,상기 부분 3차원 메쉬데이터를 생성하는 단계는,상기 현실객체 시차맵 데이터를 포인트 클라우드 데이터로 변환하는 단계; 및상기 포인트 클라우드 데이터에 삼각망 방식을 적용하여 상기 부분 3차원 메쉬데이터를 생성하는 단계를 포함하는 모바일 환경에서의 현실가상융합방법
|