1 |
1
입력된 2D(Dimensional) 영상에 대한 배경 학습을 통해 상기 2D 영상에서 사용자 객체를 인식하고 추출하는 사용자 객체 추출부;
상기 추출된 사용자 객체에서 증강현실(AR) 표시를 인식하고, 상기 AR 표시 위에 컨텐츠 공급자 서버로부터 수신한 AR 가상 객체를 오버랩하여 AR 구현된 사용자 객체를 생성하는 증강현실 구현부;
상기 AR 구현된 사용자 객체와 상기 컨텐츠 공급자 서버로부터 수신한 2
|
2 |
2
제1항에 있어서,
상기 사용자 객체 추출부는, 상기 2D 입력 영상에 대해 일정 시간 동안 정적 배경을 학습시킨 후, 동적인 사용자 객체를 추출하는 것을 특징으로 하는 클라이언트 서버의 3D 가상 스튜디오 플랫폼 장치
|
3 |
3
제1항에 있어서,
상기 객체 조정부는, 상기 영상 합성부 내의 AR 구현된 사용자 객체, 2
|
4 |
4
제3항에 있어서,
상기 객체 조정부는, 상기 특정 시점의 각 객체의 위치는 선형 또는 비선형 방법을 통해 지정되는 것을 특징으로 하는 클라이언트 서버의 3D 가상 스튜디오 플랫폼 장치
|
5 |
5
제1항에 있어서,
외부 영상 및 음성 입력 장치와 상기 영상 및 음성 입력 장치의 파라미터 값을 설정하는 장치/환경 설정부;
상기 컨텐츠 공급자 서버로부터 수신한 AR 가상 객체, 2
|
6 |
6
제1항에 있어서,
상기 시간에 따라 렌더링되는 각 프레임을 부호화하여 2D 영상 스트림을 생성하는 부호화부; 및
상기 생성된 2D 영상 스트림을 저장하는 파일 저장부;를 더 포함하는 것을 특징으로 하는 클라이언트 서버의 3D 가상 스튜디오 플랫폼 장치
|
7 |
7
다시점 카메라로부터 획득된 다수의 다시점 영상들을 정합하고, 상기 정합에 의해 생성된 3D 점 데이터로부터 2
|
8 |
8
제7항에 있어서,
상기 2
|
9 |
9
제7항에 있어서,
상기 광원 추정에 이용되는 텍스쳐 값은 상기 다시점 영상들로부터 획득된 컬러 데이터를 포함하는 것을 특징으로 하는 컨텐츠 공급자 서버의 3D 컨텐츠 저작 플랫폼 장치
|
10 |
10
제7항에 있어서,
상기 3D 객체 모델 생성부는, 상이한 시각에 획득된 다수의 영상들로부터 복원한 영상의 데이터와 상기 다수의 영상들로부터 추정된 상기 2D 카메라의 자세 추정 데이터를 3D 영상으로 재구성하고, 상기 재구성된 3D 영상에 텍스쳐 매핑을 수행하여 3D 객체 모델을 생성하는 것을 특징으로 하는 컨텐츠 공급자 서버의 3D 컨텐츠 저작 플랫폼 장치
|
11 |
11
제7항에 있어서,
영상 및 음성 입력 장치와 상기 영상 및 음성 입력 장치의 파라미터를 설정하는 장치/환경 설정부; 및
상기 다시점 영상 및 2D 영상으로부터 상기 다시점 카메라 및 상기 2D 카메라의 내외부 파라미터를 추정하는 카메라 보정부;를 더 포함하는 것을 특징으로 하는 컨텐츠 공급자 서버의 3D 컨텐츠 저작 플랫폼 장치
|
12 |
12
제11항에 있어서,
상기 카메라 보정부는, 상이한 시각에 획득한 상기 다시점 영상 간 또는 상기 2D 영상 간의 특징점을 추출하고, 상기 추출된 특징점의 매칭을 통해 연속된 영상들 간의 호모그래피를 최적화하고, 상기 연속된 영상들에 대한 카메라 자세를 추정하는 것을 특징으로 하는 컨텐츠 공급자 서버의 3D 컨텐츠 저작 플랫폼 장치
|
13 |
13
제7항에 있어서,
상기 2
|
14 |
14
사용자에 의한 멀티미디어 컨텐츠 제작에 이용되는 2
|
15 |
15
제14항에 있어서, 상기 3D 컨텐츠 저작 플랫폼은,
다시점 카메라로부터 획득된 다수의 다시점 영상들을 정합하고, 상기 정합에 의해 생성된 3D 점 데이터로부터 2
|
16 |
16
제14항에 있어서, 상기 3D 가상 스튜디오 플랫폼은,
상기 2D 사용자 영상에 대한 배경 학습을 통해 상기 2D 사용자 영상에서 사용자 객체를 인식하고 추출하는 사용자 객체 추출부;
상기 추출된 사용자 객체에서 증강현실(AR) 표시를 인식하고, 상기 AR 표시 위에 상기 3D 컨텐츠 저작 플랫폼으로부터 입력된 AR 가상 객체를 오버랩하여 AR 구현된 사용자 객체를 생성하는 증강현실 구현부;
상기 AR 구현된 사용자 객체와 상기 3D 컨텐츠 저작 플랫폼으로부터 입력된 2
|
17 |
17
제14항에 있어서,
상기 3D 컨텐츠 저작 플랫폼과 3D 가상 스튜디오 플랫폼 간의 멀티미디어 컨텐츠 객체 연동을 위한 서버 및 클라이언트 멀티미디어 데이터 전송 플랫폼;을 더 포함하는 것을 특징으로 하는 개인형 멀티미디어 스튜디오 플랫폼 장치
|
18 |
18
제17항에 있어서, 상기 서버 및 클라이언트 멀티미디어 데이터 전송 플랫폼은,
상기 3D 가상 스튜디오 플랫폼으로부터의 데이터 전송 요청에 대해, 상기 컨텐츠 객체를 상기 3D 가상 스튜디오 플랫폼으로 전송하는 데이터 송신부; 및
상기 3D 컨텐츠 저작 플랫폼으로부터 상기 컨텐츠 객체를 수신하는 데이터 수신부;를 포함하는 것을 특징으로 하는 개인형 멀티미디어 스튜디오 플랫폼 장치
|
19 |
19
입력된 2D(Dimensional) 영상에 대한 배경 학습을 통해 상기 2D 영상에서 사용자 객체를 인식하고 추출하는 단계;
상기 추출된 사용자 객체에서 증강현실(AR) 표시를 인식하고, 상기 AR 표시 위에 컨텐츠 공급자 서버로부터 수신한 AR 가상 객체를 오버랩하여 AR 구현된 사용자 객체를 생성하는 단계;
상기 AR 구현된 사용자 객체와, 상기 컨텐츠 공급자 서버로부터 수신한 2
|
20 |
20
제19항에 있어서, 상기 사용자 객체 추출 단계는,
상기 2D 입력 영상에 대해 일정 시간 동안 정적 배경을 학습시킨 후, 동적인 상기 사용자 객체를 추출하는 단계;를 포함하는 것을 특징으로 하는 3D 가상 스튜디오 플랫폼 장치의 개인형 멀티미디어 컨텐츠 생성 방법
|
21 |
21
제19항에 있어서, 상기 객체 조정 단계는,
상기 AR 구현된 사용자 객체, 2
|
22 |
22
제19항에 있어서,
상기 사용자 객체 추출 단계 이전에, 외부 영상 및 음성 입력 장치와 상기 영상 및 음성 입력 장치의 파라미터 값을 설정하는 단계;를 더 포함하고,
상기 객체 조정 단계 이전에, 상기 컨텐츠 공급자 서버로부터 수신한 AR 가상 객체, 2
|
23 |
23
제19항에 있어서,
상기 시간에 따라 렌더링되는 각 프레임을 부호화하여 2D 영상 스트림을 생성 및 저장하는 단계;를 더 포함하는 것을 특징으로 하는 3D 가상 스튜디오 플랫폼 장치의 개인형 멀티미디어 컨텐츠 생성 방법
|
24 |
24
다시점 카메라로부터 획득된 다수의 다시점 영상들을 정합하고, 상기 정합에 의해 생성된 3D 점 데이터로부터 2
|
25 |
25
제24항에 있어서, 상기 2
|
26 |
26
제24항에 있어서, 상기 3D 객체 모델 생성 단계는,
상이한 시각에 획득된 다수의 영상들로부터 복원한 영상의 데이터와 상기 다수의 영상들로부터 추정된 상기 2D 카메라의 자세 추정 데이터를 3D 영상으로 재구성하고, 상기 재구성된 3D 영상에 텍스쳐 매핑을 수행하여 3D 객체 모델을 생성하는 단계;를 포함하는 것을 특징으로 하는 3D 컨텐츠 저작 플랫폼 장치의 멀티미디어 컨텐츠 객체 생성 방법
|
27 |
27
제24항에 있어서,
상기 2
|
28 |
28
제27항에 있어서, 상기 카메라 보정 단계는,
상이한 시각에 획득한 상기 다시점 영상 간 또는 상기 2D 영상 간의 특징점을 추출하고, 상기 추출된 특징점의 매칭을 통해 연속된 영상들 간의 호모그래피를 최적화하고, 상기 연속된 영상들에 대한 카메라 자세를 추정하는 단계;를 포함하는 것을 특징으로 하는 3D 컨텐츠 저작 플랫폼 장치의 멀티미디어 컨텐츠 객체 생성 방법
|
29 |
29
제24항에 있어서,
상기 2
|