1 |
1
RGB-D 카메라를 이용하여 물체와 상호작용하는 손의 동작에 대한 카메라 이미지를 생성하는 단계; 상기 카메라 이미지를 사전 처리하는 단계;깊이 지도 생성기를 통해 입력되는 상기 카메라 이미지에서 손 및 물체를 추적하여 깊이 인페인팅(depth inpainting)을 이용한 맨손 깊이 이미지를 생성하는 단계; 및3D 맨손 추적기(3D bare-hand tracker)를 이용하여 상기 맨손 깊이 이미지에 대한 프레임당 자유도의 손 포즈를 추정하는 단계를 포함하되,상기 맨손 깊이 이미지를 생성하는 단계는조건부 적대적 생성망(conditional Generative Adversarial Network; cGAN)으로 구현되는 깊이 인페인팅을 이용하는 것으로, 상기 깊이 지도 생성기로 입력되는 상기 카메라 이미지에 대한 손 및 물체를 추적하여 상기 맨손 깊이 이미지를 생성하고, 맨손과 물체와 상호작용하는 손으로 구성된 한 쌍의 RGB-D 이미지를 손 관절과 함께 사용하여 상기 깊이 지도 생성기를 학습시키며,상기 맨손 깊이 이미지는물체와 상호작용하는 손에서 물체를 제외한 맨손 포즈에 대해 깊이 인페인팅된 것을 특징으로 하고,상기 3D 맨손 추적기는상기 맨손 깊이 이미지에서 색상 정보가 아닌 깊이 인페인팅된 깊이 정보만을 의존하여 맨손을 추적하는 것을 특징으로 하는, 맨손 깊이 인페인팅 방법
|
2 |
2
제1항에 있어서,상기 카메라 이미지를 수신하는 단계는단일 RGB-D(RGB-depth) 카메라를 사용하여 물체와 상호작용하는 손의 특성 동작에 대한 RGB-D 이미지인 상기 카메라 이미지를 수신하는, 맨손 깊이 인페인팅 방법
|
3 |
3
제2항에 있어서,상기 카메라 이미지를 수신하는 단계는상기 카메라 이미지를 사전 처리하여 조명 조건을 최소화하여 깊이 데이터를 정상화하는 단계를 포함하는, 맨손 깊이 인페인팅 방법
|
4 |
4
삭제
|
5 |
5
삭제
|
6 |
6
제1항에 있어서,상기 깊이 지도 생성기는맨손의 RGB-D 데이터 세트와 물체의 투사 형태를 나타내는 2D 실루엣을 합성하여 생성된 훈련 데이터 세트를 통해 학습되며, 상호작용하는 물체의 유형을 일반화하는 것을 특징으로 하는, 맨손 깊이 인페인팅 방법
|
7 |
7
제1항에 있어서,상기 손 포즈를 추정하는 단계는계층적 입자 필터(Hierarchical particle filter) 기반의 상기 3D 맨손 추적기(3D bare-hand tracker)를 이용하여 상기 맨손 깊이 이미지에 대한 프레임당 26도 자유도(DoF)의 손 포즈를 추정하는, 맨손 깊이 인페인팅 방법
|
8 |
8
제7항에 있어서,상기 손 포즈를 추정하는 단계는상기 맨손 깊이 이미지에서 획득되는 부분 손 정보로부터 손 관절을 포함하는 맨손의 손 포즈를 추정하는, 맨손 깊이 인페인팅 방법
|
9 |
9
삭제
|
10 |
10
삭제
|
11 |
11
RGB-D 카메라를 이용하여 물체와 상호작용하는 손의 동작에 대한 카메라 이미지를 생성하여 사전 처리하는 이미지 처리부;깊이 지도 생성기를 통해 입력되는 상기 카메라 이미지에서 손 및 물체를 추적하여 깊이 인페인팅(depth inpainting)을 이용한 맨손 깊이 이미지를 생성하는 깊이 이미지 생성부; 및3D 맨손 추적기(3D bare-hand tracker)를 이용하여 상기 맨손 깊이 이미지에 대한 프레임당 자유도의 손 포즈를 추정하는 포즈 추정부를 포함하되,상기 깊이 이미지 생성부는조건부 적대적 생성망(conditional Generative Adversarial Network; cGAN)으로 구현되는 깊이 인페인팅을 이용하는 것으로, 상기 깊이 지도 생성기로 입력되는 상기 카메라 이미지에 대한 손 및 물체를 추적하여 상기 맨손 깊이 이미지를 생성하고, 맨손과 물체와 상호작용하는 손으로 구성된 한 쌍의 RGB-D 이미지를 손 관절과 함께 사용하여 상기 깊이 지도 생성기를 학습시키며,상기 맨손 깊이 이미지는물체와 상호작용하는 손에서 물체를 제외한 맨손 포즈에 대해 깊이 인페인팅된 것을 특징으로 하고,상기 3D 맨손 추적기는상기 맨손 깊이 이미지에서 색상 정보가 아닌 깊이 인페인팅된 깊이 정보만을 의존하여 맨손을 추적하는 것을 특징으로 하는, 맨손 깊이 인페인팅 시스템
|
12 |
12
제11항에 있어서,상기 이미지 처리부는단일 RGB-D(RGB-depth) 카메라를 사용하여 물체와 상호작용하는 손의 특성 동작에 대한 RGB-D 이미지인 상기 카메라 이미지를 수신하는, 맨손 깊이 인페인팅 시스템
|
13 |
13
제12항에 있어서,상기 이미지 처리부는상기 카메라 이미지를 사전 처리하여 조명 조건을 최소화하여 깊이 데이터를 정상화하는, 맨손 깊이 인페인팅 시스템
|
14 |
14
삭제
|
15 |
15
삭제
|
16 |
16
제11항에 있어서,상기 깊이 이미지 생성부는맨손의 RGB-D 데이터 세트와 물체의 투사 형태를 나타내는 2D 실루엣을 합성하여 훈련 데이터 세트를 생성하여 상기 깊이 지도 생성기를 훈련시켜, 상호작용하는 물체의 유형을 일반화하는 것을 특징으로 하는, 맨손 깊이 인페인팅 시스템
|
17 |
17
제11항에 있어서,상기 포즈 추정부는계층적 입자 필터(Hierarchical particle filter) 기반의 상기 3D 맨손 추적기(3D bare-hand tracker)를 이용하여 상기 맨손 깊이 이미지에 대한 프레임당 26도 자유도(DoF)의 손 포즈를 추정하는, 맨손 깊이 인페인팅 시스템
|
18 |
18
제17항에 있어서,상기 포즈 추정부는상기 맨손 깊이 이미지에서 획득되는 부분 손 정보로부터 손 관절을 포함하는 맨손의 손 포즈를 추정하는, 맨손 깊이 인페인팅 시스템
|