1 |
1
3차원 포인트 클라우드(point cloud)를 입력 받아 전역 특징(global feature)을 추출하는 인코더(encoder); 및상기 전역 특징으로부터 상기 3차원 포인트 클라우드를 재구성하는 디코더(decoder)를 포함하되,상기 디코더는 상기 전역 특징을 입력으로 하는 복수의 매핑 레이어(mapping layer)를 포함하고,상기 복수의 매핑 레이어의 각 열(column)은 동일한 가중치(weight)를 공유하고, 독립적인 편향(bias)을 갖는, 편향 유도(bias-induced) 포인트 오토 인코더(point autoencoder)
|
2 |
2
제1항에 있어서,상기 매핑 레이어는 SCSFC층(semi-convolutional semi-fully-connected layer)인, 편향 유도 포인트 오토 인코더
|
3 |
3
제1항에 있어서,상기 매핑 레이어의 각 열의 출력은- 여기서, oj는 j번째 열의 출력 벡터이고, xj는 j번째 열의 입력 벡터이고, w는 j번째 열이 공유하는 가중치이고, bj는 j번째 열의 편향임 - 에 의해 결정되는, 편향 유도 포인트 오토인코더
|
4 |
4
제1항에 있어서,상기 편향 유도 포인트 오토인코더의 학습은상기 3차원 포인트 클라우드를 입력으로 하고,- 여기서, S는 입력 포인트 클라우드의 포인트 세트이고, SO는 출력 포인트 클라우드의 포인트 세트임 - 로 결정되는 chamfer distance를 손실함수로 사용하는, 편향 유도 포인트 오토인코더
|
5 |
5
2차원 영상으로부터 제1 시멘틱(semantic) 벡터를 추출하는 2차원 인코더;상기 제1 시멘틱 벡터를 상기 2차원 영상으로 재구성하는 2차원 디코더;3차원 포인트 클라우드(point cloud)로부터 제2 시멘틱 벡터를 추출하는 3차원 인코더; 및상기 제2 시멘틱 벡터를 상기 3차원 포인트 클라우드로 재구성하는 3차원 디코더를 포함하는, 듀얼 오토인코더(dual autoencoder)
|
6 |
6
제5항에 있어서,상기 제1 시멘틱 벡터는 상기 2차원 영상의 잠재(latent) 벡터이고, 상기 제2 시멘틱 벡터는 상기 3차원 포인트 클라우드의 전역 특징(global feature)인, 듀얼 오토인코더
|
7 |
7
제6항에 있어서,상기 3차원 인코더는 PointNet 인코더이고, 대칭적 맥스-풀링(max-pooling) 함수를 통해 상기 전역 특징을 추출하는, 듀얼 오토인코더
|
8 |
8
제6항에 있어서,상기 3차원 디코더는 복수의 매핑 레이어(mapping layer)를 포함하고,상기 복수의 매핑 레이어의 각 열(column)은 동일한 가중치를 공유하고, 독립적인 편향(bias)을 갖는, 듀얼 오토인코더
|
9 |
9
제8항에 있어서,상기 매핑 레이어는 SCSFC층(semi-convolutional semi-fully-connected layer)인, 듀얼 오토인코더
|
10 |
10
제8항에 있어서,상기 매핑 레이어의 각 열의 출력은- 여기서, oj는 j번째 열의 출력 벡터이고, xj는 j번째 열의 입력 벡터이고, w는 j번째 열이 공유하는 가중치이고, bj는 j번째 열의 편향임 - 에 의해 결정되는, 듀얼 오토인코더
|
11 |
11
제6항에 있어서,상기 잠재 벡터를 상기 전역 특징으로 변환하는 제1 연관 네트워크(associated network);상기 전역 특징을 상기 잠재 벡터로 변환하는 제2 연관 네트워크;상기 2차원 디코더의 입력을 결정하는 제1 스위치; 및상기 3차원 디코더의 입력을 결정하는 제2 스위치를 더 포함하는, 듀얼 오토인코더
|
12 |
12
제11항에 있어서,상기 제1 스위치가 상기 전역 특징을 상기 2차원 디코더의 입력으로 결정하면, 상기 3차원 인코더, 상기 제2 연관 네트워크, 및 상기 2차원 디코더가 3차원에서 2차원으로의(3D-to-2D) 포인트 클라우드 변환을 수행하는, 듀얼 오토인코더
|
13 |
13
제11항에 있어서,상기 제2 스위치가 상기 잠재 벡터를 상기 3차원 디코더의 입력으로 결정하면, 상기 2차원 인코더, 상기 제1 연관 네트워크, 및 상기 3차원 디코더가 2차원에서 3차원으로의(2D-to-3D) 포인트 클라우드 변환을 수행하는, 듀얼 오토인코더
|
14 |
14
제6항에 있어서,상기 듀얼 인코더의 학습은2차원 오토인코더를 학습시키고, 3차원 오토인코더를 학습시키고, 상기 제1 연관 네트워크를 학습시키고, 상기 제2 연관 네트워크를 학습시키는 것 - 상기 2차원 오토인코더는 상기 2차원 인코더 및 상기 2차원 디코더를 포함하고, 상기 3차원 오토인코더는 상기 3차원 인코더 및 상기 3차원 디코더를 포함함 - 을 특징으로 하는, 듀얼 오토인코더
|
15 |
15
제14항에 있어서,상기 3차원 오토인코더의 학습은상기 3차원 포인트 클라우드를 입력으로 하고,- 여기서, S는 입력 포인트 클라우드의 포인트 세트이고, SO는 출력 포인트 클라우드의 포인트 세트임 - 로 결정되는 chamfer distance를 손실함수로 사용하는, 듀얼 오토인코더
|
16 |
16
제14항에 있어서,상기 제1 연관 네트워크의 학습은상기 2차원 영상과 상기 3차원 포인트 클라우드를 상기 2차원 인코더와 상기 3차원 인코더에 각각 입력하여 잠재 벡터 및 제1 전역 특징을 획득하고,상기 잠재 벡터를 상기 제1 연관 네트워크의 입력으로 사용하여 상기 잠재 벡터 기반의 제2 전역 특징을 계산하고,상기 제1 전역 특징과 상기 제2 전역 특징 사이의 MSE(mean square error)가 최소화되도록 학습하는 것인, 듀얼 오토인코더
|
17 |
17
2차원 인코더가 2차원 영상으로부터 잠재(latent) 벡터를 추출하는 단계;연관 네트워크(associated network)가 상기 잠재 벡터를 3차원 포인트 클라우드의 전역 특징(global feature)으로 변환하는 단계; 및3차원 디코더가 상기 전역 특징을 상기 3차원 포인트 클라우드로 재구성하는 단계를 포함하는, 2차원에서 3차원으로의 포인트 클라우드 차원 변환 방법
|
18 |
18
제17항에 있어서,상기 3차원 디코더는 복수의 매핑 레이어를 포함하고,상기 복수의 매핑 레이어의 각 열(column)은 동일한 가중치를 공유하고, 독립적인 편향(bias)을 갖는, 2차원에서 3차원으로의 포인트 클라우드 차원 변환 방법
|
19 |
19
제18항에 있어서,상기 매핑 레이어는 SCSFC층(semi-convolutional semi-fully-connected layer)인, 2차원에서 3차원으로의 포인트 클라우드 차원 변환 방법
|
20 |
20
제18항에 있어서,상기 매핑 레이어의 각 열의 출력은- 여기서, oj는 j번째 열의 출력 벡터이고, xj는 j번째 열의 입력 벡터이고, w는 j번째 열이 공유하는 가중치이고, bj는 j번째 열의 편향임 - 에 의해 결정되는, 2차원에서 3차원으로의 포인트 클라우드 차원 변환 방법
|
21 |
21
3차원 인코더가 3차원 포인트 클라우드로부터 전역 특징(global feature)을 추출하는 단계;연관 네트워크(associated network)가 상기 전역 특징을 2차원 영상의 잠재 벡터(latent vector)로 변환하는 단계; 및2차원 디코더가 상기 잠재 벡터를 상기 2차원 영상으로 재구성하는 단계를 포함하는, 3차원에서 2차원으로의 포인트 클라우드 차원 변환 방법
|
22 |
22
제21항에 있어서,상기 3차원 인코더는 PointNet 인코더이고, 대칭적 맥스-풀링(max-pooling) 함수를 통해 상기 전역 특징을 추출하는, 3차원에서 2차원으로의 포인트 클라우드 차원 변환 방법
|