1 |
1
제1 위치에서 주변 공간을 스캔하는 스캔부;스캔 결과를 기반으로 상기 주변 공간에 대한 2차원 맵을 생성하는 맵 생성부;상기 2차원 맵을 복수의 세그먼트 영역으로 분할하는 맵 세그먼테이션부;상기 2차원 맵 상에서 스캔된 영역과 스캔되지 않은 영역들의 경계 포인트들을 검출하고, 검출된 경계 포인트들을 그룹화하여 복수의 경계 포인트 그룹을 생성하는 경계 포인트 검출부; 및상기 복수의 경계 포인트 그룹을 비교하여 상기 제1 위치를 포함하는 세그먼트 영역에 포함된 경계 포인트 그룹 중 어느 하나를 상기 이동 로봇이 이동할 위치인 제2 위치를 결정하는 이동 위치 결정부;를 포함하는, 맵 생성용 이동 로봇
|
2 |
2
제1항에 있어서, 상기 이동 로봇이 상기 제1 위치에서 상기 제2 위치로 이동시키는 로봇 이동부;를 더 포함하되,상기 스캔부는,상기 이동 로봇이 상기 제2 위치에서 주변 공간을 스캔하고, 상기 맵 생성부는,상기 제2 위치에서 스캔 결과를 기반으로 상기 2차원 맵을 업데이트하는, 맵 생성용 이동 로봇
|
3 |
3
제1항에 있어서, 상기 이동 위치 결정부는,상기 제1 위치를 포함하는 세그먼트 영역에 포함된 경계 포인트 그룹이 존재하지 않으면, 상기 제1 위치를 포함하는 세그먼트 영역 이외의 세그먼트 영역에 포함된 경계 포인트 그룹 중 어느 하나를 상기 제2 위치로 결정하는, 맵 생성용 이동 로봇
|
4 |
4
제1항에 있어서, 상기 복수의 경계 포인트 그룹 각각은 하나의 경계선을 형성하되, 상기 이동 위치 결정부는, 가장 긴 경계선을 형성하는 경계 포인트 그룹을 상기 제2 위치로 결정하는, 맵 생성용 이동 로봇
|
5 |
5
제4항에 있어서, 상기 제2 위치는 상기 가장 긴 경계선의 중심에 해당하는 경계 포인트인, 맵 생성용 이동 로봇
|
6 |
6
제1항에 있어서, 미리 학습된 객체 인식 모델을 이용하여 컬러 이미지 데이터로부터 상기 주변 공간에 배치된 객체를 식별하고, 깊이 이미지 데이터를 기반으로 식별된 객체의 위치 및 사이즈를 추정하는 객체 인식부를 더 포함하되,상기 스캔부는,RGB-D 카메라를 기반으로 상기 주변 공간을 스캔하여 상기 주변 공간에 대한 상기 컬러 이미지 데이터 및 상기 깊이 이미지 데이터를 생성하는 RGB-D 카메라를 포함하고,상기 맵 생성부는,상기 식별된 객체의 추정된 위치 및 사이즈를 기반으로 상기 2차원 맵을 업데이트하는, 맵 생성용 이동 로봇
|
7 |
7
제1항에 있어서, 미리 학습된 객체 인식 모델을 이용하여 컬러 이미지 데이터로부터 상기 주변 공간에 배치된 객체를 식별하고, 깊이 이미지 데이터 및 스캔 데이터를 기반으로 식별된 객체의 위치 및 사이즈를 추정하는 객체 인식부를 더 포함하되,상기 스캔부는, 상기 주변 공간을 스캔하여 상기 주변 공간에 대한 상기 컬러 이미지 데이터 및 상기 깊이 이미지 데이터를 생성하는 RGB-D 카메라; 및상기 주변 공간을 스캔하여 상기 주변 공간에 대한 상기 스캔 데이터를 생성하는 2D 레이저 스캐너;를 포함하고, 상기 맵 생성부는,상기 식별된 객체의 추정된 위치 및 사이즈를 기반으로 상기 2차원 맵을 업데이트하는, 맵 생성용 이동 로봇
|
8 |
8
제6항 또는 제7항에 있어서, 상기 미리 학습된 객체 인식 모델은 YOLO(You Only Look Once) 기반의 딥러닝 기법을 기반으로 학습된 모델인, 이동 로봇 기반의 맵 생성 방법
|
9 |
9
제6항 또는 제7항에 있어서, 상기 객체 인식부는,미리 입력된 객체 정보를 기반으로 상기 추정된 객체의 사이즈를 보정하고,상기 맵 생성부는,상기 식별된 객체의 추정된 위치 및 보정된 사이즈를 기반으로 상기 2차원 맵을 업데이트하는, 맵 생성용 이동 로봇
|
10 |
10
제9항에 있어서, 상기 미리 입력된 객체 정보는, 상기 주변 공간에 배치된 객체의 종류 및 사이즈 정보를 포함하는, 맵 생성용 이동 로봇
|
11 |
11
이동 로봇이 제1 위치에서 주변 공간을 스캔하는 단계;스캔 결과를 기반으로 상기 주변 공간에 대한 2차원 맵을 생성하는 단계;상기 2차원 맵을 복수의 세그먼트 영역으로 분할하는 단계;상기 2차원 맵 상에서 스캔된 영역과 스캔되지 않은 영역들의 경계 포인트들을 검출하는 단계;검출된 경계 포인트들을 그룹화하여 복수의 경계 포인트 그룹을 생성하는 단계; 및상기 복수의 경계 포인트 그룹을 비교하여 상기 제1 위치를 포함하는 세그먼트 영역에 포함된 경계 포인트 그룹 중 어느 하나를 상기 이동 로봇이 이동할 위치인 제2 위치를 결정하는 단계;를 포함하는, 이동 로봇 기반의 맵 생성 방법
|
12 |
12
제11항에 있어서, 상기 이동 로봇이 상기 제1 위치에서 상기 제2 위치로 이동하는 단계;상기 이동 로봇이 상기 제2 위치에서 주변 공간을 스캔하는 단계; 및상기 제2 위치에서 스캔 결과를 기반으로 상기 2차원 맵을 업데이트하는 단계를 더 포함하는, 이동 로봇 기반의 맵 생성 방법
|
13 |
13
제11항에 있어서, 상기 제2 위치를 결정하는 단계는,상기 제1 위치를 포함하는 세그먼트 영역에 포함된 경계 포인트 그룹이 존재하지 않으면, 상기 제1 위치를 포함하는 세그먼트 영역 이외의 세그먼트 영역에 포함된 경계 포인트 그룹 중 어느 하나를 상기 제2 위치로 결정하는, 이동 로봇 기반의 맵 생성 방법
|
14 |
14
제11항에 있어서, 상기 복수의 경계 포인트 그룹 각각은 하나의 경계선을 형성하되, 상기 제2 위치를 결정하는 단계는, 가장 긴 경계선을 형성하는 경계 포인트 그룹이 상기 제2 위치로 결정하는, 이동 로봇 기반의 맵 생성 방법
|
15 |
15
제14항에 있어서, 상기 제2 위치는 상기 가장 긴 경계선의 중심에 해당하는 경계 포인트인, 이동 로봇 기반의 맵 생성 방법
|
16 |
16
제11항에 있어서, 상기 이동 로봇이 제1 위치에서 주변 공간을 스캔하는 단계는, RGB-D 카메라를 기반으로 상기 주변 공간을 스캔하여 상기 주변 공간에 대한 컬러 이미지 데이터 및 깊이 이미지 데이터를 생성하되,미리 학습된 객체 인식 모델을 이용하여 상기 컬러 이미지 데이터로부터 상기 주변 공간에 배치된 객체를 식별하는 단계;상기 깊이 이미지 데이터를 기반으로 식별된 객체의 위치 및 사이즈를 추정하는 단계; 및상기 식별된 객체의 추정된 위치 및 사이즈를 기반으로 상기 2차원 맵을 업데이트하는 단계를 더 포함하는, 이동 로봇 기반의 맵 생성 방법
|
17 |
17
제11항에 있어서, 상기 이동 로봇이 제1 위치에서 주변 공간을 스캔하는 단계는,RGB-D 카메라를 기반으로 상기 주변 공간을 스캔하여 상기 주변 공간에 대한 컬러 이미지 데이터 및 깊이 이미지 데이터를 생성하고 2D 레이저 스캐너를 기반으로 상기 주변 공간을 스캔 데이터를 생성하되,미리 학습된 객체 인식 모델을 이용하여 상기 컬러 이미지 데이터로부터 상기 주변 공간에 배치된 객체를 식별하는 단계;상기 깊이 이미지 데이터 및 상기 스캔 데이터를 기반으로 식별된 객체의 위치 및 사이즈를 추정하는 단계; 및상기 식별된 객체의 추정된 위치 및 사이즈를 기반으로 상기 2차원 맵을 업데이트하는 단계를 더 포함하는, 이동 로봇 기반의 맵 생성 방법
|
18 |
18
제16항 또는 제17항에 있어서, 상기 미리 학습된 객체 인식 모델은 YOLO(You Only Look Once) 기반의 딥러닝 기법을 기반으로 학습된 모델인, 이동 로봇 기반의 맵 생성 방법
|
19 |
19
제16항 또는 제17항에 있어서, 미리 입력된 객체 정보를 기반으로 상기 추정된 객체의 사이즈를 보정하는 단계를 더 포함하되, 상기 2차원 맵을 업데이트하는 단계는,상기 식별된 객체의 추정된 위치 및 보정된 사이즈를 기반으로 상기 2차원 맵을 업데이트하는, 이동 로봇 기반의 맵 생성 방법
|
20 |
20
제19항에 있어서, 상기 미리 입력된 객체 정보는, 상기 주변 공간에 배치된 객체의 종류 및 사이즈 정보를 포함하는, 이동 로봇 기반의 맵 생성 방법
|