1 |
1
휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 방법에 있어서,적어도 하나의 시나리오에 기초하여 BoW(Bag of Words)방식에 따라 한정된 영역의 사전 정보를 획득하는 단계;주변 환경 및 상기 오브젝트를 포함하는 RGB 영상 및 깊이 영상을 수신하는 단계; 및상기 RGB 영상, 상기 깊이 영상 및 상기 사전 정보를 연관(association)시킴으로써 상기 오브젝트에 대한 정보를 획득하는 단계를 포함하되,상기 적어도 하나의 시나리오를 생성하는 단계는특징점 추출 알고리즘을 이용하여 상기 오브젝트 및 상기 주변환경에 대한 2차원 이미지의 특징점 정보를 추출하는 단계;상기 추출된 2차원 이미지의 특징점 정보와 상기 오브젝트 및 상기 주변환경에 대한 깊이 정보를 이용하여 구속 조건을 생성하는 단계; 및상기 생성된 구속 조건을 이용하여 그래프를 생성하는 단계를 포함하는 휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 방법
|
2 |
2
삭제
|
3 |
3
제1항에 있어서,상기 구속 조건을 생성하는 단계는,상기 구속 조건으로 노드 및 복수의 구속 조건들 중 적어도 하나를 생성하는 단계를 포함하는 휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 방법
|
4 |
4
제1항에 있어서,상기 적어도 하나의 시나리오를 생성하는 단계는iSAM알고리즘으로 그래프를 최적화하는 단계를 더 포함하는 휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 방법
|
5 |
5
제1항에 있어서상기 특징점 추출 알고리즘을 이용하여 상기 오브젝트 및 상기 주변환경에 대한 2차원 이미지의 특징점 정보를 추출하는 단계는SURF알고리즘을 이용하여 상기 오브젝트 및 상기 주변환경에 대한 2차원 이미지의 특징점들을 추출하는 단계;상기 추출된 2차원 이미지의 특징점들을 일정 시간이 지난 후 추출된 2차원 이미지의 특징점들과 각각 정합하는 단계를 포함하는휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 방법
|
6 |
6
제1항에 있어서,상기 2차원 이미지의 특징점 정보와 상기 오브젝트 및 상기 주변환경에 대한 깊이 정보는 RGB-D Kinect센서를 이용하여 추출되는 것을 특징으로 하는 휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 방법
|
7 |
7
휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 방법에 있어서,적어도 하나의 시나리오에 기초하여 BoW(Bag of Words)방식에 따라 한정된 영역의 사전 정보를 획득하는 단계;주변 환경 및 상기 오브젝트를 포함하는 RGB 영상 및 깊이 영상을 수신하는 단계; 및상기 RGB 영상, 상기 깊이 영상 및 상기 사전 정보를 연관(association)시킴으로써 상기 오브젝트에 대한 정보를 획득하는 단계를 포함하되,상기 RGB 영상, 상기 깊이 영상 및 상기 사전 정보를 연관(association)시킴으로써 상기 오브젝트에 대한 정보를 획득하는 단계는 상기 RGB영상과 상기 사전 정보를 이용하여 해상도 정보를 획득하는 단계;상기 깊이 영상의 상기 해상도 정보 기반 히스토그램 이퀄라이제이션 및 그래디언트를 수행하여 엣지 정보를 탐지하는 단계;상기 RGB영상과 상기 사전 정보를 해상도 정보 기반 복수의 세그먼트로 분할하는 단계;상기 복수의 세그먼트들과 상기 엣지 정보를 정합하는 단계; 및상기 정합된 정보 외 주변환경에 대한 정보를 삭제하여 상기 오브젝트의 위치를 추정하는 단계를 포함하는 휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 방법
|
8 |
8
휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 장치에 있어서,적어도 하나의 시나리오에 기초하여 BoW(Bag of Words)방식에 따라 한정된 영역의 사전 정보를 획득하는 획득부;주변 환경 및 상기 오브젝트를 포함하는 RGB 영상 및 깊이 영상을 수신하는 수신부; 및상기 RGB 영상, 상기 깊이 영상 및 상기 사전 정보를 연관(association)시킴으로써 상기 오브젝트의 위치를 추정하는 위치 추정부를 포함하되,상기 적어도 하나의 시나리오를 생성하는 장치는특징점 추출 알고리즘을 이용하여 상기 오브젝트 및 상기 주변환경에 대한 2차원 이미지의 특징점 정보를 추출하는 추출부;상기 추출된 2차원 이미지의 특징점 정보와 상기 오브젝트 및 상기 주변환경에 대한 깊이 정보를 이용하여 구속 조건을 생성하는 생성부; 및상기 생성된 구속 조건을 이용하여 그래프를 생성하는 그래프 생성부를 포함하는 휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 장치
|
9 |
9
삭제
|
10 |
10
제8항에 있어서,상기 구속 조건을 생성하는 생성부는,상기 구속 조건으로 노드 및 복수의 구속 조건들 중 적어도 하나를 생성하는휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 장치
|
11 |
11
제8항에 있어서,상기 적어도 하나의 시나리오를 생성하는 장치는iSAM알고리즘으로 그래프를 최적화하는 최적화부를 더 포함하는 휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 장치
|
12 |
12
제8항에 있어서상기 특징점 추출 알고리즘을 이용하여 상기 오브젝트 및 상기 주변환경에 대한 2차원 이미지의 특징점 정보를 추출하는 추출부는SURF알고리즘을 이용하여 상기 오브젝트 및 상기 주변환경에 대한 2차원 이미지의 특징점들을 추출하는 특징점 추출부;상기 추출된 2차원 이미지의 특징점들을 일정 시간이 지난 후 추출된 2차원 이미지의 특징점들과 각각 정합하는 정합부를 포함하는휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 장치
|
13 |
13
제8항에 있어서,상기 2차원 이미지의 특징점 정보와 상기 오브젝트 및 상기 주변환경에 대한 깊이 정보는 RGB-D Kinect센서를 이용하여 추출되는 것을 특징으로 하는 휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 장치
|
14 |
14
휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 장치에 있어서,적어도 하나의 시나리오에 기초하여 BoW(Bag of Words)방식에 따라 한정된 영역의 사전 정보를 획득하는 획득부;주변 환경 및 상기 오브젝트를 포함하는 RGB 영상 및 깊이 영상을 수신하는 수신부; 및상기 RGB 영상, 상기 깊이 영상 및 상기 사전 정보를 연관(association)시킴으로써 상기 오브젝트의 위치를 추정하는 위치 추정부를 포함하되,상기 RGB 영상, 상기 깊이 영상 및 상기 사전 정보를 연관(association)시킴으로써 상기 오브젝트의 위치를 추정하는 위치 추정부는 상기 RGB영상과 상기 사전 정보를 이용하여 해상도 정보를 획득하는 해상도 정보 획득부;상기 깊이 영상의 상기 해상도 정보 기반 히스토그램 이퀄라이제이션 및 그래디언트를 수행하여 엣지 정보를 탐지하는 탐지부;상기 RGB영상과 상기 사전 정보를 해상도 정보 기반 복수의 세그먼트로 분할하는 분할부;상기 복수의 세그먼트들과 상기 엣지 정보를 정합하는 정보 정합부; 및상기 정합된 정보 외 주변환경에 대한 정보를 삭제하여 상기 오브젝트에 대한 정보를 획득하는 오브젝트 정보 획득부를 포함하는 휴머노이드형 로봇의 자율 업무 수행을 위한 오브젝트의 정보를 획득하는 장치
|