1 |
1
시간의 경과에 따른 오브젝트들 간의 상호 작용을 연속으로 촬영하여 생성한 실제 영상들을 획득하는 단계; 시간의 경과에 따른 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형과 관련된 로봇 팔의 시계열 동작 정보를 획득하는 단계; 및상기 실제 영상에 포함된 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형에 기초하여 상기 오브젝트들 간의 상호 작용 힘을 예측하는 단계를 포함하고,상기 예측하는 단계는,상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트들의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측하는 상호 작용 힘 예측 방법
|
2 |
2
삭제
|
3 |
3
삭제
|
4 |
4
삭제
|
5 |
5
제1항에 있어서, 상기 상관 관계는,상기 시계열 동작 정보와 상기 실제 영상들을 신경망 구조의 딥러닝 알고리즘에 입력하여 예측된 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 비교하여 학습되는 상호 작용 힘 예측 방법
|
6 |
6
제5항에 있어서, 상기 딥러닝 알고리즘은,상기 실제 영상들이 입력되는 CNN(Convolutional Neural Network)를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 과정;상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 과정; 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN(Recurrent Neural Network)에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 과정; 및상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상호 작용 힘 예측 방법
|
7 |
7
제5항에 있어서, 상기 딥러닝 알고리즘은,상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN(Convolutional Neural Network)의 제1 콘볼루션 계층(convolutional layer)에 입력하는 과정;시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 과정;상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 과정; 및정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상호 작용 힘 예측 방법
|
8 |
8
제1항에 있어서, 상기 시계열 동작 정보는,시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함하는 상호 작용 힘 예측 방법
|
9 |
9
제1항에 있어서, 상기 오브젝트의 물성치(material property)와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 단계; 및상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 단계를 더 포함하는 상호 작용 힘 예측 방법
|
10 |
10
오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 상기 로봇 팔의 동작과 관련된 시계열 동작 정보를 획득하는 단계; 상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계; 예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 단계; 및상기 상관 관계를 데이터베이스에 저장하는 단계를 포함하는 로봇 팔의 힘 학습 방법
|
11 |
11
제10항에 있어서, 상기 로봇 팔의 상호 작용 힘을 예측하는 단계는,상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 단계;상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 단계; 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 단계; 및상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계를 포함하는 로봇 팔의 힘 학습 방법
|
12 |
12
제10항에 있어서, 상기 로봇 팔의 상호 작용 힘을 예측하는 단계는,상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하는 단계;시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 단계;상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 단계; 및정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계를 포함하는 로봇 팔의 힘 학습 방법
|
13 |
13
시간의 경과에 따른 오브젝트들 간의 상호 작용을 연속으로 촬영하여 생성한 실제 영상을 획득하는 영상 획득부; 시간의 경과에 따른 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형과 관련된 로봇 팔의 시계열 동작 정보를 획득하는 동작 정보 획득부; 및상기 실제 영상에 포함된 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형에 기초하여 상기 오브젝트들 간의 상호 작용 힘을 예측하는 힘 예측부를 포함하고,상기 힘 예측부는,상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측하는 상호 작용 힘 예측 장치
|
14 |
14
삭제
|
15 |
15
삭제
|
16 |
16
제13항에 있어서, 상기 시계열 동작 정보는,시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함하는 상호 작용 힘 예측 장치
|
17 |
17
제13항에 있어서, 상기 오브젝트의 물성치와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 햅틱 센싱 정보 예측부; 및상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 피드백부를 더 포함하는 상호 작용 힘 예측 장치
|
18 |
18
오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 상기 로봇 팔의 동작과 관련된 시계열 동작 정보를 획득하는 통신기; 상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 힘 예측부; 및예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상관 관계 학습부를 포함하는 로봇 팔의 힘 학습 장치
|
19 |
19
제18항에 있어서, 상기 힘 예측부는,상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하고, 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하며, 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하고, 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 로봇 팔의 힘 학습 장치
|
20 |
20
제18항에 있어서, 상기 힘 예측부는,상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하고, 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하며, 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층을 이용하여 정합하고, 정합된 정보들을 FC 계층을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 로봇 팔의 힘 학습 장치
|