1 |
1
인간과 상호작용하는 로봇을 학습시키는 방법에 있어서,상기 로봇이 동작하는 실제 공간의 특징을 반영하는 가상학습공간상에, 상기 인간에 대응하는 휴먼에이전트(Human Agent)와 상기 로봇에 대응하는 로봇에이전트(Robot Agent)를 생성하는 단계;상기 가상학습공간상에서 상기 휴먼에이전트가 사용자로부터 상기 인간의 동작을 입력받고, 상기 입력받은 동작을 모방함으로써 상기 인간의 동작을 학습하는 단계; 및상기 학습된 동작에 기초하여 상기 가상학습공간상에서, 상기 휴먼에이전트와 상기 로봇에이전트간의 상호학습을 통해, 상기 로봇에이전트가 상기 인간과의 상호작용동작을 학습함으로써 상기 로봇의 동작데이터를 생성하는 단계를 포함하는 방법
|
2 |
2
제 1 항에 있어서,상기 로봇에이전트가 상기 상호작용동작을 학습하는 단계는,상기 로봇에이전트가 상기 휴먼에이전트의 동작을 모방하여 반복적으로 학습하는 단계; 및상기 휴먼에이전트와 상기 로봇에이전트간의 상호학습을 통해, 상기 로봇에이전트가 학습한 동작 중 하나의 동작 또는 둘 이상을 조합한 일련의 동작을 학습하는 단계를 포함하는 방법
|
3 |
3
제 2 항에 있어서,상기 휴먼에이전트의 동작을 상기 로봇에이전트가 학습하는 단계는,상기 휴먼에이전트의 동작을 입력받아 제 1 동작 제어값을 수집하면서, 마지막으로 양자화한 제2 동작 제어값과 비교하여 두 값의 차이가 임계치 이상이면 상기 제1 동작 제어값을 양자화하여 양자화된 동작을 생성하는 단계; 목표개수의 양자화된 동작이 시간순으로 배열되어 전체 행동이 구성되면, 상기 전체 행동 중 시간 축 상에서 연속하는 양자화된 동작들로 구성할 수 있는 모든 부분 행동들을 추출하는 단계; 및상기 부분 행동들 중 복수의 대표 행동을 추출하고, 상기 대표 행동을 기준으로 상기 부분 행동들을 분류하는 단계를 포함하는 방법
|
4 |
4
제 3 항에 있어서,상기 양자화된 동작을 생성하는 단계는,상기 마지막으로 양자화한 제2 동작 제어값과 비교하기 위해, 상기 제1 동작 제어값과 상기 제2 동작 제어값의 유클리드(Euclid) 거리를 계산하여 유클리드 거리가 상기 임계치 이상인지 판단하는 단계를 포함하는 것을 특징으로 하는 방법
|
5 |
5
제 2 항에 있어서,상기 로봇에이전트가 일련의 동작을 학습하는 단계는,상기 휴먼에이전트가 각 상태에서 발현 확률이 가장 높은 동작을 수행하는 단계; 및상기 휴먼에이전트의 동작에 따라 상기 로봇에이전트가 수행한 동작에 해당하는 보상값을 누적하는 단계를 반복하여 상기 보상값을 최대화하는 동작을 상기 인간과의 상호작용 동작으로 학습하는 것을 특징으로 하는 방법
|
6 |
6
제 5 항에 있어서,상기 로봇에이전트는,상기 휴먼에이전트의 현재 동작과 연결되는 과거의 일련의 동작을 고려하여 상기 보상값을 최대화하는 동작을 학습하는 것을 특징으로 하는 방법
|
7 |
7
인간과 상호작용하는 로봇을 학습시키는 방법에 있어서,상기 로봇이 동작하는 실제 공간의 특징을 반영하는 가상학습공간상에, 상기 인간에 대응하는 휴먼에이전트(Human Agent)와 상기 로봇에 대응하는 로봇에이전트(Robot Agent)를 생성하는 단계;상기 가상학습공간상에서 상기 휴먼에이전트가 사용자로부터 상기 인간의 동작을 입력받고, 상기 입력받은 동작을 모방함으로써 상기 인간의 동작을 학습하는 단계;상기 학습된 동작에 기초하여 상기 가상학습공간상에서, 상기 휴먼에이전트와 상기 로봇에이전트간의 상호학습을 통해, 상기 로봇에이전트가 상기 인간과의 상호작용동작을 학습함으로써 상기 로봇의 동작데이터를 생성하는 단계; 및상기 동작데이터를 상기 로봇에 입력하는 단계를 포함하는 방법
|
8 |
8
제 7 항에 있어서,상기 동작데이터를 상기 로봇에 입력하는 단계는,상기 입력된 동작데이터에 기초하여 상기 로봇이 상기 인간과 상호작용할 때, 상기 로봇의 동작을 측정하는 단계;상기 로봇의 실제 동작에 대한 측정값과 상기 가상학습공간상의 동작데이터값을 비교하여 오차를 산출하는 단계; 및상기 산출한 오차를 보정하는 단계를 포함하는 방법
|
9 |
9
인간과 상호작용하는 캐릭터를 학습시키는 방법에 있어서,상기 캐릭터가 동작하는 가상공간의 특징을 반영하는 가상학습공간상에, 상기 인간에 대응하는 휴먼에이전트(Human Agent)와 상기 캐릭터에 대응하는 캐릭터에이전트(Character Agent)를 생성하는 단계;상기 가상학습공간상에서 상기 휴먼에이전트가 사용자로부터 상기 인간의 동작을 입력받고, 상기 입력받은 동작을 모방함으로써 상기 인간의 동작을 학습하는 단계;상기 학습된 동작에 기초하여 상기 가상학습공간상에서, 상기 휴먼에이전트와 상기 캐릭터에이전트간의 상호학습을 통해, 상기 캐릭터에이전트가 상기 인간과의 상호작용동작을 학습함으로써 상기 캐릭터의 동작데이터를 생성하는 단계;상기 생성된 동작데이터를 상기 캐릭터가 동작하는 가상공간에 대응하는 포맷으로 변환하는 단계; 및상기 캐릭터가 동작하는 가상공간에 대응하는 포맷으로 변환한 동작데이터를 상기 캐릭터에 입력하는 단계를 포함하는 방법
|
10 |
10
제 1 항 내지 제 9 항 중 어느 한 항의 방법을 컴퓨터 시스템에서 실행하기 위한 프로그램이 기록된 컴퓨터 시스템이 판독할 수 있는 기록매체
|
11 |
11
인간과 상호작용하는 로봇에 있어서,상기 로봇은 가상학습공간의 학습 과정을 통해 학습되고,상기 학습 과정은,상기 로봇이 동작하는 실제 공간의 특징을 반영하는 상기 가상학습공간상에, 상기 인간에 대응하는 휴먼에이전트(Human Agent)와 상기 로봇에 대응하는 로봇에이전트(Robot Agent)를 생성하고,상기 가상학습공간상에서 상기 휴먼에이전트가 사용자로부터 상기 인간의 동작을 입력받고, 상기 입력받은 동작을 모방함으로써 상기 인간의 동작을 학습하며,상기 학습된 동작에 기초하여 상기 가상학습공간상에서, 상기 휴먼에이전트와 상기 로봇에이전트간의 상호학습을 통해, 상기 로봇에이전트가 상기 인간과의 상호작용동작을 학습함으로써 상기 로봇의 동작데이터를 생성하는 것을 특징으로 하는 로봇
|
12 |
12
제 11 항에 있어서,상기 로봇에이전트가 상기 상호작용동작을 학습하는 것은,상기 로봇에이전트가 상기 휴먼에이전트의 동작을 모방하여 반복적으로 학습하고,상기 휴먼에이전트와 상기 로봇에이전트간의 상호학습을 통해, 상기 로봇에이전트가 학습한 동작 중 하나의 동작 또는 둘 이상을 조합한 일련의 동작을 학습하는 것을 특징으로 하는 로봇
|
13 |
13
제 12 항에 있어서,상기 휴먼에이전트의 동작을 상기 로봇에이전트가 학습하는 것은,상기 휴먼에이전트의 동작을 입력받아 제 1 동작 제어값을 수집하면서, 마지막으로 양자화한 제2 동작 제어값과 비교하여 두 값의 차이가 임계치 이상이면 상기 제1 동작 제어값을 양자화하여 양자화된 동작을 생성하고,목표개수의 양자화된 동작이 시간순으로 배열되어 전체 행동이 구성되면, 상기 전체 행동 중 시간 축 상에서 연속하는 양자화된 동작들로 구성할 수 있는 모든 부분 행동들을 추출하며,상기 부분 행동들 중 복수의 대표 행동을 추출하고, 상기 대표 행동을 기준으로 상기 부분 행동들을 분류하는 것을 특징으로 하는 로봇
|
14 |
14
제 13 항에 있어서,상기 양자화된 동작을 생성하는 것은,상기 마지막으로 양자화한 제2 동작 제어값과 비교하기 위해, 상기 제1 동작 제어값과 상기 제2 동작 제어값의 유클리드(Euclid) 거리를 계산하여 유클리드 거리가 상기 임계치 이상인지 판단하는 것을 특징으로 하는 로봇
|
15 |
15
제 12 항에 있어서,상기 로봇에이전트가 일련의 동작을 학습하는 것은,상기 휴먼에이전트가 각 상태에서 발현 확률이 가장 높은 동작을 수행하고,상기 휴먼에이전트의 동작에 따라 상기 로봇에이전트가 수행한 동작에 해당하는 보상값을 누적하는 단계를 반복하여 상기 보상값을 최대화하는 동작을 상기 인간과의 상호작용 동작으로 학습하는 것을 특징으로 하는 로봇
|
16 |
16
제 15 항에 있어서,상기 로봇에이전트는,상기 휴먼에이전트의 현재 동작과 연결되는 과거의 일련의 동작을 고려하여 상기 보상값을 최대화하는 동작을 학습하는 것을 특징으로 하는 로봇
|