1 |
1
가상 환경에서 학습된 지능형 에이전트를 이용하여 실제 사물의 움직임을 제어하는 방법으로,실제 사물을 가상 환경에서 재현한 가상 사물에서 학습된 지능형 에이전트를 이용하여, 상기 실제 사물의 초기 상태에 대한 초기 동작값을 결정하는 단계;상기 초기 동작값을 상기 실제 사물에 입력하여 상기 초기 상태의 다음 상태로서의 제1 상태를 획득하는 단계;상기 지능형 에이전트를 이용하여 상기 제1 상태에 대한 제1 동작값을 결정하는 단계;상기 실제 사물의 상태 변화가 상기 가상 사물의 상태 변화와 일치하도록 상기 제1 동작값을 보정하여 제2 동작값을 획득하는 단계; 및상기 제2 동작값을 상기 실제 사물에 입력하는 단계를 포함하는, 실제 사물의 움직임을 제어하는 방법
|
2 |
2
청구항 1에서,상기 초기 상태는,상기 실제 사물의 위치, 방향, 속도, 고도, 회전 중 적어도 하나를 포함하는, 실제 사물의 움직임을 제어하는 방법
|
3 |
3
청구항 1에서,상기 제1 동작값을 보정하여 제2 동작값을 획득하는 단계는,미리 학습된 추가 행동 예측 모델을 이용하여, 상기 지능형 에이전트의 동작 오차를 보정하기 위한 추가 동작값을 획득하는 단계; 및상기 추가 동작값과 상기 제1 동작값을 이용하여 상기 제2 동작값을 획득하는 단계를 포함하는, 실제 사물의 움직임을 제어하는 방법
|
4 |
4
청구항 3에서,상기 추가 행동 예측 모델은,사물의 연속된 2개의 상태 및 상기 사물의 연속된 상태 변화를 유도한 동작값을 기초로 상기 추가 동작값을 예측하도록, 상기 가상 사물에서 미리 학습되는, 실제 사물의 움직임을 제어하는 방법
|
5 |
5
청구항 4에서,상기 추가 행동 예측 모델은,상기 초기 동작값 및 상기 초기 상태를 입력받아, 상기 초기 상태에 대한 다음 상태를 상기 가상 사물에 대해 예측하는 포워드 인공신경망(forward neural network); 및상기 포워드 인공신경망에 의해 예측된 다음 상태 및 상기 제1 상태를 입력받아 상기 추가 동작값을 예측하여 출력하는 인버스 인공신경망(inverse neural network)을 포함하는, 실제 사물의 움직임을 제어하는 방법
|
6 |
6
청구항 4에서,상기 제1 상태를 획득하는 단계는,상기 초기 상태 및 상기 초기 동작값을 미리 학습된 상태 예측 모델에 입력하여 상기 제1 상태에 대한 예측값을 획득하는 단계;획득된 예측값, 상기 초기 상태 및 상기 초기 동작값을 상기 추가 행동 예측 모델에 입력하여 상기 지능형 에이전트의 초기 동작 오차를 보정하기 위한 추가 동작값을 획득하는 단계;상기 초기 동작 오차를 보정하기 위한 추가 동작값을 이용하여 상기 초기 동작값을 보정하는 단계; 및보정된 초기 동작값을 상기 실제 사물에 입력하여 상기 제1 상태를 획득하는 단계를 포함하는, 실제 사물의 움직임을 제어하는 방법
|
7 |
7
청구항 6에서,상기 상태 예측 모델은,상기 실제 사물의 현재 상태 및 상기 현재 상태에서 상기 지능형 에이전트에 의해 판단된 동작값을 기초로 상기 현재 상태의 다음 상태를 예측하도록, 실제 환경에 위치한 상기 실제 사물에서 미리 학습되는, 실제 사물의 움직임을 제어하는 방법
|
8 |
8
청구항 7에서,상기 상태 예측 모델은,상기 초기 동작값 및 상기 초기 상태를 입력받아, 상기 초기 상태에 대한 다음 상태를 상기 실제 사물에 대해 예측하는 포워드 인공신경망(forward neural network)을 포함하는, 실제 사물의 움직임을 제어하는 방법
|
9 |
9
청구항 1에서,상기 방법은 명령어(instruction)로서 구현되고, 상기 실제 사물에 포함된 프로세서가 상기 명령어를 실행함으로써 수행되는, 실제 사물의 움직임을 제어하는 방법
|
10 |
10
청구항 1에서,상기 방법은 명령어로서 구현되고, 상기 실제 사물의 외부에 위치한 별도의 장치에 포함된 프로세서가 상기 명령어를 실행함으로써 수행되는, 실제 사물의 움직임을 제어하는 방법
|
11 |
11
가상 환경에서 학습된 지능형 에이전트를 이용하여 실제 사물의 움직임을 제어하는 장치로서,적어도 하나의 프로세서(processor); 및상기 적어도 하나의 프로세서가 적어도 하나의 단계를 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함하고,상기 적어도 하나의 단계는,실제 사물을 가상 환경에서 재현한 가상 사물에서 학습된 지능형 에이전트를 이용하여, 상기 실제 사물의 초기 상태에 대한 초기 동작값을 결정하는 단계;상기 초기 동작값을 상기 실제 사물에 입력하여 상기 초기 상태의 다음 상태로서의 제1 상태를 획득하는 단계;상기 지능형 에이전트를 이용하여 상기 제1 상태에 대한 제1 동작값을 결정하는 단계;상기 실제 사물의 상태 변화가 상기 가상 사물의 상태 변화와 일치하도록 상기 제1 동작값을 보정하여 제2 동작값을 획득하는 단계; 및상기 제2 동작값을 상기 실제 사물에 입력하는 단계를 포함하는, 실제 사물의 움직임을 제어하는 장치
|
12 |
12
청구항 11에서,상기 초기 상태는,상기 실제 사물의 위치, 방향, 속도, 고도, 회전 중 적어도 하나를 포함하는, 실제 사물의 움직임을 제어하는 장치
|
13 |
13
청구항 11에서,상기 제1 동작값을 보정하여 제2 동작값을 획득하는 단계는,미리 학습된 추가 행동 예측 모델을 이용하여, 상기 지능형 에이전트의 동작 오차를 보정하기 위한 추가 동작값을 획득하는 단계; 및상기 추가 동작값과 상기 제1 동작값을 이용하여 상기 제2 동작값을 획득하는 단계를 포함하는, 실제 사물의 움직임을 제어하는 장치
|
14 |
14
청구항 13에서,상기 추가 행동 예측 모델은,사물의 연속된 2개의 상태 및 상기 사물의 연속된 상태 변화를 유도한 동작값을 기초로 상기 추가 동작값을 예측하도록, 상기 가상 사물에서 미리 학습되는, 실제 사물의 움직임을 제어하는 장치
|
15 |
15
청구항 14에서,상기 추가 행동 예측 모델은,상기 초기 동작값 및 상기 초기 상태를 입력받아, 상기 초기 상태에 대한 다음 상태를 상기 가상 사물에 대해 예측하는 포워드 인공신경망(forward neural network); 및상기 포워드 인공신경망에 의해 예측된 다음 상태 및 상기 제1 상태를 입력받아 상기 추가 동작값을 예측하여 출력하는 인버스 인공신경망(inverse neural network)을 포함하는, 실제 사물의 움직임을 제어하는 장치
|
16 |
16
청구항 14에서,상기 제1 상태를 획득하는 단계는,상기 초기 상태 및 상기 초기 동작값을 미리 학습된 상태 예측 모델에 입력하여 상기 제1 상태에 대한 예측값을 획득하는 단계;획득된 예측값, 상기 초기 상태 및 상기 초기 동작값을 상기 추가 행동 예측 모델에 입력하여 상기 지능형 에이전트의 초기 동작 오차를 보정하기 위한 추가 동작값을 획득하는 단계;상기 초기 동작 오차를 보정하기 위한 추가 동작값을 이용하여 상기 초기 동작값을 보정하는 단계; 및보정된 초기 동작값을 상기 실제 사물에 입력하여 상기 제1 상태를 획득하는 단계를 포함하는, 실제 사물의 움직임을 제어하는 장치
|
17 |
17
청구항 16에서,상기 상태 예측 모델은,상기 실제 사물의 현재 상태 및 상기 현재 상태에서 상기 지능형 에이전트에 의해 판단된 동작값을 기초로 상기 현재 상태의 다음 상태를 예측하도록, 실제 환경에 위치한 상기 실제 사물에서 미리 학습되는, 실제 사물의 움직임을 제어하는 장치
|
18 |
18
청구항 17에서,상기 상태 예측 모델은,상기 초기 동작값 및 상기 초기 상태를 입력받아, 상기 초기 상태에 대한 다음 상태를 상기 실제 사물에 대해 예측하는 포워드 인공신경망(forward neural network)을 포함하는, 실제 사물의 움직임을 제어하는 장치
|
19 |
19
청구항 11에서,상기 장치는, 상기 실제 사물에 내장되거나 상기 실제 사물과 일체로서 구성되는, 실제 사물의 움직임을 제어하는 장치
|
20 |
20
청구항 11에서,상기 장치는, 상기 실제 사물의 외부에 위치한 별도의 장치인, 실제 사물의 움직임을 제어하는 장치
|