1 |
1
인간과 로봇이 상시 접촉 상태에 있는 착용형 로봇에서 퍼지 Q-러닝(fuzzy Q-learning)을 기반으로 어드미턴스(admittance)를 적응적으로 조절하는 방법으로서,상호 작용 힘 및 부하 무게를 획득하는 단계;저역 통과 필터(low-pass filter) 및 고역 통과 필터(high-pass filter)를 이용하여 상기 상호 작용 힘을 기반으로 인간-로봇 협업 상태값을 획득하는 단계;상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게를 입력 데이터로 하고, 상기 어드미턴스의 매개변수의 값을 출력 데이터로 하며, 상기 퍼지 Q-러닝을 기반으로 하는 어드미턴스 매개변수 조절 모델을 이용하여, 상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게에 대응되는 어드미턴스 매개변수 제어값을 획득하는 단계; 및상기 어드미턴스 매개변수 제어값을 기반으로 상기 어드미턴스의 매개변수를 조절하는 단계;를 포함하는 퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
|
2 |
2
제1항에서,상기 어드미턴스 매개변수 조절 모델은,상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게를 포함하는 상기 입력 데이터를 기반으로 상기 입력 데이터에 대응되는 상태(state)를 획득하고, 상기 입력 데이터에 대응되는 상태 및 퍼지 규칙(fuzzy rule)을 기반으로 상기 입력 데이터에 대응되는 상기 어드미턴스 매개변수 제어값을 나타내는 동작(action)을 획득하며, 상기 동작에 따른 상기 어드미턴스의 매개변수 조절 이후에 획득되는 상기 상호 작용 힘을 기반으로 획득된 상기 인간-로봇 협업 상태값을 이용하여 상기 동작에 대응되는 보상(reward)을 획득하고, 상기 보상을 기반으로 상기 퍼지 규칙을 업데이트하는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
|
3 |
3
제2항에서,상기 퍼지 규칙의 초기값은,상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게와, 상기 어드미턴스의 매개변수의 값 간의 상호 관계에 대한 전문가 지식을 기반으로 결정되는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
|
4 |
4
제2항에서,상기 인간-로봇 협업 상태값 획득 단계는,상기 고역 통과 필터를 통과한 상기 상호 작용 힘의 유클리드 놈 값을 상기 저역 통과 필터를 통과한 상기 상호 작용 힘의 유클리드 놈 값으로 나누어, 상기 인간-로봇 협업 상태값을 획득하는데 이용되는 중간값을 획득하는 단계;를 포함하는 퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
|
5 |
5
제4항에서,상기 중간값 획득 단계는,상기 저역 통과 필터를 통과한 상기 상호 작용 힘의 유클리드 놈 값이 미리 설정된 기준값 이상이면, 상기 고역 통과 필터를 통과한 상기 상호 작용 힘의 유클리드 놈 값을 상기 저역 통과 필터를 통과한 상기 상호 작용 힘의 유클리드 놈 값으로 나눈 값을 상기 중간값으로 획득하고,상기 저역 통과 필터를 통과한 상기 상호 작용 힘의 유클리드 놈 값이 상기 미리 설정된 기준값 미만이면, 0을 상기 중간값으로 획득하는 것으로 이루어지는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
|
6 |
6
제4항에서,상기 인간-로봇 협업 상태값 획득 단계는,상기 중간값을 평활화(smoothing) 처리하는 단계;평활화 처리된 상기 중간값이 미리 설정된 하한(lower limit)과 미리 설정된 상한(upper limit) 사이의 값이 되도록 포화(saturation) 처리하는 단계; 및포화 처리된 상기 중간값을 상기 인간-로봇 협업 상태값으로 획득하는 단계;를 더 포함하는 퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
|
7 |
7
제4항에서,상기 동작에 대응되는 상기 보상은,미리 설정된 기준 크기와 미리 설정된 기준 주파수에 대응되는 기준 보상값 및 상기 동작에 따른 상기 어드미턴스의 매개변수 조절 이후에 획득되는 상기 상호 작용 힘에 대응되는 보상 중간값을 이용하여 획득되며,상기 보상 중간값은,상기 동작에 따른 상기 어드미턴스의 매개변수 조절 이후에 획득되는 상기 상호 작용 힘, 미리 설정된 가중치 변수 및 상기 동작에 따른 상기 어드미턴스의 매개변수 조절 이후에 획득되는 상기 상호 작용 힘을 기반으로 획득된 상기 중간값을 이용하여 획득되는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
|
8 |
8
제7항에서,상기 동작에 대응되는 상기 보상은,상기 기준 보상값에서 상기 보상 중간값을 차감하여 획득되며,상기 보상 중간값은,상기 동작에 따른 상기 어드미턴스의 매개변수 조절 이후에 획득되는 상기 상호 작용 힘과 상기 미리 설정된 가중치 변수를 곱한 값의 유클리드 놈 값에 상기 중간값을 곱하고, 곱한 값을 평활화 처리하여 획득되는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
|
9 |
9
제1항에서,상기 저역 통과 필터 및 상기 고역 통과 필터는,IIR(infinite impulse response) 2차 버터워스(Butterworth) 필터로 이루어지며,상기 IIR 2차 버터워스 필터의 차단 주파수(cutoff frequency)는,인간과 로봇 사이의 협업 상태 인식을 위한 관심 영역으로 미리 설정된 동작 주파수를 기반으로 설정되는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
|
10 |
10
제1항 내지 제9항 중 어느 한 항에 기재된 퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법을 컴퓨터에서 실행시키기 위하여 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램
|
11 |
11
인간과 로봇이 상시 접촉 상태에 있는 착용형 로봇에서 퍼지 Q-러닝(fuzzy Q-learning)을 기반으로 어드미턴스(admittance)를 적응적으로 조절하는 장치로서,상기 퍼지 Q-러닝을 기반으로 상기 어드미턴스를 적응적으로 조절하기 위한 하나 이상의 프로그램을 저장하는 메모리; 및상기 메모리에 저장된 상기 하나 이상의 프로그램에 따라 상기 퍼지 Q-러닝을 기반으로 상기 어드미턴스를 적응적으로 조절하기 위한 동작을 수행하는 하나 이상의 프로세서;를 포함하며,상기 프로세서는,상호 작용 힘 및 부하 무게를 획득하고,저역 통과 필터(low-pass filter) 및 고역 통과 필터(high-pass filter)를 이용하여 상기 상호 작용 힘을 기반으로 인간-로봇 협업 상태값을 획득하며,상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게를 입력 데이터로 하고, 상기 어드미턴스의 매개변수의 값을 출력 데이터로 하며, 상기 퍼지 Q-러닝을 기반으로 하는 어드미턴스 매개변수 조절 모델을 이용하여, 상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게에 대응되는 어드미턴스 매개변수 제어값을 획득하고,상기 어드미턴스 매개변수 제어값을 기반으로 상기 어드미턴스의 매개변수를 조절하는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 장치
|
12 |
12
제11항에서,상기 어드미턴스 매개변수 조절 모델은,상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게를 포함하는 상기 입력 데이터를 기반으로 상기 입력 데이터에 대응되는 상태(state)를 획득하고, 상기 입력 데이터에 대응되는 상태 및 퍼지 규칙(fuzzy rule)을 기반으로 상기 입력 데이터에 대응되는 상기 어드미턴스 매개변수 제어값을 나타내는 동작(action)을 획득하며, 상기 동작에 따른 상기 어드미턴스의 매개변수 조절 이후에 획득되는 상기 상호 작용 힘을 기반으로 획득된 상기 인간-로봇 협업 상태값을 이용하여 상기 동작에 대응되는 보상(reward)을 획득하고, 상기 보상을 기반으로 상기 퍼지 규칙을 업데이트하는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 장치
|
13 |
13
제12항에서,상기 퍼지 규칙의 초기값은,상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게와, 상기 어드미턴스의 매개변수의 값 간의 상호 관계에 대한 전문가 지식을 기반으로 결정되는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 장치
|